Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft.
08.05.2021 à 02:00
Les médias sociaux ne sont pas des espaces démocratiques
[Ce billet a été publié sur le Framablog à cette adresse, le 15 mai 2021.]
Lors d’une récente interview avec deux autres framasoftiennes à propos du Fediverse et des réseaux sociaux dits « alternatifs », une question nous fut posée :
dans la mesure où les instances de service de micro-blogging (type Mastodon) ou de vidéo (comme Peertube) peuvent afficher des « lignes éditoriales » très différentes les unes des autres, comment gérer la modération en choisissant de se fédérer ou non avec une instance peuplée de fachos ou comment se comporter vis-à-vis d’une instance communautaire et exclusive qui choisit délibérément de ne pas être fédérée ou très peu ?
De manière assez libérale et pour peu que les conditions d’utilisation du service soient clairement définies dans chaque instance, on peut répondre simplement que la modération demande plus ou moins de travail, que chaque instance est tout à fait libre d’adopter sa propre politique éditoriale, et qu’il s’agit de choix individuels (ceux du propriétaire du serveur qui héberge l’instance) autant que de choix collectifs (si l’hébergeur entretient des relations diplomatiques avec les membres de son instance). C’est une évidence.
La difficulté consistait plutôt à expliquer pourquoi, dans la conception même des logiciels (Mastodon ou Peertube, en l’occurrence) ou dans les clauses de la licence d’utilisation, il n’y a pas de moyen mis en place par l’éditeur du logiciel (Framasoft pour Peertube, par exemple) afin de limiter cette possibilité d’enfermement de communautés d’utilisateurs dans de grandes bulles de filtres en particulier si elles tombent dans l’illégalité. Est-il légitime de faire circuler un logiciel qui permet à #lesgens de se réunir et d’échanger dans un entre-soi homogène tout en prétendant que le Fediverse est un dispositif d’ouverture et d’accès égalitaire ?
Une autre façon de poser la question pourrait être la suivante : comment est-il possible qu’un logiciel libre puisse permettre à des fachos d’ouvrir leurs propres instance de microblogging en déversant impunément sur le réseau leurs flots de haine et de frustrations ?1
Bien sûr nous avons répondu à ces questions, mais à mon avis de manière trop vague. C’est qu’en réalité, il y a plusieurs niveaux de compréhension que je vais tâcher de décrire ici. Il y a trois aspects :
- l'éthique du logiciel libre n’inclut pas la destination morale des logiciels libres, tant que la loyauté des usages est respectée, et la première clause des 4 libertés du logiciel libre implique la liberté d’usage : sélectionner les utilisateurs finaux en fonction de leurs orientations politique, sexuelles, etc. contrevient fondamentalement à cette clause…
- … mais du point de vue technique, on peut en discuter car la conception du logiciel pourrait permettre de repousser ces limites éthiques2,
- et la responsabilité juridique des hébergeurs implique que ces instances fachos sont de toute façon contraintes par l’arsenal juridique adapté ; ce à quoi on pourra toujours rétorquer que cela n’empêche pas les fachos de se réunir dans une cave (mieux : un local poubelle) à l’abri des regards.
Mais est-ce suffisant ? se réfugier derrière une prétendue neutralité de la technique (qui n’est jamais neutre), les limites éthiques ou la loi, ce n’est pas une bonne solution. Il faut se poser la question : que fait-on concrètement non pour interdire certains usages du Fediverse, mais pour en limiter l’impact social négatif ?
La principale réponse, c’est que le modèle économique du Fediverse ne repose pas sur la valorisation lucrative des données, et que se détacher des modèles centralisés implique une remise en question de ce que sont les « réseaux » sociaux. La vocation d’un dispositif technologique comme le Fediverse n’est pas d’éliminer les pensées fascistes et leur expression, pas plus que la vocation des plateformes Twitter et Facebook n’est de diffuser des modèles démocratiques, malgré leur prétention à cet objectif. La démocratie, les échanges d’idées, et de manière générale les interactions sociales ne se décrètent pas par des modèles technologiques, pas plus qu’elles ne s’y résument. Prétendre le contraire serait les restreindre à des modèles et des choix imposés (et on voit bien que la technique ne peut être neutre). Si Facebook, Twitter et consorts ont la prétention d’être les gardiens de la liberté d’expression, c’est bien davantage pour exploiter les données personnelles à des fins lucratives que pour mettre en place un débat démocratique.
Exit le vieux rêve du global village ? En fait, cette vieille idée de Marshall McLuhan ne correspond pas à ce que la plupart des gens en ont retenu. En 1978, lorsque Murray Turoff et Roxanne Hiltz publient The Network Nation, ils conceptualisent vraiment ce qu’on entend par « Communication médiée par ordinateur » : échanges de contenus (volumes et vitesse), communication sociale-émotionnelle (les émoticônes), réduction des distances et isolement, communication synchrone et asynchrone, retombées scientifiques, usages domestiques de la communication en ligne, etc. Récompensés en 1994 par l’EFF Pioneer Award, Murray Turoff et Roxanne Hiltz sont aujourd’hui considérés comme les « parents » des systèmes de forums et de chat massivement utilisés aujourd’hui. Ce qu’on a retenu de leurs travaux, et par la suite des nombreuses applications, c’est que l’avenir du débat démocratique, des processus de décision collective (M. Turoff travaillait pour des institutions publiques) ou de la recherche de consensus, reposent pour l’essentiel sur les technologies de communication. C’est vrai en un sens, mais M. Turoff mettait en garde3 :
Dans la mesure où les communications humaines sont le mécanisme par lequel les valeurs sont transmises, tout changement significatif dans la technologie de cette communication est susceptible de permettre ou même de générer des changements de valeur.
Communiquer avec des ordinateurs, bâtir un système informatisé de communication sociale-émotionnelle ne change pas seulement l’organisation sociale, mais dans la mesure où l’ordinateur se fait de plus en plus le support exclusif des communications (et les prédictions de Turoff s’avéreront très exactes), la communication en réseau fini par déterminer nos valeurs.
Aujourd’hui, communiquer dans un espace unique globalisé, centralisé et ouvert à tous les vents signifie que nous devons nous protéger individuellement contre les atteintes morales et psychiques de celleux qui s’immiscent dans nos échanges. Cela signifie que nos écrits puissent être utilisés et instrumentalisés plus tard à des fins non souhaitées. Cela signifie qu’au lieu du consensus et du débat démocratique nous avons en réalité affaire à des séries de buzz et des cancans. Cela signifie une mise en concurrence farouche entre des contenus discursifs de qualité et de légitimités inégales mais prétendument équivalents, entre une casserole qui braille La donna è mobile et la version Pavarotti, entre une conférence du Collège de France et un historien révisionniste amateur dans sa cuisine, entre des contenus journalistiques et des fake news, entre des débats argumentés et des plateaux-télé nauséabonds.
Tout cela ne relève en aucun cas du consensus et encore moins du débat, mais de l’annulation des chaînes de valeurs (quelles qu’elles soient) au profit d’une mise en concurrence de contenus à des fins lucratives et de captation de l’attention. Le village global est devenu une poubelle globale, et ce n’est pas brillant.
Dans cette perspective, le Fediverse cherche à inverser la tendance. Non par la technologie (le protocole ActivityPub ou autre), mais par le fait qu’il incite à réfléchir sur la manière dont nous voulons conduire nos débats et donc faire circuler l’information.
On pourrait aussi bien affirmer qu’il est normal de se voir fermer les portes (ou du moins être exclu de fait) d’une instance féministe si on est soi-même un homme, ou d’une instance syndicaliste si on est un patron, ou encore d’une instance d’un parti politique si on est d’un autre parti. C’est un comportement tout à fait normal et éminemment social de faire partie d’un groupe d’affinités, avec ses expériences communes, pour parler de ce qui nous regroupe, d’actions, de stratégies ou simplement un partage d’expériences et de subjectivités, sans que ceux qui n’ont pas les mêmes affinités ou subjectivités puissent s’y joindre. De manière ponctuelle on peut se réunir à l’exclusion d’autre groupes, pour en sortir à titre individuel et rejoindre d’autre groupes encore, plus ouverts, tout comme on peut alterner entre l’intimité d’un salon et un hall de gare.
Dans ce texte paru sur le Framablog, A. Mansoux et R. R. Abbing montrent que le Fediverse est une critique de l’ouverture. Ils ont raison. Là où les médias sociaux centralisés impliquaient une ouverture en faveur d’une croissance lucrative du nombre d’utilisateurs, le Fediverse se fout royalement de ce nombre, pourvu qu’il puisse mettre en place des chaînes de confiance.
Un premier mouvement d’approche consiste à se débarrasser d’une conception complètement biaisée d’Internet qui fait passer cet ensemble de réseaux pour une sorte de substrat technique sur lequel poussent des services ouverts aux publics de manière égalitaire. Évidemment ce n’est pas le cas, et surtout parce que les réseaux ne se ressemblent pas, certains sont privés et chiffrés (surtout dans les milieux professionnels), d’autres restreints, d’autres plus ouverts ou complètement ouverts. Tous dépendent de protocoles bien différents. Et concernant les médias sociaux, il n’y a aucune raison pour qu’une solution technique soit conçue pour empêcher la première forme de modération, à savoir le choix des utilisateurs. Dans la mesure où c’est le propriétaire de l’instance (du serveur) qui reste in fine responsable des contenus, il est bien normal qu’il puisse maîtriser l’effort de modération qui lui incombe. Depuis les années 1980 et les groupes usenet, les réseaux sociaux se sont toujours définis selon des groupes d’affinités et des règles de modération clairement énoncées.
À l’inverse, avec des conditions générales d’utilisation le plus souvent obscures ou déloyales, les services centralisés tels Twitter, Youtube ou Facebook ont un modèle économique tel qu’il leur est nécessaire de drainer un maximum d’utilisateurs. En déléguant le choix de filtrage à chaque utilisateur, ces médias sociaux ont proposé une représentation faussée de leurs services :
- Faire croire que c’est à chaque utilisateur de choisir les contenus qu’il veut voir alors que le système repose sur l’économie de l’attention et donc sur la multiplication de contenus marchands (la publicité) et la mise en concurrence de contenus censés capter l’attention. Ces contenus sont ceux qui totalisent plus ou moins d’audience selon les orientations initiales de l’utilisateur. Ainsi on se voit proposer des contenus qui ne correspondent pas forcément à nos goûts mais qui captent notre attention parce de leur nature attrayante ou choquante provoquent des émotions.
- Faire croire qu’ils sont des espaces démocratiques. Ils réduisent la démocratie à la seule idée d’expression libre de chacun (lorsque Trump s’est fait virer de Facebook les politiques se sont sentis outragés… comme si Facebook était un espace public, alors qu’il s’agit d’une entreprise privée).
Les médias sociaux mainstream sont tout sauf des espaces où serait censée s’exercer la démocratie bien qu’ils aient été considérés comme tels, dans une sorte de confusion entre le brouhaha débridé des contenus et la liberté d’expression. Lors du « printemps arabe » de 2010, par exemple, on peut dire que les révoltes ont beaucoup reposé sur la capacité des réseaux sociaux à faire circuler l’information. Mais il a suffi aux gouvernements de censurer les accès à ces services centralisés pour brider les révolutions. Ils se servent encore aujourd’hui de cette censure pour mener des négociations diplomatiques qui tantôt cherchent à attirer l’attention pour obtenir des avantages auprès des puissances hégémoniques tout en prenant la « démocratie » en otage, et tantôt obligent les GAFAM à se plier à la censure tout en facilitant la répression. La collaboration est le sport collectif des GAFAM. En Turquie, Amnesty International s’en inquiète et les exemples concrets ne manquent pas comme au Vietnam récemment.
Si les médias sociaux comme Twitter et Facebook sont devenus des leviers politiques, c’est justement parce qu’ils se sont présentés comme des supports technologiques à la démocratie. Car tout dépend aussi de ce qu’on entend par « démocratie ». Un mot largement privé de son sens initial comme le montre si bien F. Dupuis-Déri4. Toujours est-il que, de manière très réductrice, on tient pour acquis qu’une démocratie s’exerce selon deux conditions : que l’information circule et que le débat public soit possible.
Même en réduisant la démocratie au schéma techno-structurel que lui imposent les acteurs hégémoniques des médias sociaux, la question est de savoir s’il permettent la conjonction de ces conditions. La réponse est non. Ce n’est pas leur raison d’être.
Alors qu’Internet et le Web ont été élaborés au départ pour être des dispositifs égalitaires en émission et réception de pair à pair, la centralisation des accès soumet l’émission aux conditions de l’hébergeur du service. Là où ce dernier pourrait se contenter d’un modèle marchand basique consistant à faire payer l’accès et relayer à l’aveugle les contenus (ce que fait La Poste, encadrée par la loi sur les postes et télécommunications), la salubrité et la fiabilité du service sont fragilisés par la responsabilisation de l’hébergeur par rapport à ces contenus et la nécessité pour l’hébergeur à adopter un modèle économique de rentabilité qui repose sur la captation des données des utilisateurs à des fins de marketing pour prétendre à une prétendue gratuité du service5. Cela implique que les contenus échangés ne sont et ne seront jamais indépendants de toute forme de censure unilatéralement décidée (quoi qu’en pensent les politiques qui entendent légiférer sur l’emploi des dispositifs qui relèveront toujours de la propriété privée), et jamais indépendants des impératifs financiers qui justifient l’économie de surveillance, les atteintes à notre vie privée et le formatage comportemental qui en découlent.
Paradoxalement, le rêve d’un espace public ouvert est tout aussi inatteignable pour les médias sociaux dits « alternatifs », où pour des raisons de responsabilité légale et de choix de politique éditoriale, chaque instance met en place des règles de modération qui pourront toujours être considérées par les utilisateurs comme abusives ou au moins discutables. La différence, c’est que sur des réseaux comme le Fediverse (ou les instances usenet qui reposent sur NNTP), le modèle économique n’est pas celui de l’exploitation lucrative des données et n’enferme pas l’utilisateur sur une instance en particulier. Il est aussi possible d’ouvrir sa propre instance à soi, être le seul utilisateur, et néanmoins se fédérer avec les autres.
De même sur chaque instance, les règles d’usage pourraient être discutées à tout moment entre les utilisateurs et les responsables de l’instance, de manière à créer des consensus. En somme, le Fediverse permet le débat, même s’il est restreint à une communauté d’utilisateurs, là où la centralisation ne fait qu’imposer un état de fait tout en tâchant d’y soumettre le plus grand nombre. Mais dans un pays comme le Vietnam où l’essentiel du trafic Internet passe par Facebook, les utilisateurs ont-ils vraiment le choix ?
Ce sont bien la centralisation et l’exploitation des données qui font des réseaux sociaux comme Facebook, YouTube et Twitter des instruments extrêmement sensibles à la censure d’État, au service des gouvernements totalitaires, et parties prenantes du fascisme néolibéral.
L’affaire Cambridge Analytica a bien montré combien le débat démocratique sur les médias sociaux relève de l’imaginaire, au contraire fortement soumis aux effets de fragmentation discursive. Avant de nous demander quelles idéologies elles permettent de véhiculer nous devons interroger l’idéologie des GAFAM. Ce que je soutiens, c’est que la structure même des services des GAFAM ne permet de véhiculer vers les masses que des idéologies qui correspondent à leurs modèles économiques, c’est-à-dire compatibles avec le profit néolibéral.
En reprenant des méthodes d’analyse des années 1970-80, le marketing psychographique et la socio-démographie6, Cambridge Analytica illustre parfaitement les trente dernières années de perfectionnement de l’analyse des données comportementales des individus en utilisant le big data. Ce qui intéresse le marketing, ce ne sont plus les causes, les déterminants des choix des individus, mais la possibilité de prédire ces choix, peu importent les causes. La différence, c’est que lorsqu’on applique ces principes, on segmente la population par stéréotypage dont la granularité est d’autant plus fine que vous disposez d’un maximum de données. Si vous voulez influencer une décision, dans un milieu où il est possible à la fois de pomper des données et d’en injecter (dans les médias sociaux, donc), il suffit de voir quels sont les paramètres à changer. À l’échelle de millions d’individus, changer le cours d’une élection présidentielle devient tout à fait possible derrière un écran.
C’est la raison pour laquelle les politiques du moment ont surréagi face au bannissement de Trump des plateformes comme Twitter et Facebook (voir ici ou là). Si ces plateformes ont le pouvoir de faire taire le président des États-Unis, c’est que leur capacité de caisse de résonance accrédite l’idée qu’elles sont les principaux espaces médiatiques réellement utiles aux démarches électoralistes. En effet, nulle part ailleurs il n’est possible de s’adresser en masse, simultanément et de manière segmentée (ciblée) aux populations. Ce faisant, le discours politique ne s’adresse plus à des groupes d’affinité (un parti parle à ses sympathisants), il ne cherche pas le consensus dans un espace censé servir d’agora géante où aurait lieu le débat public. Rien de tout cela. Le discours politique s’adresse désormais et en permanence à chaque segment électoral de manière assez fragmentée pour que chacun puisse y trouver ce qu’il désire, orienter et conforter ses choix en fonction de ce que les algorithmes qui scandent les contenus pourront présenter (ou pas). Dans cette dynamique, seul un trumpisme ultra-libéral pourra triompher, nulle place pour un débat démocratique, seules triomphent les polémiques, la démagogie réactionnaire et ce que les gauches ont tant de mal à identifier7 : le fascisme.
Face à cela, et sans préjuger de ce qu’il deviendra, le Fediverse propose une porte de sortie sans toutefois remettre au goût du jour les vieilles représentations du village global. J’aime à le voir comme une multiplication d’espaces (d’instances) plus où moins clos (ou plus ou moins ouverts, c’est selon) mais fortement identifiés et qui s’affirment les uns par rapport aux autres, dans leurs différences ou leurs ressemblances, en somme dans leurs diversités.
C’est justement cette diversité qui est à la base du débat et de la recherche de consensus, mais sans en constituer l’alpha et l’oméga. Les instances du Fediverse, sont des espaces communs d’immeubles qui communiquent entre eux, ou pas, ni plus ni moins. Ils sont des lieux où l’on se regroupe et où peuvent se bâtir des collectifs éphémères ou non. Ils sont les supports utilitaires où des pratiques d’interlocution non-concurrentielles peuvent s’accomplir et s’inventer : microblog, blog, organiseur d’événement, partage de vidéo, partage de contenus audio, et toute application dont l’objectif consiste à outiller la liberté d’expression et non la remplacer.
Angélisme ? Peut-être. En tout cas, c’est ma manière de voir le Fediverse aujourd’hui. L’avenir nous dira ce que les utilisateurs en feront.
Notes
-
On peut se référer au passage de la plateforme suprémaciste Gab aux réseaux du Fediverse, mais qui finalement fut bloquée par la plupart des instances du réseau. ↩︎
-
Par exemple, sans remplacer les outils de modération par du machine learning plus ou moins efficace, on peut rendre visible davantage les procédures de reports de contenus haineux, mais à condition d’avoir une équipe de modérateurs prête à réceptionner le flux : les limites deviennent humaines. ↩︎
-
Turoff, Murray, and Starr Roxane Hiltz. 1994. The Network Nation: Human Communication via Computer. Cambridge: MIT Press, p. 401. ↩︎
-
Dupuis-Déri, Francis. Démocratie, histoire politique d’un mot: aux États-Unis et en France. Montréal (Québec), Canada: Lux, 2013. ↩︎
-
Et même si le service était payant, l’adhésion supposerait un consentement autrement plus poussé à l’exploitation des données personnelles sous prétexte d’une qualité de service et d’un meilleur ciblage marketing ou de propagande. Pire encore s’il disposait d’une offre premium ou de niveaux d’abonnements qui segmenteraient encore davantage les utilisateurs. ↩︎
-
J’en parlerai dans un article à venir au sujet du courtage de données et de la société Acxiom. ↩︎
-
…pas faute d’en connaître les symptômes depuis longtemps. Comme ce texte de Jacques Ellul paru dans la revue Esprit en 1937, intitulé « Le fascisme fils du libéralisme », dont voici un extrait : « [Le fascisme] s’adresse au sentiment et non à l’intelligence, il n’est pas un effort vers un ordre réel mais vers un ordre fictif de la réalité. Il est précédé par tout un courant de tendances vers le fascisme : dans tous les pays nous retrouvons ces mesures de police et de violence, ce désir de restreindre les droits du parlement au profit du gouvernement, décrets-lois et pleins pouvoirs, affolement systématique obtenu par une lente pression des journaux sur la mentalité courante, attaques contre tout ce qui est pensée dissidente et expression de cette pensée, limitation de liberté de parole et de droit de réunion, restriction du droit de grève et de manifester, etc. Toutes ces mesures de fait constituent déjà le fascisme. ». ↩︎
15.04.2021 à 02:00
Contrôler les assistés
Contrôler les assistés s’est imposé à partir des années 1990 en France comme un mot d’ordre politique, bureaucratique et moral. Jamais les bénéficiaires d’aides sociales, et parmi eux les plus précaires, n’avaient été aussi rigoureusement surveillés, ni leurs illégalismes ou leurs erreurs si sévèrement sanctionnés. Ce renforcement du contrôle n’est cependant pas réductible à des préoccupations financières. Ainsi, moins sévèrement réprimés, l’évasion fiscale ou les défauts de paiement des cotisations sociales par les employeurs atteignent des montants sans commune mesure avec ceux qui concernent les erreurs ou abus des bénéficiaires d’aides sociales, traqués sans relâche.
Un mécanisme implacable à plusieurs facettes sous-tend cette spirale rigoriste à l’égard des assistés : des leaders politiques qui pourfendent la fraude sociale et qui parviennent à stigmatiser leurs contradicteurs comme naïfs ou complices ; des administrations qui surenchérissent dans des technologies de contrôle toujours plus performantes ; une division du travail bureaucratique qui déréalise et déshumanise le traitement des cas ; le fonctionnement interne de commissions où la clémence est toujours plus difficile à défendre que la sévérité ; le point d’honneur professionnel du contrôleur de la caisse locale qui traque la moindre erreur au nom de l’exactitude des dossiers.
Au nom de la responsabilisation individuelle, de la lutte contre l’abus, de la maîtrise des dépenses, un service public fondamental qui vise à garantir des conditions de vie dignes à tous les citoyens contribue désormais à un gouvernement néopaternaliste des conduites qui stigmatise et précarise les plus faibles.
Dubois, Vincent. Contrôler les assistés. Genèses et usages d’un mot d’ordre. Raisons d’Agir, 2021.
Lien vers le site de l’éditeur : https://www.raisonsdagir-editions.org/catalogue/controler-les-assistes/
11.04.2021 à 02:00
Lettres et articles avec Zettlr ou Pandoc
Utiliser le célèbre convertisseur de document pandoc signifie manier (un tout petit peu) la ligne de commande. Rien de sorcier, pour peu d’être assez ouvert d’esprit pour comprendre qu’en matière de traitement de texte tout n’est pas censé se régler au clic de souris. Cela dit, le logiciel Zettlr permettent de s’affranchir de la ligne de commande tout en utilisant la puissance de pandoc. Zettlr propose une interface optimale pour écrire du texte en markdown et exporter dans différents formats. Il suffit d’aller voir dans les préférences avancées de Zettlr pour constater que ce dernier utilise une sorte de ligne de commande universelle avec pandoc pour réaliser ses exports. Pour ce qui concerne l’export en PDF, Zettlr utilise aussi LaTeX qu’il faudra installer sur la machine au préalable, tout comme pandoc.
J’ai écrit un petit billet sur Zettlr. Vous pouvez aller le lire pour mieux comprendre ce que je vais raconter ci-dessous.
Si vous n’avez pas envie de lire ce billet et souhaitez directement vous servir des modèles que je propose, vous trouverez l’ensemble sur ce dépôt GIT. Il y a un fichier README
suffisant.
Pandoc et LaTeX
Qu’en est-il de la mise en page ? C’est là que les avantages combinés de pandoc et de LaTeX entrent en jeu : il est possible, en quelque sorte, de « programmer » la mise en page en élaborant des modèles qui utilisent différentes variables renseignées dans le fichier source en markdown. Bien entendu, on peut créer des modèles pour tout type d’export avec pandoc et d’ailleurs ce dernier utilise une batterie de modèles par défaut, mais ces derniers ne sont pas toujours adaptés à la sortie finale : qu’on utilise Zettlr ou non (ou n’importe quel éditeur de texte), il faut savoir compléter son fichier markdown avec des informations destinées à être taitées par pandoc.
Pour information, si pandoc s’utilise en ligne de commande, c’est parce qu’il y a toute une batterie d’options et de commandes que pandoc est capable d’exécuter. Pour éviter de les entrer systématiquement en ligne de commande, on peut les indiquer simplement dans l’en-tête du fichier markdown (ou dans un fichier séparé). Pour mieux comprendre de quoi il s’agit, vous pouvez vous reporter à ce document.
Pour donner un exemple trivial : si vous voulez que votre document markdown une fois exporté comporte un titre, un nom d’auteur et une date, il vous suffit de les indiquer de cette manière dans l’en-tête au début du document (on les appellera des « métadonnées ») :
``
% Le titre
% Prénom Nom
% 17/02/2021
``
Ou bien, en utilisant le format YAML :
``
---
title: "Le titre"
date: "17 février 2021"
author: "Prénom Nom"
...
``
Ainsi, pandoc les interprétera et, en utilisant un modèle par défaut ou un modèle de votre cru, reportera ces variables aux emplacements voulus dans la mise en page.
Si vous voulez écrire un article académique et le sortir en PDF en utilisant pandoc qui lui-même utilisera LaTeX, il vous faut donc réunir les éléments suivants :
- un modèle LaTeX (ou se contenter des modèles LaTEX par défaut de pandoc),
- des métadonnées à entrer après s’être bien renseigné sur la manuel d’utilisation de pandoc,
- un fichier de bibliographie,
- un fichier de style de présentation de la bibliographie.
En comptant les options courantes de pandoc que vous souhaitez utiliser, vous risquez de vous retrouver avec une ligne de commande assez longue… pour éviter cela, vous pouvez automatiser le tout avec un makefile
que vous pourrez réutiliser plus tard pour d’autres documents, mais bigre… cela commence à devenir bien complexe pour qui n’a pas forcément envie d’y passer trop de temps, à moins de concevoir une fois pour toute une chaîne éditoriale que vous adapterez au fil du temps (c’est une option).
Zettlr et les modèles
Un grand avantage de Zettlr est de vous décharger de plusieurs de ces contraintes, en plus d’offrir une interface vraiment pratique entièrement destinée à l’écriture. Pour réaliser des exports, il vous faudra seulement installer pandoc. Et pour réaliser des exports PDF, il vous faudra installer LaTeX (je préconise une installation complète, par exemple Texlive-full
).
Le fichier et le style CSL de bibliographie ? il vous suffit de les renseigner dans les préférences de Zettlr une fois pour toutes.
Le modèle de sortie PDF ? idem, vous le renseignez dans les préférences d’export PDF.
Et pour exporter ? il vous suffira de cliquer sur l’icône PDF.
Tout cela demeure assez simple, sauf que si vous rédigez un article sans chercher à travailler la question des métadonnées, votre sortie PDF risque de vous décevoir : pandoc utilisera le modèle par défaut, c’est-à-dire la classe [article]
de LaTeX, qui en soi est une excellente mise en page, mais ne colle pas forcément à vos souhaits.
Réaliser des modèles pour pandoc est chose assez facile. En effet, si vous comprenez des notions informatiques basiques comme « pour…si…ou…alors », la syntaxe des modèles pandoc ne posera guère de problème. Il faudra néanmoins maîtriser LaTeX si vous voulez créer un modèle LaTeX.
Mes modèles article, rapport et lettre
Pour vous éviter d’y passer trop de temps, je vous propose d’utiliser mes modèles élaboré pour des articles, des rapports ou des lettres simples.
J’ai pris le parti de réaliser un modèle LaTeX destiné à chaque fois à la sortie voulue, là où le modèle pandoc par défaut permet de créer un article, une présentation ou un livre en indiquant simplement la classe voulue. Ce modèle par défaut inclu donc de nombreuses variables mais à trop vouloir être généraliste, je pense qu’on loupe l’essentiel.
Pour utiliser mes modèles, il vous suffit de réutiliser les fichiers markdown renseigner les différents éléments présents dans les en-têtes YAML de ces fichiers. Si vous voulez modifier les modèles eux-mêmes, il vous suffit de les éditer : j’ai tâché de commenter et de bien séparer les éléments importants.
Ces modèles utilisent KOMA-script, la classe scrartcl
pour les article, scrreprt
pour les rapports et scrlttr2
pour les lettres. Si vous connaissez LaTeX, vous comprendrez que KOMA-script est un excellent choix pour des documents européens (il fut créé au départ pour des documents de langue allemande, mais il fut rapidement adapté à différentes pratiques d’écriture, dont le Français).
Pour résumer très simplement :
- si vous écrivez une lettre, renseignez dans Zettlr le chemin vers le modèle dans les préférences d’export PDF,
- si vous écrivez un article ou un rapport, renseignez dans Zettlr le chemin vers le modèle dans les préférences d’export PDF et notez que le modèle utilise les styles CSL pour la bibliographie (pas de biblatex ou de natbib, donc),
- si vous ne voulez pas utiliser Zettlr, et uniquement pandoc, je vous ai indiqué dans le
README
les lignes de commande à utiliser (ce sont celles qu’utilise Zettlr, en fait).
Vous trouverez l’ensemble sur ce dépôt GIT.
06.03.2021 à 01:00
Parcours VTT. Grendelbruch-Hohwald
Voilà très longtemps que je n’avais pas proposé sur ce blog un bon vieux parcours VTT. Celui-ci a un objectif particulier : après quelques sorties de remise en jambes après l’hiver, un parcours long de dénivelé moyen permet de travailler foncièrement l’endurance. Le parcours ne présente aucune difficulté particulière du point de vue de la technique de pilotage. Quelques singles viendront briser la monotonie et il n’y a que deux passages où le portage du vélo sur 10 mètres sera nécessaire (outre les éventuelles grumes, mais de cela nous sommes habitués).
Caractéristiques du parcours
- 50 kilomètres
- 980 à 1000 mètres de dénivelé positif.
Regardez le tracé de près avant de partir pour ne pas être surpris : certaines directions peuvent prêter à confusion et tous les chemins empruntés ne sont pas balisés par le Club Vosgien.
Descriptif
Au départ de Grendelbruch (parking de l’église) nous démarrons (déjà) à 530 m d’altitude. En guise d’échauffement, un peu de bitume pour monter en direction de la Nécropole puis le col du Bruchberg. Là je préconise encore un peu de bitume (si vous prenez les rectangles jaunes dans l’enclos à vaches, à moins d’être en plein été et au sec, vous allez galérer entres les bouses et la boue, dès le début du parcours…). Nous enchaînons la montée sur le Shelmeck puis tour du Hohbuhl jusqu’au col de Birleylaeger.
Nous rejoignons le col de Franzluhr pour prendre les croix bleues jusque la Rothlach (953 m), sans se poser de question. Chemin large (sauf une petite variante à ne pas louper en single, regardez la trace de près). Une fois à la Rothlach, nous prenons la route forestière (GR 531), puis bifurcation sur la Vieille Métairie. On enchaîne alors la montée vers le Champ du Feu (1098 m).
Nous changeons alors de versant en passant par le Col de la Charbonnière afin de rejoindre (croix jaunes puis cercles rouges puis de nouveau croix jaunes) le Col du Kreuzweg (sur le chemin, joli point de vue sur Breitenbach). Puis poursuite des croix jaunes pour monter sur la Grande Bellevue. Là, une pause en profitant de la vue et du soleil s’il y en a !
Il est temps alors de commencer à descendre vers le Hohwald par un sympatique sentier (variante GR balisage rouge et blanc, ou ronds jaunes). Une fois au Hohwald, on commence la montée vers Welschbruch via le GR 5, et enchaînement (croix jaunes) sur la montée vers la Rothlach (sentier).
Il est temps d’amorcer le chemin de retour. Pour cela, depuis la Rothlach, on emprunte un chemin forestier pour rejoindre le GR 5, et après un passage amusant on rejoint le Champ du Messin. Encore un sentier de descente vers le Col de Franzluhr. On reprend en sens inverse le chemin vers le col de Birleylaeger. Bifurcation sur le Hohbuhl puis grande descente du Shelmeck. On termine alors par le tour du Bruchberg (attention, une partie du chemin non balisé en single) et retour vers le centre de Grendelbruch.
Avis
Comme on peut le constater, mis à part quelques singles amusants le parcours s’apparente à une promenade plutôt longue avec un faible dénivelé (compte-tenu de la longueur). Tout se joue sur l’endurance et la possibilité, surtout dans la seconde partie du parcours, de pousser un peu la machine pour rentrer plus vite.
Pour affronter les deux montées finales vers Welschbruch et la Rothlach, aussi amusantes qu’elles soient sur des singles (qu’habituellement on descend, n’est-ce pas ?), vous devrez vous obliger à bien doser votre effort dans la première partie. Il faut garder du coffre pour réaliser presque autant de dénivelé que la premmière partie en deux fois moins de longueur de parcours.
Une variante si vous êtes en mal de descente rapide (je ne parle pas de DH, hein?), consiste à couper directement du Champ du feu (GR 5 via la cascade) ou de la vieille Métairie (triangles rouges) vers le Hohwald. Ces sentiers sont connus et forts sympathiques à descendre, en revanche on ampute très largement ce parcours.
Bonne rando !
P.S.: pour récupérer les données du parcours, dans la carte ci-dessous : cliquez sur la petite flèche du menu de gauche, puis sur « exporter et partager la carte ». Puis dans al section « Télécharger les données », sélectionnez le format voulu et téléchargez.
09.02.2021 à 01:00
Red Mirror
La Chine a longtemps été considérée comme « l’usine du monde » fabriquant pour l’Occident, grâce à sa main d’oeuvre surexploitée, les biens de consommation puis les objets technologiques conçus dans la Silicon Valley.
Cette période est révolue : en développant massivement recherche, éducation et investissements, la Chine est devenue leader dans le domaine des technologies. Intelligence artificielle, villes intelligentes, paiement via les smartphones, surveillance et reconnaissance faciale sont déjà des réalités de l’autre côté de la Grande muraille numérique.
L’avenir s’écrit dorénavant en Chine. Mais quel avenir ?
Les stratégies géopolitiques de Xi Jinping, l’organisation du contrôle social et l’acceptation confucéenne de la surveillance personnalisée par le plus grand nombre sont le moteur de ce développement à marche forcée. Et ouvre la porte d’un monde qui ressemble déjà à la série dystopique dont s’inspire le titre de cet ouvrage.
Un regard lucide sur la place du numérique dans la Chine d’aujourd’hui, écrit par un journaliste qui y a vécu longtemps et qui continue de suivre les évolutions rapides des industries de pointe. Alors que les équilibres mondiaux changent, le récit de Simone Pieranni donne des clés essentielles pour comprendre la nouvelle situation.
Pieranni, Simone. Red Mirror. L’avenir s’écrit en Chine. CF Editions, 2021.
Lien vers le site de l’éditeur : https://cfeditions.com/red-mirror/
01.02.2021 à 01:00
Loi sécurité globale : analyse
La proposition de loi « Sécurité globale » fut déposée en octobre 2020 par deux députés du mouvement La République en Marche, Alice Thourot et Jean-Michel Fauvergue. Elle fut adoptée le 24 novembre 2020 par l’Assemblée Nationale. Le texte tout entier relève d’une volonté d’appliquer une idéologie extrêmiste et sécuritaire, opposée aux libertés comme aux principes fondamentaux de la justice. Cette idéologie conçoit le citoyen comme une menace et redéfini la démocratie dans ce que permet ou ne permet pas le pouvoir de la technopolice. L’un de ses piliers est un marché des technologies et du travail de la surveillance. Ce film de Karine Parrot et Stéphane Elmadjian en propose une analyse critique et pertinente.
Sept juristes décryptent la loi Sécurité Globale
— Synopsis —
Novembre 2020. L’état d’urgence sanitaire est en vigueur. La population française est confinée, nul ne peut sortir de chez soi, sauf dans quelques cas « dérogatoires » et moyennant une attestation. C’est précisément ce moment hors du commun que le gouvernement choisit pour faire adopter – suivant la procédure d’urgence – une loi sur « la sécurité globale » qui vient accroître les dispositifs de contrôle et de surveillance.
Que signifie cette idée de « sécurité globale » et d’où vient-elle ? Quels sont les nouveaux systèmes de surveillance envisagés ? Qu’est-ce que le continuum de sécurité ? Que révèle le processus parlementaire d’adoption de la loi ? Pourquoi la liberté d’opinion est-elle menacée ?
Ce film croise les points de vue de sept universitaires, chercheuses et chercheurs en droit, spécialistes du droit pénal, de politique criminelle, des données personnelles et de l’espace public. Interrogées sur cette proposition de loi « Sécurité globale », ils et elles décryptent les dispositifs techno-policiers prévus par le texte et, au-delà, le projet politique qu’il recèle.
10.01.2021 à 01:00
Un ordi par lycéen : la surenchère inutile
Dans un élan qui s’accentue de plus en plus depuis 2010, les Régions de France distribuent en masse des ordinateurs portables à tous les lycéens. « Lycée 4.0 » dans la Région Grand Est, « Lordi en Occitanie », « virage numérique » des lycées en Île de France, etc. Tout cela vient s’ajouter à la longue liste de projets plus ou moins aboutis des instances territoriales qui distribuent tablettes et ordinateurs portables avec une efficacité pédagogique fort discutable. Tout porte à croire que l’enjeu consiste surtout à verser dans la surenchère où la présence d’ordinateurs portables sur les tables reflète une image obsolète de l’école du futur, tout en faisant entrer dans les établissements scolaires certains modèles économiques des technologies numériques.
Il serait facile de rapprocher ces projets d’autres initiatives, plus anciennes, de production d’ordinateurs portables à très bas prix afin de permettre leur distribution dans des pays en développement (par exemple, le projet OLPC). Cependant les ambitions affichées par les Régions sont assez floues quant aux objectifs réellement poursuivis. Souvent employé, l’argument de la réduction de la « fracture numérique » n’est pas le plus évident car il s’agit avant tout d’élire des projets de « lycées connectés » et de faciliter les apprentissages des lycéens là où la plupart disposent déjà d’équipements informatiques. Par exemple, si le projet Lordi en Occitanie consistait en première intention à faciliter l’achat d’un ordinateur portable pour les familles, il s’est transformé en distribution générale pour tous les lycéens de la Région. C’est donc bien une transformation des modalités pratiques des enseignements qui est visée, en faisant de l’ordinateur une recette miracle d’optimisation du rendement scolaire.
Qu’est-ce qui chiffonne ?
On sait depuis longtemps qu’un apprentissage de niveau primaire ou secondaire n’est pas plus efficace avec ou sans ordinateur (ou tablette). Il y a en effet une grande différence entre un apprentissage de l’ordinateur (la programmation et les techniques) ou aux outils de communication numériques, et l’apprentissage avec l’ordinateur, ce qui suppose d’en avoir déjà une grande expertise, ce qui est loin d’être le cas (j’y reviens plus loin).
La politique se résume souvent à bien peu de choses. Ces derniers temps, montrer qu’on s’occupe de la jeunesse revenait essentiellement à distribuer des tablettes et des ordinateurs portables par brouettes : limiter la « fracture numérique », favoriser « l’égalité d’accès au digital », « projet ambitieux » pour « accompagner l’avenir » des jeunes… tout un appareillage lexical fait de périphrases abscondes qu’on qualifiera surtout de condescendantes.
En fait, ce qui est vraiment moisi, dans cette affaire, ce n’est pas le gaspillage d’argent (qui pourrait être bien mieux employé si ce genre de politique était au moins concertée avec les enseignants), non, c’est l’impact environnemental et cognitif de ces opérations. Les prémisses sont d’une part les technologies choisies (du matériel très moyen qui ne tient pas la durée) et d’autre part l’acculturation aux produits Microsoft (qui empêche l’entretien durable des machines en favorisant la passivité face aux logiciels).
Culture du jetable
Concernant les choix technologiques, c’est toujours la même histoire. Les logiques d’appel d’offre obligent les institutions publiques à effectuer des choix toujours très contraints. Et bien souvent dans ces cas là, bien que l’expertise soit menée par des personnes très compétentes, la décision revient à des politiques qui, lorsqu’ils ne sont pas parfaitement embobinés par les lobbies, ne mesurent les conséquences de leurs actions qu’en fonction du degré de satisfaction de leur électorat. Et comme aujourd’hui l’électorat est soit vieux, soit réac., soit facho1, autant dire que le plus important est de prendre une belle photo avec des jeunes en classe, leurs ordinateurs portables ouverts et bien attentifs à ce que dit le prof… (non, pardon : l’élu qui est venu faire une conférence de presse).
En matière de choix, disais-je, les ordinateurs des Régions finiront exactement comme les tablettes des lycées « pionniers » des années 2010 : au fond des tiroirs. Le premier sas vers la poubelle. Car en matière de filière de recyclage pour les matériaux de nos petites merveilles numériques, c’est zéro ou presque rien. Tout au plus quelques associations recyclent des machines pour en équiper les plus pauvres. Elles accompagnent d’ailleurs ces actions avec une vraie formation aux outils numériques, et font preuve de bien plus d’utilité publique que les plans Région dont nous parlons ici. Mais à part ces actions, je me demande encore comment vont terminer les centaines de milliers d’ordinateurs des lycéens dans quatre ou cinq ans.
Sans parler du fait que nous brûlons nos crédits écologiques tout en favorisant des économie minières inégalitaires et des guerres en sur-consommant des dispositifs numériques dans nos pays industrialisés. Quelle est la qualité des appareils fournis par les plans Région ? sont-ils assez évolués pour être plus durables que ce qu’on trouve habituellement dans le commerce bon marché ?
Même pas. Des machines qui atteignent péniblement 4Go de Ram, des matériaux de qualité moyenne, avec des périphériques moyens… Ce n’est pas tellement que les Régions fournissent des machines bas de gamme aux lycéens : elles leur confient des machines qui fonctionnent… mais ne tiendront jamais la distance.
En Région Grand Est à la rentrée 2020, les lycéens en classe de Seconde ont reçu des ordinateurs HP 240 G7, processeur Intel Celeron N4000, 4 Go de Ram, 128 Go SSD. Il faut envisager leur état dans trois ans, à la fin du lycée, par exemple, lorsque les usages deviendront plus sérieux. Sans parler du boîtier en plastique qui montre très vite des signes de faiblesse chez tous les élèves (et pas seulement les moins soigneux). Ajoutons de même que la question ne se pose pas seulement dans le Grand Est : en Île de France, outre les problème de gestion, la qualité des dispositifs n’est clairement pas au rendez-vous (voir cet article du Parisien du 11/01/2021). Hé oui, amis décideurs : si c’est pas cher, parfois c’est qu’il y a un lièvre (dans cette petite vidéo, vous avez au début un petit florilège).
Microsoft obligatoire
Bien sûr ce type de machine a une configuration matérielle largement suffisante pour une distribution GNU/Linux (la vidéo que je mentionne ci-dessus montre comment installer ElementaryOS sur ces ordinateurs). Avec un tel système d’exploitation, on pourrait envisager l’avenir de la machine de manière beaucoup plus sereine (je ne parle pas du boîtier, cela dit). Mais voilà : installer GNU/Linux apporte plus de confort et de fiabilité, mais rien n’est fait pour que les lycéens puissent l’utiliser.
En effet, deux obstacles de taille s’opposent à l’emploi d’un système libre.
Le premier c’est la connexion au Wifi des lycées : aucune autre procédure de connexion ne semble être disponible dans la Région Grand Est, à part sous Windows. J’ignore ce qu’il en est dans les autres Régions. C’est un obstacle tout à fait surmontable, à condition de développer les bons petits scripts qui vont bien et accompagner les lycéens dans l’utilisation de GNU/Linux. Mais cela implique une vraie volonté politique, or cet aspect des choses n’intéresse absolument pas les élus.
Le second obstacle m’a été rappelé récemment par le compte Twitter de la Région Grand Est : les liseuses des manuels numériques ne sont disponibles que sous Microsoft Windows. Correction cependant : ils sont disponibles en ligne avec un navigateur, mais d’une part il faut une connexion internet et d’autre part, pour les manuels dits « interactifs », les fonctionnalités manquent. Impossible de télécharger un manuel (sous format PDF, ou mieux, du HTML ou du Epub, par exemple) et l’utiliser localement sans être dépendant des logiciels des éditeurs (car il y en a plusieurs !).
Résumons donc la position de la Région Grand Est : puisque les éditeurs de manuels ne les rendent disponibles que sous Microsoft Windows (ou Apple), c’est-à-dire à grands renforts de verrous numériques (DRM), il est normal d’obliger les élèves à n’utiliser que Microsoft Windows…
Imaginons un instant la même logique appliquée aux transports : si on se fout de l’impact environnemental de la pollution des véhicules à moteur, étant donné que la plupart des stations services distribuent de l’essence, il est inutile de chercher à promouvoir des énergies alternatives.
C’est sans compter les initiatives d’éditions de manuels libres et de grande qualité telle Sesamath où le fait que, au contraire, certains éditeurs de manuels fournissent bel et bien des manuels sans pour autant obliger l’utilisation de tel ou tel système d’exploitation. Ou même la possibilité, éventuellement, de travailler en coordination avec l’Éducation Nationale pour demander aux éditeurs de créer des versions de manuels compatibles, par exemple en s’appuyant sur des appels d’offres correctement formulés. Mais non. En fait, puisque la Région n’a aucune compétence en éducation, comment imaginer qu’il y ai une quelconque coordination des efforts ? Peut-être que les Régions auraient ainsi appris que des ordinateurs en classe sont parfaitement inutiles…
OK. Mais le problème est bien plus large. C’est dès la mise en service de l’ordi que les élèves se trouvent bombardés de pop-up les invitant à installer MSOffice 365 et à ouvrir un compte Microsoft OneDrive. Tout cela bien encouragé par la Région qui explique benoîtement comment faire pour valider sa version de Microsoft Office (alors que LibreOffice est déjà installé). En plus, la version est valable sur plusieurs machines dont 5 ordinateurs (donc les lycéens détiendraient en majorité déjà des ordinateurs ?). Ben oui, si c’est gratuit…
Et c’est là qu’on peut parler d’une acculturation de masse. « Acculturation » est un terme qui relève de la sociologie et de l’ethnologie. Cela signifie dans une certaine mesure l’abandon de certains pans culturels au profit d’autres, ou de la création d’autres éléments culturels, par la fréquentation d’une autre culture. C’est ce qui se passe : alors qu’un outil informatique devrait toujours laisser le choix à l’utilisateur de ses formats et de son utilisation, l’adoption de normes « Microsoftiennes » devient obligatoire. On organise ainsi à l’adhésion forcée à ce monde où l’on parle de « Pohouèrepointe » et de « documents ouhorde ». On passera sur les recommandations du Référentiel Général d’Interopérabiltié du gouvernement Français qui recommande les formats ouverts ou bien (au hasard) la Déclaration des gouvernements européens à Talinn2 et une foule d’autres directives plaidant très officiellement pour l’utilisation des formats ouverts et des logiciels libres.
Et en ces temps de confinement à cause de la COVID, la posture s’est trouvée d’autant plus auto-justifiée. Preuve, s’il en était besoin, que chaque élève devait bien satisfaire aux exigences des enseignements à distance avec les ordinateurs qui leurs sont confiés. C’est justement ce qui rend la critique difficile, l’ordinateur faisant office de vecteur d’égalité des élèves devant les contraintes numériques. En revanche, l’argument peut se retourner aisément : n’importe quel enseignant honnête pourra témoigner de l’extrême difficulté à enseigner à distance, de l’inadaptation pédagogique de la visio-conférence, de l’intensification des inégalités des conditions sociales et d’accès aux connaissances. L’ordinateur inutile en classe est aussi un vecteur d’inégalité devant les apprentissages là où il est censé être une solution d’accès égalitaire à la technologie. En d’autres termes, focaliser sur les solutions technologiques au détriment des vrais problèmes, cela s’appelle du solutionnisme et les Régions s’y baignent avec délectation.
Des projets contre-productifs
Les plans Régionaux de distribution d’ordinateurs aux lycéens sont des instruments de communication politique qui effacent sciemment de l’équation les aspects sociaux et cognitifs de la vie des lycéens. Ils éludent l’expertise des enseignants et imposent des usages (les manuels numériques et les conditions d’exploitation des éditeurs). Ils imposent l’obligation de gérer le rapport de l’élève à l’ordinateur, c’est-à-dire un second média dans la classe, le premier étant l’enseignant lui-même et ses propres outils que sont le manuel, le tableau, les photocopies, le video-projecteur.
Partout l’ordinateur donne à voir un surplus d’information qui a tendance à brouiller le message dans la relation maître-élève. C’est pourquoi les syndicats d’enseignants trouvent évidemment beaucoup à redire face à ces plans numériques. Mais quels que soient les arguments, les Régions auront beau insister sur le fait que l’ordinateur est un bon outil pour le lycéen, les études menées dans ce domaine montrent surtout que les résultats escomptés sont loin d’être au rendez-vous. Si l’ordinateur (+ Internet) à la maison ou au CDI est évidemment un accès supplémentaire éventuellement profitable à l’acquisition d’informations (et pas forcément de connaissances), l’ordinateur en classe est parfaitement contre productif. Adieu la belle image des salles de classe Microsoft, vitrines alléchantes du solutionnisme ambiant (et coûteux) :
- l’utilisation d’un ordinateur portable pour prendre des notes en cours entraîne un déficit de traitement de l’information et devient préjudiciable à l’apprentissage (voir cette étude),
- l’usage d’Internet en classe avec des ordinateurs portables (y compris pour effectuer des recherches censées être encadrées par l’enseignant) détourne l’attention et provoque une baisse de performance (voir cette étude),
- le comportement multitâche lié à l’usage de l’ordinateur en cours entraîne une baisse de la productivité (voir cette étude),
- les élèves les moins bons pâtissent en premier lieu des difficultés de concentration causées par l’usage de l’ordinateur en classe (voir cette étude),
- les élèves mutlitâches (avec ordis) ont non seulement des résultats moins bons, mais gênent aussi ceux qui n’ont pas d’ordi (voir cette étude),
- même dans les écoles militaires on voit apparaître la baisse de rendement pour les élèves qui utilisent des ordinateurs ou des tablettes en classe (voir cette étude).
La liste de références académiques ci-dessus est le résultat d’une demi-heure de recherches rapides sur Internet. Un temps qui aurait pu être mis à profit avant de lancer concrètement les institutions dans la distribution à grands renforts de communication. Ces études me semblent assez alarmistes pour interroger sérieusement le slogan de la Région Grand Est (« Lycée 4.0 : de nouveaux outils pour apprendre »).
Bien sûr beaucoup d’autres études vantent depuis longtemps l’usage des TIC dans l’éducation, mais une première analyse me porte à juger que les avantages ainsi mis en avant se situent surtout dans l’acquisition de compétences liées au numérique et non pas dans l’apport réel de l’ordinateur « en classe », c’est-à-dire comme un outil censé améliorer la productivité et le rendement des élèves. Nuance. Le raccourci est bien trop dangereux entre d’une part l’idée que les TIC doivent être utilisées dans le primaire et le secondaire parce que nous vivons dans une société de la communication numérique, et d’autre part l’idée que l’ordinateur est par conséquent l’outil idéal pour acquérir et maîtriser des connaissances.
Ce raccourci, c’est la porte ouverte aux injonctions malheureuses envers les plus jeunes dans notre société. Un jeune serait-il forcément plus enclin à apprendre avec un ordinateur qu’avec un papier et un crayon ? Est-ce qu’un manuel scolaire sera meilleur qu’un autre parce qu’il possède une version numérique et interactive ? est-ce que les représentations, les intentions, les analyses des plus jeunes doivent nécessairement passer par un ordinateur pour être plus pertinentes ?
L’injonction faite aux élèves
Il y a des livres qu’on devrait tous lire et à commencer par les politiques qui se mêlent d’éducation. Le livre d’Anne Cordier, intitulé Grandir Connectés chez C&F Éditions (par ici), fait partie de ce genre de livres.
Dans le processus de recherche d’information, Anne cordier nous invite à moult précautions lorsqu’on évalue les pratiques informationnelles des « jeunes ». D’abord en distinguant la maîtrise experte de l’outil de la simple familiarité à l’outil, et ensuite en remettant en cause le cadre de l’évaluation qui trop souvent tend à évaluer la capacité cognitive (le jeune est forcément toujours un novice par rapport à l’adulte) et non les riches stratégies d’apprentissage, aussi différentes que la jeunesse est multiple et non uniforme, au moins sociologiquement. Si bien que les pratiques informationnelles des jeunes et des adultes ne sont pas si différentes dans leurs approches, loin de la pseudo distinction entre le monde adulte et celui des digital natives dont on a forgé la représentation pour en faire des cibles marchandes tout en renvoyant les adultes à leurs propres difficultés. Une doxa largement intégrée chez les adultes comme chez les plus jeunes.
Car voilà, ce qui pèse c’est l’injonction. Cette norme à laquelle on invite les plus jeunes à se conformer dès les premiers apprentissages : savoir se servir d’Internet, savoir envoyer un courriel, savoir se « servir » d’un ordinateur. L’appétence supposée des enfants envers l’ordinateur les confronte à une norme de laquelle il leur est impossible de se départir : l’appétence équivaudrait à l’expertise. Et les adultes y calent leurs propres incompétences parce qu’ils n’en n’auraient, eux, aucune appétence ou très faible.
Qu’est-ce que cela signifie ? tout simplement que les adultes qui n’ont qu’une expertise faible de l’ordinateur et plus généralement des infrastructures numériques et des outils de communication, supposent qu’il suffit à un enfant de fréquenter un ordinateur pour en acquérir l’expertise. Dès lors il n’y aurait plus de problème pour que l’ordinateur devienne un outil permettant, voire optimisant, l’acquisition de connaissance à l’école ou au lycée.
Hélas, ce n’est ni une condition nécessaire ni une condition suffisante. Il suffit par exemple d’interroger les associations d’éducation populaire qui, tous les jours ont affaire à des jeunes (et des moins jeunes) et voient à quel point malgré la présence d’un téléphone portable dernier cri dans la poche ou d’un ordinateur très cher dans la chambre, une multitude est complètement dépassée par le numérique. Pour beaucoup, Internet n’est constitué que d’une série d’applicatifs permettant d’utiliser les services des GAFAM. Quant à une adresse courriel, on a perdu le mot de passe, on ne s’en sert pas. On ignore même avoir un compte Google alors qu’on a un smartphone Android.
L’injonction faite à ces jeunes est d’autant plus cruelle qu’elle nie complètement leur rapport au numérique et leur renvoie en pleine face la responsabilité de leur inadaptation aux apprentissages. C’est exactement la même chose pour les plus vieux qui ont un rapport d’autant plus distant aux services publics que ces derniers estiment suffisant de les renvoyer sur un site internet pour effectuer toutes les démarches nécessaires à la vie publique. Si « tout le monde a Internet » alors tout le monde sait s’en servir. Rien n’est plus faux. On pourra aussi lire à ce sujet l’excellent ouvrage de Dominique Pasquier, L’internet des familles modestes (par ici) et constater qu’on n’y parle pas seulement des plus modestes…
Illustration : « L’avènement de l’école informatisée », par Shigeru Komatsuzaki, parue dans Shōnen Sunday, 1969 (archive).
-
La caricature est rude, mais qui osera me dire qu’elle ne reflète pas la sociologie du vote en ce moment ? ↩︎
-
Déclaration de Talinn, 06/10/2017, extrait : «[Les États membres invitent] la Commission à envisager un renforcement des exigences relatives à l’utilisation de normes et de solutions à code source ouvert lorsque la (re)construction de systèmes et de solutions TIC est effectuée avec un financement de l’UE, notamment par une politique appropriée de licences ouvertes–d’ici à 2020.» Pour information, le projet de Lycée 4.0 de la Région Grand Est s’est trouvé co-financé par le FEDER. C’est sans doute pour cette raison qu’on trouve LibreOffice installé sur les machines. Ce qui s’apprente à du Libre-whashing si, dans le même mouvement, tout est fait pour inviter les utilisateur à utiliser des logiciels de la suite MSOffice. ↩︎
21.10.2020 à 02:00
Déterminisme et choix technologiques
(Préambule) Cette tentative de synthèse est avant tout un document martyr. J’essaie de saisir les discours empreints de déterminisme technologique au long de la révolution informatique. Ces discours valident un certain ordre économique et envisagent la production et l’innovation comme des conditions qui s’imposent à la société. Les dispositifs technologiques sont-ils uniquement des dispositifs de pouvoir ? impliquent-ils des représentations différentes du rapport entre technique et société ? Un peu des deux sans doute. Avant d’employer ce mot de dispositif et de nous en référer à Michel Foucault ou autres penseurs postmodernes, j’essaye de tracer chronologiquement la synergie entre l’émergence de l’informatique dans la société et les discours qui l’accompagnent. Il n’y a donc pas vraiment de thèse dans cet article et certaines affirmations pourront même paraître contradictoires. Je pense en revanche exposer quelques points de repères importants qui pourront faire l’objet ultérieurement d’études plus poussées, en particulier sur le rôle des principes du pair à pair, celui du logiciel libre et sur l’avenir d’Internet en tant que dispositif socio-technique. Il me semblait cependant important de dérouler l’histoire tout autant que l’historiographie de manière à contextualiser ces discours et tâcher d’en tirer enseignement à chaque étape.
P.S. : à plusieurs reprises je copie-colle quelques paragraphes de mon ouvrage publié en mars 2020. Cette redondance est voulue : tâcher d’aller plus loin.
P.S. (bis) : (màj 22/10/2020 : coquilles corrigées par Goofy !)
Téléchargez la version PDF de l’article ici
Table des matières
Introduction
Nous avons une tendance à nommer les sociétés et les âges en fonction des artefacts. De l’âge du fer à la société numérique d’aujourd’hui, qu’il s’agisse de l’outil, ou du rattachement des usages à un dispositif technique, tantôt sacré, tantôt profane, nous devons toujours lutter contre le déterminisme technologique qui restreint le degré de complexité nécessaire pour appréhender la société, son rapport à l’espace et au temps. Cette simplification n’en est pas vraiment une. En effet, prétendre que la technologie est un paramètre indépendant qui conditionne le développement humain ou social, suppose de savoir ce qui exactement dans l’ensemble des dispositifs techniques présents joue un rôle significatif. Ce choix doit être éclairé, débattu jusqu’à parfois identifier des « technologies clé » ou des combinaisons de technologies dont les effets rétroactifs conditionnent les choix économiques en termes d’innovation, de compétitivité, de profit et, au niveau macro-économique, la géostratégie.
Forme pervertie du déterminisme technologique, le solutionnisme (Morozov 2014) et les idéologies de dérégulation libertarianistes (Husson 2018) partent de ce principe qu’appréhender tout problème par algorithme et ingénierie permet de proposer des solutions techniques efficientes, indépendamment des conditions et des paramètres du problème et des finalités poursuivies. Si vous êtes fatigué-e d’une journée de travail au point de vous endormir au volant sur le chemin du retour, vous pouvez toujours utiliser des lunettes bourrées de capteurs qui vous permettront de faire sonner une alarme si vous vous endormez au volant… mais vous ne réglerez pas le problème qui consiste à se demander pourquoi votre travail est à ce point harassant.
Depuis la sortie de K. Marx (Marx 1896, chap. 2) sur le moulin à bras et le moulin à vapeur1, nombre de chercheurs ont travaillé sur le rapport déterminant ou non de la technologie sur la société ou, de manière plus restrictive, la politique, la culture ou l’économie. Dans la seconde moitié du XXe siècle, le débat fut largement occupé par les historiens tels Robert L. Heilbroner, partisan d’un déterminisme doux, tandis que les philosophes tels Martin Heidegger ou Jacques Ellul, proposaient une lecture ontologique ou matérialiste qui les fit à tort assimiler à des technophobes là où ils ne faisaient que réclamer une critique radicale de la technique. Enfin vinrent les études sociales sur les sciences et les techniques (STS) qui montrèrent que les techniques ne naissent pas de processus autonomes mais sont les fruits d’interactions sociales (Vinck 2012), même si la version radicale de certains implique que tout serait le résultat de processus sociaux, tandis que pour d’autres le réflexe déterministe reste toujours très présent (Wyatt 2008).
Avant d’être un biais conceptuel pour l’historien, le déterminisme technologique est d’abord un discours sur la technologie. Il projette des représentations qui impliquent que la société doit évoluer et faire ses choix en fonction d’un contexte technologique (l’innovation et la compétitivité économique en dépendent) tout en démontrant par la même occasion que dans la mesure où le développement technologique est sans cesse changeant, il projette la société dans l’incertitude. On ne compte plus les discours politiques contradictoires à ce propos.
Les mouvements ouvriers ont pu chercher à éviter ces paradoxes en proposant le troisième terme qu’est le capitalisme pour articuler les rapports entre société et techniques. Ainsi, de la révolution industrielle, on peut tenir le fordisme comme la forme la plus élaborée de l’équilibre entre production et consommation. Cela eut un coût, très vite identifié par Antonio Gramsci : il ne s’agissait pas seulement d’une nouvelle organisation du travail, mais une soumission au machinisme, ce qui fini par conditionner une représentation de la société où le capitalisme « annexe » la technique en y soumettant le travailleur et par extension, la société. Ce sont aussi les mots de Raniero Panzieri, l’un des fondateurs le l’ouvriérisme italien (opéraïsme) des années 1960 : le capitalisme détermine le développement technologique et pour cela il lui faut un discours qui doit montrer que c’est à la société de s’adapter au changement technologique et donc d’accepter la soumission ouvrière à la machine – là où la manufacture morcelait le travail encore artisanal, l’usine et ses machines systématisent l’exploitation de l’ouvrier et le prive du sens de son travail (Panzieri 1968, 105).
La critique marxiste fut néanmoins largement minorée après les années 1960 au profit d’une mise en accusation de la « technoscience » d’être le nouvel épouvantail du totalitarisme. Cependant, il faut regarder de près les multiples variations de discours au sujet des « nouvelles technologies » dont les ordinateurs et les infrastructures numériques représentaient l’essentiel sur lequel allaient définitivement s’appuyer les sciences comme l’industrie et les services. On voit alors comment se déploie une acculturation commune à l’informatique simultanément à une popularisation d’un déterminisme technologique qui déjà correspond à une certaine tradition de la critique – disons – non-marxiste.
Pour caricaturer, une version extrême de ce déterminisme pourrait aujourd’hui figurer dans le discours du Président de la République Française Emmanuel Macron le 14 septembre 2020 au sujet des nouveaux standards de téléphonie mobile. « Le tournant de la 5G », dit-il, « est le tournant de l’innovation. J’entends beaucoup de voix qui s’élèvent pour nous expliquer qu’il faudrait relever la complexité des problèmes contemporains en revenant à la lampe à huile : je ne crois pas au modèle Amish (…) ». Nous pouvons nous interroger sur le fait qu’un discours politique en 2020 puisse ainsi opposer la présence d’une technologie à un faux dilemme. Car c’est lorsque nous avons toutes les peines du monde à penser la société et la technique comme un tout interagissant que nous réduisons le problème à un choix entre (techno)phobie et adhésion. La technique s’impose d’elle-même à la société, la société doit s’y adapter… Il y eut des échappées à ce choix durant la « révolution informatique » : les espoirs du progrès social, les mythes qui idéalisaient les innovateurs de l’informatique, le partage communautaire des usages, les combats pour la vie privée (contre les bases de données)… Échappèrent-ils pour autant aux faux-dilemmes ?
Dans cet article, ce sont ces contradictions qui nous intéresseront à travers une lecture de la Révolution Informatique à partir des années 1960. Nous la nommerons aussi « informatisation de la société ». Nous préférons ce terme d’informatisation parce qu’il contient l’idée qu’un processus est à l’œuvre qui ne concerne pas seulement les choix sociaux mais aussi les effets persuasifs des discours sur les artefacts concernés : les ordinateurs, les programmes, les réseaux et leurs infrastructures, les acteurs humains de l’informatisation, leurs rôles et leurs représentations du processus. Nous maintenons, pour commencer, que l’adhésion du public à une conception déterministe de la technologie est cruciale dans ce qu’on peut appeler un processus historique d’assimilation, c’est-à-dire, d’une part une diffusion des discours qui assimilent progrès informatique et progrès social, et d’autre part une acculturation auprès des groupes professionnels, ingénieurs, parties prenante de l’économie numérique naissante. Cependant, des promesses d’un avenir économique radieux au mythe de l’ingénieur ermite qui développe un artefact « révolutionnaire » dans son garage, en passant par le partage de pratiques : de quel déterminisme est-il question ?
Nous pouvons opposer deux logiques. L’une « extérieure » qui consiste à interpréter de manière déterministe ou non le changement technologique, apanage des chercheurs, philosophes, historiens et sociologues. L’autre, « intérieure », plus ou moins influencée par la première, mais qui développe consciemment ou non un déterminisme discursif qui modèle l’adhésion à une culture de l’artefact, ici une culture informatique, et plus généralement l’adhésion à un modèle économique qui serait imposé par une technologie autonome. Typiquement, ramené à des considérations très contemporaines : avons-nous réellement le choix de nous soumettre ou non au capitalisme de surveillance, fruit de la combinaison entre technologies dominantes et soumission des individus à l’ordre social imposé par ces technologies et leur modèle économique fait de monopoles et d’impérialisme (Masutti 2020). Il est alors important de voir jusqu’à quel point ce discours déterministe est intégré, s’il y a des points de rupture et de résistance et comment ils se manifestent.
L’objectif de cet article est de déployer une lecture générale de la révolution informatique tout en prenant la mesure du discours déterministe qui traverse au quotidien ce processus historique d’informatisation de la société depuis les années 1960 jusqu’à nos jours. Nous emploierons pour cela plusieurs « manières de voir » les techniques (et nous pourrons aussi bien employer le mot « technologies » pour désigner les computer technologies), c’est-à-dire que nous analyserons dans leur contexte les discours qui les encadrent, promoteurs ou détracteurs, ainsi que les critiques philosophiques ou historiques, de manière à en comprendre les variations au fil du temps et comment, in fine, des choix sociaux ont fini par s’imposer, tels le logiciel libre, en créant des zones de résistance.
Que faire avec les ordinateurs ?
Réussir dans les affaires
Si l’histoire de l’informatique traite en premier lieu des « gros ordinateurs » ou mainframe, c’est parce que, au cours des deux décennies des années 1950 et 1960, ils furent porteurs des innovations les plus décisives et qui dessinent encore aujourd’hui notre monde numérique : les matériaux et l’architecture des machines, les systèmes d’exploitation, les réseaux et leurs infrastructures, la programmation et les bases de données. En même temps que ces innovations voyaient le jour, l’industrialisation des ordinateurs répondait à la demande croissante des entreprises.
D’où provenait cette demande ? L’Association internationale pour l’étude de l’économie de l’assurance (autrement connue sous le nom Association de Genève) consacra en 1976, première année de publication de sa collection phare The Geneva Papers on Risk and Insurance, un volume entier produisant une prospective des pertes économiques en Europe liées à l’utilisation de l’informatique à l’horizon 1988. Sur la base de l’expérience des vingt années précédentes, elle montrait que la confiance en l’informatique par les décideurs et chefs d’entreprise n’était pas communément partagée. Un élément décisif qui a permis de lancer concrètement l’industrie informatique dans la fabrication de masse de séries complètes d’ordinateurs, fut le passage des machines mainframe aux mini-ordinateurs, c’est-à-dire des ordinateurs plus petits, fournis avec une gamme d’applicatifs selon les secteurs d’activité des entreprises et des langages de programmation faciles à l’usage. C’est l’effort marketing d’entreprises comme IBM qui changea complètement la représentation des ordinateurs chez les cadres et chefs d’entreprises.
Auparavant, l’ordinateur représentait la puissance de calcul et l’aide à la décision. C’était ainsi qu’il était vanté dans les films publicitaires de la Rand pour la gamme Univac. Les domaines les plus réputés devoir se servir de telles machines étaient les universités, les banques, les assurances, ou l’aéronautique. Mais comment le chef d’une petite entreprise pouvait-il être convaincu par l’investissement dans une telle machine ? Il fallait réinventer l’utilité de l’ordinateur et c’est tout l’enjeu de la production de ce secteur dans les années 1960 (Ceruzzi 1998, 110). Les efforts en marketing furent largement accrus pour passer un message essentiel : l’ordinateur ne devait plus traiter l’information existante parallèlement à la production, mais produire l’information, être le pilier du système d’information et, en tant que « système expert », aider à prendre les bonnes décisions. Mieux encore, l’ordinateur pouvait prédire l’avenir : savoir déterminer à l’avance les chances de succès d’un nouveau produit en analysant le marché et l’environnement. C’est tout l’objet des projets de traitements de données quantitatives et qualitative dont le projet DEMON (Decision Mapping via Optimum Go-No Networks), débuté en 1967, fut longtemps l’illustration dans le domaine de l’informatique appliqué au marketing (Charnes et al. 1968a ; Charnes et al. 1968b).
Après deux décennies de tâtonnements, de bricolages savants et de recherche, l’ordinateur des années 1960 était passé du rang de produit d’ingénierie complexe à celui d’instrument de réussite entrepreneuriale. Cela n’allait pas sans les nombreuses inventions dans le domaine des périphériques et des applicatifs, mais la dynamique des ventes d’ordinateurs, la transformation des fabricants en multinationales et le marché concurrentiel mondial de l’informatique n’auraient jamais pu voir le jour sans qu’un discours convainquant ne puisse être véhiculé. Ce n’était pas celui de la persuasion d’un produit performant de qualité, et il était loin d’être technique (car il ne s’adressait pas aux techniciens). L’ordinateur était fait pour l’homme d’affaires. Ainsi que le vantait la publicité pour l’IBM System/3 :
Toutes les activités économiques ont une chose en commun : l’information. […] et si au lieu de travailler avec ces informations, vous pouviez travailler pour elles ? […] Voici System/3. L’ordinateur pour l’homme d’affaires qui n’avait jamais pensé qu’il pouvait s’en payer un.
Organiser la paix sociale
Aborder les aspects techniques la réorganisation informatique d’une entreprise était un sujet qui ne pouvait pas passer inaperçu. La même publicité pour System/3 précisait :
Un langage de programmation est aussi disponible, basé sur les besoins courants des entreprises. Il est simple à apprendre et à utiliser pour vos employés…
La formation des employés était un aspect incontournable de l’investissement informatique d’une entreprise. Plus précisément, face aux promesses de rentabilité, d’optimisation des processus de production et de vente, le travail des bases de données ne pouvait pas s’improviser. Les ordinateurs de nouvelle génération ne se réduisaient pas à la retranscription et au stockage de listes et de procédures pour les automatiser. Si l’ordinateur était un instrument de réussite sociale des décideurs, la formation des employés devait être l’objet d’un discours plus général sur l’avancement de la société toute entière.
Les langages informatiques de haut niveau tels FORTRAN, LISP, COBOL, ALGOL sortirent au début des années 1960 du cercle fermé des experts universitaires et industriels pour intégrer peu à peu des procédures d’automation dans les entreprises. Pour cela il fallait former de futurs salariés au travail algorithmique de la donnée, tout en abaissant le niveau de qualification global comparé aux savoirs universitaires ou d’ingénierie que nécessitait la maîtrise des ordinateurs mainframe. Dès 1965, c’est l’une des raisons qui poussèrent IBM à produire des systèmes comme l’IBM 360. Outre ses équipements qui intéressaient les secteurs de la recherche et de la haute ingénierie, la série d’IBM permettait d’initier de nouvelles pratiques, comme la possibilité de passer d’un ordinateur à l’autre avec les mêmes programmes, voire les mêmes systèmes d’exploitation, ou d’augmenter la vitesse d’exécution des programmes (grâce aux techniques de microprogrammation). L’avantage consistait aussi en l’utilisation plus harmonisée des langages de programmation réduisant ainsi les coûts de formation tout en optimisant la rentabilité de l’investissement que représentait l’achat de ces machines.
Aux États-Unis, la complexification des systèmes d’information des organisations et l’apparition des grands pôles industriels destinés à l’innovation électronique, poussèrent la population des plus diplômés à se spécialiser dans des secteurs très compétitifs. Les universités ne produisaient qu’un nombre limité de ces ingénieurs et scientifiques, le plus souvent issus d’établissements prestigieux et d’une classe sociale élevée. La communauté des ingénieurs informaticiens su faire face à ce qui fut appelé en 1968 la « crise des programmeurs » et qui en réalité avait commencé bien avant. Chaque entreprise disposant d’un ordinateur devait développer ses propres logiciels, ce qui à chaque fois augmentait la masse salariale de programmeurs qui développaient souvent des programmes similaires. C’est ainsi que le besoin s’est fait sentir de rationaliser et standardiser les programmes dans un secteur économique nouveau. La création formelle de l’IEEE Computer Society en 1971 validait ce qui déjà était une évidence : s’il fallait une industrie du logiciel, les ingénieurs devaient se regrouper pour s’entendre sur les standards et appuyer cette industrie naissante.
Pourtant, ce n’est pas pour combler un manque de main d’œuvre qu’apparurent les centres de formation (souvent pour adultes) destinés à l’apprentissage des langages de haut niveau et plus généralement pour occuper des postes informatiques de premier niveau. Dans la veine des mouvements pour les droits civils et pour faire face à des risques d’émeutes dans certains quartiers de centres urbains, les États et les municipalités construisirent des programmes de formations destinés de préférence aux populations afro- et latino- américaines (Abbate 2018). Le discours tenu était empreint d’une croyance dans le pouvoir des technologies à provoquer le changement social : s’adapter à l’informatique et apprendre les langages informatiques était une voie vers l’émancipation, la paix sociale et la démocratie. De fait, la réorganisation des entreprises autour de l’informatique créait de nouvelles hiérarchies entre cols blancs et manipulateurs, au fur et à mesure que les tâches s’automatisaient et que le travail des scientifiques-ingénieurs devait se spécialiser toujours plus au risque de se diluer dans la masse d’exécutants sur machines.
Pourtant, si l’apprentissage des langages informatiques pouvait donner du travail, il n’exonérait ni de la soumission hiérarchique à l’ordre blanc en col blanc, ni des inégalités salariales et sociales (Nelsen 2016). Si nous pouvons considérer l’histoire de l’industrie informatique selon les cycles d’innovations technologiques et envisager leur impact sur la société par le prisme de l’informatisation de la société, une lecture tout aussi pertinente peut nous amener à nous interroger la manière dont la société s’est imprégnée des discours qui accompagnèrent le marché de l’informatique. Plus ce dernier s’étendait, plus le discours devait avoir une ambition universelle et inclusive, indépendamment de la réalité sociale.
Promouvoir l’accomplissement individuel
En 1977, lorsque le premier ordinateur personnel de la gamme Apple II sorti sur le marché, l’annonce2 parue dans la presse spécialisée en micro informatique précisait, outre les fonctionnalités déjà intégrées et prêtes à l’usage : « Mais le plus grand avantage – indépendamment de la façon dont vous utilisez Apple II – est que vous et votre famille vous familiarisez davantage avec l’ordinateur lui-même ».
Aussi bien pour son concepteur Steve Wozniak que pour Steve Jobs, Apple II est le premier micro-ordinateur destiné à un usage individuel et dont le pari réussi fut d’être produit à grande échelle (et pas sous la forme d’un kit électronique réservé aux spécialistes). Utilisé le plus souvent par la catégorie des cadres d’entreprises, au moins pour les premières années de sa présence sur le marché, les principaux atouts résidaient dans la gamme logicielle fournie (en particulier le tableur VisiCalc, sorti en 1979), le stockage et archivage sur cassette, et les jeux vidéos. Malgré l’apparition des gammes concurrentes, comme celles de Commodore, et jusqu’à la vente des Apple Macintoch, Apple II resta longtemps le modèle de référence de l’ordinateur personnel, entré dans les foyers comme le véhicule d’une acculturation à l’informatique domestique.
Censé propulser les familles dans un mouvement général d’encapacitation économique et sociale, l’ordinateur personnel entrait en rupture avec la représentation courante d’une informatique à la fois puissante et encombrante, réservée à l’entreprise. Dans un monde où l’informatisation des secteurs tertiaires (banques et assurances) et industriels créait de grands bouleversements dans l’organisation du travail, l’informatique personnelle se présentait comme une part de « démocratisation » technique dans les foyers alors qu’elle était habituellement vécue dans l’entreprise comme l’application d’une stratégie autoritaire et hiérarchique.
L’historien Clifford Conner rapporte une communication privée avec Frederick Rodney Holt, l’un des piliers du développement d’Apple II, qui affirme (Conner 2011, 458) :
L’Apple II n’était pas une machine à écrire : c’était un instrument permettant de concevoir de beaux algorithmes. Les gens ne l’achetaient pas pour exécuter des programmes. Ils l’achetaient pour réaliser leurs propres logiciels. Avec les machines d’aujourd’hui, et leurs centaines de mégaoctets de code obscur, il n’est plus possible d’apprendre comment marche un ordinateur ni même d’apprendre à écrire du code. Mais en 1976, des gamins de douze, quatorze ans pouvaient réparer une machine qui ne fonctionnait pas.
Ce type de réflexion est très courant. Il s’agit de postuler que la connaissance du code informatique est un moyen d’appropriation de la machine, une forme de lutte contre l’aliénation technologique d’où résulterait un mieux-être social. Tout comme l’apprentissage des langages informatique devait être une opportunité de plein emploi et de paix sociale, suffirait-il, pour briser les chaînes de nos esclavages modernes, d’équiper les individus d’ordinateurs personnels ?
À la fin des années 1970, le mythe de l’ordinateur personnel obéissait au même schéma discursif entretenu durant la décennie précédente (Pfaffenberger 1988). La raison pour laquelle il était, parfois de bonne foi, imaginé comme un vecteur d’égalité sociale, c’est qu’il était le produit d’une éthique commune, celle des hackers de la première heure, opérant dans les universités sur des projets développement scientifiques et industriels, et dont le principal appétit était le partage collectif des savoirs et des techniques en dehors des contraintes hiérarchiques et académiques. Mais il était aussi le produit d’une autre génération de hackers, ceux sortis des institutions au profit de l’aventure entrepreneuriale (Agre 2002) et qui considéraient l’innovation du point de vue libéral voire, plus radicalement, d’un point de vue libertarien (Turner 2012). Si bien que ce discours, adressé en premier lieu à ceux qui avaient les moyens financiers d’acquérir un ordinateur personnel, rencontrait chez les cadres supérieurs des entreprises une approbation générale. En échange du prestige et de la distraction que promettait l’ordinateur personnel à toute la famille, on acceptait de faire pénétrer dans le calme foyer les obligations et les tensions du travail.
Adhésion
Le hacker, ingénieur hétérogène
Quels furent les vecteurs de l’adhésion générale à ces discours en faveur d’une informatique libératrice ? Autant il est toujours possible de centrer historiquement l’artefact « ordinateur » ou « informatique » autour de quelques personnages connus, autant l’adhésion culturelle qu’on pourrait traduire par « consentement au processus d’informatisation », en dépit des controverses (sur l’organisation du travail, par exemple), n’a jamais été traduite sur un mode consensuel et uniforme par un groupe d’acteurs bien identifiés. Au sens de la théorie de l’acteur-réseau (Callon 2006), l’hétérogénéité des acteurs-humains (hackers, décideurs politiques, chefs d’entreprises, communautés d’utilisateurs, etc.) autant que celle des acteurs-objets concernés (infrastructures de réseaux informatiques, machines informatiques, logiciels et langages de programmation, etc.) doivent nous amener à beaucoup d’humilité quant à l’identification des nœuds de traduction et des acteurs médiateurs (Akrich 2006) (objets techniques ou personnes) de l’acculturation informatique.
Lorsque nous parlons d’acteur-réseau, remarquons que l’approche des objets scientifiques et techniques à laquelle nous faisons référence date du début des années 1980, au moment où les dispositifs informatiques (réseaux et machines) devaient être considérés comme des dispositifs inaccomplis (et Internet est encore aujourd’hui un dispositif inachevé, nous y reviendrons) et n’ont fait que très rarement l’objet des études de sociologie des sciences et des techniques. Néanmoins, c’est justement pour cette raison que le concept d’hétérogénéité est si important, car il était pour ainsi dire incarné par les premières communautés d’ingénieurs-scientifiques des premiers âges de l’informatique, tout particulièrement les hackers, non parce qu’ils étaient porteurs d’un discours bien problématisé, mais parce qu’ils diffusaient des pratiques. C’est pour cette raison que les hackers ont été dès le début identifiés comme les principaux vecteurs d’une diffusion culturelle, d’un esprit, de l’informatique dans la société. C’est cette vision qui a fini par s’imposer comme un paradigme dans l’histoire de l’informatisation, avec toutes les valeurs positives qu’il véhiculait, jusqu’à parfois construire des récits, des mythes, dont le rôle consiste à sacraliser le rôle social des entreprises nées de cet esprit informaticien, de Apple à Google et des riches heures de la Silicon Valley.
Pour une approche systématique, nous devons nous limiter volontairement au concept, défini par John Law, d'ingénieur hétérogène (Law 1987), c’est-à-dire un acteur qui ne crée pas simplement des objets techniques, mais qui définit un nouveau cadre du rôle social, des représentations et des valeurs de cette technologie et de ceux qui l’emploient et la diffusent. Il faut cependant comprendre que cette diffusion n’est pas obligatoirement intentionnelle et elle est souvent moins le fait de volontés individuelles que de communautés de praticiens dont les activités et les techniques interagissent et s’enrichissent mutuellement sans cesse, des premiers phraekers aux bidouilleurs de génie piratant les réseaux commutés universitaires. L’apparition des pratiques informatiques en réseau a multiplié la diffusion des pratiques et démontré le potentiel libérateur des usages « contre-culturels » de l’informatique.
Dans un article, Janet Abbate propose dans un plaidoyer pour une étude STS (Science and Technology Studies) de l’histoire d’Internet : « Lorsqu’on observe à la fois les créateurs et les utilisateurs de matériels et de logiciels, on s’aperçoit que l’infrastructure et la culture ont amorcé une fusion » (Abbate 2012, 170). En effet, dans l’histoire de la révolution informatique, cette fusion engage à la fois l’innovation technologique, l’économie de production de ces technologies, et la figure de l’ingénieur hétérogène qui incarne à la fois la culture, l’économie et les pratiques bien qu’il s’auto-définisse comme révolutionnaire ou contre-culturel3. Le hacker est un programmeur dont le génie ne réside pas seulement dans la qualité de son travail mais aussi dans sa manière de traduire un ensemble de valeurs de la sphère informatique à la sphère sociale : le partage de l’information, l’esprit d’innovation (d’amélioration), les libertés d’usages des machines, l’idée qu’un « progrès technique » est aussi un « progrès social » dans la mesure où tout le monde peut y contribuer et en être bénéficiaire. Sa contre-culture ne s’exerce donc pas à l’encontre d’un discours dominant et largement en faveur de l’adoption de l’informatique dans toutes les organisations sociales, mais dans la tension entre l’appropriation de ces valeurs par les institutions et la défense de leur autonomie au niveau des pratiques sociales. C’est ce qui fait dire à Paul Baran (un des co-inventeurs de la communication réseau par paquets) dès 1965 que l’ingénieur informaticien a l’opportunité d’exercer « une nouvelle forme de responsabilité sociale. » (Baran 1965)
Comment exercer cette responsabilité ? Sur ce point, on peut prendre l’exemple du projet Community Memory qui, entre 1973 et 1975 s’est fait le support d’une telle ambition sur un mode communautaire (Doub 2016). Les fondateurs du projet (Judith Milhon, Lee Felsenstein, Efrem Lipkin, Mark Szpakowski) entendaient créer un système de communication non hiérarchisé où les membres pouvaient partager de l’information de manière décentralisée. Techniquement, le projet était le pilote d’un mini-réseau dans la région de la Baie de San Francisco et le succès qu’il rencontra enthousiasma ses initiateurs tant par l’engouement du public à pouvoir disposer d’un réseau d’information communautaire mais aussi par la créativité spontanée de ce public pour échanger des informations (Colstad and Lipkin 1976). Michael Rossman, journaliste, ex–activiste du Free Speech Movement et qui fréquentait alors assidûment le projet Community Memory, affirma à son propos : « le projet est indéniablement politique. Sa politique est centrée sur le pouvoir du peuple - son pouvoir par rapport aux informations qui lui sont utiles, son pouvoir par rapport à la technologie de l’information (matériel et logiciel). » (Rossman 1976)
Community Memory a fait des émules au-delà de San Francisco et ses choix techniques étaient eux aussi des choix politiques : le projet était hébergé par Resource One, une organisation non gouvernementale créée lors de la crise de 1970 et l’invasion controversée du Cambodge par l’armée des États-Unis en avril. Il s’agissait de mettre en place l’accès à un calculateur pour tous ceux qui se reconnaissaient dans le mouvement de contre-culture de l’époque. Avec ce calculateur (Resource One Generalized Information Retrieval System – ROGIRS), des terminaux maillés sur le territoire américain et les lignes téléphoniques WATS, les utilisateurs de Community Memory pouvaient entrer des informations sous forme de texte et les partager avec tous les membres de la communauté, programmeurs ou non, à partir de terminaux en accès libre. Il s’agissait généralement de petites annonces, de mini-tracts, etc. dont les mots-clés permettaient le classement.
Pour Lee Felsenstein, le principal intérêt du projet était de démocratiser l’usage de l’ordinateur, en réaction au monde universitaire ou aux élus des grandes entreprises qui s’en réservaient l’usage. Mais les caractéristiques du projet allaient beaucoup plus loin : pas de hiérarchie entre utilisateurs, respect de l’anonymat, aucune autorité ne pouvait hiérarchiser l’information, un accès égalitaire à l’information.
Community Memory était une émergence technologique de la contre-culture américaine. En tant qu’objet technique et idéologique, il s’opposait surtout à tout contrôle de l’État, dans un climat de méfiance entretenu par les épisodes de la guerre du Vietnam ou le scandale du Watergate. Pour y accéder, il fallait que l’on accepte de participer à et d’entrer dans une communauté, seule à même de rendre des comptes, indépendamment de toute structure institutionnelle. Ce système de pair à pair s’oppose frontalement à toute intention de contrôle et de surveillance externe.
C’est à travers ce type de projets que les hackers furent généralement identifiés, du moins dans les représentations populaires. Tous les hackers n’appartenaient pas à la contre-culture, du moins tous ne se prêtaient pas, dans les rues, à des manifestations contestataires. Mais tous croyaient sincèrement en une chose : l’informatique et plus généralement les ordinateurs, doivent améliorer notre quotidien. Lee Felsenstein et ses amis en étaient persuadés eux aussi, persuadés que ce modèle d’échanges d’information et de savoir-faire constituait un projet social.
Le côté obscur
Dispositifs techniques et intérêt social interagissent mutuellement. Cependant, cette affirmation que nous posons aujourd’hui comme une évidence n’est pas aisée à expliquer dans l’histoire des assimilations sociales des dispositifs informatiques. En l’espace d’à peine dix ans, la représentation commune du rapport entre utilité et contraintes de l’ordinateur a radicalement changé lors de l’apparition de l’ordinateur personnel sur le marché de la consommation des foyers.
Ce changement s’est déroulé en deux temps : dans un premier temps, une critique générale des systèmes informatiques des entreprises conçu comme une « décapacitation » du travailleur, puis, dans un second temps, une adoption de l’informatique individuelle sur le marché de la consommation, motivé par le discours d’encapacitation issu à la fois de la culture hacker et du marketing. Bien qu’une étude historique plus approfondie soit hautement souhaitable, on peut étudier ces deux étapes indépendamment des terrains géographiques car, comme nous allons le voir, un discours commun dans la « culture occidentale » se dégage autour d’une conception déterministe de la technologie.
Comme nous l’avons vu plus haut, les années 1960 connurent une embauche massive de personnels visant d’une part à apprendre les langages informatiques et d’autre part intégrer les systèmes d’information (le passage de la mécanographie à l’automatisation du travail de la donnée). Du point de vue managérial, toutefois, le thème dominant allait jusqu’à fantasmer sur la capacité des systèmes d’information à automatiser entièrement une entreprise (Haigh 2001), et manière plus prosaïque, on voyait clairement émerger une nouvelle sorte d’ingénieurs, éloignés de la programmation et du matériel : les spécialistes des systèmes d’information.
Face à ces bouleversements radicaux, tout particulièrement dans les grandes entreprises qui accomplissaient leur conversion informatique, on pouvait s’attendre à ce que les syndicats manifestent bruyamment leur méfiance. Jusqu’à la fin des années 1960, ce ne fut pas le cas dans les pays occidentaux pour plusieurs raisons. Aux États-Unis, l’évolution technologique était essentiellement comprise comme la clé des gains de productivité et de la diversification des activités, en particulier la technologie de pointe, celle justement qui permettait d’avoir des entreprises multinationales, monopolistiques, leader de l’automatisation et de l’informatique, surtout pourvoyeuses d’emplois qualifiés. Du côté Européen, à l’instar de la France, on remédiait assez lentement au retard technologique, notamment à cause de la conversion difficile de l’économie agricole et le trop grand nombre de petites entreprises.
À la lecture des archives du Trades Union Congress (TUC) on voit cependant que les syndicats de Grande Bretagne étaient en revanche très attentifs à la question mais adoptaient une posture linéaire depuis le milieu des années 1950 (où le congrès déclare se refuser à toute interprétation alarmante au sujet de l’automation dans les entreprises4), jusqu’à la mise en place en 1964 d’un sous-comité chargé de veiller à la mécanisation des bureaux et au développement de l’informatique d’entreprise (avec des points de vigilance au sujet des éventuelles suppressions de postes et l’augmentation du temps de travail5). Mais si les positions officielles du TUC étaient toujours très conciliantes avec les politiques d’avancement technologique du gouvernement, ce n’était pas le cas pour d’autres syndicats membres tels l’Amalgamed Engineering Union (regroupant des ingénieurs) dont le Comité National vota une résolution très contraignante dont les deux premiers points impliquaient de ne pas accepter de licenciement en cas d’automatisation de tâches, et pour tout changement organisationnel, obliger une consultation préalable des syndicats6.
Du point de vue des travailleurs, en effet, le sujet de l’informatique d’entreprise était alors un sujet complexe, une affaire d’ingénieurs qui s’occupaient des grandes machines dont le nombre se chiffrait seulement en milliers à l’échelle mondiale. Par contraste, la décennie des années 1970, avec la venue sur le marché des mini-ordinateurs, était une période de digestion des transformations des organisations qui s’informatisaient à une vitesse exponentielle, à mesure que les coûts investis dans ce secteur baissaient drastiquement.
Dès lors, loin des préoccupations de rentabilité, les répercussions sur l’organisation du travail furent ressenties tantôt comme une forme de taylorisation du travail de bureau, tantôt comme une négation du travail vivant (au sens marxiste) du travailleur, une remise en cause de son accomplissement personnel au profit d’une automatisation routinière, surveillée et guidée par des machines, en somme un travail « électronicisé » (Zuboff 1988).
Une prophétie se réalisait, celle de Charles Babbage lui-même qui affirmait en 1832 (Babbage 1963, 191) :
La division du travail peut être appliquée avec le même succès aussi bien aux opérations mentales qu’aux opérations mécaniques, ce qui assure dans les deux cas la même économie de temps.
C’est cette taylorisation mentale que les syndicats dénonçaient avec force. Pour certains, l’informatique était le « Cheval de Troie » de la taylorisation, en particulier du point de vue de l’ingénieur devenu un appendice pensant de la machine, à la capacité d’initiative réduite et par conséquent soumis à l’organisation et au pouvoir des organisateurs. L’informatique devenait l’instrument d’un pouvoir de classe là où elle était censée libérer les travailleurs, développer l’autonomie créatrice et démocratiser les organisations (Cooley 1980).
Ce point fut problématisé entre 1975 et 1977 par l’une des figures les plus connues de la théorie du contrôle, Howard H. Rosenbrock. Selon lui, la formulation mathématique du contrôle des processus ne peut être exhaustive et l’approche algorithmique ne peut être que le résultat d’un compromis entre des choix existants. Le choix ne se réduit jamais entre ce qui est entièrement automatisable ou non. Le principal biais du contrôle moderne est selon lui une distanciation de l’ingénieur par rapport à son objet : parce que nous voulons toujours une solution unique, optimale, les procédures tendent à restreindre les objectifs parce qu’elles n’intègrent pas, ou mal, les éléments qualitatifs et les jugements de valeurs. Si bien que, à l’ère des ordinateurs, le constat est partagé : l’ordinateur devient un « manuel de conception automatisé » (Rosenbrock 1977), ne laissant que des choix mineurs à l’ingénieur tout en donnant naissance à un brouillage entre la gestion des process et l’application de la technologie.
Entre la réduction de l’autonomie créatrice et le terrain gagné par la taylorisation mentale, tout particulièrement dans les secteurs tertiaires, les syndicats commencèrent à élaborer une réflexion ambivalente.
D’un côté il existait des projets de transformation organisationnelle dont l’objectif était très clairement guidé par une conception hacker de partage de connaissances et de pratiques. On peut citer sur ce point les projets scandinaves (en Norvège, au Danemark et en Suède) menés à partir de 1975, à l’initiative conjointe des chercheurs (on retient le rôle phare de Kristen Nygaard) et des unions syndicales afin d’influencer les développements locaux des technologies informatiques sur un mode démocratique, en alliant les contraintes de rentabilité, l’accroissement des compétences des travailleurs et la qualité de vie au travail. Le célèbre projet Utopia (Sundblad 2011), entre 1981 et 1986, était la continuité logique de projets précédents et regroupait l’ensemble des syndicats scandinaves des travailleurs graphiques (Bødker et al. 2000). Néanmoins, selon les participants, les expériences montraient que les technologies de productions en place constituaient des obstacles souvent infranchissables pour que les demandes des syndicats (être associés aux changements organisationnels, co-développer des dispositifs de production, faire valoir leur expertise, accroître leurs compétences, etc.) puissent réellement aboutir. Ce que montraient ces projets en réalité, c’était que les nouvelles technologies limitent les revendications des travailleurs et reflètent davantage les intérêts des entreprises (Lundin 2011). Les technologies, et plus particulièrement l’informatique et les systèmes d’information sont chargés de valeurs, et elles ne sont pas toujours socialement acceptables.
Face à l’avancement des technologies dans l’entreprise, les syndicats prenaient de plus en plus conscience que si l’informatisation de la société s’accommodait d’un discours positif sur le progrès social et le contrôle des technologies, les travailleurs n’avaient pour autre solution que de se soumettre à un nouvel ordre négocié où les technologies leur étaient justement incontrôlable. Ce paradoxe était essentiellement nourri d’une idée répandue alors : la technique détermine l’ordre social.
Éclairant l’état d’esprit des chefs d’entreprises à propos de l’adoption des systèmes de traitement de données informatisés dans les organisations, on peut noter ces mots de Franco Debenedetti, directeur général adjoint de Olivetti, lors d’une conférence organisée par le Financial Times en 1979, à propos de l’avenir de l’EDP (Electronic Data Processing) (Cité par S. Smith 1989) :
Il s’agit d’une technologie de coordination et de contrôle d’une main-d’œuvre, les cols blancs, que l’organisation (traditionnelle) ne couvre pas (…). En ce sens, l’EDP est en fait une technologie organisationnelle, et comme l’organisation du travail elle a une double fonction de force productive et d’outil de contrôle pour le capital.
Si bien que, d’un autre côté, face à des projets de transformation technologique où la négociation se concentrait plus sur l’aménagement du poste informatique que sur le rôle de l’informatique dans la transformation du travail, des voix réfractaires se faisaient entendre.
Comme le montre Tali Kristal pour ce qui concerne l’industrie américaine des années 1970 (Kristal 2013), la face « noire » des technologies informatiques était d’une part le fait de l’inégalité de classe qu’elles induisaient historiquement dans l’entreprise qui s’informatise tout en diminuant le pouvoir de l’action syndicale, mais aussi en dissociant le travail de l’expertise des cadres intermédiaires et des ingénieurs. En somme, l’informatisation a été aussi considérée comme un mouvement capitaliste construit sur une concentration des pouvoirs et la diminution des contre-pouvoirs dans les institutions de l’économie.
Pour prendre l’exemple de la France, le « mai des banques » en 19747, fut un épisode pour le moins surprenant : dans un secteur où se jouait déjà depuis des années un processus d’informatisation qui promettait à la fois qualité de travail et gains de productivité, les travailleurs ne se plaignaient pas seulement de leurs conditions de travail et salariales mais en interrogeaient aussi le sens. En effet le secteur bancaire n’avait pas complètement terminé ce processus d’automatisation si bien que le passage à l’informatique devait passer par une forme assumée de taylorisation de travail de bureau et, par extension, une déqualification d’une partie des employés (Moussy 1988). Préalablement, une augmentation de la demande de produits bancaires résultant de la réforme Debré de 1966 (une déréglementation de la banque qui introduisit une concurrence au nombre de guichets) avait suscité une embauche en nombre d’employés dont la qualification était de niveau moyen à bas : ces mêmes employés qu’il fallait former pour parachever la modernisation de la banque tout en maîtrisant la masse et le coût salarial. À une déqualification générale correspondait alors au début des années 1970 (et ce, jusqu’au milieu des années 1980) une employabilité toute aussi concurrentielle de jeunes diplômés sur-qualifiés pour le travail demandé, alors qu’en même temps la formation interne peinait à suivre le mouvement. Mutation informatique et déréglementation furent les principales causes de ce mouvement de 1974, dont le nom est une référence aux grèves de « mai 1968 », débuté en janvier au Crédit Lyonnais puis à la Banque de France et suivi presque aussitôt et bruyamment par les employés d’autres établissements jusqu’en avril (Feintrenie 2003).
On connaît les positions de la CFDT (Confédération française démocratique du travail) qui s’impliqua très tôt dans ce conflit du secteur bancaire. Suivant les positions d’autres syndicats en Europe, elle s’était lancée depuis quelque temps dans une réflexion de fond sur le rapport entre informatique et travailleurs. Le « mai des banques » fut un élément déclencheur qui donna lieu avec succès à un colloque en 1976 intitulé « Progrès technique, organisation du travail, conflits ». Organisé par le secteur « Action Revendicative » de la CFDT et le trio Jean-Louis Missika, Jean-Philippe Faivret – alias Philippe Lemoine – et Dominique Wolton, il donna lieu à une publication au Seuil : Les dégâts du progrès. Les travailleurs face au changement technique. Il s’agissait de penser ce nouveau rapport à la technologie dans des secteurs d’activité très différents en prenant en compte l’impact social et économique de l’informatisation et son articulation avec l’organisation du travail. L’auteur de la préface, Edmond Maire (secrétaire général de la CFDT de 1971 à 1988), résume ainsi (Maire 1977) :
Il suffit d’avoir en mémoire les grandes grèves des banques et des PTT en 1974 où les OS du tertiaire sont apparus en pleine lumière, celles de Renault au Mans sur le travail à la chaîne, de Péchiney-Noguères contre le chantage technologique, d’Usinor-Dunkerque contestant la prétendue impossibilité technique d’assurer la sécurité ; et, au-delà, la mise en cause croissante du travail posté, de la dangereuse accélération du programme d’énergie nucléaire, de l’impérialisme de l’informatique et du danger qu’il fait courir aux libertés.
Cet « impérialisme de l’informatique » est vécu dans le monde du travail des années 1970 de deux manières. Premièrement, il s’agit de mettre en exergue l’informatique comme outil de contrôle. Mais ce contrôle n’est pas celui du contremaître ou de l’informatique de gestion. Il s’agit d’un contrôle qui change radicalement l’organisation même du travail parce qu’il s’agit d’automatiser les tâches pour qu’elles deviennent des sources d’information les plus exhaustives possible. Deuxièmement, ces données ont pour effet d’intellectualiser le travail, c’est-à-dire qu’elles détachent le travail de la production. Comme le montrent les auteurs : « les tâches de contrôle et de surveillance remplacent les tâches de production. » (Missika, Faivret, and Wolton 1977, 41)
Le discours était le même pour ce qui concernait le secteur bancaire et ajoutait la dimension supplémentaire du service rendu à la clientèle qui, considéré du point de vue de l’informatisation, présentait ce danger de la surveillance des individus (Missika, Faivret, and Wolton 1977, 101) :
L’informatique n’est pas seulement une « solution » aux difficultés rencontrées en raison du développement bancaire, elle est avant tout la solution patronale : pour tout autre, elle pose plus de problèmes qu’elle n’en résout. Pour le personnel, elle signifie la standardisation des opérations et la scission entre une masse déqualifiée et un petit noyau super-qualifié. Pour la clientèle, elle constitue une action commerciale anonyme et un risque pour ses libertés.
Vie privée : inquiétudes
Choc pétrolier et crise économique, augmentation du chômage et prolétarisation intellectuelle, ont fait des années 1970 une décennie où les promesses de la technologie devenaient aussi des menaces. S’y adapter devenait un enjeu crucial pour les travailleurs : cette prise de conscience était celle de l’impact radical du changement technologique sur la société.
Démonstration de cet impact dans les représentations communes, en France, le plan « informatique pour tous » (IPT) lancé en 1985 par le ministre Laurent Fabius ne poussait pas seulement la société Thomson à des prétentions au niveau de la grande IBM. Selon les mots du ministre, ce plan entendait « donner à notre société la chance de mieux dominer l’avenir » (Fabius 1985). Le message était si bien reçu que, dans les enquêtes « Informatique pour tous », les enseignants démontraient par leurs réflexions qu’ils avaient profondément intégré le rapport entre société et informatique : pour eux le plan IPT ne représentait pas un moyen de permettre à des élèves de découvrir l’informatique, mais d’intégrer les usages déjà existants dans le domaine de l’enseignement. En somme, une nécessaire adaptation de l’école à la société (Narcy 1986) :
S’il n’est pas surprenant qu’ils voient presque unanimement en elle un instrument motivant pour les élèves, il est plus étonnant qu’ils la considèrent davantage comme une « nouvelle nécessité culturelle » que comme un outil pédagogique paré des vertus du « rattrapage », de « l’individualisation » ou de la « rigueur intellectuelle ». C’est, un peu comme si l’informatique devait, avant tout, être présente dans l’enseignement parce qu’elle est présente dans la vie sociale, indépendamment de ses apports spécifiques.
Pour qu’en 1985 les enseignants français puissent à ce point admettre que l’adoption générale de l’informatique dans la société pousse l’école à s’adapter aux usages, et non les créer, c’est parce que les représentations communes allaient dans le sens d’un certain déterminisme technologique : la technologie était présente et c’était à la société de s’y adapter.
Les critiques syndicales des transformations technologiques n’étaient pourtant que rarement technophobes. Simplement, elles avaient tendance à suivre la même idée qu’à une autonomie de la technologie (au sens de Jacques Ellul) il fallait répondre par négociations et compromis alors même que les fonctions de contrôle et de surveillance des technologies en question étaient considérées comme un instrument de pouvoir patronal. Même dans les projets où la transformation technologique pouvait paraître démocratique, l’idée qu’elle puisse être contrôlable relevait davantage de la croyance que de la soumission à un nouvel ordre capitaliste. De ce point de vue on peut mieux comprendre la construction d’une philosophie déterministe de la technique à cette période cruciale (voir section suivante).
Ceci était d’autant plus paradoxal que le rapport entre vie sociale et informatique contenait un point particulièrement problématique depuis le milieu des années 1960 : face aux bases de données informatisées et les menaces qu’elles portaient sur la vie privée, le débat public n’a cessé de croître. Là où il fut le plus visible, ce fut sur le territoire nord-américain à partir du milieu des années 1960 pour au moins deux raisons : c’est là que s’est industrialisé l’exploitation des bases de données informatiques (Atten 2013), surtout dans les secteurs bancaires, assurantiels, et dans l’administration publique, et c’est là qu’on peut identifier dans les publications (monographies, articles et rapports) une construction de la privacy à partir d’une définition juridique de la vie privée datant de la fin du XIXe siècle (The right to be let alone).
Pendant près de 50 ans jusqu’à nos jours (et nous pouvons gager que la question est loin d’être réglée), la construction de la privacy est le fruit d’une convergence entre l’histoire technique des infrastructures informatiques, l’histoire d’une économie capitaliste de la donnée, et l’histoire de la lutte pour la protection de la vie privée dans le débat public et les pratiques de régulation gouvernementales (Masutti 2020). Face aux abus des pratiques bancaires et des sociétés de crédit constatés par les consommateurs, l’État fédéral américain mis en place le Fair Credit Information Act en 1970 puis, résultat des débats tenus au Congrès sur l’usage des banques de données publiques, le Privacy Act de 1974 fut voté à son tour.
Les publications furent abondantes au sujet des « menaces sur la vie privée » que représentaient les bases de données. Employant une rhétorique qui emprunte chez Georges Orwell et Max Weber un appareillage conceptuel faisant planer les dangers d’une « société du dossier » à venir, des auteurs comme Alan Westin proposèrent au début des années 1970 une définition de le vie privée comme « une exigence à décider soi-même comment et quand les informations qui nous concernent peuvent être communiquées » (Westin 1967, 7). Peu à peu un courant de pensée se construisit et s’internationalisa au fur et à mesure que l’informatisation gagnait tous les secteurs économiques, que l’industrie de l’informatique devint une industrie faite de multinationales spécialisées, et que l’emploi des bases de données et des plateformes se généralisait jusqu’à configurer ce que Foster et Chesney nomment le capitalisme de surveillance, fruit de la jonction historique de l’impérialisme américain, de l’économie politique et de l’industrie du numérique (Foster and McChesney 2014).
Daniel J. Solove (Solove 2002), s’efforce en 2002 de synthétiser la privacy en y incluant la définition « primaire » de la vie privée au sens de la Common Law américaine (le droit d’être laissé tranquille) et y ajoutant autant de contre-propositions à l’économie de la surveillance : l’accès limité à la personne, le droit au secret, le contrôle des renseignements personnels, etc. Et c’est en 2014 avec les Révélation d’Edward Snowden que le monde apprit que malgré les nombreux débats et lois promulguées durant des années, des agences publiques et des entreprises multinationales et monopolistique de l’économie numérique avaient organisé un vaste espionnage de masse à l’échelle de la planète.
La construction de la privacy est le fruit de plus 50 ans de combats, de revendications et de créativité juridique. Si bien que l’avènement tant craint de la « société du contrôle » (de décider, d’agir, de penser, d’être) est surtout le fruit d’un imaginaire collectif tandis que la surveillance est devenue le moteur même de l’économie, translation de la surveillance des process de production de l’entreprise à la surveillance comportementale des consommateurs, ordonnancement des modèles monopolistiques et exploitation des données dans un contexte hautement concurrentiel dominé par le marketing et les objectifs de rentabilité (Zuboff 2019).
Ces débats sur la surveillance donnèrent lieu à de nombreuses études. Les surveillances studies plongent leurs racines dans cette histoire des années 1970 où l’on commençait à interroger notre rapport à l’informatique sous l’angle de l’exploitation de la donnée. Dans la mesure où des données peuvent être extraites de nos comportements pour être traitées de manière automatisée afin de créer de la valeur, les comportements peuvent être alors considérés comme des ressources primaires. Cette assimilation du comportement implique deux choses : la première est un déplacement du concept de comportement qui n’est plus seulement la manifestation, compréhension et l’anticipation des actions pour un observateur, mais la transformation de cette manifestation en indicateurs quantifiables et assimilables par la machine, c’est à dire les données personnelles. La seconde, c’est l’idée que l’avancement technologique permet la multiplication des indicateurs, l’accroissement des données quantifiables, et le passage de l’anticipation à la prédictibilité : le degré d’intrusion dans la vie privée ne s’évalue plus seulement en fonction de l’observateur mais en fonction de la technologie mobilisée pour cela.
En réponse à l’électronicisation de la vie privée et l’algorithmisation du traitement des données personnelles, les combats pour la vie privée ne se placent plus seulement sur terrain du droit, mais confrontent le droit et la technologie selon deux tendances possibles. La première consiste à maintenir une tradition contractualiste, celle que les philosophes du droit comme John Rawls ont travaillé durant les années 1970 (Rawls 1997) en articulant éthique et justice, où la liberté individuelle prévaut. C’est ce qui permet d’expliquer pourquoi les voix les plus retentissantes comme Allan Westin utilisaient cette double rhétorique du repoussoir orwellien (le totalitarisme contre les libertés) et du repoussoir weberien (la société du dossier, la bureaucratie contre une perspective américanisante d’un national-libéralisme supposé de Max Weber (Draus 1995)). La seconde constitue une réaction à la quantification par une institutionnalisation de la vie privée, la privacy : la sanctuarisation de la vie privée serait le fondement d’un nouvel équilibre entre la société et ses institutions, le droit et une économie capitaliste qui implique l’usage illimité des technologies au nom de la rentabilité et du profit illimité.
À ceci près que pendant que les luttes pour la vie privée s’organisaient sur de multiples fronts (l’État intrusif, les banques, le marketing, etc.), on admettait que le questionnement sur la technologie était une affaire de philosophie et non pas d’usages puisque le déterminisme technologique ambiant appelait de ses vœux l’informatisation de la société et sa projection vers un avenir prometteur. Face au « progrès technologique », il y avait comme un parfum de défaite.
Ce rapport à la vie privée, est un trait caractéristique d’une société moderne qui, dans son rapport à la technique, en vient à sacraliser ce qui cristallise les transformations sociales. Ainsi l’État n’est pas seulement un système de gouvernance fait de dispositifs juridiques, moraux, ou policiers. L’État moderne est un État sacralisé dans la mesure où il est peut être assimilé à une entreprise de sécularisation des concepts religieux (Schmitt 1988 ; Aron 1944). Cet exemple est le plus évident. Cependant, selon les points de vue, d’autres aspects de notre modernité sont réputés sacralisés. Ainsi la fétichisation de la marchandise selon Guy Debord, qui montre de quelle façon l’idéologie capitaliste est communément cautionnée (Debord 1992). Il reprend ainsi l’idée de Karl Marx qui montrait que le rapport entre recherche du bonheur et bien matériel passait par l’illusion qu’une marchandise avait une valeur par elle-même8. Le thème traverse aussi toute l’œuvre de Jacques Ellul qui, de manière rétroactive, montre que la technique en désacralisant le monde (nature comme spiritualité) est devenue par un effet de renversement le seul recours de l’homme au sacré, la technique sacralisée (Ellul 1954).
Enfin, la vie privée comme ressource numérique relève aussi d’un autre thème philosophique, plus ontologique, celui de l’arraisonnement heideggerien (Heidegger 1958). Si on suit ce philosophe, la technique moderne n’est plus l’art, elle est devenue ce rapport paradoxal entre la volonté de puissance et l’exercice technique, soumission de l’homme à son destin technicien, non plus sujet mais être technique, par l’instrumentalisation, l’arraisonnement du monde qu’il ne peut plus voir que comme une ressource. Les Jacques Ellul ou Guy Debord ont en réalité cherché à montrer que l’homme pouvait encore échapper à ce destin funeste en prenant conscience ici de la prégnance de l’idéologie capitaliste et là d’une autonomie de la technique (hors de l’homme). Cependant, on ne peut s’empêcher de penser que l’extraction de données à partir de la vie privée est une forme d’arraisonnement poussé à l’extrême, sur l’homme lui même, désormais objet de la technique.
Le discours du déterminisme technologique qui implique que la société doit s’adapter à la technique prend une dimension tout à fait nouvelle dans le contexte de l’informatisation de la société. À travers l’histoire de la « Révolution Informatique », ce cauchemar heideggerien est né d’un discours aliénant, où l’ordinateur devient l’artefact central, et contre lequel la simple accusation d’aliénation technologique n’est plus suffisante pour se prémunir des dangers potentiels de cette désormais profonde acculturation informatique. Les combats pour la vie privée, loin d’être technophobes, sont autant de manifestations de l’inquiétude de l’homme à ne pouvoir se réapproprier la logique autonome de la technique.
La grande conjecture
Le déterminisme est une tradition
Si on a longtemps accusé à tort Jacques Ellul d’être déterministe, c’est pour deux raisons. D’abord parce que c’est un trait caractéristique de sa pensée que de montrer que la technique est déterminante dans les transformations sociales. Cependant cela n’implique pas pour autant que tout fait social soit explicable par la technique. Au contraire, ce qui alarme Ellul c’est justement que cette technicisation de la société est en train de se produire, et que la technique moderne devient autonome (et l’est déjà depuis un certain temps au moment où il écrit).
L’autre raison, c’est l’adoption de la pensée de Ellul aux État-Unis par une importante diffusion de son livre La Technique ou l’enjeu du siècle (Ellul 1954) sous le titre The technological society, publié en 1964 et introduit par l’éminent sociologue Robert K. Merton et sur les conseils d’Aldous Huxley (Ellul 1964, sec. 1). Dans sa préface, R. K. Merton le compare à Oswald Spengler et Lewis Mumford, et soutient qu’Ellul « propose un système de pensée qui, moyennant quelques modifications critiques, peut nous aider à comprendre les forces qui se cachent derrière le développement de la civilisation technique qui est la nôtre ». Certes la société se technicise, la délibération devient rationalisation-quantification, l’économie devient pure concentration de capital et planification forcenée où l’analyse laisse place à la technique, tout ceci est contenu dans l’œuvre d’Ellul, et Merton le remarque bien. Mais au-delà d’une mise en garde contre le réflexe technophobe, c’est aussi d’une lecture techniciste de l’histoire qu’Ellul nous invite à se méfier (même si la technique joue malgré tout chez Ellul un rôle primordial et presque normatif dans sa propre lecture de l’histoire). L’absorption de l’œuvre d’Ellul aux États-Unis a certainement été en quelque sorte victime de cette lecture trop techniciste.
L’historien Merritt Roe Smith, après avoir travaillé des années sur l’histoire des techniques en Amérique, montre à quel point le déterminisme technologique imprègne la culture américaine au moins depuis le XVIIIe siècle (M. R. Smith 1994). Les visions technocratiques issues des discours politiques impliquent ainsi depuis des centaines d’années l’idée que les innovations technologiques ne sont pas seulement des illustrations du « progrès en marche » mais sont autant de preuves de cette marche du progrès, en particulier dans notre quotidien. Selon M. R. Smith cette vision s’est disséminée dans toutes les sphères intellectuelles, des politiques aux écrivains en passant par les grands industriels. L’avènement de la publicité au début du XXe siècle marqua un virage décisif : le progrès n’était plus simplement le synonyme de l’espoir industriel, la technologie était « devenue la cause du bien-être humain ». Face à ce refrain si profondément intégré, les auteurs les plus critiques tel Henri D. Thoreau qui prétendait (avant Heidegger) que les hommes étaient « devenus les outils de leurs outils » (Thoreau 1922), ont pu laisser un héritage littéraire pertinent. Cependant, d’après M. R. Smith, ce furent trois auteurs qui produisirent aux États-Unis un appareillage critique central, bien que contenant encore des bribes de déterminisme puisqu’ils reconnaissent implicitement que la technique est une force agissante qui modèle l’histoire : « Lewis Mumford, Jaques Ellul et Langdon Winner ».
Dès lors, que peut-on opposer à des siècles où le paradigme dominant implique de penser toute avancée technique comme un déterminant social décisif, central, voire absolu ? On sait bien depuis l’avènement des STS que ce n’est pas le cas mais encore une fois nous cherchons ici à comprendre le discours dominant qui n’est manifestement pas celui de l’historien éclairé mais auquel il est finalement toujours soumis. De fait, aux États-Unis comme en Europe, le mantra récité durant les trente années qui suivent l’apparition de l’industrie informatique est celui qui tient l’ordinateur comme une technologie clé de l’histoire. Ce peut être le résultat, pour reprendre la pensée de Bernard Stiegler, que la technologie a toujours été pensée d’après la tradition antique comme un « dehors » auquel répondait le « dedans » de la philosophie, le savoir, la connaissance dont la technique n’est au plus qu’un dérivé auxiliaire. Or, avec l’avènement de l’ordinateur et de la mise en réseau des machines, c’est la communication et donc le langage, véhicule de ce « dedans », qui s’est mis à dépendre fondamentalement de la technique.
Les historiens dans leurs travaux plus récents ne furent pas exempts de cette manière de considérer la technique comme un déterminant, certes rarement unique ou exclusif, mais autonome, même lorsqu’ils attribuaient un rôle décisif aux interactions sociales et aux acteurs des transformations techniques. Par exemple l’historien Paul E. Ceruzzi, dans la conclusion de sa grande histoire de l’informatique moderne, revient sur cette modernité. Il l’exprime comme un processus autonome de remplacement d’une technologie par une autre. Pour lui, l’histoire des ordinateurs et des réseaux est celle de deux prises de contrôle successives de l’analogique par le numérique. La première a été identifiée au début des années 1970 lorsque les ordinateurs ont remplacé les circuits électroniques analogiques par la programmation et la miniaturisation. La seconde est Internet, mariage de tout le secteur des communications avec l’informatique en lieu et place des télécommunications analogiques. Une prise de contrôle validée « par tout le spectre politique et culturel, par Newt Gingrich, Al Gore, Stewart Brand, feu Timothy Leary, la ‘génération X’ et de nombreuses autres personnes » (Ceruzzi 1998, 347).
Pourtant, au cours des années 1960 et 1970, la manière dont on concevait la dynamique du changement technologique était le résultat de l’observation de ce qui était en train de se passer dans l’industrie : la spécialisation toujours plus croissante des entreprises, et en particulier l’apparition des entreprises dites de « haute technologie » ou « de pointe », et l’informatisation de cette industrie qui permettait d’accroître la production et travailler en réseau (là où Ford maîtrisait sa chaîne de A à Z suivant un vieux modèle, les secteurs les plus technologiquement avancés travaillaient la coopération).
Ce changement permettait d’appréhender différemment le déterminisme technologique. Ce fut le cas de Robert L. Heilbronner qui publia un article de référence en posant la question frontalement : les machines font-elles l’histoire (Heilbroner 1967) ? Il montre que si la technologie influence l’ordre social, il y a comme un processus d’aller et retour entre l’innovation et un aspect fondamental de l’organisation sociale, la production. C’est pourquoi on peut qualifier le déterminisme de R. L . Heilbronner de « déterminisme doux ». En effet, pour lui, ce qui fait que les développements technologiques sont prévisibles, ce n’est pas parce qu’ils sont les fruits d’une application mécanique de la science sur la technique, mais le résultat d’une organisation de la production adéquate pour atteindre un stade supérieur de technologie : division du travail, spécialisation des industries et coopération. Et cette organisation est elle-même dépendante du capital mobilisé pour atteindre une congruence efficace entre les fonctions industrielles diversifiées et coopérantes. Le capitalisme autant que la science conditionne la production technologique, ce qui fait de la technologie un médiateur social qui définit les caractéristiques de la société où elle se développe : la composition de la population active (spécialisations, compétences) et l’organisation hiérarchique du travail. Si bien que dans l’histoire récente du capitalisme, là où J. Ellul pointait une technique qui s’autonomise, R. L. Heilbronner montre que si le capitalisme est le stimulant d’une technologie de production, l’expansion de la technologie dans le système de marché prend un aspect automatique à bien des égards parce que production devient synonyme de production technologique dans un système concurrentiel et de course à l’innovation.
Choisir entre antériorité ou postériorité de la technique par rapport au changement social devient un problème qui a fait son temps. La question est de savoir comment la technique est conçue comme un intermédiaire entre capitalisme-productivisme et changement social. Cependant, hors de l’ombre de ce tout technique, l’historien Lewis Mumford proposait quasi simultanément à la parution de l’article de R. L Heibronner, encore une autre manière d’envisager la technique dans Le mythe de la machine (Mumford 1973). Reléguant le couple capitalisme-machinisme au rang d’épisode négligeable dans l’histoire de l’humanité, Mumford resitue le rapport à la technique sur le temps long, depuis la préhistoire et l’émergence des États et des régimes de gouvernement où la technique apparaît comme le véhicule du pouvoir, une mégamachine (c’est ce qu’un Serge Latouche affirmera plus tard (Latouche 1995) en assimilant technique et culture9). Mieux encore, pour L. Mumford, le rôle de la technique avait largement été fantasmé et cette dissonance entre société et technique, il l’avait déjà expliqué dans Technique et civilisation en 1934 en ces termes (Mumford 1950, 35) :
En fait, la nécessité de promouvoir sans cesse des changements et des améliorations — ce qui est la caractéristique du capitalisme — a introduit un élément d’instabilité dans la technique et empêché la société d’assimiler ces perfectionnements et de les intégrer dans des schémas sociaux appropriés.
Mais dans la (ou les) mégamachine(s) qu’il décrit en 1967, tout est déjà compris : division du travail, exploitation des classes, pouvoir centralisé, puissance militaire, logique impérialiste… sans pour autant fermer la porte à une reconquête possible de la machine ou plutôt cette « mégatechnologie » qui, aux mains d’une minorité de puissants menace les individus en les enfermant dans un régime fonctionnel fait de contrôle et d’automatismes. Au moment où étaient en train de naître les réseaux de communication numérique, et alors même qu’on avait déjà assimilé des modèles théoriques de tel réseaux, notamment grâce aux travaux de Ted Nelson (qui invente l’hypertexte) en 1965, la possibilité de mettre en relation les individus était en même temps la possibilité de se sortir éventuellement de la dynamique de la mégamachine qui instrumentalise la technique. L. Mumford déclarera ainsi en 1972 (Mumford 2014) :
(…) l’objectif majeur de la technique n’est ni d’étendre encore le domaine de la machine, ni d’accélérer la transformation des découvertes scientifiques en inventions rentables, ni d’accroître la production de nouveautés technologiques changeantes et de modes dictatoriales; ce n’est pas non plus de placer toutes les activités humaines sous la surveillance et le contrôle de l’ordinateur – en bref, ce n’est pas de riveter les parties de la mégamachine planétaire encore indépendantes de manière à ce qu’il n’y ait plus moyen de s’en échapper. Non: la tâche essentielle qui incombe aujourd’hui à tous les intermédiaires humains, et surtout à la technique, est de restituer les qualités autonomes de la vie à une culture qui, sans elles, ne pourra pas survivre aux forces destructrices et irrationnelles qu’ont déclenchées ses réalisations mécaniques initiales.
Cette possibilité entr’ouverte, elle fut sans doute comprise par bien des acteurs de l’élaboration commune d’un agrégat technique qui sera nommé Internet. C’est très certainement cette ré-appropriation de la technologie qui a motivé les hackers du projet Community Memory et bien d’autres initiatives du genre, et qui donnèrent lieu à une économie de services et un choix qui fit de L. Mumford une Cassandre des temps modernes.
Réseaux, démocratie, capital
On attribue généralement la naissance d’Internet à la mise en œuvre combinée de projets militaires et civils aux États-Unis à la fin des années 1960. Sans revenir sur cette histoire maintes fois racontée, il y a plusieurs aspects que nous devons prendre en compte dans la manière dont l’usage des technologies de réseau s’étendit à travers la société.
En premier lieu, les réseaux informatiques sont le résultat d’une combinaison d’ordinateurs, de systèmes d’exploitation et de protocoles de communication. Des ordinateurs, avant tout, puisque le projet initial de l’ARPA (pour l’exprimer simplement : construire un réseau résilient) comportait une alliance très forte avec une entreprise issue du MIT nommée BBN (créé par les professeurs Leo Beranek et Richard Bolt, rejoints ensuite par un de leurs étudiants, Robert Newman) qui elle même entretenait des liens historiques avec DEC (Digital Equipment Corporation), productrice d’ordinateurs type PDP pour une grande partie des instituts de recherche. Bien que DEC ne fut pas la seule entreprise concernée, le développement ultérieur des mini-ordinateurs de type PDP-11 puis le passage à des architectures 32 bits, la baisse des coûts de production, jouèrent un rôle décisif dans le développement du marché des mini-ordinateurs et leur mise en réseau. L’arrivée de systèmes d’exploitation à temps partagé (dont CTSS – Compatible Time-Sharing System – fut l’un des projets phare au MIT, avec pour successeur le projet Multics) fut l’une des conditions à réunir pour permettre aux utilisateurs de se connecter à plusieurs sur un ordinateur. Ces créations furent associées à d’autres concepts théoriques et applicatifs tels la commutation de paquets (un sujet que Paul Baran avait initié au début des années 1960), ou, de manière structurée, la suite de protocoles TCP/IP (travaillée par Bob Kahn au début des années 1970).
Ces exemples ne montrent qu’une petite partie de l’ensemble nommé Internet, et qui n’est lui-même que la partie de réseaux de réseaux accessible au public. Des premières recherches conceptuelles qui s’agrégèrent jusqu’aux réseaux opérationnels, les technologies de base d’Internet ont été développées sur une trentaine d’années et ne cessent d’évoluer. De plus, cet agrégat n’est pas qu’un amalgame de technologies, il est le fruit de bien des aspects relationnels entre acteurs et groupes d’acteurs, institutions et entreprises. De ces convergences découla la concrétisation de la notion de computer utility, c’est-à-dire un modèle économique de service : mise à disposition de ressources informatiques (puissance de calcul) et gestion d’infrastructures (Garfinkel 1999). Ce modèle fut pensé dès le début des années 1960 mais l’arrivée de l’informatique en réseau lui donna corps, et avec cela tout un discours sur la transformation sociale qui, en un sens radicale, supposait que la technologie recelait en elle et de manière positive les ingrédients de cette transformation, comme si elle ne relevait d’aucune pensée préalable. Or, ce n’était évidemment pas le cas. Nous l’avons vu avec la pensée hacker, et comme l’a brillamment montré Fred Turner à travers des hommes comme Stewart Brand et The WELL, il en va ainsi de la majorité des acteurs principaux qui ont construit l’économie de la Silicon Valley sur l’idée que les technologies apportent les réponses à tous les « grands problèmes du monde ».
Les réseaux et leurs infrastructures ne sont pas seulement le substrat technique sur lequel s’est développée l’économie numérique. Nombre d’acteurs qui ont construit cette économie partageaient une vision commune du rapport entre société et technique que l’on pourrait qualifier de solutionniste. Ils marquèrent sur plusieurs décennies le point de basculement principal dans le processus d’informatisation de la société : les ordinateurs n’étaient pas qu’une extension du machinisme dont l’objectif était d’augmenter notre production et améliorer notre bien-être. Ils allaient plutôt nous permettre de changer le monde et pour cela, il était impératif que la société accepte le rôle calculatoire de l’ordinateur comme le maillon principal des processus de décision et d’action.
Bien entendu, ce n’était pas le point de vue de tous les hackers. Cependant, comme le montre Fred Turner, le déplacement de la contre-culture hippie associé à la logique industrielle et au libéralisme a créé un certain anti-autoritarisme qui s’est lui-même structuré en ce que nous pouvons identifier comme un « libertarianisme californien ». Le couple technologie-capital que mentionnait R. L. Heilbronner a fini par captiver cette contre-culture au point que la plupart de ces ingénieurs hétérogènes (si on les considère du point de vue acteur-réseau) on fait le choix de l’aventure entrepreneuriale. C’est au début des années 1980 que d’autres ont au contraire commencé à y voir les déséquilibres économiques et éthiques et investirent alors le modèle du logiciel libre, comme nous le verrons plus loin. Toujours est-il qu’Internet devenait l’El-Dorado de l’économie de service, point de jonction entre l’encapacitation sociale et le cercle vertueux du capital et de l’innovation.
La fin des années 1970 et le début des années 1980 furent des moments propices à la construction de cette représentation d’Internet et de l’économie de services. Cette période connut non seulement l’arrivée de l’ordinateur personnel sur le marché de la consommation de masse mais aussi la consolidation des systèmes de gestion de bases de données, et une assimilation unanime de l’informatique à la fois par les entreprises de tous les secteurs d’activité et les administrations publiques. Ainsi, en 1978, dans son best seller intitulé The Wired Society (Martin 1978) (récompensé du Pullizer), James Martin pouvait bénéficier d’un terrain d’étude extrêmement favorable sur ce qu’il a nommé les « autoroutes des télécommunications ». Il ne s’agissait plus de supposer le développement futur des usages et de leurs implications dans la société, mais de faire un premier point sur ce qu’avait changé la haute disponibilité de l’information. Huit ans plus tôt, dans un précédent ouvrage co-écrit avec Adrian Norman, The Computerized Society (Martin and Norman 1970) il s’agissait de prévenir des dangers potentiels de l’omniprésence des algorithmes dans les systèmes décisionnels : à partir du moment où un système est informatisé, la quantification devient la seule manière de décrire le monde. 0r la veille des années 1980, son analyse n’avait guère changé : le danger ne peut provenir que de ce que l’homme fera des techniques à sa disposition mais elles sont libératrices par essence, leur utilité l’emporte sur l’adversité. Il devenait le futurologue qui mettait fin aux craintes de l’avènement d’une société Orwellienne : la diversité des informations et leur accessibilité sur les autoroutes de télécommunication devait agir comme une garantie à l’encontre de la manipulation mentale et de l’autoritarisme. Les promesses de l’accès illimité aux contenus éducatifs et du partage des connaissances devaient constituer l’antithèse des régimes totalitaires qui restreignent et contrôlent les communications.
Comment comprendre ce revirement qui, à nos yeux contemporains et compte-tenu de ce que nous savons de la surveillance en démocratie, passe aussitôt pour de la naïveté ? En démocratie, l’information et le partage d’information est un élément décisif de l’épanouissement d’une société. Pense-t-on pour autant que, développés en majeure partie dans des pays démocratiques et propagés par les vertus de l’économie libérale, les réseaux de communication numériques ne pourraient servir que des objectifs démocratiques ? Il est compréhensible que leur avènement ait tant bousculé les organisations que cette révolution ait un temps occulté le fait que l’analogie n’est pas fondée.
La même année, en 1978, Murray Turoff et Roxanne Hiltz publient The Network Nation (Turoff and Hiltz 1994), un livre aux conséquences souvent mal connues mais qui consacra le domaine des communications en ligne comme la technologie-clé censée révolutionner la vie sociale et intellectuelle. M. Turoff avait inventé un système de conférence électronique pour le gouvernement américain afin de communiquer en temps de crise. Initiateur du concept de Communication médiée par ordinateur (computer-mediated conferencing, CMC), il continua avec Roxanne Hiltz, qui devint son épouse, à développer son système électronique d’échanges d’informations jusqu’à aboutir à une présentation exhaustive de ce que signifie vraiment communiquer à distance par ordinateurs interposés : échanges de contenus (volumes et vitesse), communication sociale-émotionnelle (les émoticônes), réduction des distances et isolement, communication synchrone et asynchrone, retombées scientifiques, usages domestiques de la communication en ligne, etc. Récompensés en 1994 par l’EFF Pioneer Award, on considère aujourd’hui Murray Turoff et Roxanne Hiltz comme les « parents » des systèmes de forums et de chat massivement utilisés aujourd’hui.
Pour eux, dans la mesure où les réseaux et leurs infrastructures continuent de se développer, la Network Nation ne demande qu’à éclore, aboutissant à un « village planétaire », concrétisation de la pensée de Marshall McLuhan, où « la technologie en viendra probablement à dominer la communication internationale » (Turoff and Hiltz 1994, 25). À l’aide de nombreuses études de cas, ils démontrent combien l’organisation sociale (dont l’éducation et le travail à distance) et les modèles de décision collective peuvent être structurés autour des télécommunications numériques. De l’extension du modèle de démocratie participative asynchrone et obtention de consensus par conférence téléphonique (Etzioni, Laudon, and Lipson 1975), la récolte de l’opinion publique dans les Community Centers de Hawaï en 1978, jusqu’au test grandeur nature du Public Electronic Network de Santa Monica, Murray Turoff et Roxanne Hiltz montrent à quel point la démocratie participative par réseaux de communication pourrait même bousculer radicalement la démocratie représentative qui, elle, est basé sur une participation indirecte. Sans apporter vraiment de réponse à cette question, il reste que les auteurs livrent à ce moment-là une conception selon laquelle la technique est à même de conditionner la vie publique. Les choix relatifs à la régulation des usages sont désormais écrits (Turoff and Hiltz 1994, 400) :
Le domaine des communications numériques a atteint un point où ce n’est plus la technologie, mais les questions de politique, de droit et de réglementation qui détermineront le degré de bénéfice que la société en tirera. Si nous extrapolons les tendances actuelles, des aspects tels que les utilisations publiques peuvent être artificiellement retardés de plusieurs décennies (…)
Mais ce qui devra arriver arrivera, et cela tient intrinsèquement à la nature même des technologies de communication (Turoff and Hiltz 1994, 401) :
Dans la mesure où les communications humaines sont le mécanisme par lequel les valeurs sont transmises, tout changement significatif dans la technologie de cette communication est susceptible de permettre ou même de générer des changements de valeur.
Communiquer avec des ordinateurs, bâtir un système informatisé de communication sociale-émotionnelle ne change pas seulement l’organisation sociale, mais dans la mesure où l’ordinateur se fait de plus en plus le support exclusif des communications (et les prédictions de Turoff s’avéreront très exactes), la communication en réseau fini par déterminer nos valeurs. C’est en cela que la conjecture selon laquelle l’ordinateur est une technologie déterminante est une conjecture qui prend une dimension heuristique à la fin des années 1970. Et c’est la raison pour laquelle à cette époque l’ordinateur passe si difficilement sous le feu des critiques : on lui préfère l’analyse du machinisme ou les références anciennes à la domination de l’outil de travail.
Dans la sphère intellectuelle américaine, plus versée dans la littérature que dans les modèles de systèmes d’information, on retrouve l’adhésion à ce discours. Les enjeux humanistes qu’il soulève devenaient parfaitement audibles aux oreilles des non-techniciens. C’est le cas de Jay David Bolter qui, bien que formé à l’informatique, n’en était pas moins professeur de littérature soucieux de l’avenir culturel à l’âge informatique. En 1984, il écrivit un autre best seller intitulé Turing’s Man: Western Culture in the Computer Age (Bolter 1984). Pour lui, si l’ordinateur est une technologie déterminante, ce n’est pas parce que l’usage de la technique change les valeurs, mais c’est parce que l’ordinateur est comparable à la machine à vapeur ou à l’horloge qui, selon lui, ont révolutionné notre représentation du monde en redéfinissant notre rapport au temps, à la mémoire, à la logique, à la créativité, au langage… Bien que nous puissions en dire autant de bien d’autres techniques. En fait, si on se fie à J. D. Bolter, ces dernières sont déterminantes parce qu’elles se situent haut sur une sorte d'« échelle de la détermination technologique ». Comme toutes les révolutions, la révolution informatique se mesure à l’aune de ses dangers et de la pensée critique qui s’en empare. Pour J. D. Bolter, l’âge informatique est un âge où le risque est grand de perdre l’humanisme occidental en le noyant dans une quantification de nos vies par le traitement des données informatiques. Et si la tradition humaniste est à ce point en danger, ce serait parce que la technologie a toujours déterminé la pensée. L’ordinateur suit la même voie séculaire (Bolter 1984, 36) :
Le scientifique ou le philosophe qui travaille avec de tels outils électronique pensera différemment que ceux qui travaillaient sur des bureaux ordinaires, avec du papier et des crayons, avec des stylets et des parchemins, ou du papyrus. Il choisira des problèmes différents et trouvera des solutions différentes.
Là encore, tout comme dans le livre de James Martin, on se situe bien loin des craintes d’un futur Orwellien, mariage entre technologie et totalitarisme : le côté rassurant de la technologie, aussi révolutionnaire qu’elle soit, c’est qu’elle se présente désormais comme un « déjà-là » et détermine ce que sera « l’homme de Turing ». Un état de fait qu’on ne peut qu’accepter et en trouver les avantages.
Là où Lewis Mumford voyait entr’ouverte la porte de sortie du déterminisme, J. D. Bolter la referme avec la plus grande candeur : il appartiendrait à chacun de savoir conserver la part d’humanisme dans un monde fait par la technique et pour la technique. Mais là encore, tout comme beaucoup ont mal lu J. Elllul, beaucoup ont fait l’erreur de ne pas comprendre que la mégamachine moderne n’est pas toute entière issue de la technique ou de la pensée technocratique. Il faudra plusieurs années entre la fin des années 1960 et le début des années 1990 pour que, à travers le ronronnement permanent des discours sur les bienfaits de l’innovation technoscientifique, émergent des dissonances qui ne s’attachent plus uniquement au problème du déterminisme technologique et au regret d’un humanisme perdu, mais sur les dynamiques sociales qui conditionnent la mégamachine.
En 1966, la Monthly Review publiait l’ouvrage monumental de Paul Sweezy et Paul A. Baran, Le capital monopoliste, un essai sur la société industrielle américaine. L’idée que le pouvoir n’est finalement que secondaire dans une société capitaliste où la logique économique a son cheminement propre, non pas essentiellement technique mais résultat d’une tension entre production et coût de production d’où émergent des tendances impérialistes, consuméristes, monopolistes. Pour survivre, les entreprises sont condamnées à innover. Et c’est ce qu’en 1991 et 1995 l’économiste Serge Latouche nomme le principe du « maximine » (Latouche 1991 ; Latouche 1995) (maximisation du profit, minimisation des coûts), selon lequel l’innovation technologique est le moteur qui génère nos comportements modernes de consommateurs et d’accumulateurs. Pour Serge Latouche, la mégamachine est en réalité la société toute entière qui entretient une synergie entre logique technicienne et logique économique.
Et d’autres auteurs encore développèrent cette approche critique, y compris de nos jours, via une démarche opérant une certaine filiation américaine de la pensée « néo-marxiste ». Ainsi John Bellamy Foster et Robert Mc Chesney qui, au lendemain des révélations Snowden, montrent comment la logique monopoliste, impérialiste et militariste conditionnent notre soumission à un capitalisme de surveillance. C’est-à-dire un capitalisme technologiste qui, pour reprendre le mot de Bernard Stiegler, contribue à prolétariser les individus dans leur quotidien, leur vie, leur comportement, leurs relations, là où on attendait justement des infrastructures technologiques des communications l’espoir d’une émancipation démocratique qui manquait déjà tant aux années 1970.
Internet, dispositif indéterminé
Sommes-nous arrivés à un âge critique où, après un trop-plein d’innovations techniques dont l’économie numérique serait la dernière manifestation (à la suite de la révolution pharmaceutique ou de l’automobile), une prise de conscience serait advenue faisant valoir un discours réaliste sur les interactions entre les dynamique sociales et les techniques ? Prendrait-on conscience d’un trait caractéristique de notre modernité selon lequel la société est dominée non pas par la technique mais par une logique d’accumulation qui détermine à son tour les conditions de l’innovation et donc les techniques ? Marketing, consommation, impérialisme militaro-économique, concurrence et monopoles, décision publique favorable aux monopoles, tous ces leviers (on peut ajouter le capitalisme d’État pour certaines puissances) en faveur des objectifs de production des sociétés modernes montrent que si on peut définir une société par ses technologies-clé, cette définition est non seulement non-exclusive mais doit intégrer le fait qu’il s’agit avant tout de choix collectifs, de stratégies de développement et non de la technique en soi.
C’est l’argument retenu lorsqu’on envisage les changements technologiques à une échelle plus globale et qu’on la confronte aux enjeux environnementaux. D’un côté, la lutte contre le changement climatique ou la prise de conscience des écueils de l’anthropocène et, de l’autre, l’idée que ce sont nos choix techniques qui ont dirigé plus ou moins consciemment les sociétés vers les impasses de l’urgence climatique. Là ne se confrontent plus artefacts et nature (si tant est que l’homme technicien se définisse comme « maître et possesseur ») mais capital et oïkoumène, le milieu, notre commun naturel. Et nous aboutissons aux même arguments de Bernard Stiegler : les technologies numériques font partie d’un ensemble de choix techniques dont la tendance générale consiste à prolétariser toujours plus l’homme (exceptés ceux aux commandes). En séparant technique et savoir, l’homme s’est privé de la critique scientifique de la technique et de là vient la tendance déterministe alors que l’homme se voit dépossédé de ses savoir-faire (automatisation) et savoir-être (algorithmisation de nos comportements). Penser la technique aujourd’hui consiste alors à se demander comment nous pouvons entamer une procédure de déprolétarisation en construisant, selon B. Stiegler, une économie de la contribution, c’est-à-dire une économie dont l’objectif n’est plus composé du moteur accumulation-innovation-profits. Nous y reviendrons plus loin.
Face à cette critique, les forces qui opposent une vision déterministe de la technique relèvent de l’intérêt particulier d’une vision capitaliste dont la caractéristique est de livrer une description monolithique des techniques. Pour qu’une technologie-clé soit considérée comme telle, alors que de sa promotion dépendent les choix économiques, il importe de la définir comme une technologie aboutie ou mature, et surtout libérée des contraintes sociales, c’est-à-dire postuler une neutralité de la technique, une suspension dans les vapeurs éthérées du progrès. Qu’est-ce que cela signifie ? C’est le déploiement d’un discours d’autojustification de la décision : l’utilité économique de la technologie l’emporte sur sa valeur sociale, ou en d’autres termes le besoin individuel (sublimé par l’acte de consommation) l’emporte sur l’intérêt commun. L’autonomie de la technique annoncée par J. Ellul est advenue et semble pleinement assumée par les discours dominants des entreprises monopolistes de la Silicon Valley pour lesquelles il n’existe aucun problème que la technologie ne puisse résoudre, et qui guident la décision publique vers un régime de « start-up nation » comme le souhaitait ardemment le président Macron.
Alors même que le mot « numérique » est sur toutes les lèvres pour promouvoir ce projet global de soumission à un ordre technologique capitaliste, Internet et le mouvement du logiciel libre démontrent depuis le milieu des années 1980 qu’il est possible de se réapproprier socialement la technique et la libérer des discours déterministes. Lorsqu’Internet a commencé à être conçu comme un moyen ouvert de télécommunication assistée par des ordinateurs en réseau, c’est-à-dire comme un moyen de communication social-émotionnel en même temps qu’une infinité d’offres de services et d’innovation dont le modèle économique a explosé dans les années 1990, il a produit en réalité un dispositif technique dont la prégnance sur la société contemporaine est si importante qu’il semble déterminer nos comportements et nos relations sociales. Mais ce n’est qu’une apparence. Nous avons vu qu’Internet est en fait un amalgame de dispositifs techniques. Plus exactement, on peut désigner Internet comme un méta-dispositif socio-technique :
- Sa construction historique est une association d’infrastructures techniques différentes, de programmes et de protocoles différents, tous issus d’une dynamique d’échanges entre des groupes sociaux (issus de la recherche académique, d’entreprises ou des institutions décisionnaires) ;
- Son modèle de gouvernance est essentiellement basé sur l’ouverture, comme le montre l’Internet Engineering Task Force (IETF) et son système de requêtes de commentaires, ou comme la suite de protocole TCP/IP (depuis 1973) : l’ouverture s’oppose ici à la possibilité qu’un ayant droit, comme un constructeur, puisse décider des conditions d’usage. Tout le monde peut contribuer à l’avancement d’Internet et des protocoles de communication utilisés. Des organismes de normalisation tels l’IETF ou le W3C consolident juridiquement les innovations issues de cette dynamique d’ouverture (pour éviter, par exemple, les patent troll) ;
- C’est en particulier grâce à cette liberté des échanges que le mouvement du logiciel libre, dont le concept a été défini au début des années 1980, a pu s’émanciper. L’ouverture d’Internet associée aux libertés logicielles a construit un modèle économique contributif, c’est-à-dire dont le niveau de coopération et de production ne dépendent pas du développement individuel des parties, mais du niveau de progression des communs numériques.
En 2020, les chercheuses Mélanie Dulong de Rosnay et Francesca Musiani (Dulong de Rosnay and Musiani 2020) ont publié un article qui interroge la pertinence aujourd’hui des solutions alternatives d’un internet centralisateur et visiblement en tout point éloigné des objectifs d’émancipation que les discours politiques ont tendance à rabâcher. Face aux entreprises monopolistes et au capitalisme de surveillance, elles questionnent les possibilités qu’offrent depuis des années les technologies ouvertes tels le pair à pair (P2P) et autres moyens de communication décentralisés, de pouvoir proposer des alternatives tout en se rapprochant des nouveaux modes de production et de partage qu’offrent les modèles basés sur les communs. Cette manière de concevoir ce rapport entre technique et société permet aujourd’hui de considérer une autre organisation de la société, d’autres modes de production et d’échanges en alliant les architectures décentralisées et la gouvernance des biens communs (Bauwens and Kostakis 2017).
Étant donné le peu de recherche à ce sujet avant les années 2010, nous avons eu tendance à sous-estimer l’impact de la logique du logiciel libre et des échanges P2P dans la représentation générale du rapport entre société et technique. Ce n’est pas par hasard qu’au milieu des années 1980 le concept de logiciel libre se déploie dans la culture en appliquant ses principes à d’autres formes d’échanges et tout particulièrement les connaissances. Les années 1980 correspondent aussi, nous l’avons vu, à l’arrivée des sciences studies. Même si leur naissance conceptuelle débute un peu auparavant (Pestre 2006), les années 1980 furent un véritable âge d’or d’une modernisation de l’histoire des sciences et des techniques. Et à cet impératif d’interdisciplinarité répondait un changement général dans les discours sur les techniques, celui de l’intégration entre science, technique et société. Il ne pouvait plus être affirmé sans contradiction immédiate que le développement des technologies informatiques et surtout les programmes était une affaire d’innovation et de marché uniquement : comme c’était le cas aux premiers âges des ordinateurs mainframe, le logiciel libre, le développement mondial de GNU/Linux, l’arrivée de Wikipédia, tout cela montrait que l’informatique était avant tout une affaire de communautés d’utilisateurs et de créateurs. Les réseaux ont accentué significativement la tendance au partage et ont fait de ces communautés des illustrations évidentes des dynamiques de co-construction entre techniques et organisation sociale.
Ne nous méprenons pas : il n’y a pas de lien de causalité entre l’émergence de communautés mondiales d’utilisateurs et de programmeurs communiquant avec Internet et le nouvel élan scientifique des science studies. Les deux sont concomitants : des convergences conceptuelles existent entre une vision sociale des techniques et un vécu social des techniques. Le logiciel libre, formalisé juridiquement par les licences libres, est une démonstration à grande échelle de ce que les communautés de pratiques apportent comme apprentissages organisationnels et dynamiques d’innovation. Les communautés ne sont pas que des collectifs de partage mais des maillons décisifs dans l’organisation collective du processus de création : conceptualisation, tests, validation (Cohendet, Créplet, and Dupouët 2003).
Le mouvement du logiciel libre, parce qu’il est avant tout un mouvement social, a suscité beaucoup d’espoirs au point de le considérer comme une utopie plus ou moins concrète qui proposerait une alternative au modèle capitaliste dominant. Il n’en est rien : comme le montre Sébastien Broca (Broca 2018), ce mouvement est profondément ancré dans le modèle capitaliste et notre modernité. Certes, il propose de nouveaux équilibres face aux impasses de la propriété intellectuelle, de la concentration des savoirs, de l’accès aux technologies, et de l’organisation du travail (opposer verticalité et horizontalité, cathédrale ou bazar). Pour autant, les libertés que garanti le logiciel libre ne s’opposent à aucun modèle économique en particulier. Dans la mesure où le secteur de la programmation et des services est aujourd’hui un secteur soumis à de très fortes tensions concurrentielles, il n’y a pas de raison pour que les entreprises spécialisées (les sociétés de services en logiciels libres, SSLL) échappent au modèle dominant, même si elles portent en elles des messages éthiques auxquels adhèrent les utilisateurs. L’éthique du logiciel libre apporte une régulation du marché, sans doute la meilleure, en s’appuyant sur des arguments solides et qui engagent utilisateurs et concepteurs dans un avenir cohérent et durable.
Ce qui a fondamentalement changé la donne, en revanche, c’est l’intégration du concept de pair à pair dans les structures mêmes des réseaux de communication. Et parce que les protocoles qui le permettent sont ouverts et basés sur les mêmes libertés numériques que promeut le mouvement pour le logiciel libre, alors le méta-dispositif socio-technique qu’est Internet peut proposer des modèles de production de valeur indépendants des marchés dominants et des politiques économiques. Historiquement cette idée fait écho à la Déclaration d’Indépendance du Cyberespace écrite en 1996 par John Perry Barlow. Cette dernière été comprise comme le rêve libertarien d’un « village global » de communications et d’échanges sans État ni pouvoir central. À bien des égards, c’était le cas, car en 1996 la Déclaration était d’abord une réaction au Telecommunications Act instauré par le gouvernement de Bill Clinton aux États-Unis, qui ouvrait la concurrence dans les services et équipements de télécommunication et contribua finalement à la bulle capitaliste qui explosa en 2000. En revanche, la Déclaration oppose deux approches de la communication : l’une soumise à un ordre de gouvernement qui impose son modèle par le haut, et l’autre qui promeut, en « défense de l’intérêt commun », une « conversation globale de bits », des échanges selon un ordre collectivement déterminé. Face à un ordre économique profondément inégalitaire, un système différent basé sur des échanges égalitaires permet une mutualisation de l’information et structure la gouvernance des communs. Une gouvernance décidée, orientée, régulée collectivement.
Quels communs ? En premier lieu des biens communs informationnels, dont la caractéristique est d’être non rivaux. Mais d’autres communs peuvent être ainsi gouvernés collectivement de manière à ce que les échanges informationnels de pair à pair permettent de structurer la décision et l’organisation, tout comme le logiciel libre permettait des apprentissages organisationnels. Les modèles de production et d’usage sont alors des modèles sociotechniques : décision et processus de décision, le substrat technique sur lequel la décision se structure, c’est-à-dire les outils communicationnels de pair à pair, autant que les échanges de pair à pair de biens et services. Il peut s’agir de modèles bénévoles ou de modèles marchands. Dans tous les cas, le principe de pair à pair empêche fondamentalement les déséquilibres que cause la prédation d’une économie extractive qui ronge les communs et les individus, qu’il s’agisse de l’environnement, de la connaissance ou encore de nos données personnelles.
Dans une économie pair à pair, il est aussi important de structurer les échanges que de les pratiquer. C’est pourquoi, lorsqu’on se concentre sur le rôle que joue Internet (et le cyberespace) il est important là encore d’éviter toute approche déterministe. La proposition selon laquelle l’innovation venue d’un monde « d’en haut », imposée comme une technique autonome à laquelle nous devrions nous adapter, est fondamentalement une proposition fallacieuse : s’adapter à Google ou à Facebook comme les seuls pourvoyeurs de solutions de communication sur Internet, c’est accepter des modèles d’échanges qui sont structurellement inégalitaires. Certes des échanges auront bien lieu, mais ils se soumettent à une logique extractive et, comme l’a montré l’affaire Cambridge Analytica, ils imposent aussi leur propre ordre politique. L’autre face de cette proposition fallacieuse consiste à séparer technique et société, en faisant croire qu’Internet est avant tout un ensemble de services techniques précis dont l’avenir ne dépend pas des utilisateurs mais des capacités d’innovation des entreprises qui construisent pour nous un cyberespace mesuré et régulé… alors qu’il est essentiellement conformé à leurs propres intérêts, ainsi qu’en témoigne la tendance concentrationnaire des conditions de l’innovation technique (propriété intellectuelle, puissance financière, possession des infrastructures).
Lorsque le philosophe des techniques Andrew Feenberg s’interroge à propos d’Internet et de son pouvoir d’encapacitation démocratique (Feenberg 2014), il commence par montrer combien Internet est un dispositif qui échappe aux analyses classiques. Historiquement, la stabilisation d’une technologie dans la société vient du fait qu’elle entre dans une dynamique de production et d’innovation qui lui est propre : ce n’est qu’après que le moteur à explosion soit choisi de préférence par les constructeurs que l’automobile passa du statut de prototype à objet de luxe puis à un objet de consommation qui modifia l’organisation sociale en tant que mode de transport. Il n’y a pas d'« artefact Internet » et encore moins qui puisse répondre à ce schéma. C’est pourquoi le fait qu’Internet soit un espace d’échanges qui favoriserait la démocratie est une affirmation qui, selon A. Feenberg doit d’abord prendre en considération qu’Internet est un dispositif sociotechnique qui est encore indéterminé. Pour notre part, nous pensons qu’Internet est potentiellement un dispositif à jamais indéterminé à condition de maintenir le pair à pair comme principe fondamental.
On peut considérer le dispositif dans un sens philosophique. Essentiellement en référence à Michel Foucault, plusieurs penseurs ont travaillé cette notion de dispositif. Giogio Agamben répond à la question Qu’est-ce qu’un dispositif ? en ces termes (Agamben 2014 ; Agamben 2006) :
(…) tout ce qui a, d’une manière ou d’une autre, la capacité de capturer, d’orienter, de déterminer, d’intercepter, de modeler, de contrôler et d’assurer les gestes, les conduites, les opinions et les discours des êtres vivants. Pas seulement les prisons donc, les asiles, le panoptikon, les écoles, la confession, les usines, les disciplines, les mesures juridiques, dont l’articulation avec le pouvoir est en un sens évidente, mais aussi, le stylo, l’écriture, la littérature, la philosophie, l’agriculture, la cigarette, la navigation, les ordinateurs, les téléphones portables, et, pourquoi pas, le langage lui-même (…)
Définir un dispositif, c’est le faire entrer dans une liste dont l’objectif est de rassembler des éléments certes hétérogènes (dispositifs institutionnels, cognitifs, techniques, etc.) mais dont, à un moment donné la cohérence définit l’action. Par exemple l’action de gouverner, d’imposer un pouvoir, ou pour ce qui concerne un dispositif technique, le fait de déterminer des usages ou configurer plus ou moins significativement l’organisation sociale. Envisager Internet comme un dispositif, au sens philosophique, amène une dimension supplémentaire à notre analyse : si Internet est un dispositif indéterminé, il peut devenir l’infrastructure au sens métaphorique, ou la matrice matérielle et logicielle, pratique et théorique, des relations de pair à pair à la source d’alternatives plurielles et néanmoins cohérentes au modèle privateur dominant, et donc matrice d’apprentissages organisationnels ouvrant une pluralité de choix sociaux, économiques, technologiques, politiques.
Internet est ce que nous en ferons. Et pour cela il n’y a aucune ambiguïté dans les projets communautaires consistant à bâtir des réseaux dont les caractéristiques intègrent techniquement la logique des échanges pair à pair grâce au développement de logiciels libres. C’est le cas de ce qui a été nommé depuis quelques années le Fediverse. Il s’agit d’un ensemble de serveurs fédérés entre eux de telle sorte que chacun d’entre eux puisse échanger avec les autres de manière transparente afin de former des réseaux décentralisés de publications de contenus. Chaque serveur propose au moins une instance d’un logiciel libre dont le but est de permettre aux utilisateurs de communiquer entre eux et à travers toutes les instances, par exemple pour des activités de micro-blogage, de blog, de partage de vidéo, de musique, etc. Les logiciels sont libres (le code est connu de tous) et les protocoles ouverts sont standardisés (depuis 2008 avec OStatus jusqu’au protocole ActivityPub recommandé par le W3C). Les seules limites au Fediverse sont celles de la créativité de ses utilisateurs et concepteurs ainsi que l’impossibilité technique de centraliser et capter des ressources, surtout dans une logique de profit, sans sortir du Fediverse. Quant aux usages, et le fait qu’une instance puisse être acceptée par les autres, ils reposent eux aussi sur les notions de partage et de réciprocité. Le Fediverse est sans doute la plus brillante démonstration de l’indétermination d’Internet en tant que dispositif sociotechnique : nonobstant la législation en vigueur dans le pays où une instance est installée, toute tentative de régulation par le haut afin de défendre des intérêts particuliers est vouée à l’échec (de l’un ou de l’autre ou des deux).
Conclusion : portes de sortie
Nous avons vu qu’une tradition du déterminisme technologique transparaissait dans les représentations d’une société informatisée, mêlant ici les espoirs de l’encapacitation générale à la démocratie, et là la nécessité d’un modèle productiviste et innovateur. L’économie numérique s’est imposée comme un nouvel ordre face auquel les critiques « anti-déterministes » avaient tendance à focaliser sur les critiques du pouvoir que cet ordre imposait, ou sur les manquements éthiques d’une technique prétendue autonome. Cependant, si l’avancement technologique est bien le jeu d’interactions entre sciences, techniques et société, il pouvait y avoir la possibilité pour que certaines techniques intègrent en elles by design une réaction à ce nouvel ordre économique. Par conséquent, il existe bien une possibilité de se sortir du modèle productiviste et d’innovation capitaliste. Néanmoins ce modèle est tellement dominant que, du point de vue des utilisateurs, c’est le discours déterministe qui reste encore le plus audible sur le mode d’une idolâtrie de la machine pour reprendre les mots de Simondon (Simondon 1969).
Une grande partie des usages publics d’Internet sont dépendants de sociétés de services qui centralisent l’information et conditionnent les usages de manière déloyale afin d’extraire des données personnelles des utilisateurs. Longtemps dénoncé, ce système fait d’internet un dispositif d’assujettissement, ainsi que le montre S. Zuboff, en surveillant nos quotidiens, en captant nos expériences humaines et en les instrumentalisant pour orienter nos comportements. C’est pourquoi la critique de ce dispositif a fait un lien direct avec un autre dispositif, le panoptique de J. Bentham dont s’inspire Michel Foucault. En effet, pour ce dernier, tout dispositif, surtout parce qu’il a une finalité stratégique, contient une relation de pouvoir (Foucault 1994b, 300). La surveillance continue, exercée tant par des entreprises monopolistes que par des États, a éclaté au grand jour à travers le scandale soulevé par les Révélations Snowden en 2014. Or, ce fut là le point de convergence où l’on trouva les preuves indiscutables que les dispositifs de surveillance avaient des objectifs de contrôle et donc d’assujettissement. La clairvoyance des penseurs postmodernes pouvait être convoquée : si Michel Foucault avait bien anticipé le caractère transitoire d’une société disciplinaire où l’enfermement permet la surveillance et donc l’équilibre du contrat social, l’avenir d’une telle société, nous disait Gille Deleuze (Deleuze 1990), était de passer à un mode ouvert où le contrôle s’exercerait de manière instantanée, permanente et diffuse. À leur tour Michael Hardt et Antonio Negri (Negri and Hardt 2004) montrent que le propre d’une société de contrôle consiste à se servir des dispositifs les plus démocratiques, les plus socialement intégrés pour exercer un contrôle cognitif et biologique. Aujourd’hui ces formes de contrôles ne font aucun doute lorsqu’on considère les scandales sur la sécurité des données personnelles et la main-mise des courtiers de données sur l’analyse comportementale et le modelage de nos comportements au marché ou les techniques de surveillance de masse des populations par les États (et le marché hautement lucratif de ces techniques).
Nous savons tout cela. Mais à ne voir qu’un assujettissement, on ne pense plus une critique d’Internet qu’à travers ce prisme. Or, comme le montre le Fediverse, il existe des stratégies qui, depuis longtemps, imbriquent dans les dispositifs techniques des logiques en tout point opposées au contrôle et au pouvoir. D’où viennent ces stratégies ?
On pourrait les rapprocher des pratiques que déploient les individus en société, la consolidation des relations sociales à travers le souci de soi. Non pas un réflexe individualiste, mais à l’instar de la manière dont Michel Foucault en comprend le déploiement à partir de la cité antique (Foucault 1984), c’est-à-dire les « arts de l’existence », un travail sur soi que l’on fait à travers des pratiques permettant de se transformer afin de vivre avec les autres, partager des règles communes, un « connais-toi toi-même – mais aussi prend soin de toi », comme le conseille Socrate à Alcibiade, pour élever le citoyen (peut-être amené à gouverner) vers l’exemplarité, l’esthétique de soi. Le souci de soi est d’abord la capacité de prendre la mesure de l’autre, en ce sens c’est un rapport éthique : « le souci de soi est éthiquement premier, dans la mesure où le rapport à soi est ontologiquement premier » (Foucault 1994a). C’est un principe d’accomplissement et en cela, le souci de soi, individuellement et collectivement, est la tendance à mettre en œuvre des pratiques de liberté. Le principe du pair à pair et son inclusion dans des dispositifs techniques tels le Fediverse, élaborés collectivement, de manière contributive, apparemment spontanée mais dans l’effort réfléchi d’une stratégie altruiste, relève de ce souci de soi en structurant les conditions communes de communication et de production de contenus.
Ces pratiques de libertés se retrouvent dans l’œuvre de Michel de Certeau (Certeau 1990). Ce dernier oppose au principe d’assujettissement une lecture beaucoup plus fine du quotidien de l’homme ordinaire face à un ordre organisateur de la technologie. M. de Certeau s’interroge d’abord sur notre état de consommateur dans une économie de production où nous serions docilement soumis à la manipulation par dispositifs communicationnels interposés de marketing ou de télévision. Comment comprendre que la masse de nos singularités puisse être comprise comme un tout uniforme soumis au pouvoir des dispositifs sociotechniques de l’économie ou de l’État ? Au contraire, dans les messages qu’il reçoit, dans ses manières de consommer ou d’agir avec les techniques qu’on lui vend ou qu’on lui impose, il y a toujours chez l’individu un moment de réappropriation tactique qui est en soi un mode de production selon le contexte, un réemploi qui est quelque chose de plus que le seul usage, c’est-à-dire une manière de faire et une manière d’être qui sont à nulles autres pareilles. Or, alors même que les critiques des GAFAM montrent à quel point l’économie numérique influe sur nos quotidiens au point de s’en emparer en pillant notre vie privée, il s’avère que l’équation n’est peut-être pas aussi simple du point de vue individuel. L’approche du quotidien comme celle de Michel de Certeau peut sans doute édulcorer l’idée d’un assujettissement général aux dispositifs de pouvoir.
Alan Westin, l’une des figures intellectuelles des débats publics sur la vie privée au début des années 1970, a longuement travaillé avec de grands instituts de sondage sur la manière dont la population américaine perçoit les risques liés à l’usage des données personnelles dans l’économie numérique. Il dirigea pas moins de 45 sondages entre 1979 et 2001. L’une de ses conclusions est que, si dans les années 1980 une petite partie seulement des personnes se sentait concernée par la question de la vie privée, les années 1990 connurent une multiplication des pratiques et stratégies des consommateurs pour veiller sur cette question. Il résume lors d’une intervention au Congrès en 2001 (Westin 2001) :
Au fil des ans, les sondages que j’ai menés auprès de Harris et de Opinion Research Corporation m’ont permis de dresser un profil de trois segments du public américain. Premièrement, il y a ce que nous appelons les « fondamentalistes de la protection de la vie privée », soit environ 25 % de la population. Il s’agit de personnes très préoccupées par la protection de la vie privée, qui rejettent généralement les avantages qui leur sont offerts par les entreprises ou qui sont sceptiques quant au besoin d’information du gouvernement, et qui veulent voir une loi pour contrôler la collecte et l’utilisation des renseignements personnels par les entreprises.
À l’opposé, il y a ce que j’appelle les « non-concernés », qui étaient auparavant de 20 %, mais qui sont maintenant tombés à 12 %, et qui ne savent vraiment pas de quoi il s’agit. J’aime à penser que pour 5 cents de rabais, ils vous donneront toutes les informations que vous voulez sur leur famille, leur style de vie, leurs plans de voyage, etc.
Entre les deux, il y a ce que nous appelons les « pragmatiques de la protection de la vie privée », soit 63 %, ce qui représente environ 126 millions d’adultes américains et, essentiellement, ils passent par un processus très structuré lorsqu’ils se préoccupent de leur vie privée.
Cet état des lieux montre à quel point l’écrasante majorité des personnes élabore des stratégies (et Michel de Certeau aurait parlé de tactiques) en réponse aux dispositifs de surveillance, alors même que la critique dominante des pratiques des entreprises et des États a tendance à présupposer la passivité chronique de toute la population. Et le problème ne cesse de s’aggraver. Dans un documentaire de 2020 intitulé The Social Dilemma, des « repentis » des grandes entreprises telles Facebook, témoignent à l’encontre des pratiques de captation de l’attention et d’extraction des données personnelles dont ils ont participé à la mise en œuvre. Au long du documentaire, le présupposé consiste à démontrer que seuls les experts des technologies numériques qui ont effectivement travaillé dans ces entreprises seraient à même de développer un discours légitime à leur propos. L’idée sous-jacente serait qu’il n’y peut y avoir de critique des dispositifs techniques en dehors de ces dispositifs. La société ne peut qu’être soumise à ce déterminisme technologique dans la mesure où l’expertise se concentre à l’intérieur du modèle économique qui crée la technologie.
On voit à quel point cette idée est décalée de la réalité car non seulement les utilisateurs créent dans leur quotidien des stratégies de réappropriation mais, de plus, ces stratégies ont toujours existé, depuis les phreakers jusqu’au détournement des services de catalogue commerciaux Prodigy en salons de chat à la fin des années 1980 jusqu’à la création de logiciels et services libres de réseaux sociaux. Des espaces de résistance se sont formés et n’appartiennent pas uniquement aux experts. Ces tactiques du quotidien sont diffuses et universelles. La logique et l’éthique hacker ont su gagner les mentalités et la culture.
On pourra néanmoins rétorquer qu’une analyse sociologique montrerait que l’adoption des dispositifs alternatifs a toujours besoin d’une expertise, et que par conséquent se développent là aussi des jeux de pouvoir entre spécialistes et non spécialistes. C’est d’autant moins vrai que de plus en plus de collectifs ouverts aux non-spécialistes proposent une organisation contributive des dispositifs techniques, c’est-à-dire la possibilité pour tous les utilisateurs d’accomplir leurs actes de réappropriation dans des espaces communs et dans un engagement éthique. Par exemple : ne pas exiger un service de courrier électronique à la hauteur de ce que les grandes firmes proposent, mais en retour avoir la possibilité d’utiliser un service de confiance, dont on connaît les responsables de maintenance. Répondre à des offres de services globaux et basées sur des logiques de profits en initialisant de nouvelles chaînes de confiance dans un système de pair à pair, local et contributif, telle est la réponse « populaire » à la défaite de l’assujettissement, de l’aliénation ou du refuge spirituel.
En fin de compte, il ne suffit pas de s’approprier ou de transformer les techniques (la perversion de l’éthique hacker par les chantres de la Silicon Valley l’a bien montré). La déprolétarisation pensée par Bernard Stiegler ne se suffit pas à elle-même : c’est dans un système contributif qu’il faut créer des techniques qui n’ont pas de prise aliénante sur l’homme. L’éthique du logiciel libre non plus ne se suffit pas : il faut pour lui donner corps des collectifs qui mettent en œuvre concrètement des systèmes de pair à pair producteurs d’organisation, de pratiques mais aussi de biens et services. Ces collectifs préfigurent des modèles organisationnels de demain, c’est-à-dire que les apprentissages organisationnels, les procédures démocratiques qu’ils mettent en œuvre tout autant que les services et les biens qu’ils produisent s’élaborent collectivement et simultanément, sans obéir à des schémas préexistants mais en s’adaptant aux contextes divers dans lesquels ils se déploient, et afin de refléter une ou plusieurs idées de la société future (voir à ce propos des mouvements préfiguratifs les travaux de Carl Boggs, David Graeber et Mariane Maeckelbergh).
Pour terminer cette conclusion, une proposition déclarative. Il est troublant de constater que dans la conclusion de leur article, M. Dulong de Rosnay et de F. Musiani proposent, pour que les alternatives au capitalisme numérique puissent aboutir, un triptyque composé d’un environnement de partage (juridiquement sécurisé), de la recherche et la diffusion des connaissances historiques et techniques. Nous établissons un parallèle avec le triptyque de David Graeber et Andrej Grubacic (Graeber and Grubacic 2004) à propos de l’avenir des mouvements anarchistes au XXIe siècle qui, pour se déployer au mieux (et dans un mouvement que nous pouvons qualifier de préfiguratif, là aussi) ont besoin de la jonction entre militants, chercheurs et organisations populaires. Les mouvements collectifs du futur Internet établiront ces jonctions sur les déclinaisons suivantes des dispositifs socio-techniques communicationnels :
- indétermination du dispositif (logique d’ouverture et innovation collective permanente),
- neutralité et communalité assurées par le design matériel et logiciel,
- interopérabilité et compatibilité,
- responsabilité juridique et indépendance institutionnelle,
- pérennité des protocoles et contributions (RFC, copyleft)
- décentralisation, déconcentration des ressources (matérielles et financières)
- fédération des instances et gouvernementalité multiorganisationnelle,
- inclusion de tous et refus des formes de pouvoirs politiques, religieux, de classe ou capitalistes,
- opposition radicale à toute forme de surveillance à des fins de profits privés.
Bibliographie
Abbate, Janet. 2012. “L’histoire de l’Internet Au Prisme Des STS.” Le Temps Des médias 18 (1): 170. https://doi.org/10.3917/tdm.018.0170.
—. 2018. “Code Switch: Alternative Visions of Computer Expertise as Empowerment from the 1960s to the 2010s.” Technology and Culture 59 (4): S134–59. https://doi.org/10.1353/tech.2018.0152.
Agamben, Giorgio. 2006. “Théorie des dispositifs.” Po&sie 115 (1): 25–33. https://www.cairn.info/revue-poesie-2006-1-page-25.htm.
—. 2014. Qu’est-ce qu’un dispositif ? Paris: Rivages.
Agre, Philip E. 2002. “Cyberspace As American Culture.” Science as Culture 11 (2): 171–89. https://doi.org/10.1080/09505430220137234.
Akrich, Madeleine. 2006. “La Description Des Objets Techniques.” In Sociologie de La Traduction : Textes Fondateurs, edited by Michel Callon and Bruno Latour, 159–78. Sciences Sociales. Paris: Presses des Mines. http://books.openedition.org/pressesmines/1197.
Aron, Raymond. 1944. “L’avenir Des Religions séculières I.” La France Libre 8 (45): 210–17.
Atten, Michel. 2013. “Ce Que Les Bases de Données Font à La Vie Privée. L’émergence d’un Problème Public Dans l’Amérique Des Années 1960.” Réseaux 178 (2): 21–53. https://doi.org/10.3917/res.178.0021.
Babbage, Charles. 1963. On the Economy of Machinery and Manufactures (1832). (1832) ed. New York: Kelley.
Baran, Paul. 1965. “Communications, Computers and People.” In AFIPS, Fall Joint Comput. Conf., 27:45–49. Thompson Book Co.
Bauwens, Michel, and Vasilis Kostakis. 2017. Manifeste Pour Une véritable économie Collaborative. Vers Une Société Des Communs. Paris: Éditions Charles Léopold Mayer. https://www2.eclm.fr/livre/manifeste-pour-une-veritable-economie-collaborative/.
Bolter, J. David. 1984. Turing’s Man: Western Culture in the Computer Age. Chapel Hill: The University of North Carolina Press.
Broca, Sébastien. 2018. Utopie du logiciel libre. Lyon, France: Éditions le Passager clandestin.
Bødker, Susanne, Pelle Ehn, Dan Sjögren, and Yngve Sundblad. 2000. “Cooperative Design — Perspectives on 20 Years with ‘the Scandinavian IT Design Model’.” In Proceedings of NordiCHI 2000. Stockholm. https://www.lri.fr/~mbl/ENS/DEA-IHM/papers/Utopia.pdf.
Callon, Michel. 2006. “Sociologie de l’acteur réseau.” In Sociologie de La Traduction : Textes Fondateurs, edited by Madeleine Akrich and Bruno Latour, 267–76. Sciences Sociales. Paris: Presses des Mines. http://books.openedition.org/pressesmines/1201.
Certeau, Michel de. 1990. L’invention du quotidien. 2 vols. Paris, France: Gallimard, DL 1990-1994.
Ceruzzi, Paul E. 1998. A History of Modern Computing. MIT Press. Cambridge, Mass.
Charnes, Abraham, William W. Cooper, J. DeVoe, and D. B. Learner. 1968a. “DEMON: A Management Model for Marketing New Products.” California Management Review 11 (1): 31–46.
—. 1968b. “DEMON, MARK II : An External Equation Approach to New Product Marketing.” Management Science 14 (8): 513–24.
Cohendet, Patrick, Frédéric Créplet, and Olivier Dupouët. 2003. “Innovation Organisationnelle, Communautés de Pratique Et Communautés épistémiques: Le Cas de Linux.” Revue Française de Gestion 29 (146): 99–121. https://doi.org/10.3166/rfg.146.99-121.
Colstad, Ken, and Efrem Lipkin. 1976. “Community Memory: A Public Information Network.” ACM SIGCAS Computers and Society 6 (4): 6–7. https://doi.org/10.1145/958785.958788.
Conner, Clifford D. 2011. Histoire populaire des sciences. Montreuil, France: Éditions L’Échappée.
Cooley, Mike. 1980. “Computerization – Taylor’s Latest Disguise.” Economic and Industrial Democracy 1: 523–39. https://doi.org/10.1177%2F0143831X8014004.
Debord, Guy. 1992. La société du spectacle. Paris, France: Gallimard.
Deleuze, Gilles. 1990. “Post-Scriptum Sur Les Sociétés de Contrôle.” In Pourparlers 1972-1990, 240–47. Paris: Éditions de minuit.
Doub, Bob. 2016. Community Memory: Precedents in Social Media and Movements. Computer History Museum. Mountain View.
Draus, Franciszek. 1995. “Max Weber Et La Liberté.” Revue Européenne Des Sciences Sociales 33 (101): 123–43. https://www.jstor.org/stable/40370104.
Dulong de Rosnay, Mélanie, and Francesca Musiani. 2020. “Alternatives for the Internet: A Journey into Decentralised Network Architectures and Information Commons.” tripleC: Communication, Capitalism & Critique, August, 622–29. https://doi.org/10.31269/triplec.v18i2.1201.
Ellul, Jacques. 1954. La technique ou l’enjeu du siècle. Paris, France: Armand Colin.
—. 1964. The Technological Society. New York: Vintage Books.
Etzioni, Amitai, Kenneth Laudon, and Sara Lipson. 1975. “Participatory Technology: The MINERVA Communications Tree.” Journal of Communication 25 (2): 64–74. https://doi.org/10.1111/j.1460-2466.1975.tb00581.x.
Fabius, Laurent. 1985. Brochure : Informatique Pour Tous. Paris: Éditions CNDP.
Feenberg, Andrew. 2014. “Vers une théorie critique de l’Internet.” Tic&Société 8 (1). https://doi.org/10.4000/ticetsociete.1382.
Feintrenie, Aurélie. 2003. Chronique de la grève de 1974 au Crédit lyonnais. Librairie Droz. https://www.cairn.info/le-credit-lyonnais-1863-1986--9782600008075-page-153.htm.
Foster, John Bellamy, and Robert W. McChesney. 2014. “Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age.” Monthly Review 66 (July). https://monthlyreview.org/2014/07/01/surveillance-capitalism/.
Foucault, Michel. 1984. Histoire de La Sexualité. Tome 3 -- Le Souci de Soi. Paris: Gallimard.
—. 1994a. “L’éthique Du Souci de Soi Comme Pratique de La Liberté.” In Dits Et Écrits IV, 708–29. Paris: Gallimard.
—. 1994b. “Le Jeu de Michel Foucault.” In Dits Et Écrits III, 298–329. Paris: Gallimard.
Garfinkel, Simson. 1999. Architects of the Information Society: Thirty-Five Years of the Laboratory for Computer Science at Mit. MIT Press. Cambridge, Mass.
Graeber, David, and Andrej Grubacic. 2004. “L’Anarchisme, Ou Le Mouvement révolutionnaire Du Vingt Et Unième Siècle.” The Anarchist Library. https://fr.theanarchistlibrary.org/library/david-graeber-andrej-grubacic-l-anarchisme-ou-le-mouvement-revolutionnaire-du-vingt-et-unieme-s.
Haigh, Thomas. 2001. “Inventing Information Systems: The Systems Men and the Computer, 1950–1968.” Business History Review 75 (1): 15–61. https://doi.org/10.2307/3116556.
Heidegger, Martin. 1958. “La Question de La Technique.” In Essais Et Conférences, 9–48. Paris: Gallimard.
Heilbroner, Robert L. 1967. “Do Machines Make History?” Technology and Culture 8 (3): 335–45. https://doi.org/10.2307/3101719.
Husson, Édouard. 2018. “Peter Thiel, Les Libertariens Et La Silicon Valley : Comme Une méchante Ombre Sur Les démocraties Occidentales.” Atlantico, January 7, 2018.
Kristal, Tali. 2013. “The Capitalist Machine: Computerization, Workers' Power, and the Decline in Labor’s Share Within U.S. Industries:” American Sociological Review, May. https://doi.org/10.1177/0003122413481351.
Latouche, Serge. 1991. La Planète Des Naufragés. Essai Sur l’après-développement. Paris: La Découverte.
—. 1995. La mégamachine. Raison Techno-Scientifique, Raison économique Et Mythe Du Progrès. Paris: La Découverte -- Bibliothèque du MAUSS.
Law, John. 1987. “On the Social Explanation of Technical Change: The Case of the Portuguese Maritime Expansion.” Technology and Culture 28 (2): 227–52. https://doi.org/10.2307/3105566.
Lundin, Per. 2011. “Designing Democracy: The UTOPIA-Project and the Role of the Nordic Labor Movement in Technological Change During the 1970s and 1980s.” In History of Nordic Computing 3, edited by John Impagliazzo, Per Lundin, and Benkt Wangler, 187–95. IFIP Advances in Information and Communication Technology. Berlin, Heidelberg: Springer. https://link.springer.com/book/10.1007/978-3-642-23315-9.
Maire, Edmond. 1977. “Préface.” In Les dégâts Du Progrès Les Travailleurs Face Au Changement Technique, edited by Jean-Louis Missika, Jean-Philippe Faivret, and Dominique Wolton. Paris: Seuil.
Martin, James. 1978. The Wired Society. Englewood Cliffs, N.J: Prentice-Hall.
Martin, James, and Adrian R. D. Norman. 1970. The Computerized Society. An Appraisal of the Impact of Computers on Society over the Next 15 Years. Englewood Cliffs: Prentice-Hall.
Marx, Karl. 1896. Misère de La Philosophie. Paris: Giard et Brière.
Masutti, Christophe. 2020. Affaires Privées. Aux Sources Du Capitalisme de Surveillance. Paris: C&F Éditions.
Missika, Jean-Louis, Jean-Philippe Faivret, and Dominique Wolton. 1977. Les dégâts Du Progrès Les Travailleurs Face Au Changement Technique. Paris: Seuil.
Morozov, Evgeny. 2014. Pour Tout résoudre Cliquez Ici : L’aberration Du Solutionnisme Technologique. Paris: Éditions FYP.
Moussy, Jean-Pierre. 1988. “L’emploi au cœur de la mutation bancaire.” Revue d’économie financière 7 (3): 49–67. https://doi.org/10.3406/ecofi.1988.1547.
Mumford, Lewis. 1950. Technique Et Civilisation. Paris: Seuil.
—. 1973. Le mythe de la machine. Translated by Léo Dilé. 2 vols. Paris, France: Fayard.
—. 2014. “L’héritage de l’homme.” Translated by Annie Gouilleux. Notes & Morceaux Choisis -- Bulletin Critique Des Sciences, Des Technologies Et de La Société Industrielle 11.
Narcy, Michel. 1986. “Au Terme de Deux Enquêtes.” Informatique Et pédagogie -- Numéro Spécial de l’EPI 42: 53–60. https://www.epi.asso.fr/revue/histo/h85-gredip.htm.
Negri, Antonio, and Michael Hardt. 2004. Empire. Paris: 10/18.
Nelsen, Arvid. 2016. “Concern for the ‘Disadvantaged’: ACM’s Role in Training and Education for Communities of Color (1958–1975).” In Communities of Computing: Computer Science and Society in the ACM, by Thomas J. Misa, 229–58. New York: ACM Books.
Panzieri, Raniero. 1968. Quaderni Rossi. Luttes Ouvrières Et Capitalisme d’aujourd’hui. Paris: Maspéro.
Pestre, Dominique. 2006. Introduction Aux Science Studies. Paris: La Découverte.
Pfaffenberger, Bryan. 1988. “The Social Meaning of The Personnal Computer : Or Why the Personal Computer Revolution Was Not a Revolution.” Anthropological Quarterly 61 (1): 39–47. https://doi.org/doi:10.2307/3317870.
Rawls, John. 1997. Théorie de la justice. Translated by Catherine Audard. Paris, France: Éditions du Seuil.
Rosenbrock, Howard Harry. 1977. “The Future of Control.” Automatica (1975) 13: 389–92. https://doi.org/10.1016/0005-1098(77)90022-X.
Rossman, Michael. 1976. “Implications of Community Memory.” ACM SIGCAS Computers and Society 6 (4): 7–10. https://doi.org/10.1145/958785.958789.
Schmitt, Carl. 1988. Théologie politique. Translated by Jean-Louis Schlegel. Paris, France: Gallimard.
Simondon, Gilbert. 1969. Du Mode d’existence Des Objets Techniques. Paris: Aubier-Montaigne.
Smith, Merritt Roe. 1994. “Technological Determinism in American Culture.” In Does Technology Drive History?, edited by Merritt Roe Smith and Leo Marx, 1–35. Cambridge: MIT Press.
Smith, Steve. 1989. “Information Technology in Banks: Taylorization or Human-Centered Systems?” In Computers in the Human Context, edited by Tom Forester, 377–90. Cambridge: MIT Press.
Solove, Daniel J. 2002. “Conceptualizing Privacy.” California Law Review 90 (4): 1132–40. https://ssrn.com/abstract=313103.
Sundblad, Yngve. 2011. “UTOPIA: Participatory Design from Scandinavia to the World.” In History of Nordic Computing 3, edited by John Impagliazzo, Per Lundin, and Benkt Wangler, 176–86. IFIP Advances in Information and Communication Technology. Berlin, Heidelberg: Springer. https://link.springer.com/book/10.1007/978-3-642-23315-9.
Thoreau, Henri David. 1922. Walden Ou La Vie Dans Les Bois. Translated by Louis Fabulet. Paris: La Nouvelle Revue Française.
Turner, Fred. 2012. Aux Sources de l’utopie Numérique : De La Contre Culture à La Cyberculture. Stewart Brand, Un Homme d’influence. Caen: C&F Editions.
Turoff, Murray, and Starr Roxane Hiltz. 1994. The Network Nation: Human Communication via Computer. Cambridge: MIT Press.
Vinck, Dominique. 2012. “Manières de Penser l’innovation.” In Les Masques de La Convergence. Enquêtes Sur Sciences, Industries Et Aménagements, by Bernard Miège and Dominique Vinck, 125–48. Paris: Éditions des Archives contemporaines.
Westin, Alan F. 1967. Privacy and Freedom. New York: Atheneum.
—. 2001. “Opinion Surveys: What Consumers Have to Say About Information Privacy.” In Hearing Before the Subcommittee on Commerce, Trade and Consumer Protection of the Committee on Energy and Commerce, 107th Congress. https://www.gpo.gov/fdsys/pkg/CHRG-107hhrg72825/html/CHRG-107hhrg72825.htm.
Wyatt, Sally. 2008. “Technological Determinism Is Dead; Long Live Technological Determinism.” In The Handbook of Science and Technology Studies. Third Edition, edited by Edward J. Hackett, Olga Amsterdamska, Michael Lynch, and Judy Wajcmann, 165–80. Cambridge: MIT Press.
Zuboff, Shoshana. 1988. In The Age Of The Smart Machine: The Future Of Work And Power. New York: Basic Books.
—. 2019. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: Public Affairs.
Notes
-
La citation : « Le moulin à bras vous donnera la société avec le suzerain ; le moulin à vapeur, la société avec le capitaliste industriel ». ↩︎
-
Publicité Apple parue dans le magazine Byte en décembre 1977, page 2. La reproduction est disponible sur commons.wikimedia.org. URL. ↩︎
-
Trades Union Congress Report 1956, TUC history online, p. 518-519. ↩︎
-
Trades Union Congress Report 1965, TUC history online, p. 136. ↩︎
-
United States National Commission on Technology, Automation, and Economic, Technology and the American Economy: Report, vol. III, p. 57. ↩︎
-
Écouter l’émission La Fabrique de l’Histoire (France Culture) : Quand les banquiers criaient « À bas les profits ! », 13 mars 2012. URL. ↩︎
-
Karl Marx, Le Capital, livre I, ch. 4 — Le caractère fétiche de la marchandise et son secret. ↩︎
-
Pour citer Serge Latouche: « la technique n’est pas un instrument au service de la culture, elle est la culture ou son tenant lieu ». ↩︎
02.06.2020 à 02:00
Affaires privées : les coulisses
À la suite d’un échange sur une plateforme de microblogage, j’ai promis de décrire ma méthode de production de manu-(tapu)scrit en vue de l’édition d’un livre. Ce billet vise à montrer à quel point les formats ouverts sont importants dans un processus d’écriture. Il témoigne de mes préférences et n’est en aucun cas une méthode universelle. Cependant j’ose espérer qu’il puisse donner quelques pistes profitables à tous !
Identification des besoins
Le livre dont il est question ici (il est bien, achetez-le !) s’intitule Affaires privées. Aux sources du capitalisme de surveillance, publié chez C&F Éditions, mars 2020. Il fait un peu moins de 500 pages. La production du manuscrit proprement dit (le fichier qu’on envoie à l’éditeur) m’a pris environ 5 mois. Sur cette base, l’équipe éditoriale (qu’elle en soit ici remerciée) s’est livrée au travail de relecture, avec plusieurs va-et-vient avec moi pour les corrections, et enfin un gros travail de mise en page.
Ce dont je vais traiter ici concerne la production du tapuscrit, et donc le processus d’écriture proprement dit, qui regarde essentiellement l’auteur. Pour le reste, il s’agit d’un travail éditorial avec d’autres contraintes.
Au risque d’être un peu caricatural il va me falloir décrire rapidement ce qu’est un travail de recherche en histoire et philosophie des sciences. On comprendra mieux ainsi pourquoi le choix des formats de fichiers est important dans l’élaboration d’un flux de production d’écriture pour un document long, comme un livre, ou même lorsqu’on s’apprête à écrire un article.
Dans ce type de travail, il ne suffit pas de récolter des documents historiques (pour ce qui me concerne, il s’agit de textes, photos, vidéos). Ces sources sont stockées dans différents formats, surtout des PDF (par exemple des fac-similés, des copies d’articles), des transcriptions sous forme de texte (le plus souvent dans un format texte de base), etc. Étant donnée cette diversité, un premier impératif consiste à ne pas sur-ajouter des formats et tâcher de faire en sorte que les notes de consultation soient accessibles dans un format unique et le plus malléable possible. Par ailleurs, se pose aussi la question du stockage de ces sources : les avoir à disposition, où que je me trouve, et m’assurer de la pérennité de leur sauvegarde.
Outre les sources, je dispose de travaux d’écriture préalables. Écrire un manuscrit en 5 mois n’est possible qu’à la condition d’avoir aussi à disposition une matière déjà travaillée en amont, comme un terrain préparatoire à l’écriture proprement dite. Il faut considérer ces travaux préparatoires comme des sources avec un statut particulier.
Il en est de même pour les notes de lectures qui sont aussi des réflexions sur les enjeux philosophiques, historiques et politiques, la méthodologie, les idées critiques, bref des sources particulières puisque produites par moi et toujours soumises à modifications au fur et à mesure de la maturité d’une pensée et de l’acquisition de connaissances.
Se pose ensuite la question du recensement des sources et, de manière générale, toute la bibliographie qu’il faudra utiliser dans le manuscrit. Dans ce genre de discipline, au risque de barber sérieusement le lecteur, une forme d’obligation consiste à citer la bibliographie « à la page » chaque fois que cela est possible. Afin de pouvoir mobiliser ces éléments qui se chiffrent par centaines, il faut bien entendu avoir un système capable de trier, classer, et sortir des références bibliographiques exploitables.
Un autre impératif consiste à élaborer un flux d’écriture qui soit à la fois rapide et efficace tout en l’édulcorant au maximum des contraintes logicielles. Ces contraintes peuvent être liées à la « lourdeur » du logiciel en question, par exemple le temps passé à saisir la souris pour cliquer sur des icônes est autant de temps en moins consacré à l’écriture. Se libérer de ces contraintes va de pair avec une certaine libération des contraintes matérielles : l’idéal consiste à pouvoir écrire sur différents supports c’est-à-dire un ou plusieurs ordinateurs, un smartphone ou une tablette. Pour ce qui me concerne, se trouver coincé par l’accès à un logiciel sur un seul type de support m’est proprement insupportable.
En résumé, les besoins peuvent s’énumérer ainsi : écrire, utiliser différentes machines, synchroniser et sauvegarder, gérer et exploiter une bibliographie, produire un résultat. Allons-y.
Écrire
C’est de plus en plus répandu : les utilisateurs qui produisent du contenu en écriture n’utilisent plus uniquement les logiciels de traitement de texte tels MSWord ou LibreOffice Writer en première intention. Demandez-vous par exemple ce qu’utilisent tous les blogueurs via des interfaces d’écriture en ligne, ou regardez de près le logiciel de prise de notes que vous avez sur votre smartphone : la mise en page est assurée ultérieurement, tout ce que vous avez à faire est simplement d’écrire.
Si j’ai traduit et adapté un manuel sur LibreOffice Writer, c’est parce que je considère ce logiciel comme l’un des plus aboutis en traitement de texte mais aussi parce que le format Open Document est un format ouvert qui permet l’interopérabilité autant qu’un travail post-production. Il en est de même pour LaTeX (qui est un système de composition) et dont les fonctionnalités sont quasi infinies. J’adore LaTeX.
Alors… pourquoi ne pas utiliser d’emblée l’un de ces deux logiciels ? Parce que ce dont j’aimerais vous parler ici, ce n’est pas de la production de document, mais de l’écriture elle-même. Mélanger les deux signifie anticiper la production finale (au risque de se tromper). Quoi qu’on en dise, c’est en tout cas mon cas, on se laisse facilement distraire par les fonctionnalités du logiciel.
Pour écrire, et simplement écrire, je n’ai besoin que d’un éditeur de texte. C’est-à-dire un logiciel qui me permet d’entrer du texte et d’enregistrer sans information de formatage (on parle de plain text) ou alors le strict minimum. C’est sur ce strict minimum qu’il faut réfléchir en allant un peu plus loin dans le raisonnement.
En effet, lors de la production finale, je n’ai pas très envie de revenir sur chaque partie du texte nécessitant un traitement typographique au cours de l’écriture. Par exemple certains mots en emphase, le signalement des titres de parties, sections et sous-sections. Idem, j’ai aussi besoin de pouvoir formater mon texte de manière à ce qu’il se prête ultérieurement à toutes les transformations envisageables nécessitant un processus de traitement comme la génération des références bibliographiques ou l’ajout de liens (URLs). Ces choses-là sont toujours possibles en plain text mais il y a des solutions plus pratiques.
Il existe un format très intéressant : le markdown. C’est du texte, mais avec quelques ajouts d’informations très simples qui permettent un traitement ultérieur lors de la production finale. Ce langage de balisage est léger. Il nécessite un apprentissage de quelques minutes et il s’applique facilement au cours de l’écriture sans la freiner outre mesure. C’est dans ce format que j’écris, y compris par exemple le texte de ce billet de blog. Ce format est par définition ouvert (cela reste du texte).
En pratique, il ne reste plus qu’à choisir l’éditeur de texte ou un éditeur de texte spécialisé en markdown. Sur ce point j’ai déjà eu l’occasion de me prononcer sur ce blog. Par aillieurs, j’accorde beaucoup d’importance au confort visuel de l’écriture. La possibilité de configurer l’affichage l’éditeur (couleurs du fond, style de la police, de la syntaxe, raccourcis, etc.), en jouant notamment sur les contrastes, me permet d’écrire plusieurs heures durant sans avoir trop de gêne visuelle. Il s’agit d’un confort personnel. Il y a d’autres fonctionnalités que l’on trouve dans les éditeurs de texte1, par exemple :
- éditer le texte à plusieurs endroits à la fois avec un split de fenêtres,
- faire des recherches sur des expressions régulières,
- un panneau latéral ouvrant le contenu du dossier sur lequel on travaille,
- le surlignage d’occurrences,
- la possibilité d’avoir accès à un terminal sans quitter l’éditeur2,
- etc.
Enfin, j’y reviendrai plus tard, l’utilisation de fichiers non binaires se prête admirablement à l’utilisation de Git, un outil de gestion de version qui, dans mon cas, me sert surtout à sauvegarder et synchroniser mon travail d’écriture. Et il se prête tout aussi admirablement à la conversion vers d’autres formats à leur tour exploitables tels odt
, html
et tex
.
Mes éditeurs de texte préférés du moment sont les suivants : Gedit, Atom, Ghostwriter. Depuis peu, j’utilise aussi Zettlr pour mes notes, voyez ici.
Utiliser différentes machines
Au fur et à mesure de l’avancée des travaux, on se retrouve généralement à utiliser différents dispositifs. La question se pose : doit-on réserver uniquement la tâche d’écriture à l’ordinateur de son bureau ? Pour moi, la réponse est non.
Sur tous les ordiphones et tablettes, il existe des logiciels de prise de notes qui utilisent le format texte et, comme c’est souvent le cas, le markdown. L’application Nextcloud, par exemple, permet aussi d’utiliser Nextcloud Notes, un logiciel de prise de notes qui synchronise automatiquement les notes sur un serveur Nextcloud (on peut le faire aussi avec n’importe quelle application de notes pourvu que l’on sauvegarde ses fichiers dans le dossier synchronisé). Cela est utile dans les cas suivants :
- le processus d’écriture n’est pas toujours « sur commande ». Même si les meilleures idées ne surgissent pas toujours inopinément, et même si bien souvent ce qu’on pensait être une bonne idée s’avère être un désastre le lendemain, il est utile de pouvoir développer quelques passages sans pour autant être assis à son bureau. J’utilise pour cela Nextcloud Notes, soit en tapant directement la note, soit par dictée vocale.
- recopier tout un texte lorsqu’on est en train de consulter des documents ? que nenni, soit on utilise un scanner et un logiciel de reconnaissance de caractères, soit on peut carrément utiliser son ordiphone (avec ce logiciel par exemple), pour produire un texte à placer dans ses notes.
L’essentiel est de ne pas dépendre d’un dispositif unique présent dans un lieu unique. On peut utiliser plusieurs ordinateurs et des lieux différents, utiliser l’ordiphone qu’on a toujours avec soi, la tablette sur laquelle on lit un livre et exporte des notes de lecture…
Tout ceci permet de générer rapidement des ressources exploitables et de les organiser en provenance de différents outils. Pour cela d’autres logiciels doivent encore être utilisés afin de sauvegarder et de synchroniser.
Synchroniser et sauvegarder
Comme je viens d’en discuter, l’organisation est primordiale mais s’en préoccuper sans cesse est plutôt lassant. Mieux vaut automatiser le plus possible.
Séparons dans un premier temps ce qui a trait à la gestion des sources documentaires et la production écrite.
Pour la gestion documentaire, l’ensemble est stocké sur un serveur Nextcloud (hébergé sur un serveur de confiance3). Sur chaque machine utilisée, une synchronisation est paramétrée avec un client Nextcloud. On travaille directement dans le dossier qui se synchronise automatiquement.
Pour la production écrite, c’est Git qui sera utilisé avec un serveur Gitlab (Framagit en l’occurrence). Sont concernés les fichiers suivants :
- l’écriture des chapitres (fichiers
.md
), - les notes (autres que les notes de lecture) (fichiers
.md
), - le fichier bibtex de la bibliographie (contenant aussi le référencement descriptif de chaque source documentaire ainsi que les notes de lecture) (fichiers
.bib
).
Pour terminer, il faut aussi penser à faire une sauvegarde régulière de l’ensemble sur le second disque dur de la machine principale sur laquelle je travaille, doublée d’une sauvegarde sur un disque externe. La première sauvegarde est automatisée avec rsync
et tâche cron
exactement comme c’est décrit dans ce billet. La seconde tâche pourrait aussi être automatisée, mais je la fais manuellement pour éviter de toujours laisser branché le disque externe.
Gérer la bibliographie
Gérer sa bibliographie ne s’improvise pas. Il faut d’abord trouver le logiciel qui répond à ses attentes. Le choix est assez large pourvu que le logiciel en question puisse être en mesure d’exporter une bibliographie dans un format ouvert, exploitable par n’importe quel autre logiciel.
En la matière, selon moi, les deux formats intéressants sont le .bib
et le .xml
. Au stade de l’écriture, l’essentiel est donc de choisir un logiciel avec lequel on se sent à l’aise et dont les fonctionnalités d’export sont les plus étendues possibles. J’ai choisi Zotero et JabRef.
Pourquoi ces deux logiciels ? Dans les deux cas, des extensions permettent de les intégrer au navigateur Firefox (ainsi qu’à LibreOffice). Dans les deux cas on peut synchroniser la biblio en ouvrant un compte Zotero ou en plaçant son fichier .bib
sur Nextcloud dans le cas de JabRef.
Mon usage est un peu exotique, je l’avoue : j’utilise Zotero pour engranger un peu tout et n’importe quoi et j’utilise JaBref pour mon travail proprement dit en utilisant le format .bib
et souvent en éditant directement le fichier avec un éditeur de texte. Disons que le .bib
final est un fichier très « propre » contenant pour l’essentiel la bibliographie citée alors que Zotero contient un peu de tout au gré des récupérations avec l’extension Firefox. Ce n’est pas l’essentiel : quoi qu’il en soit, lors de la production finale, on configurera ce qui doit apparaître ou non dans la bibliographie.
Enfin, je préfère utiliser le .bib
car il est fait au départ pour le logiciel Bibtex lui-même destiné à une utilisation avec LaTeX. Si je veux pouvoir avoir le choix de production finale, autant utiliser ce format. En outre, sa lisibilité lorsqu’on l’édite avec un éditeur de texte permet de retravailler les informations, surtout en cas de problème d’encodage.
Produire un résultat
Nous voici arrivés à la production du manuscrit (on dit plutôt un tapuscrit dans ce cas). Il faut alors se demander ce que veut l’éditeur. Dans notre cas, il s’agissait de produire un fichier .odt
avec une présentation complète de la bibliographie.
Nous avons à disposition des fichiers markdown et un fichier bibtex. On peut en faire exactement ce qu’on veut, à commencer par les éditer ad vitam æternam en plain text.
On notera que pour entrer des références bibliographique dans un document en markdown, la syntaxe est très simple et l’utilisation est décrite dans plusieurs billets de ce blog.
On utilisera pour cela un logiciel libre du nom de Pandoc qui permet non seulement de convertir du markdown en plusieurs types de formats mais aussi d’effectuer simultanément des opérations de compilation pour la bibliographie avec un processeur CSL nommé citeproc.
En effet, pour présenter la bibliographique il faut utiliser un format de style bibliographique. On utilise le Citation Style Language (CSL) qui est basé sur un agencement de champs en XML. Pour créer un modèle CSL, le mieux est encore de partir sur la base de modèles existants et adapter le sien. Il existe par exemple cet éditeur CSL.
En d’autres termes il s’agit d’ordonner ceci à Pandoc :
S’il te plaît, transforme mon fichier markdown en fichier au format
.odt
tout en utilisant la bibliographie que voici au format.bib
et le modèle de présentation de bibliographie.csl
que voici.
La ligne de commande est alors la suivante :
pandoc -s --bibliography mabiblio.bib --filter pandoc-citeproc --csl modif-monmodele.csl fichier-entree.md -o fichier-sortie.odt
Cela c’est pour l’éditeur ! pour ce qui me concerne, ce sera plutôt une transformation en .tex
et une bonne vieille compilation avec XeLaTex + Biber avec un style de mise en page sympathique. De même… pour du epub
.
Le seul ennui est qu’à ce stade il fallait encore travailler le texte et tout le processus de relecture qui s’est déroulé exclusivement avec LibreOffice Writer et la fonction de suivi de modification. On a donc quitté la quiétude des fichiers texte pour entrer dans un processus d’échange de fichiers .odt
. Ce travail aurait tout aussi bien pu s’effectuer avec Git, évidemment. Mais au bout du compte il aurait tout de même fallu créer un .odt
avec les styles de l’éditeur afin d’entrer le tout dans la moulinette de son processus éditorial. Mais cela ne nous… regarde pas.
Conclusion
Comme on peut le voir, tout le processus considère le fichier .odt
comme un format obtenu en fin de production et non pas un format sur lequel on travaille directement. C’est une posture qui se justifie par la volonté de conserver la plus grande malléabilité possible sur les résultats finaux et sur la manipulation des fichiers de travail.
Par ailleurs concernant le flux de production d’écriture, une fois l’habitude prise, il est extrêmement confortable d’écrire « au kilomètre » dans un éditeur de texte bien configuré et qui, par sa légèreté n’a besoin que de très peu de ressources système.
Toute l’importance des formats ouverts est là, tant au niveau de la lecture avec différents logiciels qu’au niveau de la production finale et l’interopérabilité qu’ils permettent. De la même manière, on peut voir que tout le travail s’est effectué avec des logiciels libres (et sur des systèmes d’exploitation libres). Le grand choix dans ce domaine permet à chacun de travailler selon ses envies et ses petites manies.
-
Certaines de ces fonctionnalités se retrouvent aussi sur LibreOffice Writer, bien entendu, mais je trouve que leur accès est plus rapide dans un éditeur de texte simple. ↩︎
-
Certains me diront d’utiliser Emacs ou Vim. C’est ce que je fais de temps en temps mais l’apport vis-à-vis de mon travail n’est pas significatif. ↩︎
-
Il s’agit de mon serveur à moi et aussi du serveur destiné à l’usage interne des membres de l’association Framasoft. J’utilise les deux mais c’est un détail. ↩︎
11.05.2020 à 02:00
Revue articles et communications autour de Stop-Covid
Afin de garder une trace (!) des débats qui enflamèrent l’opinion publique lors de la crise sanitaire du printemps 2020, voici une revue partielle d’articles parus dans la presse et quelques communications officielles autour de l’application Stop-Covid, entre discours réalistes et solutionnisme technologique (cette liste est mise à jour régulièrement, autant que possible).
Presse écrite et en ligne
Numerama (18/06/2020), « StopCovid a été lancé alors que même la Cnil ne savait pas comment l’app fonctionnait »
Un chercheur a montré que le fonctionnement technique de StopCovid n’était pas similaire à ce qui était annoncé par le gouvernement, ce qui est écrit dans le décret d’application et même ce qui a été validé par la Cnil. … En résumé, la Cnil a validé un dispositif qui n’est pas celui qui est utilisé aujourd’hui dans l’application que tous les Français et Françaises sont fortement invités à utiliser, par le gouvernement et à grands coups de campagnes de communication. Comme on peut le voir au point numéro 37 qui était abordé dans l’avis du 25 mai, la Commission avait d’ailleurs elle-même « [pris] acte de ce que l’algorithme permettant de déterminer la distance entre les utilisateurs de l’application reste à ce stade en développement et pourra subir des évolutions futures ».
Le Monde - Pixel (16/06/2020), « L’application StopCovid collecte plus de données qu’annoncé »
Un chercheur a découvert que l’application collectait les identifiants de toutes les personnes croisées par un utilisateur, pas seulement celles croisées à moins d’un mètre pendant quinze minutes.
Mediapart (15/06/2020), « StopCovid, l’appli qui en savait trop »
Loin de se limiter au recensement des contacts « à moins d’un mètre pendant au moins quinze minutes », l’application mise en place par le gouvernement collecte, et transfère le cas échéant au serveur central, les identifiants de toutes les personnes qui se sont « croisées » via l’appli. De près ou de loin.
L’Usine Digitale (12/06/2020), « L’application StopCovid n’a été activée que par 2 % des Français »
Échec pour StopCovid. Du 2 au 9 juin, seuls 2 % des Français ont téléchargé et activé l’application. Un chiffre beaucoup trop bas pour qu’elle soit utile. Au moins 60 % de la population d’un pays doit utiliser un outil de pistage numérique de ce type pour que celui-ci puisse détecter des chaînes de contamination du virus.
Dossier Familial (12/06/2020), « Le flop de l’application StopCovid »
Alors même que son efficacité dépend de son succès, l’application StopCovid n’est utilisée effectivement que par environ 350 000 personnes.
France Inter (11/06/2020), « Coût et soupçon de favoritisme : l’appli StopCovid dans le collimateur d’Anticor »
L’association Anticor, qui lutte contre la corruption, a déposé un signalement auprès du Procureur de la République. Le coût de l’application StopCovid est en cause. L’inquiétude ne porte pas sur l’utilisation de nos données, mais sur son coût et… un soupçon de favoritisme.
Liberation (11/06/2020), « L’application StopCovid utilise-t-elle des services des Gafam ? »
Le logiciel développé par le gouvernement français a bien recours au «Captcha» de Google mais n’est pas hébergé sur des serveurs Microsoft (contrairement au projet, distinct, de Health Data Hub).
Le Monde (10/06/2020) « L’application StopCovid, activée seulement par 2 % de la population, connaît des débuts décevants »
Le coût de l’application de suivi de contacts, désormais supportée par l’Etat, pose question, une semaine après son lancement.
Slate.fr (03/06/2020), « Les trois erreurs qui plombent l’application StopCovid »
Ce projet tout à fait louable s’est écrasé en rase campagne en quelques semaines alors que tous les feux étaient au vert.
Nouvel Observateur (02/06/2020), « StopCovid, une application au coût salé »
L’application de lutte contre le Covid-19 a été développée gratuitement par des chercheurs et partenaires privés. Toutefois, depuis son lancement mardi 2 juin, sa maintenance et son hébergement sont bel et bien facturés, entre 200 000 et 300 000 euros par mois.
TV5 Monde (01/06/2020), StopCovid : « C’est le signe d’une société qui va très mal et qui est en train de devenir totalement paranoïaque »
A partir de ce mardi 2 juin, l’application StopCovid débarque en France. Son but : pister le Covid-19 pour éviter sa propagation. Alors cette application est-elle vraiment efficace ? Nos données personnelles sont-elles menacées ? Entretien avec Benjamin Bayart, ingénieur français, ancien président de French Data Network et co-fondateur de la Quadrature du Net.
The Conversation (25/05/2020) « Données de santé : l’arbre StopCovid qui cache la forêt Health Data Hub »
Le projet de traçage socialement « acceptable » à l’aide des smartphones dit StopCovid, dont le lancement était initialement prévu pour le 2 juin, a focalisé l’intérêt de tous. Apple et Google se réjouissaient déjà de la mise en place d’un protocole API (interface de programmation d’application) qui serait commun pour de nombreux pays et qui confirmerait ainsi leur monopole.
Mais la forte controverse qu’a suscitée le projet en France, cumulée au fait que l’Allemagne s’en est retirée et à l’échec constaté de l’application à Singapour, où seulement 20 % des utilisateurs s’en servent, annoncent l’abandon prochain de StopCovid.
« Ce n’est pas prêt et ce sera sûrement doucement enterré. À la française », estimait un député LREM le 27 avril auprès de l’AFP.
Pendant ce temps-là, un projet bien plus large continue à marche forcée : celui de la plate-forme des données de santé Health Data Hub (HDHub).
The Guardian (23/05/2020), « How did the Covidsafe app go from being vital to almost irrelevant? »
The PM told Australians in April the contact tracing app was key to getting back to normal but just one person has been identified using its data (En avril, le Premier ministre a déclaré aux Australiens que l’application de recherche des contacts était la clé du retour à la normale, mais seule une personne a été identifiée grâce à ses données)
Politico (20/05/2020) « Meet the Dutchman who cried foul on Europe’s tracking technology »
The national privacy watchdog has repeatedly broken ranks with EU peers over tracing technology. His approach seems to be winning.
(…) Alors que les gouvernements européens s’empressent d’adopter la technologie pour lutter contre le coronavirus, un Néerlandais au franc-parler est apparu comme une épine dans leur pied.
Le message d’Aleid Wolfsen : Ne prétendez pas que vos solutions sont respectueuses de la vie privée.
“Nous devons éviter de déployer une solution dont on ne sait pas si elle fonctionne réellement, avec le risque qu’elle cause principalement d’autres problèmes”, a déclaré en avril le responsable de l’autorité néerlandaise chargée de la protection de la vie privée, en référence aux applications de suivi des coronavirus pour smartphones en cours de développement dans la plupart des pays de l’UE.
Le Monde (18/05/2020), Tribune – Coronavirus : « Sur l’application StopCovid, il convient de sortir des postures dogmatiques »
Chercheurs à l’Inria et travaillant sur l’application StopCovid, Claude Castelluccia et Daniel Le Métayer mettent en garde, dans une tribune au « Monde », contre les oppositions de principe, notamment à un système centralisé, qui ne reposent pas sur une analyse précise des risques potentiels et des bénéfices attendus. (…)
(…) Même si la valeur ajoutée d’une application comme StopCovid dans le processus plus global de traçage (qui repose sur des enquêtes menées par des humains) reste à déterminer et à évaluer précisément…
The Economist (16/05/2020) « Don’t rely on contact-tracing apps »
Governments are pinning their hopes on a technology that could prove ineffective — and dangerous
Wired (13/05/2020), « Secret NHS files reveal plans for coronavirus contact tracing app »
Documents left unsecured on Google Drive reveal the NHS could in the future ask people to post their health status to its Covid-19 contact tracing app
Numerama (13/05/2020), « ‘Il n’y a rien du tout’ : la première publication du code source de StopCovid est inutile »
(…) les critiques et les moqueries ont fusé immédiatement sur ce qui a été publié le 12 mai. En effet, de l’avis de diverses personnes habituées à travailler avec du code informatique, ce qui est proposé ressemble surtout à une coquille vide. Impossible donc pour les spécialistes de passer aux travaux pratiques en analysant les instructions du logiciel.
Dalloz Actualité (12/05/2020) – par Caroline Zorn – « État d’urgence pour les données de santé (I) : l’application StopCovid »
À travers deux exemples d’actualité que sont l’application StopCovid (première partie) et le Service intégré de dépistage et de prévention (SIDEP) (seconde partie), la question de la protection des données de santé à l’aune du pistage est confrontée à une analyse juridique (et parfois technique) incitant à une réflexion sur nos convictions en période d’état d’urgence sanitaire. Cette étude a été séparée en deux parties, la première consacrée à StopCovid est publiée aujourd’hui.
Revue politique et parlementaire (11/05/2020), « Stopcovid : une application problématique sur le plan éthique et politique »
Pierre-Antoine Chardel, Valérie Charolles et Eric Guichard font le point sur les risques engendrés par la mise en œuvre d’une solution de type Stopcovid, solution techniciste de court terme qui viendrait renforcer une défiance des citoyens envers l’État et ses représentants, ou à l’inverse un excès de confiance dans le numérique, au détriment de projets technologiques soucieux de l’éthique et susceptibles de faire honneur à un État démocratique.
MIT Technology Review (11/05/2020) « Nearly 40% of Icelanders are using a covid app — and it hasn’t helped much »
The country has the highest penetration of any automated contact tracing app in the world, but one senior figure says it “wasn’t a game changer.”
Newstatesman – NSTech (11/05/2020), « The NHSX tracing app source code was released but privacy fears remain »
In a move designed to create the impression of radical transparency, NHSX finally released the source code for the UK’s Covid-19 tracing app last week. However, among experts, the reception was mixed.
Aral Balkan, software developer at Small Technology Foundation, expressed criticism that the source code for the server hadn’t been released, only that of the iOS and Android clients. “Without that, it’s a meaningless gesture,” he wrote on Twitter. “Without the server source you have no idea what they’re doing with the data.”
In further analysis, Balkan said the iOS app was “littered with Google tracking” and the app was using Firebase (a Google mobile and web application development platform) to build the app. He pointed out that Microsoft analytics also tracked what information the person has provided, such as partial postcode and collected contact events.
France info, (09/05/2020) – Nouveau monde. Refuser l’application StopCovid revient à remettre en question notre système de santé, selon le directeur du comité d’éthique du CNRS
« Déjà, nous sommes tracés tous les jours par notre téléphone qui enregistre énormément d’informations. Surtout, nous sommes tous satisfaits de notre système étatique de santé et, avec un système étatique, contrairement aux États-Unis, l’État est nécessairement au courant de tout. L’État sait chez quels médecins nous allons, quels médicaments nous sont prescrits, quels hôpitaux nous fréquentons, etc. Bien sûr, cela doit se faire avec une certaine confidentialité mais si l’on prenait au sérieux certains discours actuels, cela remettrait en cause le système de santé tel qu’il existe aujourd’hui. Et ça, je pense que ce n’est pas légitime. »
Le Monde (08/05/2020), « Suivi des « cas contacts » : ce que contiendront les deux nouveaux fichiers sanitaires prévus par l’Etat Par Martin Untersinger »
La stratégie du gouvernement pour lutter contre une reprise de l’épidémie repose sur un suivi des « cas contacts ». Les autorités prévoient un « système d’information », reposant sur deux bases de données médicales : Sidep et Contact Covid.
Acteurs Publics, (07/05/2020) « Aymeril Hoang, l’architecte discret du projet d’application StopCovid »
Membre du Conseil scientifique Covid-19 en tant qu’expert du numérique, l’ancien directeur de cabinet de Mounir Mahjoubi au secrétariat d’État au Numérique a eu en réalité un rôle central, en coulisses, dans l’élaboration du projet d’application de traçage numérique StopCovid. Récit.
Les Echos (07/05/2020), « La Réunion lance sa propre appli de traçage… sans attendre StopCovid »
Des entrepreneurs réunionnais ont mis au point Alertanoo, une application mobile permettant aux habitants de l’île testés positifs au coronavirus d’alerter les personnes qu’elles ont croisées récemment.
Le Temps (06/05/2020), « A Singapour, le traçage par app dégénère en surveillance de masse »
Premier pays à avoir lancé le pistage du virus par smartphone de manière volontaire, Singapour lance un nouveau service liberticide, baptisé SafeEntry. La Suisse peut en tirer des leçons
(…) Ainsi, le système central obtiendra les coordonnées complètes – du nom au numéro de téléphone – des Singapouriens qui fréquentent ces lieux. SafeEntry diffère ainsi de TraceTogether sur deux points majeurs: d’abord, son caractère obligatoire, comme on vient de le voir – même si un haut responsable de la Santé vient de demander que TraceTogether devienne obligatoire. Ensuite, la qualité des données récoltées diffère: la première application lancée fonctionne de manière anonyme – ni le nom, ni la localisation des personnes n’étant révélés. SafeEntry ne semble pas avoir suscité, pour l’heure, de critiques.
Wired (05/06/2020), « India’s Covid-19 Contact Tracing App Could Leak Patient Locations »
The system’s use of GPS data could let hackers pinpoint who reports a positive diagnosis.
As countries around the world rush to build smartphone apps that can help track the spread of Covid-19, privacy advocates have cautioned that those systems could, if implemented badly, result in a dangerous mix of health data and digital surveillance. India’s new contact tracing app may serve as a lesson in those privacy pitfalls: Security researchers say it could reveal the location of Covid-19 patients not only to government authorities but to any hacker clever enough to exploit its flaws.
Nextinpact (04/05/2020), « SIDEP et Contact Covid, les deux fichiers du « contact tracing »
Le Conseil d’État estime que les conditions de mise en œuvre des fichiers, qui reposeront notamment sur le traitement de données de santé non anonymisées, « le cas échéant sans le consentement des personnes intéressées », « ne portent pas une atteinte disproportionnée au droit au respect de la vie privée ». Le projet de loi est examiné aujourd’hui au Sénat.
Numerama (04/05/2020), « Après l’échec du StopCovid local, Singapour passe à une solution beaucoup plus radicale »
À Singapour, l’application TraceTogether non fonctionnelle est accompagnée d’un nouveau mode de traçage des contacts numérique : le scan d’un QR Code. Et, dans les grandes lignes, il est obligatoire.
Medium (03/05/2020), par Cedric O. « StopCovid ou encore ? »
Le secrétaire d’Etat chargé du numérique Cedric O. se fend d’un long article sur Medium pour faire le point sur l’application Stop-Covid.
Liberation (02/05/2020), « Fichiers médicaux, isolement, traçage… Le gouvernement précise son état d’urgence sanitaire »
A l’issue du Conseil des ministres de samedi, Olivier Véran a justifié l’utilisation prochaine de «systèmes d’information» pour «tracer» les personnes infectées par le nouveau coronavirus et la prolongation de l’état d’urgence sanitaire jusqu’à juillet.
France Info Tv/2 (02/05/2020), « Déconfinement : le travail controversé des “brigades d’anges gardiens” »
Protéger, isoler, tester, pour mettre en place ce triptyque, la mise en place d’un nouvel outil, avec le suivi des patients, et la récolte des données personnelles est prônée par le gouvernement.
Allons-nous tous être fichés, et faut-il s’inquiéter ? Le gouvernement a dévoilé sa politique de traçage. Lorsqu’une personne est testée positive au Covid-19, elle apparaitra dans un fichier, appelé Sidep, les personnes qu’elle a côtoyé seront fichées dans un deuxième fichier nommé Contact Covid, afin d’être testées et si besoin isolées pour empêcher la propagation du virus. 3 à 4 000 personnes seront affectées à cette mission.
France Info (02/05/2020), « Application StopCovid : “Nous avons absolument besoin de ce regard”, affirme le président du syndicat de médecins généralistes MG France »
Selon Jacques Battistoni, les généralistes effectuent déjà une forme de surveillance en mentionnant les contaminations au coronavirus sur les arrêts de travail. Pour lui, l’application envisagé par le gouvernement donnera une “vision d’ensemble”.
Numerama (02/05/2020), « StopCovid : Olivier Véran confirme les incertitudes autour de l’application de contact tracing »
L’application StopCovid ne sera pas prête pour le 11 mai. Le ministre de la Santé Olivier Véran prépare déjà la France à ce qu’elle ne voit jamais le jour.
Reuters (02/05/2020), « India orders coronavirus tracing app for all workers »
NEW DELHI (Reuters) - India has ordered all public and private sector employees use a government-backed contact tracing app and maintain social distancing in offices as it begins easing some of its lockdown measures in districts less affected by the coronavirus. (…) “Such a move should be backed by a dedicated law which provides strong data protection cover and is under the oversight of an independent body,” said Udbhav Tiwari, Public Policy Advisor for internet browser company Mozilla. Critics also note that about 400 million of India’s population do not possess smartphones and would not be covered.
Capital (01/05/2020), « L’application “Stop Covid” dans le top de l’AppStore, sauf que ce n’est pas la bonne »
Des milliers de personnes ont téléchargé cette application sur Google Play ou l’AppStore, sauf qu’il s’agit de celle lancée par le gouvernement géorgien.
Charlie Hebdo (30/04/2020), « Stop Covid est un danger pour nos libertés »
Le Covid-19 va-t-il nous faire basculer vers une société de surveillance ? Bernard E. Harcourt, professeur de droit à Columbia University et directeur d’études à l’EHESS nous alerte notamment sur les risques de l’application Stop Covid. Il avait publié en janvier dernier un ouvrage intitulé « La société d’exposition », (Ed Seuil), dans lequel il montrait de manière saisissante comment les nouvelles technologies exploitent notre désir d’exhibition et de mise en avant de soi.
Buzzfeed (29/04/2020) « We Need An “Army” Of Contact Tracers To Safely Reopen The Country. We Might Get Apps Instead »
Without enough human contact tracers to identify infected people, the US is barreling toward a digital solution, and possible disaster.
(…) “My problem with contact tracing apps is that they have absolutely no value,” Bruce Schneier, a privacy expert and fellow at the Berkman Klein Center for Internet & Society at Harvard University, told BuzzFeed News. “I’m not even talking about the privacy concerns, I mean the efficacy. Does anybody think this will do something useful? … This is just something governments want to do for the hell of it. To me, it’s just techies doing techie things because they don’t know what else to do.”
Dalloz Actualités (28/04/2020) « Coronavirus : StopCovid, les avis de la CNIL et du CNNum »
Quoi que favorables à l’application de traçage StopCovid telle qu’elle est actuellement présentée, la Commission nationale informatique et libertés et le Conseil national du numérique relèvent cependant les risques et les garanties qui devront être discutées par le législateur.
Mediapart (28/04/2020) « Le gouvernement s’embourbe dans son projet d’application «StopCovid» »
Édouard Philippe a reconnu « les incertitudes » pesant sur le projet d’application de traçage des contacts des personnes contaminées. Celui-ci suscite l’opposition de défenseurs des libertés publiques comme de chercheurs.
Numerama (27/04/2020), « Application StopCovid : que sait-on du projet de contact tracing du gouvernement ? »
StopCovid est un projet d’application servant à suivre la propagation de la maladie dans la population. Présentée début avril, elle doit être prête lorsque la phase de déconfinement débutera. Mais cette stratégie est l’objet d’un intense débat. Que sait-on d’elle ? Numerama fait le point.
Le Monde (27/04/2020) « Coronavirus : « Substituons temporairement au terme “liberté” de notre devise française celui de “responsabilité” »
Trois spécialistes en épidémiologie de l’université de Toulouse, associée à l’Inserm, présentent dans une tribune au « Monde » un éclairage éthique sur le traçage numérique de la propagation du Covid-19, entre intérêt public et libertés individuelles.
France Culture (27/04/2020), « Traçage : “Ce n’est pas le numérique qui pose question, mais notre capacité à penser le bien commun”
Entretien | À travers le monde, les différentes solutions technologiques imaginées pour répondre à la pandémie via les applications de traçage “StopCovid” dessinent une carte assez précise de la façon dont le politique se saisit - ou pas - des questions numériques. Analyse avec Stéphane Grumbach, de l’INRIA.
Numerama (27/04/2020), « StopCovid dans l’impasse : Cédric O confirme que la France se lance dans un bras de fer avec Apple »
Cédric O a confirmé que la France choisissait le bras de fer avec Apple pour obtenir un passe-droit sur le Bluetooth, au risque de mettre en danger la vie privée des utilisatrices et utilisateurs d’iPhone. Sans cela, StopCovid ne fonctionnera pas.
Libération (26/04/2020). Tribune par Didier Sicard et al. « Pour faire la guerre au virus, armons numériquement les enquêteurs sanitaires »
Pourquoi se focaliser sur une application qu’il faudra discuter à l’Assemblée nationale et qui risque de ne jamais voir le jour, alors que nous devrions déjà nous concentrer sur la constitution et l’outillage numérique d’une véritable armée d’enquêteurs en épidémiologie ?
Le Figaro (26/04/2020). « Mobilisation générale pour développer l’application StopCovid »
Les récents avis rendus par la Cnil, le CNNum et le Conseil scientifique ont sonné le top départ pour les équipes de développement d’une application de «contact tracing».
Les Echos (26/04/2020), « StopCovid : le gouvernement passe en force et supprime le débat à l’Assemblée »
En intégrant le débat sur le projet d’application StopCovid à celui, général, sur le déconfinement, l’exécutif est accusé de passer en force. Une situation dénoncée à gauche comme au sein même de la majorité, où les réticences contre cette application sont fortes.
Politis (26/04/2020). « Covid-19 : la solution ne sera pas technologique »
Les débats autour de l’application StopCovid, souhaitée par le gouvernement français, révèlent la grande obsession de notre temps. Face aux périls qui nous menacent, nous devrions nous jeter à corps perdu dans la technologie. Surtout, ne rien remettre en cause, mais opter pour un monde encore et toujours plus numérisé. Au mépris de nos libertés, de l’environnement, de l’humain et, au final, de notre avenir.
Reuters (26/04/2020), « Germany flips to Apple-Google approach on smartphone contact tracing »
Germany changed course on Sunday over which type of smartphone technology it wanted to use to trace coronavirus infections, backing an approach supported by Apple and Google along with a growing number of other European countries.
Le Monde (26/04/2020), « Application StopCovid : la CNIL appelle le gouvernement « à une grande prudence » »
Dans son avis, la Commission nationale de l’informatique et des libertés donne un satisfecit au gouvernement tout en pointant les « risques » liés à ce projet d’application.
Le Monde (25/04/2020). Tribune par Antonio Casilli et al. « StopCovid est un projet désastreux piloté par des apprentis sorciers »
Il faut renoncer à la mise en place d’un outil de surveillance enregistrant toutes nos interactions humaines et sur lequel pèse l’ombre d’intérêts privés et politiques, à l’instar du scandale Cambridge Analytica, plaide un collectif de spécialistes du numérique dans une tribune au « Monde ».
La Dépêche du Midi (25/04/2020), « Coronavirus : la société toulousaine Sigfox propose des bracelets électroniques pour gérer le déconfinement »
Tracer les malades du Covid-19 via une application pour alerter tous ceux qui les ont croisés et qui ont été touchés par le nouveau coronavirus, c’est l’une des options étudiées par le gouvernement pour le déconfinement. La société toulousaine Sigfox a proposé ses services : un bracelet électronique au lieu d’une application. Plus sûr selon son patron.
Le Monde (24/04/2020), Tribune de Thierry Klein, entrepreneur du numérique, « Déconfinement : « Nous nous sommes encore tiré une balle dans le pied avec le RGPD »
L’entrepreneur Thierry Klein estime, dans une tribune au « Monde », que le Règlement général sur la protection des données est un monstre juridique dont la France subira les conséquences quand il s’agira de mettre en place des outils numériques de suivi de la contagion.
Extrait :
Le pompon de la bêtise, celle qui tue, est en passe d’être atteint avec le traitement du coronavirus. Au moment où nous déconfinerons, il devrait être possible de mettre une application traceuse sur chaque smartphone (« devrait », car il ne faut pas préjuger des capacités techniques d’un pays qui n’a su procurer ni gel ni masques à ses citoyens). Cette application, si vous êtes testé positif, va être capable de voir quels amis vous avez croisés et ils pourront être eux-mêmes testés. Ainsi utilisée, une telle application réduit significativement la contagion, sauve des vies (par exemple en Corée du Sud), mais réduirait selon certains nos libertés et, drame national, enfreindrait le RGPD.
Une telle interprétation est un détournement de la notion de citoyenneté, au bénéfice d’une liberté individuelle mal comprise – de fait, la liberté de tuer.
NextInpact (24/04/2020), « « Contact tracing » : la nécessité (oubliée) de milliers d’enquêteurs » (Par Jean-Marc Manach )
La focalisation du débat autour des seules applications Bluetooth de « contact tracing » fait complètement l’impasse sur le fait que, en termes de santé publique, le « contact tracing » repose d’abord et avant tout sur le facteur humain. Et qu’il va falloir en déployer des centaines de milliers, dans le monde entier.
Numerama (21/04/2020), « »StopCovid vs Apple : pourquoi la France s’est mise dans une impasse »
D’après Cédric O, secrétaire d’État au Numérique, l’application StopCovid ne sortira pas dans les temps à cause d’Apple. Cette politisation simpliste du discours autour de l’app de contact tracing cache un désaccord technique entre la méthode nationale de l’Inria et le développement international de la solution de Google et Apple. Résultat : la France est dans l’impasse.
Corriere Della Sera (21/04/2020), « Coronavirus, l’App (quasi) obbligatoria e l’ipotesi braccialetto per gli anziani »
Une idée pour l’incitation pourrait être de laisser la possibilité de télécharger l’application, ou de porter le bracelet, rester volontaire. Comme le gouvernement l’a déjà indiqué clairement. Mais prévoir que pour ceux qui choisissent de ne pas le télécharger, des restrictions de mobilité subsistent. Il reste à préciser ce que l’on entend exactement par restrictions à la liberté de circulation. Pas l’obligation de rester à la maison, ce ne serait pas possible. Mais il pourrait y avoir un resserrement du mouvement qui, pour tous les autres, dans la phase 2, sera autorisé progressivement. La proposition, encore en phase d’élaboration, pourrait être formalisée dans les prochains jours par la commission technico-scientifique, en accord avec Domenico Arcuri, le commissaire extraordinaire qui a signé l’ordre précisément pour l’application, et en accord également avec le groupe de travail dirigé par Vittorio Colao. La décision finale, bien sûr, appartient au gouvernement.
Korii-slate (20/04/2020), « Peut-on déjà se fier à une app de passeport immunitaire? » (voir original sur Quartz paru le 15/04/2020)
Une start-up propose déjà son CoronaPass aux États, sur des bases scientifiques pourtant balbutiantes.
Le Temps (18/04/2020), « L’EPFL se distancie du projet européen de traçage du virus via les téléphones »
L’EPFL, mais aussi l’EPFZ se distancient du projet européen de traçage des smartphones pour lutter contre le coronavirus. A l’origine, les deux établissements faisaient partie de l’ambitieux projet de recherche européen Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT), regroupant 130 organismes de huit pays. Mais vendredi, les deux partenaires suisses ont décidé d’explorer une autre solution, davantage respectueuse de la vie privée.
Le Figaro (17/04/2020). Interview de Shoshana Zuboff « Shoshana Zuboff: «Les applications de contrôle de la pandémie doivent être obligatoires, comme les vaccins» » Traduction d’une interview parue originellement dans La Repubblica «Shoshana Zuboff: ‘Le app per il controllo della pandemia possono essere obbligatorie come i vaccini’ »
VU D’AILLEURS - L’auteure du livre L’ère du capitalisme de surveillance nous explique pourquoi les systèmes numériques de contrôle de la pandémie devraient relever du secteur public et donc devenir obligatoires.
L’Usine Nouvelle (16/04/2020) « Sanofi et Luminostics s’associent pour développer un autotest du Covid-19 sur smartphone »
Le français Sanofi et la start-up californienne Luminostics font alliance pour le développement d’un test de dépistage du Covid-19 à faire soi-même sur son smartphone. Les travaux doivent débuter dans quelques semaines et la solution pourra voir le jour d’ici à la fin 2020 sous réserve de l’obtention des autorisations réglementaires.
WIRED (14/04/2020), « The Apple-Google Contact Tracing Plan Won’t Stop Covid Alone »
Putting the privacy of these smartphone apps aside, few Americans have been tested—and there’s a risk of false positives.
Apple and Google are offering a bold plan using signals from more than 3 billion smartphones to help stem the spread of the deadly coronavirus while protecting users’ privacy. But epidemiologists caution that—privacy concerns aside—the scheme will be of limited use in combating Covid-19 because of the technology’s constraints, inadequate testing for the disease, and users’ reluctance to participate.
Le Monde (10/04/2020), « Coronavirus : Apple et Google proposent un outil commun pour les applications de traçage des malades »
Les deux géants de la téléphonie vont mettre en place une solution technique mise à disposition des gouvernements.
Wired (05/04/2020), « Google and Apple Reveal How Covid-19 Alert Apps Might Look »
As contact tracing plans firm up, the tech giants are sharing new details for their framework—and a potential app interface.
Finding out that you’ve been exposed to a serious disease through a push notification may still seem like something out of dystopian science fiction. But the ingredients for that exact scenario will be baked into Google and Apple’s operating system in as soon as a matter of days. Now the two companies have shown not only how it will work, but how it could look—and how it’ll let you know if you’re at risk.
France Inter (04/04/2020) « Google et le Covid-19 ou le Big data au service des gouvernement »
Google a mis en ligne vendredi l’ensemble des données de déplacements des utilisateurs (qui ont activé l’option localisation) de son outil de cartographie, Google Maps. Des données qui doivent, selon le géant du web américain, permettre d’aider les dirigeants à améliorer l’efficacité de leur politique de confinement.
La Tribune (24/03/2020), « Covid-19 et contagion : vers une géolocalisation des smartphones en France ? »
Un comité de douze chercheurs et médecins va être mis en place à l’Élysée à partir de ce mardi pour conseiller le gouvernement sur les moyens d’endiguer la propagation du coronavirus. Le numérique figure parmi les thèmes à l’étude, notamment pour identifier des personnes ayant été potentiellement exposées au virus. De nombreux pays ont déjà opté pour la géolocalisation des smartphones afin de traquer les déplacements des individus.
Avis et infos experts
CNIL (25/05/2020) – Délibération n° 2020-056 du 25 mai 2020 portant avis sur un projet de décret relatif à l’application mobile dénommée «StopCovid» (demande d’avis n° 20008032)
Feu vert de la CNIL.
SI Lex (01/05/2020), par Calimaq : StopCovid, la subordination sociale et les limites au « Consent Washing »
J’ai déjà eu l’occasion dans un précédent billet de dire tout le mal que je pensais de StopCovid et je ne vais pas en rajouter à nouveau dans ce registre. Je voudrais par contre prendre un moment sur la délibération que la CNIL a rendue en fin de semaine dernière à propos du projet d’application, car elle contient à mon sens des éléments extrêmement intéressants, en particulier sur la place du consentement en matière de protection des données personnelles.
CNIL (26/04/2020), Publication de l’avis de la CNIL sur le projet d’application mobile « StopCovid »
Dans le cadre de l’état d’urgence sanitaire lié à l’épidémie de COVID-19, et plus particulièrement de la stratégie globale de « déconfinement », la CNIL a été saisie d’une demande d’avis par le secrétaire d’État chargé du numérique. Celle-ci concerne l’éventuelle mise en œuvre de « StopCovid » : une application de suivi de contacts dont le téléchargement et l’utilisation reposeraient sur une démarche volontaire. Les membres du collège de la CNIL se sont prononcés le 24 avril 2020.
Dans le contexte exceptionnel de gestion de crise, la CNIL estime le dispositif conforme au Règlement général sur la protection des données (RGPD) si certaines conditions sont respectées. Elle relève qu’un certain nombre de garanties sont apportées par le projet du gouvernement, notamment l’utilisation de pseudonymes.
La CNIL appelle cependant à la vigilance et souligne que l’application ne peut être déployée que si son utilité est suffisamment avérée et si elle est intégrée dans une stratégie sanitaire globale. Elle demande certaines garanties supplémentaires. Elle insiste sur la nécessaire sécurité du dispositif, et fait des préconisations techniques.
Elle demande à pouvoir se prononcer à nouveau après la tenue du débat au Parlement, afin d’examiner les modalités définitives de mise en œuvre du dispositif, s’il était décidé d’y recourir.
Conseil National du Numérique (24/04/2020), « Stop-Covid. Avis du Conseil National du Numérique »
Dans le cadre de la réponse à la crise du COVID-19, le secrétaire d’État chargé du Numérique a saisi le Conseil national du numérique pour émettre un avis sur les modalités de fonctionnement et de déploiement de l’application pour téléphones mobiles StopCOVID, dont le développement a été annoncé le 8 avril 2020.
Ligue des Droits de l’Homme (24/04/2020), « Lettre ouverte concernant le vote sur la mise en œuvre de l’application StopCovid »
Les risques d’atteinte au respect de la vie privée et au secret médical, les risques de surveillance généralisée au regard d’une efficacité tout à fait incertaine conduisent la Ligue des droits de l’Homme (LDH) à vous demander instamment de vous opposer au projet StopCovid.
Washington Post (23/04/2020). Tribune de Bill Gates (24/04/2020) « Here are the innovations we need to reopen the economy. Version lisible aussi sur son blog en [version courte](The first modern pandemic (short read) ) et en version longue. On peut voir qu’un informaticien devient « spécialiste » en épidémiologie et comment il promeut du solutionnisme technologique (tout en affirmant que ce n’est pas non plus la panacée). Il propose le contact tracing (tracage de contact)
Le deuxième domaine dans lequel nous avons besoin d’innovation est le contact tracing. Lorsqu’une personne est testée positive, les professionnels de santé publique doivent savoir qui d’autre cette personne pourrait avoir été infectée.
Pour l’instant, les États-Unis peuvent suivre l’exemple de l’Allemagne : interroger toutes les personnes dont le test est positif et utiliser une base de données pour s’assurer que quelqu’un assure le suivi de tous leurs contacts. Cette approche est loin d’être parfaite, car elle repose sur la déclaration exacte des contacts par la personne infectée et nécessite un suivi personnel important. Mais ce serait une amélioration par rapport à la manière sporadique dont le contact tracing se fait actuellement aux États-Unis.
Une solution encore meilleure serait l’adoption généralisée et volontaire d’outils numériques. Par exemple, il existe des applications qui vous aideront à vous rappeler où vous avez été ; si jamais vous êtes déclaré positif, vous pouvez revoir l’historique ou choisir de le partager avec la personne qui vient vous interroger sur vos contacts. Et certaines personnes ont proposé de permettre aux téléphones de détecter d’autres téléphones qui se trouvent à proximité en utilisant le Bluetooth et en émettant des sons que les humains ne peuvent pas entendre. Si une personne était testée positive, son téléphone enverrait un message aux autres téléphones, et son propriétaire pourrait se faire tester. Si la plupart des gens choisissaient d’installer ce genre d’application, cela en aiderait probablement certains.
Risque-tracage.fr (21/04/2020). Le traçage anonyme, dangereux oxymore. Analyse de risques à destination des non-spécialistes.
Des chercheurs de l’INRIA, du LORIA etc. se regroupent pour diffuser un note de vulgarisation sur les risques liés au traçage par téléphone. Ils produisent un PDF qui circule beaucoup.
Privacy International (20/04/2020) « There’s an app for that: Coronavirus apps »
Increased trust makes every response to COVID-19 stronger. Lack of trust and confidence can undermine everything. Should we trust governments and industry with their app solutions at this moment of global crisis?
Key findings:
- There are many apps across the world with many different uses.
- Some apps won’t work in the real world; the ones that do work best with more virus testing.
- They all require trust, and that has yet to be built after years of abuses and exploitation.
- Apple and Google’s contributions are essential to making contact-tracing work for their users; these are positive steps into privacy-by-design, but strict governance is required for making, maintaining and removing this capability.
La Quadrature du Net (14/04/2020), « Nos arguments pour rejeter StopCovid Posted »
Utilisation trop faible, résultats vagues, contre-efficacité sanitaire, discriminations, surveillance, acclimatation sécuritaire…
Ross Anderson (chercheur Univ. Cambridge), (12/04/2020) « Contact Tracing in the Real World »
Voici le véritable compromis entre la surveillance et la santé publique. Pendant des années, une pandémie a figuré en tête du registre des risques de la Grande-Bretagne, mais on a beaucoup moins dépensé pour s’y préparer que pour prendre des mesures antiterroristes, dont beaucoup étaient plus ostentatoires qu’efficaces. Pire encore, la rhétorique de la terreur a gonflé les agences de sécurité au détriment de la santé publique, prédisposant les gouvernements américain et britannique à ignorer la leçon du SRAS en 2003 et du MERS en 2015 - contrairement aux gouvernements de la Chine, de Singapour, de Taïwan et de la Corée du Sud, qui y ont prêté au moins quelque attention. Ce dont nous avons besoin, c’est d’une redistribution radicale des ressources du complexe industriel de surveillance vers la santé publique.
Nos efforts devraient porter sur l’extension des tests, la fabrication de ventilateurs, le recyclage de tous ceux qui ont une formation clinique, des infirmières vétérinaires aux physiothérapeutes, et la construction d’hôpitaux de campagne. Nous devons dénoncer des conneries quand nous en voyons et ne pas donner aux décideurs politiques le faux espoir que la techno-magie pourrait leur permettre d’éviter les décisions difficiles. Sinon, nous pouvons mieux être utiles en nous tenant à l’écart. La réponse ne doit pas être dictée par les cryptographes mais par les épidémiologistes, et nous devons apprendre ce que nous pouvons des pays qui ont le mieux réussi jusqu’à présent, comme la Corée du Sud et Taïwan.
Union Européenne (08/04/2020) - Rapport technique sur le contact tracing. European Centre for Disease Prevention and Control . « Contact tracing: public health management of persons, including healthcare workers, having had contact with COVID-19cases in the European Union. » Lien vers le pdf , Lien vers la page.
This document aims to helpEU/EEA public health authorities in the tracing and management of persons,including healthcare workers, who had contact with COVID-19 cases. It should be implemented in combination with non-pharmaceutical measures as appropriate.
The purpose of identifying and managing the contacts ofprobable or confirmedCOVID-19casesisto rapidly identify secondary cases that may arise after transmission from the primary known cases in order tointervene andinterruptfurther onward transmission. This is achieved through:
- the prompt identification of contacts of a probable or confirmedcase of COVID-19;
- providing contacts withinformation on self-quarantine, proper hand hygiene and respiratory etiquette measures,and advice around what to do if they develop symptoms;
- timely laboratory testingfor all those withsymptoms.
CEVIPOF (01/04/2020), Martial Foucault « Note 3 - Opinons sur l’usage du téléphone portable en période de crise du Coronavirus »
En France, aucune décision n’a encore été prise. Comme le démontrent les exemples étrangers précédents, plusieurs modalités d’usage des données cellulaires sont envisageables, allant d’une politique de santé publique partagée (Singapour) à une politique de surveillance sans consentement (Iran). Dans le cadre de l’enquête comparée «Attitudes sur le COVID-19», nous avons interrogé un échantillon représentatif de Français sur «la possibilité de mobiliser les opérateurs téléphoniques à des fins de contrôle des déplacements». Àcette question, une majorité de personnes exprime une opinion fortement défavorable (48%). Seules 33% des personnes interrogées (échantillon de 2000 personnes) y sont favorables. Le niveau d’indécision sesitue à 18,4%.L’évolution des réponses à cette question posée dans les mêmes termes entre les 16-17 mars et les 24-25 mars montre une dynamique fortement positive. Les raisons de cette progression sont à rechercher autour de l’aggravation réelle de la pandémie et de la perception par l’opinion de l’urgence de l’ensemble des politiques sanitaires, technologiques et maintenant numériques. Le cadrage médiatique, fondé sur des expériences étrangères, du possible recours aux téléphones ne précise pas la position que pourraient prendre les autorités françaises en la matière. C’est pourquoi, ici, la question posée dans les deux enquêtesporte volontairement sur la dimension la plus intrusive sur la vie privée et la plus liberticide (la formulation insiste sur une politique de surveillance).
Chaos Computer Club (06/04/2020), « 10 requirements for the evaluation of “Contact Tracing” apps »
Loin d’être fermé à la mise en oeuvre d’application mobile de contact tracing le CCC émet 10 recommandation hautement exigeantes pour rendre ces applications acceptables.
Facebook (06/04/2020), « De nouveaux outils pour aider les chercheurs en santé à suivre et à combattre le COVID-19 »
Dans le cadre du programme Data for Good de Facebook, nous proposons des cartes sur les mouvements de population que les chercheurs et les organisations à but non lucratif utilisent déjà pour comprendre la crise du coronavirus, en utilisant des données agrégées pour protéger la vie privée des personnes. Ils nous ont dit combien ces informations peuvent être précieuses pour répondre au COVID-19, et aujourd’hui nous annonçons de nouveaux outils pour soutenir leur travail :…
Google (blog), (03/04/2020), « Helping public health officials combat COVID-19 »
Starting today we’re publishing an early release of our COVID-19 Community Mobility Reports to provide insights into what has changed in response to work from home, shelter in place, and other policies aimed at flattening the curve of this pandemic. These reports have been developed to be helpful while adhering to our stringent privacy protocols and policies.
Officiel
Anti Cor (12/11/2020) « Application StopCovid : Anticor saisit le parquet national financier »
Anticor a déposé un signalement auprès du Procureur de la République, mercredi 10 juin, ayant pour objet l’attribution du contrat de maintenance de l’application StopCovid, qui n’aurait été soumis à aucune procédure de passation de marché public.
FRA (European Union Agency For Fundamentals Rights) - 28/05/2020 « Les réponses technologiques à la pandémie de COVID-19 doivent également préserver les droits fondamentaux »
Protection des données, respect de la vie privée et nouvelles technologiesAsile, migration et frontièresAccès à l’asileProtection des donnéesEnfants, jeunes et personnes âgéesPersonnes handicapéesOrigine raciale et ethniqueRomsDroits des victimes
De nombreux gouvernements sont à la recherche de technologies susceptibles de les aider à suivre et tracer la diffusion de la COVID-19, comme le montre un nouveau rapport de l’Agence des droits fondamentaux de l’UE (FRA). Les gouvernements qui utilisent la technologie pour protéger la santé publique et surmonter la pandémie se doivent de respecter les droits fondamentaux de chacun.
Office parlementaire d’évaluation des choix scientifiques et technologiques, 12/05/2020. Audition de M. Guillaume Poupard, directeur général de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) – Vidéos Sénat.
Explications sur Stop-Covid, nécessité de conserver la souveraineté de l’Etat dans ce domaine, inquiétudes au sujet de la progression des GAFAM dans le secteur de la santé. Inquiétudes au sujet de la montée en puissance du tracage de contacts dans les dispositifs Apple / Google, et l’éventualité d’un futur développement d’une économie dans ce secteur avec tous les biais que cela suppose.
ANSSI (27/04/2020), « Application StopCovid –L‘ANSSI apporte à Inria son expertise technique sur le volet sécurité numérique du projet »
Pilote du projet d’application StopCovid, à la demande du Secrétaire d’Etat chargé du numérique, Cédric O, l’Institut national de recherche en sciences et technologies du numérique (Inria) est accompagné par l’Agence nationale de la sécurité des systèmes d’information (ANSSI) sur les aspects de sécurité numérique.
INRIA (26/04/2020). Communiqué de presse annonçant officiellement l’équipe-projet de l’application Stop-Covid.
Inria, ANSSI, Capgemini, Dassault Systèmes, Inserm, Lunabee Studio, Orange, Santé Publique France et Withings (et Beta.gouv a été débarqué du projet, qui contiendra finalement peu de briques open-source).
Protocoles
Les protocoles et applications suivants, développés dans le cadre de la lutte contre Covid-19 utilisent en particulier le Bluetooth.
BlueTrace est le protocole open source inventé au sein du gouvernement de Singapour dans le cadre de la lutte contre la propagation du virus Covid-19. Le protocole est utilisé dans l’application TraceTogether. À son tour le gouvernemetn Australien implémente ce protocole dans l’application COVIDSafe distribuée en Australie.
En Europe, le protocole ouvert Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT/PEPP) utilise le bluetooth pour rechercher des contacts mais centralise des rapports sur un serveur centralisé. Son concurrent open source Decentralized Privacy-Preserving Proximity Tracing ne permet pas au serveur central de signalement d’accéder aux journaux de contacts.
Pour la France, le protocole ROBERT (ROBust and privacy-presERving proximity Tracing) a été publié par l’INRIA le 18 avril 2020
Listes d’applications Covid-19 : fr.wikipedia.org/wiki/Applications_Covid-19
10.04.2020 à 02:00
Prophètes et technologistes à l’ère de la suspicion généralisée
Ha ! Le sacro-saint « révélateur ». À écouter et lire les médias, la pandémie Covid-19 que nous traversons aujourd’hui est censée « révéler » quelque chose, un message, un état d’esprit, l’avènement d’une prophétie. Et on voit proliférer les experts toutologues, devins des temps modernes, avatars des prédicateurs de l’An Mille, les charlatans de fin du monde. Je voudrais partager ici quelques réflexions au sujet des discours actuels sur la surveillance en situation de crise sanitaire.
(Note : ce billet a été publié sur le Framablog le 10 avril 2020)
Les prophètes
Faire une révélation, nous dit le dictionnaire, c’est porter à la connaissance quelque chose qui était auparavant caché, inconnu. Et le pas est vite franchi : pour nos prêtres médiatiques, il est très commode de parler de révélation parce que si le divin à travers eux manifeste ce qu’eux seuls peuvent dévoiler au public (eux seuls connaissent les voies divines), il leur reste le pouvoir de décider soit de ce qui était auparavant caché et doit être dévoilé, soit de ce qui était caché et n’est pas censé être dévoilé. Bref, on refait l’histoire au fil des événements présents : la sous-dotation financière des hôpitaux et les logiques de coupes budgétaires au nom de la rigueur ? voilà ce que révèle le Covid-19, enfin la vérité éclate ! Comment, tout le monde le savait ? Impossible, car nous avions tous bien affirmé que la rigueur budgétaire était nécessaire à la compétitivité du pays et maintenant il faut se tourner vers l’avenir avec ce nouveau paramètre selon lequel la rigueur doit prendre en compte le risque pandémique. Et là le prêtre devient le prophète de jours meilleurs ou de l’apocalypse qui vient.
Pourquoi je raconte tout cela ? Je travaille dans un CHU, les politiques de santé publiques me sont quotidiennes ainsi que la manière dont elles sont décidées et appliquées. Mais vous le savez, ce n’est pas le sujet de mes études. Je m’intéresse à la surveillance. Et encore, d’un point de vue historique et un peu philosophique, pour faire large. Je m’intéresse au capitalisme de surveillance et j’essaie de trouver les concepts qui permettent de le penser, si possible au regard de notre rapport à l’économie et au politique.
J’ai appris très tôt à me méfier des discours à tendance technologiste, et cela me vient surtout de ma formation initiale en philosophie, vous savez ce genre de sujet de dissertation où l’on planche sur le rapport technologie / politique / morale. Et à propos, sans pour autant faire de la philo, je ne saurais que conseiller d’aller lire le livre de Fred Turner qui, déjà en 2006 (la traduction est tardive), grattait assez profondément le vernis de la cyberculture californienne. Mais au fil des années de mon implication dans le logiciel libre et la culture libre, j’ai développé une autre sorte de sensibilité : lorsque les libertés numériques sont brandies par trop de prophètes d’un coup, c’est qu’il faut aller chercher encore ailleurs le discours qui nous est servi.
Pour exemple de l’effet rhétorique de la révélation, on peut lire cet article du géographe Boris Beaude, paru le 07 avril 2020 dans Libération, intitulé « Avec votre consentement ». L’auteur passe un long moment à faire remarquer au lecteur à quel point nous sommes vendus corps et âmes aux GAFAM et que la pandémie ne fait que révéler notre vulnérabilité :
Lorsque nous acceptons que de telles entreprises collectent les moindres détails de nos existences pour le compte de leurs clients et que nous doutons conjointement des régimes politiques qui nous gouvernent, nous réalisons que les effets de la propagation du Sars-Cov-2 ne sont qu’un révélateur de l’ampleur de notre vulnérabilité.
Il est important de comprendre la logique de ce discours : d’un côté on pose un diagnostic que seul un sage est capable de révéler et de l’autre on élève la pandémie et ses effet délétères au rang des sept plaies d’Égypte, qui sert de porte à une nouvelle perception des choses, en l’occurrence notre vulnérabilité face aux pratiques d’invasion de la vie privée par les GAFAM, et par extension, les pratiques des États qui se dotent des moyens technologiques pour surveiller et contrôler la population. Évidemment, entre la population assujettie et l’État-GAFAM, il y a la posture du prophète, par définition enviable puisqu’il fait partie d’une poignée d’élus livrant un testament aux pauvres pêcheurs que nous sommes. Reste plus qu’à ouvrir la Mer Rouge…
Arrêtons là si vous le voulez bien la comparaison avec la religion. Je l’affirme : non la crise COVID-19 ne révèle rien à propos du capitalisme de surveillance. Elle ne révèle rien en soi et encore moins à travers les prophètes auto-proclamés. Et la première des raisons est que ces derniers arrivent bien tard dans une bataille qui les dépasse.
Pendant la crise sanitaire que nous traversons il ne faut pas se demander ce qu’elle peut révéler mais interroger les discours qui se servent de cette crise pour justifier et mettre en œuvre des pratiques de surveillance et limiter encore davantage nos libertés. Penser les choses en termes de révélation n’a pour autre effet que de limiter toujours plus notre pouvoir d’action : que peut-on à l’encontre d’une révélation ?
Les amis de la Quadrature du Net (comme beaucoup d’autres, heureusement) préfèrent une approche bien plus structurée. Ils affirment par exemple dans un récent communiqué que, au regard de la surveillance, la crise sanitaire Covid-19 est un évènement dont l’ampleur sert d’argument pour une stratégie de surveillance de masse, au même titre que les attentats terroristes. Ceci n’est pas une révélation, ni même une mise en garde. C’est l’exposé des faits, ni plus ni moins. Tout comme dire que notre ministre de l’intérieur C. Castaner a d’abord affirmé que l’État Français n’avait pas pour intention de copier la Corée du Sud et la Chine en matière de traçage de téléphones portables, avant de revenir sur ses propos et affirmer que les services gouvernementaux planchent sur une application censée tracer les chaînes de transmission. Qui s’est offusqué de ce mensonge d’État ? C’est devenu tellement banal. Pire, une telle application permettrait d’informer les utilisateurs s’ils ont « été dans les jours précédents en contact avec quelqu’un identifié positif au SARS-CoV-2 », comme l’affirment les deux ministres Castaner et Véran dans un entretien au Monde. C’est parfait comme technique de surveillance : la Stasi pratiquait déjà ce genre de chose en organisant une surveillance de masse basée sur la suspicion au quotidien.
Le smartphone n’est qu’un support moderne pour de vieilles recettes. Le Covid-19 est devenu un prétexte, tout comme les attentats terroristes, pour adopter ou faire adopter une représentation d’un État puissant (ce qu’il n’est pas) et faire accepter un État autoritaire (ce qu’il est). Cette représentation passe par un solutionnisme technologique, celui prôné par la doctrine de la « start-up nation » chère à notre président Macron, c’est-à-dire chercher à traduire l’absence d’alternative politique, et donc l’immobilisme politique (celui de la rigueur budgétaire prôné depuis 2008 et même avant) en automatisant la décision et la sanction grâce à l’adoption de recettes technologiques dont l’efficacité réside dans le discours et non dans les faits.
Techno-flop
Le solutionnisme technologique, ainsi que le fait remarquer E. Morozov, est une idéologie qui justifie des pratiques de surveillance et d’immenses gains. Non seulement ces pratiques ne réussissent presque jamais à réaliser ce pourquoi elles sont prétendues servir, mais elles sont le support d’une économie d’État qui non seulement dévoie les technologies afin de maîtriser les alternatives sociales, voire la contestation, mais entre aussi dans le jeu financier qui limite volontairement l’appropriation sociale des technologies. Ainsi, par exemple, l’illectronisme des enfants et de leurs enseignants livrés à une Éducation Nationale numériquement sous-dotée, est le fruit d’une volonté politique. Comment pourrait-il en être autrement ? Afin d’assurer la « continuité pédagogique » imposée par leur ministre, les enseignants n’ont eu d’autres choix que de se jeter littéralement sur des services privateurs. Cette débandade est le produit mécanique d’une politique de limitation volontaire de toute initiative libriste au sein de l’Éducation Nationale et qui serait menée par des enseignants pour des enseignants. Car de telles initiatives remettraient immanquablement en question la structure hiérarchique de diffusion et de valorisation des connaissances. Un tel gouvernement ne saurait supporter quelque forme de subsidiarité que ce soit.
La centralisation de la décision et donc de l’information… et donc des procédés de surveillance est un rêve de technocrates et ce rêve est bien vieux. Déjà il fut décrié dès les années 1970 en France (voir la première partie de mon livre, Affaires Privées) où la « dérive française » en matière de « grands fichiers informatisés » fut largement critiquée pour son inefficacité coûteuse. Qu’importe, puisque l’important n’est pas de faire mais de montrer qu’on fait. Ainsi l’application pour smartphone Stop Covid (ou n’importe quel nom qu’on pourra lui donner) peut d’ores et déjà figurer au rang des grands flops informatiques pour ce qui concerne son efficacité dans les objectifs annoncés. Il suffit de lire pour cela le récent cahier blanc de l’ACLU (Union Américaine pour les libertés civiles), une institution fondée en 1920 et qu’on ne saurait taxer de repère de dangereux gauchistes.
Dans ce livre blanc tout est dit, ou presque sur les attentes d’une application de tracing dont l’objectif, tel qu’il est annoncé par nos ministres (et tel qu’il est mentionné par les pays qui ont déjà mis en œuvre de telles applications comme la Chine ou Israël), serait de déterminer si telle personne a été exposée au virus en fréquentant une autre personne définie comme contagieuse. C’est simple :
- Il faut avoir un smartphone avec soi et cette application en fonction : cela paraît basique, mais d’une part tout le monde n’a pas de smartphone, et d’autre part tout le monde n’est pas censé l’avoir sur soi en permanence, surtout si on se contente de se rendre au bureau de tabac ou chez le boulanger…
- aucune technologie n’est à ce jour assez fiable pour le faire. Il est impossible de déterminer précisément (c’est-à-dire à moins de deux mètres) si deux personnes sont assez proches pour se contaminer que ce soit avec les données de localisation des tours de téléphonie (triangulation), le GPS (5 à 20 mètres) ou les données Wifi (même croisées avec GPS on n’a guère que les informations sur la localisation de l’émetteur Wifi). Même avec le bluetooth (technologie plébiscitée par le gouvernement Français aux dernières nouvelles) on voit mal comment on pourrait assurer un suivi complet. Ce qui est visé c’est en fait le signalement mutuel. Cependant, insister sur le bluetooth n’est pas innocent. Améliorer le tracing dans cette voie implique un changement dans nos relations sociales : nous ne sommes plus des individus mais des machines qui s’approchent ou s’éloignent mutuellement en fonction d’un système d’alerte et d’un historique. Qui pourra avoir accès à cet historique ? Pourra-t-on être condamné plus tard pour avoir contaminé d’autres personnes ? Nos assurances santé autoriseront-elles la prise en charge des soins s’il est démontré que nous avons fréquenté un groupe à risque ? Un projet européen existe déjà (PEPP-PT), impliquant entre autres l’INRIA, et il serait important de surveiller de très près ce qui sera fait dans ce projet (idem pour ce projet de l’École Polytechnique de Lausanne).
- Ajoutons les contraintes environnementales : vous saluez une personne depuis le second étage de votre immeuble et les données de localisation ne prennent pas forcément en compte l’altitude, vous longez un mur, une vitrine, une plaque de plexiglas…
Bref l’UCLA montre aimablement que la tentation solutionniste fait perdre tout bon sens et rappelle un principe simple :
Des projets ambitieux d’enregistrement et d’analyse automatisés de la vie humaine existent partout de nos jours, mais de ces efforts, peu sont fiables car la vie humaine est désordonnée, complexe et pleine d’anomalies.
Les auteurs du rapport écrivent aussi :
Un système de suivi de localisation dans le temps peut être suffisamment précis pour placer une personne à proximité d’une banque, d’un bar, d’une mosquée, d’une clinique ou de tout autre lieu sensible à la protection de la vie privée. Mais le fait est que les bases de données de localisation commerciales sont compilées à des fins publicitaires et autres et ne sont tout simplement pas assez précises pour déterminer de manière fiable qui était en contact étroit avec qui.
En somme tout cela n’est pas sans rappeler un ouvrage dont je conseille la lecture attentive, celui de Cathy O’Neil, Algorithmes: la bombe à retardement (2018). Cet ouvrage montre à quel point la croyance en la toute puissance des algorithmes et autres traitements automatisés d’informations dans le cadre de processus décisionnels et de politiques publiques est la porte ouverte à tous les biais (racisme, inégalités, tri social, etc.). Il n’en faudrait pas beaucoup plus si l’on se souvient des débuts de la crise Covid-19 et la suspicion dans nos rues où les personnes présentant des caractères asiatiques étaient stigmatisées, insultées, voire violentées…
Ajoutons à cela les effets d’annonce des GAFAM et des fournisseurs d’accès (Orange, SFR…) qui communiquaient il y a peu, les uns après les autres, au sujet de la mise à disposition de leurs données de localisation auprès des gouvernements. Une manière de justifier leur utilité sociale. Aucun d’entre eux n’a de données de localisations sur l’ensemble de leurs utilisateurs. Et heureusement. En réalité, les GAFAM tout comme les entreprises moins connues de courtage de données (comme Acxiom), paient pour cela. Elles paient des entreprises, souvent douteuses, pour créer des applications qui implémentent un pompage systématique de données. L’ensemble de ces pratiques crée des jeux de données vendues, traitées, passées à la moulinette. Et si quiconque souhaite obtenir des données fiables permettant de tracer effectivement une proportion acceptable de la population, il lui faut accéder à ces jeux… et c’est une denrée farouchement protégée par leurs détenteurs puisque c’est un gagne-pain.
De la méthode
À l’heure où les efforts devraient se concentrer essentiellement sur les moyens médicaux, les analyses biologiques, les techniques éprouvées en santé publique en épidémiologie (ce qui est fait, heureusement), nous voilà en train de gloser sur la couleur de l’abri à vélo. C’est parce que le solutionnisme est une idéologie confortable qui permet d’évacuer la complexité au profit d’une vision du monde simpliste et inefficace pour laquelle on imagine des technologies extrêmement complexes pour résoudre « les grands problèmes ». Ce n’est pas une révélation, simplement le symptôme de l’impuissance à décider correctement. Surtout cela fait oublier l’impréparation des décideurs, les stratégies budgétaires néfastes, pour livrer une mythologie technologiste à grand renfort de communication officielle.
Et l’arme ultime sera le sondage. Déjà victorieux, nos ministères brandissent une enquête d’opinion du département d’économie de l’Université d’Oxford, menée dans plusieurs pays et qui montre pour la France comme pour les autres pays, une large acceptation quant à l’installation d’une application permettant le tracing, que cette installation soit volontaire ou qu’elle soit imposée1. Est-ce étonnant ? Oui, effectivement, alors même que nous traversons une évidente crise de confiance envers le gouvernement, la population est prête à jouer le jeu dangereux d’une surveillance intrusive dont tout laisse supposer que cette surveillance se perpétuera dans le temps, virus ou pas virus. Mais cela ne signifie pas pour autant que la confiance envers les dirigeants soit rétablie. En effet le même sondage signale que les retombées politiques en cas d’imposition d’un tel système sont incertaines. Pour autant, c’est aussi un signal envoyé aux politiques qui vont alors se lancer dans une quête frénétique du consentement, quitte à exagérer l’assentiment pressenti lors de cette enquête. C’est déjà en cours.
À mon avis, il faut rapprocher le résultat de cette enquête d’une autre enquête récente portant le plébiscite de l’autoritarisme en France. C’est une enquête du CEVIPOF parue en mars 2020 qui montre « l’emprise du libéralisme autoritaire en France », c’est-à-dire que le manque de confiance dans l’efficacité du gouvernement ne cherche pas son remède dans une éventuelle augmentation des initiatives démocratiques, voire alternativistes, mais dans le refuge vers des valeurs de droite et d’extrême droite sacrifiant la démocratie à l’efficacité. Et ce qui est intéressant, c’est que ceux qui se vantaient d’apporter plus de société civile à la République sont aussi ceux qui sont prêts à dévoyer la démocratie. Mais qu’on y prenne garde, ce n’est pas vraiment une affaire de classe sociale, puisque cette orientation autoritaire est aussi valable dans les tranches basses et moyennes. On rejoint un peu les propos d’Emmanuel Todd dans la première partie de son ouvrage Les Luttes de classes en France au XXIe siècle, données sérieuses à l’appui (y compris celles de l’Insee).
Alors quoi ? les Français sont-ils définitivement des veaux heureux d’aller à l’abattoir ? Honnêtement, parfois on peut le penser. Mais pas là. Non. L’enquête d’opinion d’Oxford a été menée dans un climat général extrêmement angoissant, et inédit. Pour retrouver un tel degré de panique dans la population, il faudrait par exemple se souvenir de la crise des missiles cubains et de la manière dont elle a été mise en scène dans les médias américains. Même l’épisode Tchernobyl en France n’a pas eu cet impact (ok, on a largement minimisé le problème). Et là dedans, avec un gouvernement à la fois empêtré et sidéré (avec la chargée de comm' S. Ndiaye alignant ad nauseam sottises et âneries), on fait un sondage dont les tenants et aboutissants techniques sont loin d’être évidents et qui pose la question : êtes-vous prêt à installer une application de tracing sur votre mobile qui permettrait de lutter contre l’épidémie ? Sérieux, on attend quoi comme réponse ? Sur plusieurs pays qui ont connu les mêmes valses-hésitations politiques, le fait que les réponses soient à peu près les mêmes devrait mettre la puce à l’oreille, non ? Bien sûr, allez demandez ce qu’elles pensent de la vidéosurveillance à des personnes qui se sont fait agresser dans la rue, pensez-vous que nous aurions les mêmes réponses si le panel était plus large ? Ce que je veux dire, c’est que le panel des 1.000 personnes interrogées en pleine crise sanitaire n’est représentatif que de la population touchée par la crise sanitaire, c’est-à-dire un panel absolument homogène. Évidemment que les tendances politiques ne viennent donc qu’en second plan et ne jouent qu’un rôle négligeable dans les réponses données.
Je ne suis pas statisticien, je ne peux donner mon sentiment qu’avec mes mots à moi. Mais, n’est-ce pas, nous sommes déjà habitués au techniques d’extorsion (fabrique ?) de consentement. À celui-ci s’ajoute une certaine pauvreté dans la manière d’appréhender cette fuite en avant vers la surveillance. Avec l’expression « Big Brother », on a l’impression d’avoir tout dit. Mais c’est faux. On ne passe pas si facilement d’un libéralisme autoritaire à une dystopie orwellienne, il y a des étapes, et à chaque étape nous prenons une direction. Scander « Big Brother » (comme la récente Une de l’Obs le 02 avril 2020 « Big Brother peut-il nous sauver ? »), c’est un peu comme si on cherchait à donner une théorie sans d’abord la démontrer. « Big Brother » impose une grille de lecture des événements tout en prédisant déjà la fin. Ce n’est pas une bonne méthode.
Y-a-t’il une bonne méthode ? Étudier la surveillance, c’est d’abord faire appel à un ensemble de concepts que l’on met à l’épreuve. Il faut signaler sur ce point l’excellent édito de Martin French et Torin Monahan dans le dernier numéro de la revue canadienne Surveillance & Society, intitulé « Dis-ease Surveillance: How Might Surveillance Studies Address COVID-19? ». C’est tout un programme de recherche qui est développé ici, à titre prospectif. La première chose que s’empressent de signaler les auteurs, c’est que surveiller le Covid-19, ce n’est pas surveiller la population. Ce sont deux choses bien différentes que les politiques feraient mieux de ne pas perdre de vue. Surveiller le Covid-19 c’est faire de l’épidémiologie, et identifier des cas (suspects, déclarés, etc.). Et là où on peut s’interroger, c’est sur la complexité des situations qu’une approche scientifique réduit à des éléments plus simples et pertinents. Si, pour les besoins d’une étude, il faut faire un tri social, il importe de savoir ce que l’étude révélera finalement : y-a-t’il plus de patients Covid-19 dans les couches pauvres de la population ? Comment l’information sur la surveillance circule et est reçue par les populations ? Et plus généralement qu’est-ce que la surveillance des populations en situation de pandémie, quelles sont les contraintes éthiques, comment les respecter ?
Ensuite vient tout un ensemble de concepts et notions qu’il faut interroger au regard des comportements, des groupes de pression, des classes sociales et tous autres facteurs sociaux. Par exemple la vigilance : est-elle encouragée au risque de la délation, est-elle définie par les autorités comme une vigilance face à la maladie et donc une forme d’auto-surveillance ? Il en est de même au sujet de l’anticipation, la stigmatisation, la marginalisation, la prévention, la victimisation, l’exclusion, la confiance, autant d’idées qui permettent de définir ce qu’est la surveillance en situation de pandémie. Puis vient la question des conséquences de la surveillance en situation de pandémie. Là on peut se référer à la littérature existante à propos d’autres pandémies. Je ne résiste pas à citer les auteurs :
L’écologie informationnelle contemporaine se caractérise par une forme de postmodernisme populiste où la confiance dans les institutions est érodée, ne laissant aucun mécanisme convenu pour statuer sur les demandes de vérité. Dans un tel espace, la peur et la xénophobie remplissent facilement le vide laissé par l’autorité institutionnelle. En attendant, si les gens ont perdu confiance dans l’autorité institutionnelle, cela ne les protégera pas de la colère des institutions si l’on pense qu’ils ont négligemment contribué à la propagation de COVID-19. Déjà, des poursuites pénales sont en cours contre la secte chrétienne qui a contribué à l’épidémie en Corée du Sud, et les autorités canadiennes affirment qu’elles n’excluent pas des sanctions pénales pour « propagation délibérée de COVID-19 ». Comme nous l’avons vu en ce qui concerne le VIH, la réponse de la justice pénale a connu un regain d’intérêt au cours de la dernière décennie, ce qui laisse entrevoir la montée d’une approche de plus en plus punitive des maladies infectieuses. Dans le cas du VIH, cette évolution s’est produite sans qu’il soit prouvé qu’une réponse de la justice pénale contribue à la prévention du VIH. À la lumière de ces développements, les chercheurs devraient s’attendre — et s’interroger sur les implications des flux de données sanitaires dans les systèmes de justice pénale.
Effectivement, dans un monde où le droit a perdu sa fonction anthropologique et où l’automatisation de la justice répond à l’automatisation de nos vies (leur gafamisation et leur réduction à des données numériques absconses) on peut se demander si l’autoritarisme libéral ne cherchera pas à passer justement par le droit, la sanction (la punition) pour affirmer son efficacité, c’est-à-dire se concentrer sur les effets au détriment de la cause. Qu’importe si l’application pour smartphone Covid-19 dit le vrai ou pas, elle ne saurait être remise en cause parce que, de manière statistique, elle donne une représentation de la réalité que l’on doit accepter comme fidèle. Ce serait sans doute l’une des plus grandes leçons de cette épidémie : la consécration du capitalisme de surveillance comme la seule voie possible. Cela, ce n’est pas une prophétie, ce n’est pas une révélation, c’est le modèle dans lequel nous vivons et contre lequel nous ne cessons de résister (même inconsciemment).
Crédit image d’en-tête : Le Triomphe de la Mort, Pieter Brueghel l’Ancien (1562) – Wikipédia.
-
Un sondage réalisé à une semaine d’intervalle dément complètement les résultats de celui de l’université d’Oxford. Il a été réalisé sur la population française par l’IFOP suite à une demande de la Fondation Jean-Jaurès. Il apparaît qu’une majorité de français est en fait opposée à une application de type Stop-Covid. Voir Maxime des Gayets, « Tracking et Covid : extension du domaine de l’absurde », Fondation Jean-Jaurès, 12/04/2020 ↩︎
24.03.2020 à 01:00
Culture de la surveillance : résistances
« Lutte pour les libertés numériques », « droits et libertés sur Internet », liberté, liberté, j’écris ton nom… Sauf qu’il n’a jamais été autant question de liberté dans le monde numérique sans qu’elle finisse invariablement à se retrouver comme réduite à une simple revendication d’auto-détermination individuelle. Nous revendiquons un « droit à la connexion », nous exigeons de pouvoir rester maîtres des données que nous transmettons (et nous ne le sommes pas). Mais ces droits et ces libertés, nous les réclamons en tant que sujets de pouvoir ou plutôt d’une couche de pouvoirs, impérialisme économique et concentration de technologies. Par ces incessantes réclamations, n’est-ce pas plus simplement que nous réaffirmons sans cesse notre soumission au capitalisme de surveillance ?
J’ignore encore, à l’heure où j’écris ces lignes, où je veux en venir exactement. Pas banal direz-vous, car j’ai habitué les lecteurs de ce blog à d’autres stratégies, mais baste ! En ces instants de confinement généralisé, j’ai bien envie de me laisser aller à quelques détours réflexifs. Je voudrais vous parler de Michel Foucault, de Michel de Certeau, des surveillance studies1, et d’autres enjeux que je ne développe pas dans mon récent bouquin (Affaires Privées) parce que la réflexion n’est pas encore assez mûre.
Je feuilletais récemment un ouvrage collectif intitulé Data Politics. Worlds, Subjects, Rights2, un de ces nombreux ouvrages qui fleurissent depuis une dizaine d’années (et plus encore depuis les révélations d’E. Snowden) dans le monde de la recherche en politique et sociologie du côté anglo-saxon. Me sont venues alors quelques réflexions. Ce n’est pas que dans la vieille Europe nous soyons démunis de ce côté-là, et en France encore moins, mais nous avons un gros défaut : une tendance à l’auto-centrisme.
C’est peut-être en réponse à cette limitation intellectuelle que récemment la « littérature » scientifique (et journalistique) en France a commencé par cesser la complainte du « ils nous surveillent, regardez comment », pour se pencher sur l’analyse des causes et des processus de ce qu’on a encore bien du mal à appeler le capitalisme de surveillance. Cette dernière expression est employée un peu partout, mais il est bien rare de trouver une publication académique en France qui l’utilise vraiment. Lorsque c’est le cas, on se tourne généralement vers une seule autrice, Shoshana Zuboff, qui propose effectivement une lecture du capitalisme de surveillance très pertinente puisqu’elle donne une analyse systématique des pratiques des entreprises, la répartition du pouvoir et de la décision que cela induit et l’impact sur la vie privée. Ainsi on a assisté depuis 2014 à la publication de nombreux articles de S. Zuboff en Allemagne (en particulier dans les versions allemandes et anglaises du Frankfurter Allgemeine Zeitung ) et aux États-Unis, avec le point culminant de son ouvrage monumental The Age of Surveillance Capitalism (publié d’abord en Allemagne puis aux États-Unis, et bientôt en France). On prévoit alors la « déferlante Zuboff » dans les prochaines publications ici et là : le Monde Diplomatique à son tour, puis la revue Esprit… Les colonnes sont ouvertes, on bouffera du Zuboff en 2020.
Tout cela est bon. Vraiment. Déjà parce que Zuboff est plus digeste que Masutti (cf. AffairesPrivées), mais surtout parce qu’il est très important d’avoir une base solide sur laquelle on peut commencer à discuter. Je l’ai déjà dit sur d’autres billets de ce blog, mais j’admire vraiment S. Zuboff parce qu’elle fourni dans son travail une analyse globale des pratiques de surveillance de l’économie numérique. C’est un travail essentiel aujourd’hui. Plus encore en ces jours de confinement « Covid 19 » où le solutionnisme technologique bat son plein dans les tentatives pathétiques de contrôle des populations. Il est vrai que la « start-up nation » tant vantée ces deux dernières années est encore attendue au tournant alors que c’est bien du côté de l’Économie Sociale et Solidaire que nous voyons émerger créativité et solidarité numériques pour palier les manquements de l’État-Gafam. S. Zuboff ne montre pas autre chose que le grignotage néolibéral des fonctions publiques et des libertés individuelles, ce qu’elle voit à la fois comme une injustice et une menace pour la démocratie.
Cependant (vous le reconnaissez cet adverbe assassin et jubilatoire des pédants qui critiquent le travail des autres ?), cependant, dis-je, cette analyse de S. Zuboff repose presque exclusivement sur l’idée que le capitalisme de surveillance est une dépossession de l’expérience individuelle, au sens d’un contrôle des masses consommatrices et productives, afin d’imposer un modèle économique qui ne crée pas autre chose qu’un déséquilibre dans la dynamique normale du capitalisme (concurrence, égalité, choix, etc.). Elle en vient même à déclarer que l’atteinte à la vie privée, moteur du capitalisme de surveillance est la marque d’une appropriation de savoirs (qui possède l’information et qui décide ?) d’ordre « pathologique ». En d’autres termes nous parlons donc d’un capitalisme malade qu’il faudrait soigner. Et, de là, S. Zuboff plaide pour une prise de conscience générale des décideurs afin de ré-organiser la régulation et rétablir l’équilibre économique.
Bon. Là-dessus, je ne suis pas d’accord (et je ne suis pas le seul). D’abord, d’un point de vue méthodologique il y a comme un (gros) problème : cette économie de la surveillance ne commence pas avec les géants de la Silicon Valley, elle s’inscrit dans une histoire que S. Zuboff élude complètement. Et si elle l’élude, c’est parce que vouloir influencer les comportements de consommation de masse, c’est déjà vieux (le marketing, c’est les années 1920), mais surtout la critique consistant à dénoncer les atteintes à la vie privée en s’appuyant sur des procédures informatisées et des formules prédictives, c’est un processus normal du capitalisme moderne dans une société informatisée, c’est-à-dire au moins depuis les années 1960 — et ça c’est ce que j’écris dans mon bouquin, entre autre. Si bien que S. Zuboff s’inscrit en fait dans une tradition déjà bien ancienne des contempteurs d’une économie de l’atteinte à la vie privée, qui dénonçaient déjà les pratiques à l’œuvre et dont les ouvrages furent de véritables best-seller dans les années 1960 et 1970 (Arthur Miller, James B. Rule, Alan Westin, etc.).
Mais S. Zuboff apporte bien des nouvelles choses. Elle contextualise son analyse en se concentrant sur l’idéologie de la Silicon Valley dont elle démontre comment, de manière réfléchie, cette idéologie grignote petit à petit nos libertés. S. Zuboff fait tout cela de manière excessivement renseignée, pointant, démontrant avec exactitude (et de nombreux exemples) comment les stratégies des « capitalistes de la surveillance » organisent la confusion entre marché et individu, nient la société pour nous assujettir à leurs modèles. Ce que des gens comme Fred Turner avaient déjà pointé en montrant que les utopies soi-disant contre-culturelles à l’origine de ce « nouveau monde numérique », n’étaient finalement qu’un échafaudage en carton-pâte, S. Zuboff l’intègre davantage dans une confrontation entre une nouvelle idéologie néfaste de la dérégulation et un capitalisme bien régulé où l’État reprendrait ses prérogatives et les individus leur pouvoir d’autodétermination de soi.
Oui, mais… non. Car si ce capitalisme de surveillance apporte des nouvelles règles, elles sont fatalement à l’épreuve de la société et de la culture. Et ce travail d’analyse manque cruellement à S. Zuboff. La réalité de l’idéologie de la Silicon Valley, c’est une augmentation délirante du chômage et de la précarisation, des exploitations nationales et mondiales de la pauvreté, de l’environnement et du climat, mais aussi les luttes solidaires contre l’ubérisation de l’économie, et tout un ensemble de résistances sociales qui font que non, décidément non, nous ne sommes pas que des sujets soumis aux pouvoirs. Si le capitalisme de surveillance impose ses jeux de pouvoir par le biais des États qui, sous couvert de solutionnisme technologique usent et abusent des contrôle des populations, ou par le jeu plus direct de la captation des données et de la prédictions des comportements de consommation, il reste que concrètement, aux bas niveaux des interactions sociales et des comportements collectifs, tout ne se passe pas de manière aussi mécanique qu’on voudrait le croire.
S. Zuboff reprend (sans le dire) l’expression de capitalisme de surveillance des auteurs de la Monthly Review. J’ai déjà eu l’occasion de disserter sur cette usurpation ici et là, et j’en parle aussi dans mon ouvrage, aussi je ne vais pas y revenir. En fait, le capitalisme de surveillance est surtout un projet d’étude, une approche du capitalisme. Au lieu d’en faire un objet qui serait le résultat d’une distorsion d’un capitalisme idéal, c’est au contraire une lecture historique (matérialiste) du capitalisme qui est proposée et que S. Zuboff ne peut pas voir. Il est en effet primordial d’envisager le capitalisme de surveillance dans l’histoire, dans une histoire de la surveillance. Par conséquent il est tout aussi important de confronter la lecture de S. Zuboff aux faits sociaux et historiques. C’est ce que j’ai fait dans mon livre avec l’informatisation de la société depuis les années 1960, mais on peut aussi bien le faire avec une approche sociologique.
Maintenant j’en reviens à la référence que je citais en tout début de ce billet, Data Politics. Worlds, Subjects, Rights. Reconnu depuis des années dans le milieu des surveillance studies, le sociologue David Lyon, publie dans ce livre un chapitre (num. 4) que j’ai trouvé tout particulièrement pertinent. Il s’intitule « Surveillance Capitalism, Surveillance Culture and Data Politics ». Ces derniers temps, D. Lyon a beaucoup œuvré autour du livre de S. Zuboff et de la question du capitalisme de surveillance, notamment par des communications dans des colloques (comme ici) ou en interview (comme ici)3. Cela m’avait un peu étonné qu’il ne choisisse pas d’avoir un peu plus de recul par rapport à ces travaux, mais en réalité, j’avais mal lu. Dans le chapitre en question, D. Lyon propose de sortir du dilemme « zubovien » (pour le coup je ne suis pas fort en néologismes) en confrontant d’un côté le point de vue de S. Zuboff et, de l’autre côté, l’idée qu’il existe une « culture de la surveillance », c’est-à-dire en fait une porte de sortie que S. Zuboff ne parvient pas à entr’ouvrir mais qui existe bel et bien, celle des résistances aux capitalisme de surveillance. Des résistances qui ne sont pas de simples revendications pour un capitalisme mieux régulé. En fait, sans trop le dire, D. Lyon voit bien que l’analyse de S. Zuboff, aussi complète soit-elle du côté des pratiques, ne va guère plus loin en raison d’une croyance tout aussi idéologique en la démocratie libérale (et ça c’est moi qui l’ajoute, mais c’est pourtant vrai).
Après avoir rapidement mentionné l’existence de poches de résistances importantes autour du libre accès aux connaissances et les luttes collectives d’activistes, D. Lyon en vient à montrer que les contours d’une culture de la surveillance sont justement dessinés par les résistances et les pratiques de contournement dans la société. Autant, selon moi, le salut réside dans des résistances affirmées comme telles et qui s’imposent aux pouvoirs économiques et politiques (j’y reviendrai plus loin), autant il est vrai que ces résistances plus affirmées ne seraient rien si elles ne prenaient pas leurs racines sociales dans quelque chose de beaucoup plus diffus et que D. Lyon va chercher chez un penseur bien français-de-chez-nous (mais avec une carrière internationale), Michel de Certeau.
Bon alors, là c’est un gros morceau, je vais essayer de faire court, surtout que je ne suis pas sûr de viser juste car je rappelle que ceci n’est qu’un billet de blog prospectif.
Penchons-nous un instant sur des sujets qui gravitent autour de la théorie de l’action. On parle d’action individuelle ou collective, et de la manière dont elle se « déploie ». Par exemple, on peut penser l’action selon plusieurs angles de vue : la décision, le choix, les déterminant cognitifs, la rationalité, mais aussi la manière dont l’action peut être contrainte, normée, obéissant à une éthique, consciente ou inconsciente, etc. En sociologie ou en anthropologie, on peut dire que l’action est le plus souvent vue comme soumise à des contraintes (les institutions, les organisations sociales, les traditions).
Parmi les élément rationnels qui guident l’action, on peut mentionner les savoirs, mais aussi les éléments culturels qui ne sont pas vraiment des savoirs (au sens de connaissances ou de savoir-faire) mais sont de l’ordre des éléments de construction des représentations. Une vue de l’extérieur de l’environnement social contraint. Pour David Lyon, il y a les utopies (ou les dystopies) qui, comme œuvres artistiques constituent autant d’accroches à une éthique de l’action. De mon côté, j’ai pu voir à quel point, effectivement, depuis 50 ans, l’œuvre 1984 d’Orwell est systématiquement utilisée, presque de manière méthodologique, pour justifier des réflexions sur la société de surveillance. Ce faisant, on peut alors effectivement penser la société en fonction de ces représentations et orienter des actions de résistance, par exemple en fonction de valeurs que l’on confronte aux normes imposées. C’est tout l’objet de cette conférence d’Alain Damasio au Festival de la CNT en 2015.
Par exemple, je reprendrai uniquement cette citation d’Arthur R. Miller, écrite dans son célèbre ouvrage Assault on Privacy: Computers, Data Banks and Dossiers en 1971, et qui donne immédiatement la saveur des débats qui avaient lieu à ce moment-là :
Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 d’Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire.
L’informatisation de la société a provoqué des changements évidents dans les contraintes sociales. Institutions, organisations, cadres juridiques, hiérarchies, tout s’est en quelque sorte enrichi d’une puissance calculatoire et combinatoire qu’est l’informatique. C’est dans ce contexte (et le terme contexte est important ici) qu’il faut penser la théorie de l’action. Et j’estime que les penseurs post-modernes, à l’époque même de l’informatisation de la société, n’ont pas vraiment pris la mesure du problème de la captation des données et de la transformation de l’économie. Certes, il y a toujours Deleuze et sa fameuse « société de contrôle », mais comme d’autres il ne pouvait pas penser qu’allait émerger une culture de la surveillance car il pensait d’abord en termes de contraintes sociales imposées (par les institutions, d’abord, ou par les organisations comme les banques) et, dans tout cela, l’individu en recherche impossible d’émancipation parce que tout est bouclé par le discours, une impossibilité d’énoncer l’alternative.
Revenons alors à la théorie de l’action. L’individu (doté d’un capital de savoirs spécifique à chacun) serait toujours sujet soumis aux forces, aux contraintes de l’environnement (géographie, économie, politique, anthropologie…) dans lequel il se situe. C’est en quelque sorte l’héritage de la sociologie de Bourdieu, celle de la reproduction des hiérarchies sociales mais aussi celle d’une théorie de l’action selon laquelle les stratégies des individus sont des habitus adaptés au monde social dans lequel il évoluent dans les contraintes de compétitions, de structures et de violence symbolique. En somme, l’individu est fondamentalement soumis aux règles dictées par les hiérarchies sociales et l’environnement social construit pour lui dans lequel il doit lui aussi essayer d’exister socialement. Mais dans ce contexte, l’individu n’est pas pleinement conscient de ses pratiques. Elles lui sont soit naturelles soit subies, mais elles sont aussi ce qui le structure comme un individu. À la nécessité de déployer ces pratiques correspond comme une sorte de prolétarisation de l’être : ce savoir-être qu’il n’a pas (dont on le prive) et qui se résout à n’être qu’un ploiement face aux normes.
Un peu dans le même ordre d’idée, l’individu chez Michel Foucault est soumis aux pratiques de décisions des institutions. C’est flagrant dans Surveiller et Punir, toutes ces procédures, administrations et techniques forment un ordre du pouvoir. Il peut être la tentative de rétablir un système de relations sociales normées (dans l'Histoire de la Folie), ou une force disciplinaire qui circonscrit l’espace à un espace cellulaire universel (le même pour tous) et permet le contrôle social.
Mais n’y a-t-il pas d’autre méthode que de réduire tout le fonctionnement social à une procédure dominante qui serait le contrôle et la surveillance ?
Chez Michel de Certeau, l’ordre des choses est loin d’être aussi simple, et ce n’est pas vraiment un ordre (au sens d’ordonnancement ou au sens du pouvoir donneur d’ordres). C’est la question du rapport entre pensée et action. D’abord, son point de vue sur le sujet est beaucoup plus optimiste puisqu’il le dote d’une certaine puissance. Cette puissance se traduit par le fait qu’il est tout à fait conscient de sa résistance à l’ordre imposé et même, M. de Certeau décompose l’ordre et la résistance en distinguant deux démarches différentes : stratégies et tactiques. Dans L’invention du quotidien, M. de Certeau analyse cela sous l’angle d’une réflexion sur le quotidien et s’oppose en quelque sorte à la seule logique du discours qui, chez Foucault est quasiment la seule logique qui explique les rapports de pouvoir. Pour M. de Certeau, le discours, c’est le contexte, c’est-à-dire que l’énonciation d’un état de choses, d’un ordre, est toujours relative au contexte, un temps et un espace, dans lequel on exprime. L’énonciation peut alors avoir deux niveaux. Le premier est la représentation, c’est un calcul, une stratégie où le sujet fait de volonté et de pouvoir (intention, délibération, exécution, etc.) observe de l’extérieur et détermine les choix rationnels : le sujet en question peut être aussi bien un individu qu’une institution ou une entreprise, peu importe. Par l’ingéniosité, la stratégie permet alors de saisir des occasions (avec une prudence toute aristotélicienne) qui font basculer les choix dans l’intérêt du sujet (ou pas…). Déjà, là, nous sommes loin de Bourdieu et sa théorie dispositionnelle où c’est à l’intérieur de l’individu, dans sa structure cognitive, qu’entrent en jeu les dispositions qui orientent son action dans un contexte donné. Avec M. de Certeau, ce n’est pas qu’on réfute l’idée que la cognition ne joue pas un rôle, mais on ajoute quelque chose de très pertinent : l’occasion, qui au fond est la mesure de la pertinence de l’action. La stratégie est d’ordre topologique, elle exprime un rapport essentiellement à l’espace, qu’elle cherche non seulement à mesurer et calculer mais aussi contrôler sous les trois piliers que sont la prospective (prévoir), la théorie (savoir) et la domination (pouvoir).
Le second niveau de l’énonciation, ce sont les tactiques. Elles sont propres aux individus mais ne sont en aucun lieu déterminé puisqu’elles s’expriment selon les occasions sur le terrain ou la loi imposés par le stratège, celui qui a décidé (voir paragraphe précédent), qui a pu envisager l’ordre de l’extérieur et le designer. Ces tactiques relèvent d’une pratique du temps, ce sont des actes et des usages. Elles n’organisent pas de discours, elles sont « purement » pratiques et surtout créatrices. Elles explorent le territoire, mais sont autant de résistances à la loi imposée. Ce sont des « manières de faire », des « ruses ». En d’autre termes, là où le commandement implique une stabilité et une identification précise et fixe des lieux (par exemple l’institution Républicaine qui a des lieux précis, préfectures, et administrations), résistance et tactiques jouent des circonstances et créent des usages qui ne sont pas forcément raccord avec l’ordre déterminé stratégiquement. En fait, c’est même tout leur objet, de ne pas être raccord, puisqu’elles sont un art de vivre, des savoir-vivre.
Pour illustrer cela on peut se reporter au rapport entre lecture et écriture. C’est un exemple de M. de Certeau. La lecture déstabilise toujours l’écrit là où on l’on pensait au contraire que la réception de l’écrit est universelle et balisée, au contraire une lecture diffère toujours d’une autre, elle « déterritorialise » l’écrit. On peut encore illustrer en reprenant la manière dont la chercheuse Anne Cordier fait référence à Michel de Certeau dans son livre Grandir connectés, les adolescents et la recherche d’information en mentionnant la manière dont les élèves élaborent des tactiques dans l’environnement contraint du CDI ou de l’institution pour satisfaire l’enseignant lors de la recherche d’information (montrer ostensiblement qu’on ne va pas sur Wikipédia tout en contournant la règle pour y récupérer des informations).
On comprend peut-être mieux à quel point les utopies (ou les dystopies) sont en soit des actes de résistance. Puisqu’elles détournent les stratégies pour être des matrices créatrices de nouveaux usages. Le détour du tacticien par l’utopie lui permet d’imaginer un autre ordre possible que le territoire qui lui est donné. Et de cette occasion-là, il peut se servir pour changer le quotidien.
Cette manière de penser l’action est un peu le contre-pied du point de vue de Bernard Stiegler. Pour ce dernier, les GAFAM ont entrepris un vaste projet de prolétarisation des savoirs (savoir-être et savoir-vivre) et il nous appartient de chercher à se déprolétariser en fondant une économie de la contribution, qui soit le contraire d’une économie de la consommation-extraction-des-données où nous sommes les produits et les agents consommateurs. Mais dans ce point de vue, on en reste à l’idée que la résistance ne peut se faire qu’un revendiquant, de manière révolutionnaire, notre libération de ces contraintes. Cela me fait penser à Jean Baudrillard qui oppose société de consommation (où notre objectif consiste à satisfaire nos egos et nous distinguer des autres) et société de non consommation (la Chine de Mao ?). Faire cette distinction revient à penser que le consumérisme, pilier du libéralisme, est une affaire de choix individuels (au pluriel, les agents rationnels de l’économie) et s’oppose au choix collectif qui pourrait nous mener vers une société meilleure (le choix social communiste ?). Mais, selon moi, c’est oublier que le choix consumériste, libéral ou néolibéral, est d’abord et avant tout un choix politique, donc collectif ! Penser l’individu en tant qu’un éternel sujet soumis aux contraintes, aux normes ou à ses appétences non maîtrisées de petit élève consommateur… cela implique que des sachants viennent enfin lui expliquer comment sortir de son état prolétaire. Mais il y a déjà des tactiques à l’œuvre et nous sommes tous individuellement des résistants conscients de leurs résistances. En tout cas au moins depuis les Lumières où nous nous sommes sortis des carcans et des prescriptions… cf. Kant. Je ne veux pas opposer ici la philosophie kantienne mais, tout de même, l’anthropologie et la sociologie nous montrent bien tout cela. Si on prend le simple exemple de Wikipédia, c’est sur ce genre de tactique que s’est monté l’un des plus vastes mouvements d’émancipation de savoirs au monde (hors du cadre académique).
La culture de la surveillance, ce n’est pas seulement être habitué à être surveillé et même à y trouver des avantages (les gens se rendent sur Facebook par envie et par plaisir) ou contourner la surveillance pour son propre avantage (piratage de films contre le cadre Hadopi). La culture de la surveillance, c’est aussi la mise en pratique de toutes ces tactiques qui sont rendues possibles avec Internet parce qu’Internet fourni aussi les outils de résistance et de formulation de contre-ordre, de contre-culture.
Si nous en revenons au capitalisme de surveillance, finalement de quoi s’agit-il ? s’il s’agit d’un ordre économique et politique qui nous est imposé, et il est imposé parce que les données avec lesquelles il élabore la stratégie sont en grande partie des données issues non pas de notre quotidien (qui est la dynamique de nos tactiques, nous inventons notre quotidien) mais une extraction de notre quotidienneté, c’est à dire, comme le disait Henri Lefevre dans sa Critique de la vie quotidienne4, la banalité inconsciente et inconséquente de nos actions (tout le monde chez Mac Do, tout le monde regarde Netflix, tout le monde achète sur Amazon…) l’insignifiance de nos gestes… Une insignifiance dans le sens ou, pour reprendre M. de Certeau, il s’agit de la part non tacticienne de soumission au stratège : notre obéissance à l’ordre. Et donc la captation de nos données consiste à une extrapolation de ce que nous sommes, en tant qu’individus, une re-construction théorique. Nos doubles numériques sont eux-mêmes doublement construits : re-construction des données (par inférence, recoupement, calcul, combinaisons et algorithme), et re-construction théorique de notre quotidienneté. Mais tout cela n’est pas notre quotidien.
Nous sommes des résistants.
Le problème est de savoir si nos tactiques, nos résistances à l’ordre du capitalisme de surveillance doivent se résoudre à n’être qu’individuelles. Ce serait là une grossière erreur. D’abord parce que, comme le montre l’exemple de Wikipédia, mais aussi tous les mouvements ouverts, les collectifs, les zads, les libristes (et j’en passe) sont bien des actions collectives qui détournent, contournent l’ordre des institutions et créent de nouvelles structures, repensent la démocratie, et le tout dans une dynamique où la méthode est presque aussi importante que les actes. On peut difficilement faire plus conscient que cela. Et si ces mouvements se créent par des logiques tacticiennes, souvent par spontanéité, c’est parce que les cadres et les institutions n’emportent plus l’adhésion générale. Si bien que l’ensemble des tactiques fait monter la pression entre le cadre et le désir, et se créent alors des espaces de violence.
Le souhait le plus ardent des stratèges, en faisant la bonne figure d’un capitalisme régulé (régulé par la loi, donc la politique, donc soi-disant par tous) est donc de réduire les tactiques à la seule dimension individuelle. L’individu responsable, donc libre de disposer de soi dans les limites de la loi et du contrat social. Un contrat qui ne fait qu’imposer la logique d’un modèle unique de démocratie élective (parfois pas) et libérale. Donc lutter contre le capitalisme de surveillance par la revendication des libertés individuelles, en prônant l’idée que la vie privée est d’abord un concept qui garanti les choix individuels, c’est en quelque sorte conforter le cadre stratégique de l’aliénation et revenir à définir la résistance sociale à la somme des résistances individuelles. C’est l’échec, à mon avis.
Menons encore une petite prospective. Comme on parle de Michel de Certeau, généralement, la théologie et le mysticisme ne sont pas loin. Je pense à la théologie de la libération, ce courant christiano-marxiste porté notamment en Amérique du Sud dans les années 1970 puis à travers tout ce qu’on a appelé le « Tiers monde ». Ce qui me plaît là-dedans, ce n’est pas le message théologique, mais l’idée que dans le mouvement de résistance, en particulier face aux dictatures, c’est à la base des hiérarchies sociales, donc les plus pauvres généralement, que se situe l’appropriation des savoirs (ici la parole divine, les évangiles, etc.), à la fois pour se libérer des conditions sociales imposées, mais aussi des conditions religieuses imposées par les colonisateurs et classes dominantes pour se créer leur propre cadre religieux chrétien. On dépasse le cadre de la charité pour permettre aux pauvres d’agir eux-mêmes pour améliorer leur condition. Et si la théologie de la libération a pu trouver un échos dans les classes sociales, c’est parce qu’elle cristallisait au bon moment les tactiques de contournement des masses à l’ordre social imposé. Des tactiques que d’aucun aurait pu juger qu’il s’agissait de l’effacement de la personnalité au profit de l’humilité face aux blancs colonisateurs… jusqu’au jour où le colonisateur se prenant une balle perdue au milieu de la pampa, l’illumination sur la réalité sociale se fait.
Évidemment, on parle ici de guérillas et de répressions. Mais le plus important pour mon propos est de constater qu’il s’agit bien d’une réflexion sur l’action. Ce que certains, à la même époque d’ailleurs, on appelé l’action directe. L’action directe n’est pas d’emblée une action violente (elle est même souhaitable, c’est ce que je dis ci-dessous) mais elle contribue fatalement à augmenter la pression entre les tactiques et le cadre imposé. Et souvent la violence ne vient pas « d’en-bas ».
Alors comment ? Comment faire pour favoriser la résistance collective ? Déjà il faut comprendre qu’elle est déjà-là. Il faut surtout la comprendre et formuler ses formes idéales qui, selon moi, doivent prendre deux aspects : la préfiguration et l’archipélisation.
Pour ce qui concerne la préfiguration, j’ai déjà écrit ce billet. Je répéterai simplement qu’il s’agit d’une voie de l’avènement de pratiques collectives, non uniformisées, dont la diversité dans les organisations et les actions fait la force, en lutte contre les oppressions et de manière générale contre les cadres imposés qui n’emportent plus l’adhésion ou la supposée adhésion. Dès lors, ces pratiques sont toujours en mode préfiguratif : elles n’attendent ni validation ni autorisation des institutions. C’est l’idée du faire, faire sans eux, faire contre eux. À mon sens c’est une attitude résolument anarchiste.
Quant à l’achipélisation, c’est un concept qui revient à Édouard Glissant. Elle permet d’inclure ce qui manque dans la réflexion précédente (même si en affirmant qu’il s’agit d’anarchie, je l’inclus évidemment) : le rôle de l’autre, notre relation à l’autre. C’est en cela que la préfiguration, comme action de tactique collective, est d’abord un mouvement altruiste. Je copie ici un paragraphe de la conclusion de Affaires Privées :
Si le mouvement d’émancipation est d’essence anarchique, la cartographie des initiatives est celle d’un archipel. Cette métaphore insulaire, nous la reprenons du philosophe Edouard Glissant. On peut en effet prendre exemple sur l’imprévisible pluralité créole chère à ce grand penseur antillais (martiniquais). Elle montre que la richesse langagière, culturelle, sociale et sans doute politique ne réside ni dans le pouvoir et l’ordre ni dans la centralisation (continentale) mais dans le jeu de l’échange et du partage, au point que chaque individu possède en lui une pensée-archipel qui permet d’entrer en relation avec l’autre. L’archipélisation permet d’englober cela de manière à voir une cohérence dans l’insularité des imaginaires et des initiatives, et les regrouper dans une inter-insularité coopérative. La démarche préfigurative peut donc être anarchique, mais la concevoir dans un monde-archipel permet de penser l’inattendu de l’expérimentation, l’indétermination des alternatives au monde-continent. Ainsi, toutes les initiatives ne sont pas censées adhérer à des principes anarchistes, se reconnaître comme telles, ou même seulement penser à l’être. On ne compte plus les mouvements qui se revendiquent de l’autogestion, de la gestion collective, de l’initiative libre, de la participation ouverte, ou qui se présentent comme des collectifs, d’associations pluri-représentatives, des groupes informels, des groupes anonymes… en somme tout cela est finalement très cohérent puisque les normes structurelles existantes n’emportent plus l’adhésion.
Pour conclure ce billet un peu foutraque, tout cela mérite d’être amplement retravaillé, révisé, et sans doute mieux compris. Car je ne cache pas que les pensées de tous les auteurs cités ici sont loin de me mettre à l’aise. Je pense néanmoins ne pas être si éloigné que cela des problématiques actuelles que pose le capitalisme de surveillance et auxquelles je souhaiterais répondre par une forme de théorie de l’émancipation, histoire de sortir un peu de la sempiternelle plainte à l’encontre des pratiques des GAFAM et des États à la sauce start-up-nation-de-contrôle. Une plainte qui, sans être accompagnée de la recherche au moins théorique d’une porte de sortie, ne fait que tourner en rond depuis les premiers âges de l’informatisation de la société.
-
Voir « La » revue de référence en la matière : Surveillance & Society. ↩︎
-
Didier Bigo, Engin Isin, Evelyn Ruppert, Data Politics. Worlds, Subjects, Rights, London : Routledge, 2019. ↩︎
-
Zuboff, Shoshana & Möllers, Norma & Murakami Wood, David & Lyon, David. (2019). « Surveillance Capitalism: An Interview with Shoshana Zuboff », Surveillance & Society, 17, 2019, p. 257-266. ↩︎
-
Henri Lefebvre, Critique de la vie quotidienne, Paris, L’Arche, 1958. ↩︎
20.03.2020 à 01:00
Affaires Privées
Au quotidien, nos échanges numériques et nos comportements de consommateurs sont enregistrés, mesurés, calculés afin de construire des profils qui s’achètent et se vendent. Des débuts de la cybernétique aux big data, la surveillance a constitué un levier économique autant qu’idéologique.
Dans Affaires privées, Christophe Masutti retrace l’histoire technique et culturelle de soixante années de controverses, de discours, de réalisations ou d’échecs. Ce retour aux sources offre un éclairage passionnant sur le capitalisme de surveillance et sur le rôle joué par le marketing dans l’informatisation de la société.Il décrit la part prise par les révolutions informatiques et le marché des données dans les transformations sociales et politiques.
La surveillance est utilisée par les administrations à des fins de contrôle, et par les entreprises pour renforcer leurs capacités commerciales. Si les pratiques de renseignement des États ont souvent été dénoncées, la surveillance venue du monde des affaires n’a longtemps suscité qu’indifférence. Le business des données en a profité pour bousculer les cadres juridiques et réglementaires de la vie privée.
Comment développer une économie numérique qui respecterait la vie privée des individus ? Comment permettre à la vie privée d’échapper au pouvoir des affaires ? Christophe Masutti propose une réflexion historique et politique sur les conditions d’émancipation face à l’économie de la surveillance.
Masutti, Christophe. Affaires Privées. Aux sources du capitalisme de surveillance. C&F éditions, 2020.
Lien vers le site de l’éditeur : https://cfeditions.com/masutti/
17.03.2020 à 01:00
Affaires Privées : en attendant
En raison de l’épidémie qui touche notre pays actuellement, l’éditeur C&F éditions n’est pas encore en mesure d’effectuer les envois des exemplaires précommandés de mon ouvrage Affaires Privées. Aux sources du capitalisme de surveillance. En attendant, voici quelques éléments pour vous mettre en bouche…
Tout d’abord, je voudrais remercier ceux qui comptent précommander l’ouvrage avant même sa sortie et toutes les critiques qui ne manqueront pas de le dézinguer (ou pas !). C’est important pour moi parce que cela montre dans quelle mesure le livre est attendu (histoire de me rassurer un peu), et c’est important pour l’éditeur qui joue tout de même sa réputation en publiant un livre qui ne soit pas totalement hors de propos.
Sachez aussi qu’en raison de la situation sanitaire Covid-19, l’éditeur C&F éditions a choisi d’allonger la durée de souscription (donc avec une petite remise sur le prix final). Allez-y, n’hésitez plus !
C’est presque Noël ! l’éditeur a aussi décidé d’accélérer la fabrication de la version epub de l’ouvrage. Elle sera garantie sans DRM (on dirait une publicité pour légumes bio quand on dit des choses pareilles !). Donc ceux qui ont choisi la souscription, et n’auront pas la joie de découvrir l’ouvrage dans leur boîte à lettres dans un délai raisonnable, pourront toujours se réconforter avec la version électronique.
Pour terminer, et si vous avez les crocs, voici ci-dessous quelques liens vers des billets de ce blog qui concernent Affaires Privées. Ils sont loin (très loin) de présenter un aperçu général de l’ouvrage (475 pages, tout de même, c’est pas si cher au kilo… pour suivre la métaphore des légumes bio). Par ailleurs il y a eu des modifications substantielles entre le moment où j’ai écrit ces billets et la publication du livre, alors ne soyez pas sévères…
Dans un premier temps voici deux billets qui transcrivent des passages complets du livre. Le premier concerne le projet Cybersyn, à une époque où le fait qu’un gouvernement puisse posséder un pouvoir de surveillance « total » n’était pas si mal vu. Le second est un point de vue plus théorique sur notre modernité à l’ère de la surveillance et qui reprend un passage où j’expose comment je vais chercher chez Anthony Giddens quelques clés de lecture.
Les deux billets suivants font partie de l’argumentation qui me situe par rapport au récent livre de Shoshana Zuboff, The Age of Surveillance Capitalism qui a fait l’objet d’une grande couverture médiatique. Attention : il ne s’agit absolument pas d’une argumentation complète, mais le format « billet » pourra peut-être aider à une meilleure compréhension lorsque vous accrocherez la dernière partie de l’ouvrage.
Alors, je vous souhaite bonne lecture en attendant le pavé dans la mare…
Commander sur le site de l’éditeur : C&F éditions
02.03.2020 à 01:00
Parution : Affaires Privées
Au quotidien, nos échanges numériques et nos comportements de consommateurs sont enregistrés, mesurés, calculés afin de construire des profils qui s’achètent et se vendent. Des débuts de la cybernétique aux big data, la surveillance a constitué un levier économique autant qu’idéologique.
Table des matières
Descriptif
Titre : AFFAIRES PRIVÉES. Aux sources du capitalisme de surveillance
Auteur : Christophe Masutti
Préface de Francesca Musiani
Édition : C&F éditions, Collection Société numérique, 5
Date de parution : mars 2020
Nombre de pages : 475
ISBN : 978-2-37662-004-4
Dimensions : 15 x 21 cm
Commander sur le site de l’éditeur : C&F éditions
Télécharger un descriptif de l’ouvrage (PDF)
Couverture
4e couverture
Au quotidien, nos échanges numériques et nos comportements de consommateurs sont enregistrés, mesurés, calculés afin de construire des profils qui s’achètent et se vendent. Des débuts de la cybernétique aux big data, la surveillance a constitué un levier économique autant qu’idéologique.
Dans Affaires privées, Christophe Masutti retrace l’histoire technique et culturelle de soixante années de controverses, de discours, de réalisations ou d’échecs. Ce retour aux sources offre un éclairage passionnant sur le capitalisme de surveillance et sur le rôle joué par le marketing dans l’informatisation de la société. Il décrit les transformations sociales et politiques provoquées par les révolutions informatiques et le marché des données.
La surveillance est utilisée par les administrations à des fins de contrôle, et par les entreprises pour renforcer leurs capacités commerciales. Si les pratiques de renseignement des États ont souvent été dénoncées, la surveillance venue du monde des affaires n’a longtemps suscité qu’indifférence. Le business des données en a profité pour bousculer les cadres juridiques et réglementaires de la vie privée.
Comment développer une économie numérique qui respecterait la vie privée des individus ? Comment permettre à la vie privée d’échapper au pouvoir des affaires ? Christophe Masutti propose une réflexion historique et politique sur les conditions d’émancipation face à l’économie de la surveillance.
Une citation
Cité dans l’ouvrage :
Ces grandes banques de données permettront au citoyen, lorsqu’il est confronté à un nouvel environnement, d’établir « qui il est » et d’acquérir rapidement les avantages qui découlent d’une évaluation de solvabilité (bancaire) fiable et d’un caractère social acceptable aux yeux de sa nouvelle communauté. En même temps, les établissements commerciaux ou gouvernementaux en sauront beaucoup plus sur la personne avec laquelle ils traitent. Nous pouvons nous attendre à ce qu’un grand nombre de renseignements sur les caractéristiques sociales, personnelles et économiques soient fournis volontairement – souvent avec empressement – afin de profiter des bienfaits de l’économie et du gouvernement.
Lance J. Hoffman, « Computer and Privacy : a survey » (1969).
Argumentaire
« Envahisseurs de la vie privée », « homme informatisé », « société du dossier », « surveillance publique », « contrôle social »… toutes ces expressions sont nées à la fin des années 1960. Le processus d’informatisation de la société occidentale s’est fait sur le fond d’une crainte de l’évènement de la dystopie de 1984. Et pourtant, lorsqu’on raconte l’histoire de la révolution informatique, on retient surtout l’épopée des innovations technologiques et le storytelling californien.
Les pratiques de surveillance sont les procédés les plus automatisés possible qui consistent à récolter et stocker, à partir des individus, de leurs comportements et de leurs environnements, des données individuelles ou collectives à des fins d’analyse, d’inférence, de quantification, de prévision et d’influence. Des années 1960 à nos jours, elles se révèlent être les outils précieux des administrations publiques et répondent aux besoins concurrentiels et organisationnels des entreprises. On les appréhende d’autant mieux que l’on comprend, grâce à de nombreux exemples, qu’elles dépendent à la fois des infrastructures informatiques et de leur acceptation sociale. Ainsi, le marché de la donnée s’est progressivement étendu, économique, idéologique, culturel. Fruit de rapports sociaux, le capitalisme de la surveillance n’est pas un nouveau système économique, il est le résultat de l’adjonction aux affaires économiques de la surveillance électronique des individus et de la société.
Faire l’histoire (critique) du capitalisme de surveillance, c’est analyser les transformations sociales que l’informatisation a rendu possibles depuis les années 1960 en créant des modèles économiques basés sur le traitement et la valorisation des données personnelles. La prégnance de ces modèles ajoutée à une croissance de l’industrie et des services informatiques a fini par créer un marché hégémonique de la surveillance. Cette hégémonie associée à une culture consumériste se traduit dans plusieurs contextes : l’influence des consommateurs par le marketing, l’automatisation de la décision, la réduction de la vie privée, la segmentation sociale, un affaiblissement des politiques, un assujettissement du droit, une tendance idéologique au solutionnisme technologique. Il fait finalement entrer en crise les institutions et le contrat social.
Du point de vue de ses mécanismes, le capitalisme de surveillance mobilise les pratiques d’appropriation et de capitalisation des informations pour mettre en œuvre le régime disciplinaire de son développement industriel et l’ordonnancement de la consommation. Des bases de données d’hier aux big data d’aujourd’hui, il permet la concentration de l’information, des capitaux financiers et des technologies par un petit nombre d’acteurs tout en procédant à l’expropriation mercantile de la vie privée du plus grand nombre d’individus et de leurs savoirs. Et parce que nous sommes capables aujourd’hui d’énoncer cette surveillance aux multiples conséquences, il importe de proposer quelques solutions collectives d’émancipation.
18.02.2020 à 01:00
Zettlr : markdown puissance dix
Le logiciel libre a toujours quelque chose de magique. Cédant au plaisir coupable d’une attitude consommatrice, on se met à essayer frénétiquement plusieurs solutions logicielles, rien que « pour voir ». Zettlr fera-t-il partie de ces nombreux éditeurs markdown que je recense dans l’espoir de trouver le Graal du genre ? Attention : on n’essaye pas Zettlr sans en comprendre d’abord les objectifs.
Comparaison et flux de travail
Dès les premières pages de présentation dans la documentation de Zettlr, on voit clairement que pour se servir de ce logiciel, il faut de bonnes raisons.
On peut expliquer ces raisons en comparant Zettlr avec d’autres éditeurs spécialisés dans le markdown. Essayons par exemple de le comparer Ghostwriter (j’en ai parlé dans ce billet), du point de vue utilisateur.
La première différence c’est que là où Ghostwriter propose une interface très facile et rapide à prendre en main… Zettlr n’est pas aussi explicite. Bien sûr, on peut d’emblée commencer à écrire en markdown, enregistrer un fichier, mais ce n’est pas le but unique de Zettlr. Si Ghostwriter se concentre avant tout sur la partie éditeur, Zettlr est à la fois dédié à l’écriture et à la gestion de connaissances. Et pour cause, il a été créé et il est utilisé essentiellement dans le monde universitaire. C’est donc dans un contexte qui concerne les documents longs qu’il faut appréhender Zettlr, là où Ghostwriter servira bien la cause pour écrire un billet de blog, par exemple.
En fait tout se joue dans la manière dont on intègre un éditeur markdown dans un flux de travail. Dans mon cas, l’éditeur que j’utilise ne constitue pas un nœud décisif, ce qui fait que, selon les situations, je peux opter pour un autre éditeur (spécialisé ou non dans le markdown) pour continuer à travailler sur le même document.
J’aime bien avoir cette possibilité d’utiliser plusieurs éditeurs pour un même fichier, indépendamment du système sur lequel je travaille. Ensuite, pour produire le document final, j’exporte directement dans un format donné (si l’éditeur le permet) ou bien j’utilise pandoc qui me permet de transformer le fichier markdown en à peu près tout ce que je veux. Dans ce cas, je « sors » de l’éditeur pour utiliser la ligne de commande, puis une fois le document produit, j’utilise un autre logiciel pour terminer ma production selon le format choisi (LibreOffice pour.odt
, un éditeur TeX pour(La).TeX
, un éditeur de texte pour le .html
, LibreOffice pour .docx
, etc.). Pour les questions liées à la gestion de la bibliographie, c’est un peu complexe, puisque je suis contraint d’ouvrir, en plus de mon éditeur, un gestionnaire de bibliographie tel Zotero ou JabRef, repérer les clé bibtex des références, les insérer sous la forme [@dupont1955]
.
Tout dépend des goûts, mais on voit bien qu’un éditeur markdown trouve vite ses limites lorsqu’on commence à intégrer le markdown dans une démarche de rédaction plus « soutenue » et afin de rédiger des documents longs. Des allers-retour avec d’autres logiciels (notamment pour la gestion de la bibliographie) sont nécessaires.
Bien sûr les éditeurs comme Ghostwriter permettent de faire des exports en différents formats. Ils peuvent même créer du PDF en utilisant LaTeX (c’est d’ailleurs l’option recommandée pour un bon résultat, à condition d’avoir préalablement installé LaTeX). Mais il faut savoir se méfier des solutions qui prétendent tout faire. Ainsi, lorsqu’on commence à manipuler de la bibliographie, les « exports-gadgets » sont plus encombrants qu’autre chose. Cependant, il faut reconnaître que Zettlr a plutôt bien réussi à intégrer ces fonctionnalités d’export.
Pour ce qui me concerne, la solution que j’ai adoptée consiste à utiliser un éditeur de texte nommé Atom qui dispose d’extensions permettant d’écrire en markdown, faire de l’autocomplétion avec du Bibtex, intégrer un convertisseur avec pandoc et utiliser la console pour lancer des commandes (et plein d’autres choses). Cela me permet d’avoir mon flux de travail concentré pour l’essentiel sur un seul logiciel et utiliser les fonctionnalités au besoin, en gardant l’avantage de segmenter l’activité.
Alors, si de tels couteaux suisses existent, me demanderez-vous, pourquoi s’intéresser à Zettlr ? parce que les couteaux suisses demandent un temps d’apprentissage assez long, disposent d’une foule de fonctionnalités au point de s’y perdre et que Zettlr cherche à concentrer l’essentiel (avec quelques bémols toutefois).
De la gestion de connaissance
Avant de parler des fonctionnalités concrètes de Zettlr, il faut questionner l’ambition générale de ce logiciel.
Il a été créé essentiellement pour les chercheurs et les écrivains. C’est d’ailleurs un chercheur en sciences humaines, Hendrik Erz, qui a créé Zettlr afin de pouvoir sortir du carcan « traitement de texte » qui ne correspond pas vraiment aux besoins lorsqu’on écrit ou prend des notes dans une activité de production de connaissances (là où le traitement de texte devrait intervenir à une étape ultérieure de « mise au propre »).
Quels sont ces besoins ? pouvoir écrire en se concentrant sur ce qu’on écrit, tout en disposant d’une aide pour accéder aux ressources cognitives qu’on aura prit soin d’organiser en amont.
Cette organisation passe par la gestion bibliographique (à l’aide de logiciels dédiés tels Zotero) ainsi que par la gestion des notes et autres notices ou fiches que l’on stocke dans un système de pensée qui nous est propre.
Pour ce qui concerne la gestion bibliographique, l’utilisation de logiciels dédiés (et capables de sortir différents formats de bibliographie) est une habitude que bon nombre de chercheurs ont déjà (si ce n’est pas le cas, il y a un problème). Zettlr permet d’intégrer l’utilisation de références bibliographiques au cours du travail d’écriture dans l’éditeur markdown. Il suffit de renseigner le fichier .bib (ou CSL Json, qu’on obtient avec Zotero) puis Zettlr permet son utilisation au cour de la frappe. Cela rappelle par exemple l'extension Zotero qu’on installe dans LibreOffice, mais de manière plus brute et beaucoup plus fluide.
Pour ce qui concerne la mobilisation des connaissances, Zettlr a été conçu pour créer un système de Zettelkästen. On le note en allemand (ici au pluriel) parce que, pour un néophyte qui se rendrait dans les options de configuration de Zettlr, il y a une rubrique entièrement dédiée au « flux de travail Zettelkasten », et très franchement ça peut surprendre (sauf qu’on comprend aussi pourquoi Zettlr se nomme ainsi).
Une Zettelkasten signifie littéralement « boîte » (der Kasten) à notices ou pense-bêtes (der Zettel). Personnellement j’appelle cela une « boîte à fiches ». Dans ce cas, direz-vous, il y a déjà des logiciels spécialisés dans les « notes », y compris en permettant de synchroniser en ligne, avec une interface pour smartphone, etc. Oui, évidemment, et il n’est pas idiot de penser que, dans la mesure où ces logiciels de prise de notes utilisent le plus souvent le markdown, ces notes peuvent aussi être ouvertes avec Zettlr (c’est que je fais). Mais cela va plus loin.
Zettlr permet de créer des fiches tout en créant soi-même un système de rangement. C’est ce qui est expliqué ici. Le logiciel ne cherche pas à formater les notes ou à créer une seule manière de les rédiger ou les stocker : c’est à vous de créer votre système de rangement. On utilise alors pour cela les outils courants de liens externes entre les fiches et les mots-clés qu’on note pour chaque fiche. Un genre wiki, si on veut (même si un logiciel comme Dokuwiki sera bien plus puissant), mais sans quitter Zettlr.
L’intérêt réside selon moi dans la création et le nommage des fiches. Selon le besoin, il est possible de configurer l’identifiant de la fiche (le nom du fichier) et créer des liens entre les fiches en profitant de l’assistant (menu contextuel qui liste les noms de fiche). Ces fonctionnalités sont très simples, on pourra même les qualifier de basiques, mais à l’utilisation quotidienne, elle permettent un réel gain de temps… Et à propos de temps on notera que si Zettlr propose un format d’export en Org
(pour Emacs), ce n’est pas pour rien !
Aide à la saisie
Zettlr est d’abord un éditeur markdown et le moins qu’on puisse dire est qu’il accompli ce rôle avec brio. L’aide à la saisie, indissociable de l’interface, est soignée.
Outre un petit menu, en haut, dédié à la mise en forme, on notera :
- la visibilité automatique des titres de section, avec la possibilité de masquer la section ;
- l’aide à la saisie de tableaux ;
- quelques raccourcis et astuces (voir la documentation) tels la combinaison
Ctrl + alt + F
qui permet d’entrer une référence de note de bas de page automatiquement, ou encoreCtrl + alt + pointage curseur
qui permet de saisir le même texte à deux endroits en même temps…
Correction en cours de frappe
L’ajout d’une fonction de correction basée sur des dictionnaires est quelque chose d’assez banal. Zettlr l’intègre pour plusieurs langues et c’est un atout très important. Mais pour un éditeur markdown, la possibilité de configurer soi-même la correction en cours de frappe est, osons le dire, assez exceptionnel. Ainsi, dans Paramètres > AutoCorrect
il est possible d’activer l’utilisation des guillemets selon le contexte linguistique, mais aussi toutes sortes de saisies utiles, en particulier pour la typographie. Ainsi, on peut faire en sorte que la frappe d’un double point soit remplacée par une séquence qui associe une espace insécable (AltGr + Esp
) et un double point, et toutes autres joyeusetés relatives aux règles typographiques.
Travailler par projet
Comme le font beaucoup d’éditeurs, en particulier pour la programmation, l’utilisation de Zettlr sera d’autant plus efficace si vous optimisez la gestion des fichiers en créant un dossier par projet. C’est ce dossier que vous ouvrez alors, et c’est dans ce dossier que seront listés les fichiers que vous créez (dans le panneau de gauche). Ainsi, dans les options d’export, je conseillerais plutôt de cocher l’option qui consiste à sauvegarder les fichiers exportés dans le dossier en cours.
La bibliographie
Comme mentionné plus haut, Zettlr fournir un outil d’aide à la saisie de références bibliographiques.
Le principe qui a été retenu par les créateurs est celui-ci : dans les paramètres, vous entrez le chemin du fichier de bibliographie que vous avez créé. Vous pouvez entrer un fichier .bib
ou un fichier .json
créé par exemple avec Zotero.
À la différence de la gestion bibliographique via une extension Zotero ou JabRef dans le logiciel de traitement de texte tel LibreOffice, il faut entrer le chemin du fichier .bib
ou .json
dans les paramètres et ce seront ces données qui seront utilisées par Zettlr. Évidemment, si vous complétez votre bibliographie il faut s’assurer que Zettlr pourra bien trouver dans le fichier vos nouvelles références sans pour autant remplacer le fichier à chaque fois et devoir recharger Zettlr. Une fonctionnalité de Zotero vous sera très utile pour cela :
- Dans Zotero, sélectionnez la bibliothèque que vous souhaitez exporter, clic droit puis
Exporter la bibliothèque
- Sélectionnez le format Better BibTeX ou Json et cochez la case
Garder à jour
- Sauvegardez et entrez le chemin vers ce fichier dans Zettlr
- Désormais, lorsque la bibliothèque Zotero subira des modifications, le fichier d’export sera toujours à jour (et vous retrouverez vos nouvelles références)
À mes yeux, c’est une posture bancale. Certes, le fichier sera toujours à jour mais c’est une fonctionnalité qui dépend d’un autre programme (et tant pis si vous n’aimez pas Zotero). Par ailleurs, cela implique aussi que le fichier de bibliographie soit le même pour tous vos projets, ce qui signifie que si, comme moi, vous avez une biblio séparée pour chaque projet dans Zotero, la seule bibliothèque à exporter, c’est la principale. Cela dit, une fois configurée la bibliographie, Zettlr permet l’autocomplétion des références, ce qui est déjà d’une grande aide.
Ceci est valable aussi pour la configuration du format de bibliographie à la production de sortie, c’est-à-dire à l’export. En effet, pour formater la bibliographie, Zettlr permet de sélectionner le fichier de style CSL (que vous pourrez trouver sur ce dépôt ou via ce configurateur – reportez-vous à la section Bibliographie de ce billet pour comprendre de quoi il s’agit). Là encore, l’idée me semble bancale : si vous rédigez plusieurs documents avec des exigences différentes de format de bibliographie, il faut changer à chaque fois.
Donc idéalement, l’une des prochaines améliorations de Zettlr devrait inclure une solution d’extension Zotero ou JabRef capable de générer le fichier de bibliographie final à la volée et une solution de sélection de fichiers de style CSL. Plus facile à dire qu’à faire…
Export et pandoc
Pour utiliser les fonctionnalités d’export de Zettlr, il vous faut le logiciel pandoc installé sur votre système. Vous ne serez pas efficace si vous ne connaissez pas dans les grandes lignes le fonctionnement de ce logiciel… Qui ne connaît pas pandoc aura toutes les peines du monde à comprendre comment Zettlr exporte les fichiers dans un format choisi.
Pandoc est un logiciel de conversion muti-format très puissant et avec des résultats très propres (il ne s’encombre pas de formules polluantes qui rendent inutilisables les fichiers produits). Là où pandoc prend toute sa valeur dans notre cas, c’est qu’il permet de transformer le format markdown en à peu près tout ce que vous voulez. Par ailleurs, il est capable non seulement de convertir, mais aussi de convertir en utilisant des modèles et même d’autres logiciels qui paramètrent la conversion. Je vous invite à lire ce billet à propos de la manipulation de documents markdown et ce billet à propos de pandoc et LaTeX pour vous faire une idée (complétez aussi par celui-ci).
Ces lectures vont vous permettre de mieux comprendre la section des paramètres avancés de Zettlr.
Dans l’illustration, la liste des annexes concerne les fichiers que vous allez voir figurer dans le panneau latéral de droite (en cliquant sur la petit trombone) lorsque vous liez des documents annexes à votre document. Quant aux chemins vers pandoc et XeLaTeX, inutile de vous en soucier, pourvu que ces programmes soient bien installés.
Ce qui nous intéresse dans les paramètres avancés, c’est la commande pandoc réservée aux « utilisateurs avancés seulement ». Parce qu’en réalité, elle détermine comment pandoc doit fonctionner avec Zettlr. Essayons de comprendre.
Pandoc est un logiciel dont l’usage est simple. Ce n’est pas parce qu’il s’utilise en ligne de commande que cela en fait un logiciel compliqué. La preuve : pour utiliser pandoc, vous devez lancer la commande pandoc
en précisant le fichier sur lequel vous voulez travailler, le nom du fichier à produire et les options et formats choisis pour la conversion. Ainsi la commande
$pandoc source.md -o sortie.odt
Consiste à produire un fichier .odt
nommé « sortie » à partir d’un fichier nommé « source ». Le -o
signifie « output » (vers la sortie).
Une variante pourrait être :
$pandoc -f markdown -t odt bonjour.md
… c’est à dire transformer le fichier « bonjour.md » du markdown vers (-f
c-à-d. : from markdown vers -t
c-à-d. : to) le .odt
.
Ça va jusque là ? vous voyez il n’y a rien de compliqué. Continuons un peu.
Pandoc ne fait pas « que » convertir. Il est capable de convertir en utilisant des informations beaucoup plus complexes et qui permettent même d’enrichir le fichier de départ, surtout si ce dernier n’est qu’en markdown. Par exemple :
- avec le programme
citeproc
il est capable d’interpréter un format de bibliographie (en CSL) et on aura pris soin de renseigner dans la ligne de commande à la fois l’optionciteproc
et le chemin vers le fichier de bibliographie ; - avec
reveal.js
il est capable de sortir, à partir d’un fichier markdown rédigé à cette intention, une très jolie présentation en HTML qu’il reste à afficher dans un navigateur en vue de faire une conférence.
Maintenant imaginez que vous n’avez pas le nom du fichier source ni le nom de sortie et que vouliez permettre à un utilisateur de choisir le format de sortie. Et bien il vous reste à créer une ligne de commande qui, au lieu de donner des instruction rigides, propose des valeurs (avec des $
qui seront utilisées (ou pas). Et vous voilà avec la ligne de commande que propose Zettlr dans les paramètres avancés.
Exporter en PDF
L’export au format PDF à partir de Zettlr suppose que vous ayez LaTeX (et XeLaTeX) installé sur votre système. Si tel est le ca,s il vous reste à vous rendre dans le menu fichier > Paramètres de PDF
afin d’y renseigner divers éléments dont un modèle .tex
qui pourra être utilisé. Rendez-vous sur la documentation de Pandoc pour apprendre à vous en servir.
Attention : Si vous avez une version de pandoc antérieure à 2.0 (c’est le cas pour beaucoup d’installations), Zettlr (via pandoc) retournera une erreur du type unrecognized option --pdf-engine=xelatex
. L’explication se trouve ici. Il s’agit d’un changement qui a eu lieu pour pandoc 2.0 qui est passé de la commande --latex-engine=xelatex
à la commande --pdf-engine=xelatex
. Pour résoudre ce problème, remplacez simplement l’occurrence dans la ligne de commande pandoc que vous trouverez dans Paramètres > Paramètres avancés
. Ou bien installez la dernière version de pandoc.
Attention (bis) : Dans les options du PDF, section Police
sont indiquées les polices de caractères que pandoc utilisera pour la transformation en PDF via XeLaTeX. Si vous ne les avez pas sur votre système, un message d’erreur sera affiché. Indiquez à cet endroit les polices de caractères que vous souhaitez utiliser.
Les autres formats
Zettlr permet de faire des présentations en markdown puis de les exporter en utilisant reveal.js. Il vous reste donc à rédiger votre présentation et choisir parmi les modèles proposés (couleurs dominantes).
Vous pouvez aussi exporter directement en HTML : pour cela Zettlr dispose d’un modèle et exportera votre document en une page HTML contenant aussi les styles (on dit « standalone » ou option -s
avec pandoc).
Quand aux autres formats, le choix reste intéressant :
Format | Destiné pour |
---|---|
HTML | Navigateur |
.ODT | Traitement de texte type LibreOffice, MSWord, AbiWord, etc. |
.DOCX | Microsoft |
rST | ReStructuredText : mise en forme pour de la doc de langage type Python |
RTF | Rich Text Format : format descriptif pour traitement de texte |
TeX | Format pour TeX / LaTeX |
TXT | Format texte (simple) |
ORG | Pour Emacs Org (pour les utilisateurs d’org-mode, très puissant |
Bdl / Pck | TextBundle (un conteneur markdown + description + fichiers liés) / Variante |
… il manque selon moi la possibilité d’exporter en .epub
, un tâche dont s’acquitte très bien pandoc et qui pourrait avoir son application pour l’écriture de livre, lorsqu’on a plusieurs chapitres dans des fichiers séparés. Peut-être que cette fonctionnalité sera ajoutée ultérieurement.
Conclusion
Zettlr est un excellent logiciel qui tire de nombreux avantages du markdown dans le flux de production de documents longs et dans la gestion de documentation personnelle. Il pêche encore par manque de pédagogie, mais il est sur la bonne voie. Par ailleurs, sur les aspects qui concernent l’exportation, ce que propose Zettlr est une interface graphique de pandoc. Les habitués de al ligne de commande, comme moi, ne seront pas franchement épatés : j’estime qu’il à ce niveau plus important d’apprendre à complètement se servir de pandoc. Et s’il lui faut une interface graphique (et je pense que ce serait plutôt bien), dans ce cas, je préférerais largement un programme uniquement dédié aux fonctions de conversion de pandoc (et pas au markdown).
Des directions devront être envisagées en fonction du public visé pour Zettlr. Par exemple, au vu de son fonctionnement global, il pourrait tout à fait être utilisé en binôme avec Git et par conséquent intégrer des options spécialisées dans le versionning. Une autre possibilité consisterait à utiliser une connexion à un dépôt Nextcloud afin de pouvoir synchroniser facilement l’écriture de documents en markdown. Bien sûr, qu’il s’agisse de Git ou de Nextcloud, il est déjà possible soit de commiter les fichiers à part, soit de travailler dans un dossier distant, mais il s’agit-là de tâches spécialisées avec lesquelles tout le monde n’est pas familier.
05.01.2020 à 01:00
Sentiers et randonnée : le grisbi du Club Vosgien
En octobre 2019, après un bon repas dans un restaurant montagnard, la Direction du Parc Naturel Régional des Ballons des Vosges et le Club Vosgien ont signé une charte de protection des sentiers pédestres. Ils entendent ainsi définir l’exclusivité des usages et tentent de légitimer une discrimination entre les piétons et les autres usagers, en particulier les VTT. Si cette charte n’a qu’une valeur juridique potentielle, elle n’en demeure pas moins une démarche qui pourra essaimer dans les autres parcs naturels, et c’est toute une activité sportive (et touristique) qui en subira les conséquences. Il faut se mobiliser.
Vététiste
Loin des clichés et des vidéos impressionnantes de DownHill qu’on trouve sur les zinternetz, le VTT est d’abord et avant tout une activité à la fois sportive et populaire. Cela va de la petite promenade dominicale en famille dans les sous-bois, à la grande randonnée de 60 kilomètres avec 2500 m de dénivelé. Cette forme de randonnée sportive a un autre nom, le Cross Country ou All Mountain… On va appeler cela la Randonnée Sportive en VTT, pour faire court et francophone.
Il s’agit d’une pratique en solo ou en petits groupes. On croisera rarement un peloton de 20 vététistes dans la forêt sauf en cas d’organisation d’un événement dédié. On peut dire aussi que les vététistes sont des amoureux de la nature. Lorsque vous croisez un vététiste sur un sommet, par exemple dans les Vosges, il y a de fortes chances qu’il soit monté depuis le fond de la vallée (pour mieux y redescendre) et il n’a donc pas amené sa voiture sur le parking à 200 m de là. Dans son sac à dos, il préfère embarquer quelques outils et non pas la combinaison chips et papiers gras que d’aucuns n’hésitent pas à laisser traîner : il préfère une petite barre de céréales et quelques fruits secs. C’est aussi un contemplatif, il aime les paysages et reste très sensible aux aspects esthétiques du circuit qu’il accompli.
Bref, il ressemble à quoi notre vététiste ? à un randonneur. Un pur, un vrai, exactement comme les randonneurs chevronnés du Club Vosgien, cette vénérable institution qui regroupe des mordus de la marche et du bivouac. Sauf que lui, il a juste un vélo en plus.
Cette pratique du VTT rassemble l’écrasante majorité des pratiquants. Ils descendent sur les sentiers ou les chemins plus larges sans se prendre pour des champions du monde (parce que se casser la figure en VTT peut coûter cher). Sourire aux lèvres, sensations dans le guidon, quelques menus frissons : le VTT est une activité cool (avec un peu de transpiration quand même, sinon c’est pas drôle). Et pour les mordus comme moi, quelques degrés vers zéro ou un peu de pluie ne nous font peur (même la neige c’est marrant).
Dans les Vosges, on croise les vététistes soit sur les sentiers soit à la terrasse des fermes-auberges. Quoi de plus normal ? Des allemands, des belges, des habitants du coin ou d’un peu plus loin… exactement comme les randonneurs pédestres vous dis-je.
Alors c’est quoi le problème ?
J’ai déjà eu l’occasion de pondre un assez long billet sur cette curieuse mentalité de quelques antennes (alsaciennes) du Club Vosgien qui refusent le partage des usages tout en s’octroyant le droit de décider des libertés (en particulier celle d’aller et venir) pour l’ensemble des usagers, y compris les randonneurs qui ne font pas partie du Club Vosgien (une majorité, donc).
Il faut croire que les mêmes ont su réitérer de manière encore plus officielle et cette fois en entraînant dans leur sillage la plus haute responsabilité du Club Vosgien, sa présidence, et en sachant convaincre le président du Parc Naturel Régional des Ballons des Vosges.
À l’initiative de l’antenne CV de Saint Amarin, une charte a été signée le 11 octobre 2019, avec pour titre : « Charte de protection des sentiers pédestres ». Elle concerne tout le massif et engage réciproquement le Parc le Club Vosgien… Je n’en fais pas l’article, l’antenne de la MBF Vosges a écrit à ce sujet un communiqué plus que pertinent.
Cette charte a été rédigée, discutée et signée en totale exclusion des représentants des autres usagers de la montagne et de ses sentiers, en particulier les vététistes. On remarque parmi les présents à la « cérémonie » de la signature : des représentants d’antennes du Club Vosgien (surtout celui de Saint Amarin), des représentants du Parc, le préfet du Haut Rhin (surprenant !), un représentant du Club Alpin Français, un représentant d’Alsace Nature (association de protection de la nature), quelques élus municipaux, départementaux et régionaux… C’est-à-dire, outre le Club Vosgien, une très faible représentation des usagers de la montagne et du Parc mais une très forte représentation des instances administratives.
Cette charte engage réciproquement le Club Vosgien et le Parc sur des sujets tels l’entretien des sentiers et leurs préservation, en vertu de leurs valeurs patrimoniale, esthétique, et économique. Fort bien, dirions-nous, puisque dans ce cas, les devoirs ne concernent que ces instances.
Mais que lit-on au détour d’un article ? que les « sentiers fragiles de montagnes seront réservés en exclusivité à la circulation pédestre ».
On ne parle pas ici des sentiers déjà interdits par arrêté (parfois même aux piétons) et qui concernent de très petites parties classée en zone protégée. Non : on parle des sentiers que visiblement le Club Vosgien défini péremptoirement comme des sentiers « fragiles », c’est-à-dire « inférieurs à 1 mètre de large », « sinueux, situés dans des pentes raides » et « ne permettent pas le croisement avec d’autres usagers que pédestres » (comme si les VTT ne s’arrêtaient jamais pour laisser passer les marcheurs…)
En d’autres termes, dans une charte qui ne fait que stipuler des engagements réciproques entre le Parc et le Club Vosgien, c’est-à-dire entre une association et une autorité administrative, on voit apparaître comme par enchantement une clause qui rend exclusif et discriminatoire l’usage des sentiers. Faute d’avancer des faits réels et tangibles pour justifier cette exclusivité, la clause en question n’a pas la valeur d’un arrêté mais elle est néanmoins légitimée par une autorité administrative. Tel était l’objectif du Club Vosgien, et il a été atteint.
Il faut encore préciser que la valeur patrimoniale de ces sentiers est essentiellement le fruit du travail du Club Vosgien depuis le début du siècle dernier. On ne peut que saluer l’énorme travail fourni mais on ne peut toutefois s’empêcher de remarquer que le CV se place aujourd’hui en juge et partie : la même valeur patrimoniale est-elle communément partagée ? Certains préfèrent peut-être davantage insister sur les aspects environnementaux, sportifs, culturels…
Le seul argument éventuellement vérifiable qui soit avancé par le Club Vosgien consiste à accuser les VTT de favoriser l’érosion des sentiers. Tout comme on pourrait pointer l’élargissement des sentiers par les randonneurs qui marchent de front. J’ai de mon côté la certitude que le VTT n’est certainement pas un facteur significatif d’érosion. Et si tant est qu’une étude sérieuse porterait sur l’érosion par les usagers du Parc il faudrait alors s’attendre à devoir questionner :
- l’intérêt réel pour le Club Vosgien de baliser près de 20.000 Km de sentiers (sans aucune érosion bien entendu),
- les pratiques des exploitants et la gestion forestière en général (une calamité dans le massif vosgien),
- la gestion du couvert végétal et de la faune,
- questionner le schéma de circulation des véhicules à moteur,
- la pratique du ski,
- etc.
Et il faudrait alors aussi questionner les raisons pour lesquelles, par exemple, une association comme la MBF se voit souvent refuser les autorisations de participer à l’entretien des sentiers. Car de ce côté aussi une certaine exclusivité du Club Vosgien est organisée (puisque valider la participation des vététistes reviendrait à valider aussi leur usage).
Bref, qu’on se le dise : certains membres de certaines antennes du Club Vosgien ont une dent contre les vététistes. Et profitant de leurs appuis et de leurs relations, ils s’arrangent pour officialiser les choses.
Conséquences
Il est clair que de telles dispositions dans la charte ont de fait une valeur juridique potentielle. Cela signifie que désormais il sera possible de se référer à cette charte comme un élément justifiant un arrêté futur visant carrément à interdire la pratique du VTT.
Mais cette disposition change aussi la manière de concevoir l’espace commun : sous prétexte d’entretenir les sentiers balisés, et donc d’exercer le monopole des itinéraires de randonnée, le Club Vosgien s’approprie cet espace commun, ses valeurs patrimoniales et esthétiques, et s’arroge le droit de choisir qui peut en jouir et comment.
Comme le dit Ludovic, membre de la MBF :
Le problème dans les documents signés par le PNRBV et la Fédération du Club Vosgien, c’est qu’on inverse totalement la réalité des usages et la loi. Légalement, la règle c’est la libre circulation partout et les limitations par voie d’exception (avec des motifs réels et sérieux). Ici l’exception est partout.
Et quitte à l’interdire, toujours selon cette charte, cela risquerait de concerner énormément d’endroits dans le massif des Vosges :
- « Sentiers fragiles » : concept très vagues et donc pouvant être élargi toujours davantage (montées, descentes…),
- chemins de moins d'1 mètre de large,
- « Sentiers pittoresques à haute valeur esthétique en sommet de crête, chaumes, forêts d’altitudes ».
Bref, autant dire que si on veut passer d’une vallée à l’autre ou atteindre un sommet, cela ne sera plus possible en VTT (sauf éventuellement par la route bitumée et les cols des départementales).
Mais le plus grave dans tout cela, c’est que si de telles dispositions sont prises dans le Parc Naturel Régional des Ballons des Vosges, on peut s’inquiéter légitimement pour ce qu’il en sera dans les autres Parcs Naturels Régionaux ! Car en effet, on sait combien les « expérimentations » ont tendance à devenir très vite des règles universelles.
Et pourtant
La solution pour plus de sérénité dans le massif réside autant dans le partage des usages que dans le partage des responsabilités. Les mains n’ont cessé de se tendre vers le Club Vosgien.
Les vététistes sont toujours prêts à accepter que dans certains cas, sur des zones particulières et rares, des sentiers dédiés peuvent être imaginés, voire même des itinéraires de délestage, comme des contournements, mais laissant aux uns comme aux autres la liberté de circuler. Des propositions peuvent être élaborées, il reste à les faire valoir, y compris pour leurs intérêts touristiques.
Toute forme d’interdiction portant sur un usage global et dont les conditions seraient définies par un seul acteur, aussi engagé soit-il et exerçant un monopole, reviendrait à l’échec. Non seulement parce que le Club Vosgien ne représente pas tous les usagers, mais aussi parce qu’il serait impossible de faire respecter de tels interdits à moins de placer un agent du Parc Régional chaque jour à chaque coin de la forêt. Il ne pourrait en résulter autre chose que des tensions inutiles entre pratiquants. Au contraire, proposer de manière ouverte et démocratique des solutions alternatives serait profitable à deux points de vue :
- éviter les clivages là où le respect des usages et de l’environnement est d’abord un combat à mener en commun,
- améliorer les flux de circulation et enrichir les itinéraires selon les pratiques (randonneurs, VTT, VTT électriques, niveaux de difficulté, etc.).
Pour cela, il faut associer systématiquement tous les usagers aux décisions, ce qui est est une démarche démocratique et égalitaire. Associer les vététistes reviendrait aussi à leur confier les responsabilités qu’ils réclament de leur côté, y compris pour entretenir les sentiers.
Pour éviter que les seules réponses aux difficultés ne soient que l’exclusion et l’ignorance, il est important pour les pratiquants de VTT se rassemblent pour former un front commun de discussion. Seule la MBF et la Fédération Française de Cyclisme (dont le silence est parfois assourdissant) peuvent être des interlocuteurs valables dans un monde où peinent à être reconnus les collectifs informels. Alors, si ce n’est déjà fait, adhérez à la MBF !
21.12.2019 à 01:00
L’utopie déchue
Ce livre est écrit comme un droit d’inventaire. Alors qu’Internet a été à ses débuts perçu comme une technologie qui pourrait servir au développement de pratiques émancipatrices, il semble aujourd’hui être devenu un redoutable instrument des pouvoirs étatiques et économiques.
Pour comprendre pourquoi le projet émancipateur longtemps associé à cette technologie a été tenu en échec, il faut replacer cette séquence dans une histoire longue : celle des conflits qui ont émergé chaque fois que de nouveaux moyens de communication ont été inventés. Depuis la naissance de l’imprimerie, les stratégies étatiques de censure, de surveillance, de propagande se sont sans cesse transformées et sont parvenues à domestiquer ce qui semblait les contester. Menacé par l’apparition d’Internet et ses appropriations subversives, l’État a su restaurer son emprise sous des formes inédites au gré d’alliances avec les seigneurs du capitalisme numérique tandis que les usages militants d’Internet faisaient l’objet d’une violente répression.
Après dix années d’engagement en faveur des libertés sur Internet, Félix Tréguer analyse avec lucidité les fondements antidémocratiques de nos régimes politiques et la formidable capacité de l’État à façonner la technologie dans un but de contrôle social. Au-delà d’Internet, cet ouvrage peut se lire comme une méditation sur l’utopie, les raisons de nos échecs passés et les conditions de l’invention de pratiques subversives. Il interpelle ainsi l’ensemble des acteurs qui luttent pour la transformation sociale.
Tréguer, Félix. L’utopie déchue. Une contre-histoire d’Internet, XVe-XXIe siècle. Fayard, 2019.
Lien vers le site de l’éditeur : https://www.fayard.fr/sciences-humaines/lutopie-dechue-9782213710044
11.12.2019 à 01:00
Monopoly Capital
« Aux États-Unis comme dans tous les autres pays capitalistes, les masses dépossédées n’ont jamais été en mesure de déterminer leurs conditions de vie ou les politiques suivies par les différents gouvernements. Néanmoins, tant que démocratie signifiait le renversement du despotisme monarchique et l’arrivée au pouvoir d’une bourgeoisie relativement nombreuse, le terme mettait l’accent sur un changement majeur de la vie sociale. Mais qu’est-il resté de ce contenu de vérité dans une société où une oligarchie minuscule fondée sur un vaste pouvoir économique et contrôlant pleinement l’appareil politique et culturel prend toutes les décisions politiques importantes ? Il est clair que l’affirmation selon laquelle une telle société est démocratique ne fait que dissimuler la vérité au lieu de la mettre à jour. » (P. A. Baran, P. Sweezy, Monopoly Capital, 1966).
Il y a des citations dont le commentaire ne ferait que retranscrire les évidences auxquelles nous faisons face actuellement (les fonctions de l’État bourgeois). Remplacez ici le pouvoir monarchique par la peur du fascisme, et vous retrouvez la soupe continuellement touillée par une certaine oligarchie française (pour ne citer qu’elle). Lorsqu’il se plonge dans les vieux grimoires, le sorcier en sort toujours des grenouilles.
En 1966, paraît un pavé dans les sciences économiques aux États-Unis : Monopoly Capital: An Essay on the American Economic and Social Order (trad. fr. : Le capitalisme monopoliste - Un essai sur la société industrielle américaine). Il est écrit par deux économistes d’inspiration marxiste, Paul Sweezy (fondateur de la Monthly Review) et Paul A. Baran (professeur d’économie à Standford). Le livre sera pour ce dernier publié à titre posthume.
En quoi cet ouvrage est-il intéressant aujourd’hui ? Nous évoluons dans un modèle d’économie capitaliste à forte tendance monopoliste et cet ouvrage en développe une description particulièrement pertinente. Néanmoins, depuis les années 1960 beaucoup de choses ont changé et lire cet ouvrage aujourd’hui implique de le resituer dans son contexte : une économie capitaliste-monopoliste naissante. Et c’est là que l’ouvrage prend toute sa dimension puisqu’il explore les mécanismes du modèle que nous subissons depuis des années, en particulier la manière dont les schémas concurrentiels influent sur l’ensemble de l’économie et, par conséquent, la politique.
Qu’il s’agisse d’un capitalisme dirigiste ou de l’émergence de monopoles privés sur certains secteurs économiques (grâce aux « bienfaits » du libéralisme), le rôle de la décision publique dans le cours économique est fondamental à tous points de vue. C’est l’évidence pour la Chine par exemple. Mais en Occident, le libéralisme a tendance parfois à masquer cette évidence au profit d’une croyance populaire en des lois quasi-naturelles d’équilibre de marché et d’auto-régulation. Superstitions.
Pour ce qui concerne l’histoire contemporaine de l’économie américaine et, par extension celle des économies occidentales, l’apparition des monopoles est le résultat de stratégies politiques. Pour les deux auteurs, l’accumulation du capital par des acteurs privés atteint des sommets vertigineux à partir du moment où ces stratégies (notamment en politique extérieure) se déploient selon deux grands principes : l’impérialisme économique et la domination militaire. À leur suite, et surtout après la crise du début des années 1970, d’autres économistes apportèrent encore d’autres éléments : le rôle de la politique dans la régulation du marché intérieur comme arme stratégique protectionniste, la division sectorielle de l’impérialisme (financier, informationnel et culturel), le lobbying, etc.
La traduction littérale du titre originel de l’ouvrage est sans doute plus évocatrice. Il s’agit bien de la création d’un nouvel ordre social et économique. P. A. Baran et P. Sweezy ont su prendre la mesure du nouvel agencement socio-économique de la seconde moitié du xxe siècle, au-delà de la seule question de la consommation de masse. Le refrain n’a guère changé aujourd’hui : en faveur de la dynamique accumulatrice du capitalisme dans une économie monopoliste, la politique doit jouer son rôle de transfert des ressources vers le privé. Aucun échange non-marchand n’a d’avenir dans une telle économie. Sa nature procède par phases successives de centralisations des ressources (matérielles, informationnelles et financières) et d’éclatements de bulles erratiques.
Pour ce qui concerne le nouvel ordre social, les auteurs ont identifié plusieurs dynamiques en cours aux différents niveaux de l’économie quotidienne : les fluctuations de l’immobilier, les banques, les assurances et, surtout, le marketing. Cette dernière activité (avec l’impérialisme et le militarisme) a pour objectif la bonne allocation du surplus économique, c’est-à-dire le rapport excédentaire entre ce qu’une société produit et le coût (théorique) de la production. Avec le marketing, l’absorption du surplus est assurée selon deux moteurs : l’investissement et la consommation.
Il me semblait amusant de recenser quelques citations relevées par P. A. Baran et P. Sweezy et transcrites dans leur ouvrage au chapitre concernant le marketing. Je les reproduis ci-dessous. En effet, dans ce domaine on cite régulièrement l’inventeur du marketing (plus exactement des « relations publiques ») Edward L. Bernays et son ouvrage Propaganda. Mais on oublie bien souvent qu’il a fait école et que les piliers du marketing, la mesure et l’influence des comportements des individus et des masses, sont à la base de la propagande nécessaire à l’assentiment politique des foules. Jusqu’à atteindre des raffinements inégalés avec les GAFAM (pensons à l’affaire Cambridge Analytica, pour ne citer qu’elle). À cet égard, nous avons bel et bien vécu plus de 50 années bercés par une persuasion clandestine (pour reprendre le titre français du best-seller de V. Packard). De cette lancinante berceuse, il est temps de s’extraire (avec pertes et fracas).
Quelques citations
Pourtant, il suffisait de lire… Les citations ci-dessous n’ont rien d’étonnant si on les considère avec nos yeux du début du xxie siècle, mais c’est justement ce qu’elles préfiguraient…
La publicité affecte la demande… en transformant les besoins eux-mêmes. La distinction entre ceci et la modification des moyens de satisfaire des besoins existants est souvent cachée dans la pratique par le chevauchement des deux phénomènes ; analytiquement, elle est parfaitement claire. Une publicité qui ne fait qu’afficher le nom d’une marque de fabrique particulière ne donnera aucune information sur le produit lui-même ; cependant, si ce nom devient ainsi plus familier pour les acheteurs ils auront tendance à le demander de préférence à d’autres marques peu connues et sans publicité. De même, les méthodes de vente qui jouent sur la susceptibilité de l’acheteur, qui se servent de lois psychologiques qu’il ignore et contre lesquelles il ne peut se défendre, qui l’effrayent, le flattent ou le désarment, n’ont rien à voir avec l’information du client : elles tendent à manipuler et non à informer. Elles créent un nouvel ensemble de besoins en remodelant ses motivations.
– Edward H. Chamberlin, The Theory Of Monopolistic Competition, Cambridge, Mass., 1931, p. 119.
« Les études menées au cours des douze dernières années montrent de façon évidente que les individus sont influencés par la publicité sans en être conscients. L’individu qui achète est motivé par une annonce publicitaire mais il ignore souvent l’origine de cette motivation. »
– Louis Cheskin, Why People Buy, New York, 1959, p. 61.
Les défenseurs de la publicité affirment qu’elle comprend de nombreux avantages économiques. D’utiles informations sont transmises au public ; des marchés s’ouvrent à la production de masse ; et en guise de sous-produits nous obtenons une presse indépendante, le choix entre de nombreux programmes de radio et de télévision, et des revues épaisses. Et ainsi de suite. D’autre part on prétend que l’excès de publicité tend à en annuler les effets et procure peu d’informations valables au consommateur ; que pour chaque minute de musique symphonique il y a une demi-heure de mélo. Le problème serait plus susceptible d’être discuté s’il n’existait le fait troublant, révélé par le Sondage Gallup, que de nombreuses personnes semblent aimer la publicité. Ils ne croient pas tout ce qu’on leur raconte mais ils ne peuvent s’empêcher de s’en souvenir.
– Paul A . Samuelson, Economics, New York, 1961, p. 138.
Claude Hopkins, qui est l’un des « immortels » de la publicité raconte l’histoire de l’une de ses campagnes publicitaires pour une marque de bière. Au cours d’une visite à la brasserie il écouta poliment l’exposé des qualités du malt et du houblon employés, mais ne s’intéressa qu’à la stérilisation par la vapeur des bouteilles vides. Son client lui fit remarquer que toutes les brasseries procédaient de la sorte. Hopkins lui expliqua patiemment que ce n’était pas ce que les brasseries faisaient qui importait, mais ce qu’elles affirmaient faire par leur publicité. Il fonda sa campagne sur le slogan : « Nos bouteilles sont lavées à la vapeur ! ». George Washington Hill, le grand fabricant de tabac, fonda une campagne publicitaire sur le slogan « Nous grillons notre tabac ! » En fait, tous les tabacs le sont, mais aucun autre fabricant n’avait pensé à l’énorme potentiel publicitaire du slogan. Hopkins, remporta une autre grande victoire publicitaire en proclamant à propos d’une marque de dentifrice : « Enlève la pellicule qui se forme sur vos dents ! » En vérité tous les dentifrices en font autant.
– Rosser Reeves, Reality in Advertising, New York, 1961, p. 55-56.
Quand la forme du produit est reliée à la vente plutôt qu’à la fonction productive, comme cela est le cas de plus en plus souvent, et quand la stratégie de vente est fondée sur de fréquents changements de style, certains résultats sont presque inévitables : tendance à l’emploi de matières de qualité inférieure ; « raccourcis » adoptés pour limiter le temps indispensable à une bonne mise au point des produits ; négligence sur l’indispensable contrôle de qualité. Une telle obsolescence provoquée amène une augmentation de prix pour le consommateur sous la forme d’une réduction de la durée des biens et d’un accroissement des frais de réparation.
– Dexter Master, ancien dirigeant de l’Association des Consommateurs, cité par Vance Packard, The Waste Makers, 1960, p.14.
11.11.2019 à 01:00
Les voies de la préfiguration
Pour de récentes approches des mouvements altermondialistes ou apparentés, il semble que le concept de préfiguration devienne une clé de lecture prometteuse. Doit-on uniquement réfléchir en termes de stratégies politiques, ou justifier les initiatives en cherchant une légitimité dans des expériences fictives, comme celle d’Orwell ? Et si oui, comment obtenir l’adhésion du public ? Il importe de travailler un peu cette idée de la préfiguration et c’est ce que je propose dans cet article.
Titre
Qu’est-ce que préfigurer ? La préfiguration est d’abord un concept travaillé dans les études littéraires, artistiques ou philosophiques. Pour un événement ou des idées, il s’agit de déceler des éléments antérieurs, culturels, issus de l’expérience, ou d’autres idées et concepts qui peuvent être liés d’une manière ou d’une autre au présent qu’on analyse.
L’ordre temporel n’est pas toujours aussi net. En littérature, les commentateurs construisent des généalogies entre les auteurs, certes, mais avec le dialogue qu’ils construisent avec leurs lecteurs (à titre posthume ou pas), les auteurs aussi construisent à rebours leurs généalogies, déterminent les « plagiats par anticipation ». C’est-à-dire qu’il existe entre les pensées et les textes des fictions de généalogies. Le lecteur n’est pas en reste puisqu’à reconnaître chez un auteur des formes littéraires, des pensées ou des concepts déjà présents chez d’autres auteurs précédents, le lecteur change lui-même, de manière rétroactive, la réception du discours, et les textes plus anciens deviennent des préfigurations historiques.
Précurseurs ? les sciences n’en sont pas exemptes : on voit dans l’histoire des sciences à quel point les auteurs sont toujours soucieux de se situer dans des « Écoles de pensées », de citer les expériences et les théories non seulement lorsqu’il s’agit de les remettre en cause ou les questionner, mais aussi établir une filiation qui permet de légitimer leurs propres recherches. En sciences, la recherche de la préfiguration est une recherche de légitimation, y compris lorsque cette recherche n’est pas effectuée par le chercheur mais aussi par le lecteur qui établit des liens, élabore des clés de lecture jamais pensées auparavant. On peut citer par exemple la re-découverte des travaux de G. Mendel au début du vingtième siècle, et les controverses que cela suscita1 au sujet de la construction d’une nouvelle discipline (la génétique), des controverses qui furent justement les produits de lectures différentes et donc de généalogies différentes.
En histoire, il en va de même, notamment parce qu’il s’agit d’en faire l’épistémologie. Les événements ont-ils toujours une histoire causale, linéaire, dans laquelle on peut facilement trouver les éléments qui en préfigurent d’autres, ou au contraire faut-il réfléchir en faisceaux d’évènements, de documents qui permettent de construire un sens dont on peut dire que ces indices préfigurent quelque chose, mais jamais entièrement ?
Dans les fictions politiques et leur réception dans les représentations dominantes à travers les époques, les mécanismes à l’œuvre ne sont pas tant ceux d’une légitimation de l’action (les auteurs ne sont pas des prophètes dont on suivrait les préceptes) qu’une reconnaissance a postériori d’une expérience politique qui devient alors un instrument de compréhension du présent. À travers l’histoire de l’informatisation de la société, dès les années 1950 et 1960, de nombreux textes font référence à la dystopie de G. Orwell et 1984 pour décrire les dangers des grandes bases de données. Et aujourd’hui encore cette clé de compréhension qu’est le monde politique de 1984 est énoncée, le plus souvent sans vraiment en faire la critique, comme si cette unique référence pouvait réellement fonctionner depuis plus de 60 ans.
Comme le dit P. Boucheron2 :
La littérature ne prédit pas plus l’avenir qu’elle n’en prévient les dangers. Et voilà pourquoi la critique littéraire de l’anticipation ne peut être qu’une critique de l’après-coup. Si on pense aujourd’hui que les fictions politiques de Kafka ou d’Orwell préfigurent une politique à venir, c’est parce que nous vivons aujourd’hui une situation politique en tant que nous sommes préparés à les reconaître comme ayant déjà été expérimentées par avance dans les fictions politiques.
L’ennui c’est que nous avons tendance à penser l’action politique en fonction de cette manière de concevoir la préfiguration, c’est-à-dire en s’efforçant de chercher les concepts dans des expériences fictives ou analytiques qui précèdent l’action et de manière à justifier l’action. Dans l’action politique, toute idée ou pratique qui n’appartiendrait pas à une généaologie donnée serait par définition non recevable, indépendamment de son caractère novateur ou non.
Ceci est particulièrement problématique car le caractère novateur des idées ne peut alors se prouver qu’en fonction d’efforts théoriques soutenus, généalogie et démonstration, ce qui ne coïncide que très rarement avec l’urgence politique. Penser qu’un acte, une décision ou une idée préfigurent toujours potentiellement quelque chose, c’est penser que l’action politique obéit toujours à une stratégie éprouvée et prétendre que « gouverner, c’est prévoir ». Mais jusqu’à quel point ?
Par exemple, l’activisme lié aux questions environnementales montre qu’on ne peut pas circonscrire l’action (comme une zone à défendre contre des projets capitalistes nuisibles aux biens communs) à la seule revendication pro-écologique. D’autres aspects tout aussi importants se greffent et que l’on pourrait rattacher aux nombreux concepts qui permettent d’opposer au modèle dominant des modèles sociaux et économiques différents. Pour rester sur le thème environnementaliste, c’est bien le cas de l’activisme dans ce domaine qui, dans les représentations communes chez les décideurs politiques comme dans la population en général, est resté longtemps circonscrit à une somme de revendications plus ou moins justifiées scientifiquement mais toujours à la merci de la décision publique, elle-même sacralisée sur l’autel « démocratique » du vote et de la représentativité.
L’apparition des ZAD et leur sociologie ont montré combien l’activisme ne correspondait plus à ce « revendicalisme », et c’est ce choc culturel qui permet de comprendre pourquoi il ne passe plus par les mécanismes habituels des démocraties libérales mais propose d’autres mécanismes, basés sur des modes de démocratie directe et l’exercice de la justice, mais inacceptables pour les réactionnaires. Ces derniers ont alors beau jeu de traduire ces nouvelles propositions politiques en termes de radicalismes ou d’extrémismes car elles sont en fait la traduction sociale de la crise des démocraties capitalistes.
Est-ce de l’action directe ? L’action directe (qui n’est pas nécessairement violente, loin s’en faut) est le fait d’imposer un rapport de force dans la décision sans passer par l’intermédiaire de la délégation de pouvoir (la représentativité) et même parfois, dans certains cas, sans passer par les institutions judiciaires (ce qui peut parfois aider à justifier des actions illégales, bien qu’étant légitimées du point de vue moral, ou éthique, tels les actes de désobéissance civile).
Pour ce qui me concerne, l’ennui avec l’action directe est qu’elle relève d’une conception anarchiste qui me semble aujourd’hui dépassée. C’est Voltairine de Cleyre qui a théorisé l’action directe en 1912. Dans les commentaires et les reprises qui ont suivis, l’action directe est pensée en mettant sur le même plan la revendication (syndicale, par exemple), le devoir d’un ouvrier dans la défense des intérêts collectifs de sa classe devant le patronat, la négociation directe entre un collectif et des autorités, etc. C’est-à-dire que l’action directe n’a pas pour objet la prise de pouvoir (elle exclu donc la conquête du pouvoir par la violence) mais elle est d’abord un acte d’organisation. Hier, on pensait cette organisation généralement en termes de classes sociales, aujourd’hui d’autres auteurs parlent plutôt de groupes d’affinités (ce qui n’efface pas pour autant les classes). Et comme il s’agit d’abord d’organiser des actions collectives en fonction de projets prééxistant, c’est-à-dire en fonction d’une expérience relevant de l’imaginaire politique, c’est seulement après-coup que l’on peut penser la puissance préfigurative de l’action directe : « ils avaient bien raison », « c’est grâce à ces luttes sociales que nous pouvons aujourd’hui… », etc.
Or que constatons-nous aujourd’hui ? Tout comme n’importe quel historien le constate en étudiant objectivement l’histoire des luttes sociales. Très rares sont les projets théoriques suscitant l’adhésion d’un collectif et suffisamment compris par chacun pour susciter de l’action directe. On le trouve peut-être dans l’action syndicale, mais si on regarde les processus révolutionnaires, on voit bien que la théorie n’a pas nécessairement précédé l’action, elle s’est construite « en faisant », « en marche » (comme dirait l’autre). On peut douter par exemple que les Révolutionnaires à la Bastille avaient bien tous compris (et lu) les textes de l’Assemblée Constituante. Meilleur exemple, la Commune de Paris née d’un mouvement d’opposition et de révolte, mais débouchant sur une expérience de gestion collective. Ainsi, il y a une stratification des actions et des pratiques dans un mouvement d’opposition et de préfiguration qui font qu’une ZAD ne ressemble pas à une autre ZAD, qu’un rond-point de gilets jaunes dans le Sud de la France ne ressemblera pas à un autre rond-point dans le Nord de la France, et ce n’est pas seulement parce que les contextes environnementaux et sociaux ne sont pas les mêmes, mais c’est parce qu’ils n’ont pas de prétention à préfigurer quoique ce soit de manière stratégique, suivant un plan préétabli.
Cela explique aussi pourquoi il y a de grandes transformation dans le fil chronologique des mouvements sociaux. Les revendications à Hong-Kong se sont certes construites au début sur un rejet des politiques pro-Chine, mais elles se sont assez vite cristallisées autour de contestations plus étendues et diverses rendant de plus en plus difficile une réponse politique (autre que la violence policière et l’étouffement). Il en va de même au sujet des autres mouvements à travers le monde aujourd’hui, qui ont tendance à transformer la revendication en une opposition de modèles sociaux et politique.
Certains sociologues qui se sont intéressés aux mouvements tel Occupy (Wall Street), les ZAD ou Nuit Debout ont montré que, en réalité, à la logique de l’action directe répondait aussi une logique de la théorie directe. N. Sturgeon3 montre combien les mouvements d’opposition changent aussi le cadre discursif : en tant qu’action directe ils rendent le dialogue et la négociation très difficiles avec les autorités (et vouent souvent à l’échec le discours politique en place) mais ils retravaillent aussi à l’intérieur même du mouvement les notions d’horizontalité, de diversité, de décision, de mécanisme démocratique, etc. En somme ce que les mouvements alter- proposent, ce sont tout autant des alternatives que de l’altérité.
Si ces mouvements alter préfigurent quelque chose, ce n’est donc pas par la formalisation d’un discours mais par l’organisation elle-même, au moins aussi importante que la revendication. C’est ce qu’un chercheur comme T. Luchies identifie en étudiant les courants anarchistes de l’anti-oppression4 :
Dans une organisation politique anarchiste, un tel activisme cherche à identifier les formes normalisées d’oppression et à éliminer les institutions qui reproduisent la suprématie blanche et masculine, le handicap, l’homophobie et la transphobie, le racisme et le capitalisme. La lutte contre l’oppression est une action continue et, grâce à sa pratique collaborative et cumulative, nous pouvons entrevoir des formes radicalement inclusives et autonomisantes de communauté politique. Son fonctionnement quotidien préfigure des modes alternatifs d’organisation et de résistance ensemble.
Sans forcément mobiliser un collectif à part entière, ces expériences peuvent être éprouvées dans n’importe quelle organisation qui met l’autonomie et la démocratie au premier plan de ses règles de fonctionnement.
Pour prendre un exemple que je connais plutôt bien, l’association Framasoft fonctionne sur ce modèle. Sans avoir formalisé notre mode de fonctionnement dans une charte ou un règlement intérieur particulièrement élaboré, l’idée est justement de laisser assez de latitude pour apprendre en permanence à moduler le système collectif de prise de décision. Dans les objectifs de réalisation, l’idée est bien de prétendre à l’action directe : mettre en oeuvre des projets concrets, des expériences de logiciels libres et de culture libre, et faire autant de démonstrations possibles d’un monde numérique basé sur une éthique du partage et de la solidarité. Ainsi, nous ne revendiquons rien, nous mettons au pied du mur la décision publique et les choix politiques en proposant d’autres expériences sociales en dehors du pouvoir et de la représentativité politique.
Dans cet ordre d’idée, un dernier auteur que nous pouvons citer est la chercheuse M. Maeckelbergh qui montre bien que la préfiguration n’est ni une doctrine, ni une stratégie politique. Elle échappe à une lecture du pouvoir politique parce qu’elle est presque exclivement en acte. Et c’est aussi la raison pour laquelle, du point de vue de la méthodologie sociologique, elle ne peut s’appréhender qu’en immersion. Elle affirme dans son étude sur les mouvements altermondialistes5 :
Ce qui différencie le mouvement altermondialiste des mouvements précédents, c’est que le « monde » alternatif n’est pas prédéterminé ; il est développé par la pratique et il est différent partout.
Est-ce pour autant du relativisme selon lequel tous les mouvements seraient équivalents, quelles que soient leurs orientations morales et politiques ? Heureusement non, car ce qui défini l’action directe dans cette dynamique de préfiguration, c’est aussi l’expérimentation de multiples formes de démocraties directes. Si, de manière générale, elles ont tendance à appeler à un changement de paradigme (celui de la représentativité et de la délégation de pouvoir) elles appellent aussi à un changement de modèle social et économique. Il peut néanmoins subsister des désaccords. Très prochainement, nous verrons sans doute apparaître quelques tensions entre ceux pour qui le capitalisme pourrait retrouver figure humaine (et pourquoi pas humaniste) et ceux pour qui le modèle capitaliste est en soi un mauvais modèle. Mais quelle que soit la prochaine configuration, les enjeux sociaux et environnementaux d’aujourd’hui présentent assez d’urgence pour ne plus perdre trop de temps à écrire des fadaises : les principes d’expansion et d’exploitation capitalistes des ressources (naturelles et humaines) impliquent dès mainenant une urgence de l’action.
-
On peut se reporter aux travaux de l’historien des sciences Jean Gayon à ce sujet. ↩︎
-
Patrick Boucheron, Qu’est-ce que préfigurer ? Des généalogies à rebours, Cours au Collège de France, 27 mars 2017, Lien. ↩︎
-
Noel A. Sturgeon, « Theorizing movements: direct action and direct theory », in : M. Darnovsky, B. Epstein, R. Flacks (Éds), Cultural Politics and Social Movements, Philadelphia, PA: Temple University Press, 1995, p. 35– 51 ↩︎
-
Timothy Luchies, « Anti-oppression as pedagogy; prefiguration as praxis », Interface : a journal for and about social movements, 6(1), 2014, p. 99-129. ↩︎
-
Marianne Maeckelbergh « Doing is Believing: Prefiguration as Strategic Practice in the Alterglobalization Movement », Social Movement Studies, 10(1), p. 1-20, 2011. ↩︎
25.10.2019 à 02:00
Perspectives d’avenir
Comment les crises politiques et économiques pourront-elles être surmontées demain par ceux qui détiennent le pouvoir aujourd’hui ? En se livrant à une analyse critique et prospective, Peter Gelderloos envisage la manière dont les gouvernements pourront à l’avenir proposer des solutions à la crise du capitalisme et de la démocratie. Ces solutions sont-elles souhaitables ? quels en seront les mécanismes politiques ? laisseront-ils des opportunités pour d’autres modèles sociaux et d’autres modes de vie ?
Source : Peter Gelderloos, « Diagnostic of the Future. Between the Crisis of Democracy and the Crisis of Capitalism: A Forecast » sur Crimethinc.
Parutions de cette traduction : sur Crimethinc, sur la Bibliothèque anarchiste
Table des matières
Avant-propos
Paris, Hong Kong, Beyrouth, Détroit, Santiago, Barcelone… les contestations sociales finissent par être traitées dans les médias, même si nous devrions nous attendre à autre chose que des éléments de langage. Depuis la crise de 2008 on peut constater que les grands mouvements de contestation dans les démocraties occidentales trouvent leurs sources dans les inégalités sociales autant que dans le manque de confiance dans les institutions démocratiques elles-mêmes. En fait, brandissant l’épouvantail du fascisme au prétexte que le seul choix des peuples se situe désormais entre la dictature (d’extrême droite) et la démocratie, les régimes démocratiques cherchent par tous les moyens à sauvegarder le modèle économique dominant du capitalisme.
Cela se fait par exemple au détriment de l’urgence environnementale et climatique, pour laquelle les gouvernements, sous la pression des peuples et des sciences, ont été obligés de prendre des engagements, aussitôt relégués au rang de promesses d’ivrognes par les pays les plus capitalistes à commencer par les États-Unis, la France et l’Allemagne.
Cela se fait en faveur du capitalisme de surveillance, par lequel l’accumulation de valeurs se fait désormais sur nos vies privées, tout en permettant aux démocraties d’espionner en masse et de mettre en oeuvre des lois liberticides tout en marchant sur les plate-bandes des partis fascistes (par exemple lorsque C. Castaner, ministre de l’Intérieur, promeut une société de la vigilance).
Cela se fait en faveur des inégalités sociales, comme le Chili qui actuellement tremble dans ses fondations après des années de néolibéralisme frénétique. Mais qu’on se rassure sur ce point, comme le dit le ministre Français J. Y. Le Drian le 22 octobre dernier à l’Assemblée Nationale : le Chili est une démocratie qui a apporté des « réponses » aux revendications malgré « les violences qui ont donné lieu à un bilan humain lourd » (et par conséquent, il n’y a aucune raison de remettre en cause la participation de la France à la COP 25 qui aura lieu en décembre 2019 à Santiago). Les périphrases en disent long : outre le déni, on interprète très bien l’idée selon laquelle ce sont les « violences » du peuple qui sont la causes des morts sous les balles d’une police pourtant connue pour sa violence « légitime ». D’ailleurs, la France n’a pas à rougir de sa politique de maintien de l’ordre, puisque ce sont bien les mêmes méthodes de pourissement politique et de répression qui prévalent dans plusieurs pays.
Et, pour finir la litanie, cela se fait aussi en faveur d’une technocratie qui, petit à petit remplace les mécanismes démocratiques pour maintenir en place la collusion entre capitalisme et représentativité. Ainsi on remplace la voix du peuple par des mini-conseils ou des mini-débats (et le texte ci-dessous est visionnaire sur ce point), ou bien on joue sur un incessant ballet de modifications constitutionnelles afin de consolider un système moribond.
Le théoricien anarchiste Peter Gelderloos a des avis sur ces questions. Bousculant les idées reçues sur la démocratie et les mouvements sociaux qui s’y exercent, il est l’auteur en 2013 d’un ouvrage intitulé The Failure of Nonviolence: From the Arab Spring to Occupy (traduit en Français en 2018 sous le titre Comment la non-violence protège l’État : Essai sur l’inefficacité des mouvements sociaux). L’année dernière le 05/11/2018, il publie un long texte prospectif intitulé « Diagnostic of the Future. Between the Crisis of Democracy and the Crisis of Capitalism: A Forecast ». Ce texte résonne parfaitement aujourd’hui, alors que dans les pays démocratiques la crise du capitalisme entraîne une crise des institutions que pourtant on pensait constitutionnellement indépendantes.
Bien que je ne puisse pas apprécier certains raccourcis historiques hâtifs de la part de Peter Gelderloos, et bien que certains points méthodologiques font la part bien trop belle au déterminisme, j’ai pris la décision de traduire ce texte et le diffuser (avec l’accord de l’auteur). La principale raison est qu’il y a bien peu d’auteurs qui, aujourd’hui, osent se lancer dans une critique prospective sans tomber dans le piège du futurisme ou du catastrophisme. Peter Gelderloos nous propose ici un texte lucide dont certains points se sont déjà vérifiés depuis la première publication du texte.
La difficulté de lecture pourra néanmoins concerner les aspects historiques souvent trop peu connus (mais Wikipédia pourra alors être d’une grande aide) ou un vocabulaire auquel le lecteur européen est peu habitué (on peut citer par exemple la manière d’aborder la notion de suprémacisme blanc). D’autres points seront tout à fait compréhensibles car ils partent du même diagnostic que l’on trouve chez tous les défenseurs des libertés.
Les mouvements du capitalisme, les réponses sociales et les interactions entre l’économie et les types de régimes politiques sont autant de clés pour une lecture historique et actuelle de la société. Lorsqu’on aborde ces thèmes, en particulier pour tâcher de construire l’avenir, il n’y a aucune raison de ne pas proposer de critique de la démocratie au prétexte que le régime est en soi non-critiquable. Mais nos inhibitions sont souvent les fruits de nos certitudes. Et si pour changer on adoptait un point de vue anarchiste ?
- Document original publié le 05/11/2018 sur CrimethInc. sur sous le titre « Diagnostic of the Future. Between the Crisis of Democracy and the Crisis of Capitalism: A Forecast ».
- Publié aussi sur The Anarchist Library à cette adresse. Disponible en V.F. sur La Bibliothèque anarchiste.
Perspectives d’avenir
Entre la crise de la démocratie et la crise du capitalisme : quelques prévisions
Peter Gelderloos / traduction (24/10/2019) par Framatophe.
Ce n’est un secret pour personne : la démocratie et le capitalisme sont tous deux en crise. Pendant plus d’un demi-siècle, les dirigeants et leurs experts se sont bornés à à faire valoir la démocratie comme un régime « préférable au communisme (d’État) ». Dans les années 1990 et la plus grande partie des années 2000, ils n’avaient même pas à se justifier du tout. La démocratie était la seule voie possible, le destin téléologique de l’humanité tout entière.
Aujourd’hui, ce n’est plus le cas. Sur la scène mondiale, les institutions démocratiques de coopération interétatique sont en désordre, et l’émergence de nouvelles alliances et de nouvelles positions suggère qu’une alternative commence à se coaliser. Au niveau des États-nations proprement dits, la base qui a permis un grand consensus social pendant des décennies a pratiquement disparu. Il y a de plus en plus de mouvements à droite pour reformuler le contrat social – et, à la limite, pour en finir complètement avec la démocratie – alors que la gauche prépare une vague de fond pour renouveler la démocratie et lisser ses contradictions en renouvelant le rêve de l’inclusion universelle et de l’égalité. Ces deux mouvements suggèrent que la démocratie telle qu’elle existe actuellement ne peut pas perdurer.
Entre-temps, la crise financière mondiale de 2008 n’a pas été résolue, elle s’est simplement stabilisée grâce à la privatisation massive des ressources publiques et à la création de nouvelles bulles financières toujours plus grosses pour absorber temporairement le capital en excès. Le capitalisme a désespérément besoin d’un nouveau territoire pour s’étendre. Quelle que soit la stratégie adoptée par les capitalistes, il leur faudra fournir une croissance exponentielle des opportunités d’investissement rentables et une solution au chômage de masse qui pourrait toucher plus de la moitié de la main-d’œuvre mondiale car l’Intelligence Artificielle (IA) et la robotisation la rendent inutile.
Ces deux crises sont intimement liées. Les capitalistes soutiendront les modèles gouvernementaux qui protègent leurs intérêts, alors que seul l’État peut ouvrir de nouveaux territoires à l’accumulation de capital et réprimer la résistance qui se manifeste toujours. En tirant sur les coutures révélées dans cet interstice, nous pouvons commencer à diagnostiquer l’avenir que ceux qui détiennent le pouvoir s’affairent à échafauder afin de tenter d’enterrer les possibilités divergentes et émancipatrices qui se présentent à nous. Si nous ne faisons rien, cette Machine que nous combattons corrigera ses dysfonctionnements. Si nous analysons ces dysfonctionnements et les solutions qui nous sont offertes, nous pouvons agir de façon plus intelligente. La crise nous offre l’occasion d’une révolution qui pourrait abolir l’État et le capitalisme, mais seulement si nous comprenons comment la domination évolue et seulement si nous cherchons à bloquer son avancée, au lieu d’ouvrir la voie à de nouvelles formes de domination comme tant de révolutionnaires l’ont fait dans le passé.
Pour ce faire, nous examinerons l’architecture du système mondial actuel et nous identifierons exactement ce qui ne fonctionne pas dans ce système. Le diagnostic permettra de déterminer ce dont le capitalisme a besoin pour sortir de la crise actuelle et quelles options lui offrent l’horizon le plus prometteur, notamment la possibilité d’une expansion bioéconomique. Parallèlement, nous analyserons la crise de la démocratie, tant au niveau de l’État-nation qu’au niveau de la coopération interétatique et mondiale ; nous comparerons les solutions, qu’elles soient fascistes, démocrates-progressistes, hybrides ou technocratiques, envisagées pour rétablir la paix sociale et satisfaire les besoins des capitalistes. Au cours de cette discussion, nous nous pencherons sur le changement climatique, qui est un élément clé qui conditionne les crises gouvernementales et économiques et qui suggère – ou même exige – une synthèse dans les réponses à ces deux crises. Enfin, nous aborderons ce que tout cela signifie pour nous et nos possibilités d’action.
L’État ethnique
Le 20 juillet 2018, avec la signature de la loi loi « Israël, État-nation du peuple juif », Israël est devenu le premier État ethnique explicite. Les actions du Likoud et la coalition réactionnaire qu’il représente mettent en évidence la crise de la démocratie.
Un État ethnique est une reformulation récente de l’État-nation souverain, cet élément fondamental de l’ordre mondial libéral depuis le traité de Westphalie de 1648 jusqu’à nos jours. Ethnos et nation ont la même signification – la première d’une racine grecque, la seconde d’une racine latine – donc la différence est contextuelle. De 1648 à 1789, l’État-nation a évolué jusqu’à prendre sa forme actuelle en tant que complexe institutionnel qui prétend donner une expression politique à une nation par le biais du mécanisme de représentation, modulé par la vision du monde des Lumières et les valeurs d’égalité juridique et de droits universels.
S’écartant de ce modèle désormais poussiéreux, l’État ethnique est une révision de la pensée du siècle des Lumières, en se fondant sur une interprétation, au xxie siècle, des anciens concepts politiques. Au xviie siècle, aucune des nations occidentales n’existait en tant que telle ; elles se forgeaient encore à partir de myriades d’expressions linguistiques et culturelles et inventaient les institutions sociales capables de peser culturellement assez lourd pour créer une identité commune et inter-classe de peuples disparates. La proto-nation la plus stable de l’époque, les Britanniques, était encore une alliance hiérarchique de plusieurs nations. Les créateurs du système d’État-nation (ou interétatique), ceux que nous appellerions anachroniquement les Hollandais, étaient connus sous le nom de Provinces Unies ou de Pays-Bas, et leur unité reposait davantage sur une opposition commune au pouvoir impérial Espagnol des Habsbourg que sur une identité nationale commune. Ils n’avaient pas de langue ou de religion commune.
À l’origine, la souveraineté westphalienne était un système de ségrégation et de droits des minorités : des frontières solides étaient tracées entre les entités politiques, mettant fin au système féodal disparate dans lequel la plupart des terres étaient inaliénables et étaient réparties entre plusieurs propriétaires et utilisateurs. Comme les puissances féodales avaient des possessions dans plusieurs pays, aucun pays n’était soumis à une hiérarchie politique uniforme. Le système westphalien a cimenté de telles hiérarchies, aboutissant à la reconnaissance d’un souverain suprême dans chaque pays, et à la reconnaissance de la religion des dirigeants comme la religion du territoire. Cependant, les membres des minorités religieuses avaient toujours le droit de pratiquer en privé dans la mesure où ils étaient catholiques, luthériens ou calvinistes (car seules les Provinces Unies pratiquaient une tolérance religieuse assez large pour inclure les anabaptistes et les juifs). Dans sa phase inachevée, ce système a utilisé l’identité religieuse pour exercer la fonction de ségrégation que la nation allait remplir par la suite.
Comme il n’y avait pas encore de science de la nation, les différentes stratégies de construction nationale qui sont apparues au cours des deux siècles suivants ont d’abord été considérées comme également valables : le melting-pot américain, le colonialisme français des Lumières, l’essentialisme scientifique par lequel les grands penseurs universitaires et gouvernementaux du monde occidental ont tenté de figer l’origine ethnique en une réalité biologique.
Au xxie siècle, les mécontents réactionnaires de l’ordre mondial libéral font appel à un essentialisme scientifique dépassé pour contester les évolutions postmodernes et transhumanistes du concept de nation. Ces dispositifs idéologiques plus flexibles associent l’intégration mondiale croissante du capitalisme à une intégration philosophique de l’humanité. Les postmodernes ont mis à nu les mécanismes brutaux de l’édification de la nation pour dépeindre une similitude aliénée qui traverse prétendument les continents, tandis que les transhumanistes adaptent les valeurs libérales à un culte de la bio-machine, dans lequel les différences supposées entre communautés humaines deviennent irrationnelles et une version moderne et progressive de la culture occidentale est proposée comme nouvel universel.
S’opposant à ces innovations psycho-économiques, les promoteurs réactionnaires de l’État ethnique utilisent un pilier fondamental de la modernité contre un autre, utilisant une acception de la nationalité provenant à la fois du XIXe et du xxie siècle, ravivant les éléments suprémacistes blancs toujours présents dans la pensée des Lumières et rejetant ce qui avait été l’élément intégralement interconnecté de l’égalité démocratique.
En d’autres termes, l’État ethnique d’aujourd’hui n’est pas seulement une reformulation de l’État-nation classique : l’État ethnique émerge de l’autre côté de la démocratie, tentant de rompre avec la vieille synthèse des Lumières. Pourtant, en même temps, la nouvelle formulation exige que l’État ethnique remplisse l’ancien objectif supposé de l’État-nation : prendre soin d’un peuple et lui donner une expression politique. Les promoteurs de l’État ethnique estiment que cette tâche est plus importante que ce qui, pendant des siècles, a été considéré comme des fonctions indissociables et concomitantes dans la pensée occidentale : la garantie de l’égalité des droits et la participation démocratique.
Si nous le regardons en face, nous constatons que l’État ethnique est une réponse réactionnaire à une crise de la démocratie et de l’État-nation. Une crise qui est, sinon générale, certainement mondiale. Notant le premier indice qui pourrait nous permettre d’identifier des schémas plus larges, rappelons que c’est la gauche para-institutionnelle du mouvement altermondialiste qui a d’abord sonné la crise de l’État-nation et appelé l’État – comme il le demande encore pathétiquement – à remplir son devoir et à prendre soin de ses populations.
L’État israélien a révélé sa volonté de rompre avec l’égalité démocratique afin de construire une nouvelle synthèse en légiférant des droits non égaux, en refusant explicitement aux Arabes, aux musulmans et aux autres non-juifs le droit à l’autodétermination ou le droit à la terre et au logement, en soulignant même un engagement symbolique à la démocratie selon les termes de la nouvelle loi.
Le système mondial
La période entre la Première et la Seconde Guerre Mondiale a représenté un interrègne au cours duquel le Royaume-Uni s’est battu pour conserver sa domination dans un système mondial en voie d’extinction, tandis que l’Allemagne et les États-Unis s’en sont disputés les rôles d’architectes rénovateurs (l’URSS ayant rapidement abandonné ses piètres tentatives). Comme l’affirme Giovanni Arrighi, le crash de 1929 a signifié la crise finale du système britannique. Depuis la Seconde Guerre, les États-Unis ont conçu et dirigé un système mondial d’accumulation économique et de coopération interétatique. Prétendue championne de la décolonisation, elle-même nation d’anciennes colonies qui ont obtenu leur indépendance, les États-Unis ont gagné la participation de la quasi-totalité de la population mondiale à leur système en créant l’ONU et en donnant à tous les nouveaux États-nations une place à la table des négociations. Par l’intermédiaire des institutions de Bretton Woods – le Fonds monétaire international et, plus tard, le GATT/OMC – les États-Unis ont amélioré le système britannique antérieur et intensifié la participation mondiale au régime capitaliste en créant un ensemble équitable de règles fondées sur l’idéologie du libre-échange. Les règles étaient honnêtes dans la mesure où elles étaient censées être les mêmes pour tous, contrairement à l’ancien système colonial qui reposait explicitement sur la suprématie et la puissance militaire – le genre de pratiques crues qui avaient été nécessaires pour imposer brutalement l’économie capitaliste à la population mondiale. Et les règles étaient attrayantes pour les acteurs dominants parce qu’elles éliminaient les obstacles au jeu du capital accumulant toujours plus de capital, de sorte que ceux qui en avaient le plus profiteraient le plus. Dans ce diabolique arrangement, les États-Unis ont maintenu leur supériorité militaire – le seul élément au sujet duquel personne n’a parlé d’égalisation – par le biais de l’Organisation du Traité de l’Atlantique Nord (OTAN).
C’était peut-être une structure à toute épreuve, mais le pouvoir est d’abord et avant tout un système de croyances, et le pouvoir de la stupidité est tel que rien au monde n’est infaillible. Il ne faut jamais s’attendre à ce que l’État soit au-dessus des effets de la stupidité ; à plusieurs niveaux, l’État est l’institutionnalisation de la stupidité humaine. La vraie sagesse n’a jamais eu besoin d’un État.
Avec un pouvoir aussi remarquable, la classe dirigeante américaine sentait qu’elle était au-dessus de ses propres règles. Ce sont les États-Unis, et en particulier les réactionnaires de ce pays, qui ont saboté l’ONU, l’OMC et l’OTAN. Sur les trois, paralyser l’ONU était le projet le plus collaboratif, impliquant démocrates et républicains dans une proportion presque égale ; bien que les démocrates aient fait un meilleur travail pour que l’ONU se sente appréciée, mais ils l’ont toutefois empêchée de remplir sa mission au Vietnam, au Salvador, au Nicaragua, en Afrique du Sud et, surtout, en Israël.
Il est de circonstance que la nouvelle synthèse qui pourrait sonner le glas du système mondial américain trouve sa première manifestation en Israël, son allié le plus coûteux et inopportun bénéficiaire. Plus que tout autre État-client sanguinaire, c’est l’utilisation agressive du soutien américain par Israël qui a fait de l’ONU un tigre de papier incapable de faire face aux injustices les plus flagrantes dans le monde. Ce n’était pas non plus un prix à payer pour servir des intérêts géopolitiques machiavéliques au Proche-Orient. L’Arabie saoudite, l’Égypte et d’autres États arabes se sont avérés des alliés plus fiables, avec plus de ressources naturelles, alors qu’Israël est petit, belligérant et déstabilisateur. Il est possible que cette alliance désastreuse soit moins le résultat d’une pensée stratégique que d’une pensée suprémaciste blanche et chrétienne – l’identification de la classe politique américaine à une culture judéo-chrétienne. La tendance suprémaciste blanche israélienne est beaucoup plus développée que la tendance suprémaciste blanche saoudienne. Non pas par la faute des Saoudiens, qui ne se retiennent pas d’abuser et d’exploiter leurs propres classes marginalisées et racialisées, mais parce que, mille ans après les Croisades, les Occidentaux considèrent toujours les Arabes et les musulmans comme une menace.
Certes, avec plus d’aide militaire par habitant que tout autre pays du monde (et les dépenses militaires par kilomètre carré les plus élevées), Israël a été très utile à l’OTAN en tant que laboratoire militaire développant des techniques non seulement pour la guerre entre États mais aussi le type de guerre intérieure qui concerne davantage les États-Unis, le Royaume-Uni, la France : les quartiers sécurisés qui se défendent contre les ghettos racialisés. Mais d’autres pays auraient aussi pu jouer ce rôle sans déstabiliser de point chaud géopolitique.
Les systèmes mondiaux fluctuent toujours et finissent par disparaître. Les tendances de ces changements sont des terrains d’étude intéressants. Jusqu’à présent, les systèmes mondiaux successifs ont montré une alternance entre expansion et intensification. Le cycle d’accumulation des Pays-Bas a représenté une intensification des modes d’exploitation coloniale. Cette exploitation s’était déjà répandue dans tout l’océan Indien et jusqu’en Amérique du Sud grâce au partenariat Portugais et Castillano-génois, mais les Hollandais ont perfectionné la technique de la terre brûlée des nouvelles économies et des nouvelles sociétés.
Le cycle d’accumulation des Britanniques représentait une expansion géographique qui a vu le colonialisme (qui utilisait encore des modèles économiques et politiques largement néerlandais) absorber tous les coins du monde. Et le cycle d’accumulation des États-Unis représentait une intensification des relations capitalistes et interétatiques qui s’étaient développées au cours du cycle précédent, à mesure que les colonies se libéraient politiquement afin de participer davantage au capitalisme occidental et aux structures démocratiques mondiales.
Le rythme de plus en plus rapide de ces changements suggère que nous sommes en passe de connaître un nouveau cycle d’accumulation. Arrighi a émis l’hypothèse que la crise pétrolière de 1973 était le signal de la crise du cycle américain, marquant le passage de l’expansion industrielle à l’expansion financière et donc le gonflement d’une bulle massive, qui devait faire de la récession de 2008 la crise finale. La fin apparente de l’hégémonie américaine, que les historiens de demain pourraient dater jusqu’en 2018, à moins que 2020 n’apporte des changements extrêmes, suggère que nous sommes peut-être déjà dans l’interrègne. En témoignent la déclaration de la Palestine, après le déménagement de l’ambassade américaine à Jérusalem, selon laquelle les États-Unis n’avaient pas leur place dans les futures négociations de paix ; ou les déclarations que l’UE est prête à faire sans la coopération étroite des États-Unis ; ou le rôle croissant de la Chine dans la géopolitique à travers l’initiative Belt and Road ; ou le lancement du partenariat transpacifique (la plus grande zone de libre-échange au monde) sans les États-Unis ; ou encore la course diplomatique que la Corée du Nord a menée autour des États-Unis – par le biais de négociations bilatérales avec la Corée du Sud et la Chine, puis avec les négociations avec les États-Unis dans lesquelles ces derniers n’avaient aucun moyen de pression – détruisant de fait le consensus international et l’embargo les plus efficaces que les États-Unis avaient jamais orchestrés.
Comprise comme l’idéologie qui sous-tend le système mondial dirigé par les États-Unis, la démocratie est en crise parce que l’hégémonie américaine est en crise, et elle est également en crise parce qu’elle ne parvient pas à fournir l’expression politique qui suffira à maintenir les populations mondiales intégrées dans un système économique et interétatique unique, de la Grèce à la Hongrie et à la Birmanie.
La coalition réactionnaire qui a été créée par Nétanyahou – et non par Trump – ne représente pas la seule façon de progresser à partir de la démocratie libérale. Mais le fait qu’un État important, suivi d’un nombre croissant d’autres États, est en train de briser une synthèse ancienne et sacrée – retourner l’État-nation contre l’égalité universelle – est la preuve irréfutable que le système mondial qui nous a gouvernés jusqu’à présent s’effondre.
La droite réactionnaire
En tant qu’étiquettes politiques, gauche et droite se réfèrent à l’origine aux bancs gauches et droits des États Généraux au début de la Révolution Française, avec des tendances politiques différentes qui recoupent les différentes rangées. À proprement parler, les anarchistes n’ont jamais appartenu à la gauche, à moins que l’on ne compte ces moments honteux où une partie du mouvement a rejoint les bolcheviks en Russie ou encore le gouvernement républicain en Espagne. Plutôt que d’être des exemples d’action anarchiste efficace, il s’agissait d’opportunistes et de possibilistes médiocres, incapables de tempérer les tendances autoritaires de leurs alliés d’autrefois, ni même de sauver leurs propres peaux.
Néanmoins, les anarchistes ont toujours participé à des mouvements révolutionnaires et ont toujours été des ennemis farouches des mouvements réactionnaires, et en tant que tels, nous avons souvent éprouvé un grand sentiment de proximité avec la base – et non avec les dirigeants – des organisations de l’aile gauche. Les tout premiers anarchistes à prendre ce nom furent les enragés de la Révolution Française qui étaient trop téméraires pour rejoindre les Jacobins et les Girondins dans leur politique de pouvoir, leurs alliances sordides, leurs bureaucraties étouffantes et les massacres des paysans au nom de la bourgeoisie.
Dans ce cadre historique, la droite est certainement la branche la plus répugnante du gouvernement, mais pas nécessairement la plus dangereuse pour les gens qui se trouvent en bas de l’échelle. Dans le cas de la Révolution Française, oui, les paysans mouraient de faim sous la monarchie, mais ils ont été massacrés par les Jacobins, et finalement dépouillés des biens communs pour toujours par les différentes libéraux progressistes.
De toutes les tendances du pouvoir, la droite réactionnaire a été la moins perspicace pour sentir la direction du vent. Tout changement graduel dans l’organisation du capitalisme mondial et du système interétatique a emprunté beaucoup plus à la gauche qu’à la droite, mais cela ne signifie pas que la droite soit sans importance. Elle n’est pas tournée vers l’avenir, on peut même la décrire comme cette part de la classe dirigeante qui n’a jamais de bonnes idées, mais les conflits que la droite a poussés à maintes reprises au-delà du point d’ébullition sociale façonnent généralement, bien que négativement, le régime à venir. L’avenir a rarement appartenu aux Napoléons et aux Hitler, mais ils ont laissé leurs empreintes sanglantes, décimant les classes les moins élevées et les luttes sociales de leur temps. Et lorsque la gauche a été plus efficace dans l’élaboration de nouveaux régimes de domination et d’exploitation, c’est en cooptant les réflexes de survie des classes populaires et en étouffant les éléments les plus radicaux dans des alliances progressistes qui semblaient alors nécessaires pour assurer la survie face aux attaques de la droite.
Si l’avenir est une Machine à orienter des résultats inconnus dans l’intérêt de ceux qui dominent une société, cette interaction entre la droite et la gauche a longtemps été l’un de ses principaux moteurs.
Une analyse historique montre à l’évidence que les changements dans les modèles de gouvernement et d’exploitation ne surviennent pas dans un seul pays, mais toujours en réponse à une dynamique qui a été mondiale pendant des siècles.
Il en va de même pour une nouvelle mouture de la droite réactionnaire qui, au centre du système mondial à l’agonie – l’Occident anachronique – a trouvé un terrain commun pour faire émerger le programme de l’État ethnique. Ceux qui suivent les tendances du néo-fascisme ont tracé la portée internationale de cette idée, mais ils ont rarement mentionné le rôle de premier ordre occupé par la droite israélienne, une omission qui n’est plus justifiée depuis la nouvelle loi du 20 juillet. L’angle mort concernant Israël était idéologiquement inscrit, étant donné le poids que la gauche allemande – influencée par l’idéologie anti-allemande pro-israélienne – a eu dans l’articulation de l’anti-fascisme contemporain. Mais nous en reparlerons plus tard.
Le Likoud de Netanyahou est à la tête d’une nouvelle coalition qui comprend la Hongrie sous Orban au gouvernement depuis 2010, la Pologne fermement à droite depuis 2015, et la nouvelle coalition d’extrême droite à la tête de l’Autriche depuis fin 2017.
Cette alliance politique conclut l’un des débats les plus stériles du xxe siècle, celui sur le sionisme, dans lequel ses nombreux critiques juifs (Arendt, Chomsky, Finkelstein, etc.) ont été délégitimisés par cette caricature artificielle du « Juif qui se hait ». Maintenant que les défenseurs du sionisme ne cherchent plus à justifier leur projet raciste en termes démocratiques, il devient également clair que c’est la droite israélienne, et non la gauche juive, qui a une tolérance politiquement opportune pour l’antisémitisme. Orban n’a pas seulement fait des commentaires antisémites au sujet de George Soros : lui et sa base commémorent régulièrement les collaborateurs nazis qui gouvernaient autrefois la Hongrie. Le gouvernement polonais de droite a récemment rendu obligatoire le déni de l’Holocauste, criminalisant toute mention du fait que la Pologne était complice de l’Holocauste. Et le partenaire minoritaire de la coalition du chancelier autrichien Kurz est le néo-fasciste Parti de la Liberté, qui a édulcoré sa rhétorique antisémite sans changer fondamentalement d’opinion.
Il est stratégique à court terme pour Israël de tenter de déstabiliser l’Union européenne et la soi-disant communauté internationale dans son ensemble, car de nombreux membres des deux alliances considèrent Israël comme un paria pour ses violations flagrantes des accords internationaux. En brisant ce consensus, Israël ouvre davantage d’opportunités pour construire des alliances bilatérales et réintégrer la géopolitique mondiale. Sur un autre plan, cependant, cette stratégie va certainement à l’encontre de ses intérêts les plus fondamentaux. En chassant l’ensemble de la gauche israélienne dans ce qui est devenu une diaspora majeure, la droite prive l’État israélien de la possibilité d’un rajeunissement démocratique dans l’avenir, lorsque les choses iront mal, comme cela arrivera inévitablement. En ne montrant aucun respect pour la vie des Palestiniens, il devient de plus en plus illusoire qu’ils puissent compter sur la pitié de leurs voisins dès lors que l’aide militaire américaine – non seulement à Israël mais aussi à l’Arabie saoudite et à l’Égypte – ne leur offre plus de bouclier efficace.
Une classe dirigeante israélienne lucide aurait fait des concessions, en faisant semblant de respecter l’ordre international et en adaptant son inhérente suprématie blanche, tout comme la classe dirigeante américaine l’avait fait dans les années 1960 et 1970 pour restaurer sa légitimité ternie en redéfinissant elle-même son suprémacisme. Comme nous l’avons déjà dit, la droite réactionnaire omet souvent de privilégier la compréhension claire de ses propres intérêts à long terme sur les idéologies troubles avec lesquelles elle justifie les inégalités et les instabilités qu’elle impose.
Les nazis se sont en fait suicidés en pensant qu’ils pouvaient restaurer l’Allemagne en tant que puissance coloniale par une expansion militaire, non seulement contre la Grande-Bretagne et ses alliés mais aussi contre l’URSS. Et c’est à pas de géant que la droite xénophobe d’aujourd’hui a affaibli économiquement les États-Unis et l’Europe. L’économie de pointe exige un recrutement intellectuel mondial et, par conséquent, des régimes d’immigration relativement ouverts, ce qui explique pourquoi les entreprises de la Silicon Valley ont été bruyamment pro-immigrés et anti-Trump. La décision de Merkel d’accueillir des réfugiés syriens a été juste précédée par l’annonce de la plus grande association d’employeurs allemands pour qui l’économie nationale faisait face à une pénurie de millions de travailleurs qualifiés. Mme Merkel n’a jamais pris la moindre mesure pour sauver les classes défavorisées syriennes des camps de réfugiés en Turquie où elles pourrissaient ; tout son programme consistait à réglementer l’entrée des Syriens de la classe moyenne, ayant fait des études supérieures, et qui pouvaient se permettre de faire un voyage de plusieurs milliers d’euros vers l’Europe.
L’extrême droite n’a absolument aucune réponse à ce casse-tête qui menace actuellement le grand avantage que l’Europe et l’Amérique du Nord ont dans le secteur de la haute technologie sur la Chine, puissance économique mondiale prochainement dominante. Par des guerres commerciales nationalistes et des manœuvres populistes comme le Brexit, ils nuisent en fait à leur économie nationale. En semant la discorde dans ce qui avait été de solides centres de consensus néolibéraux – l’ALENA et l’UE – ils érodent la confiance à laquelle les investisseurs rattachent systématiquement la croissance économique.
Les réactionnaires sont les produits de leur temps. Ils répondent à un consensus démocratique qui se déchire - tantôt en l’anticipant, tantôt en l’accélérant – et proposent de nouvelles synthèses. En tant que réactionnaires, ils sont prêts à se donner beaucoup de mal pour choquer le système afin de restaurer les valeurs élitistes qu’ils défendent ; souvent, les chocs qu’ils fournissent galvanisent un système mondial défaillant pour promouvoir un nouveau plan organisationnel afin de sortir de la période de chaos systémique, où la plupart des acteurs ne reconnaissent toujours pas que l’ancien régime est dépassé. Le problème est que le nouveau plan d’organisation est rarement calqué sur la synthèse qu’ils proposent.
En d’autres termes, la montée du modèle de l’État ethnique jouera sans aucun doute un rôle dans la déstabilisation du consensus néolibéral et menacera les configurations existantes du pouvoir, mais la probabilité qu’il représente le nouveau modèle organisationnel de l’avenir est faible.
Perspectives d’avenir
L’avenir est aussi une machine discursive qui construit le récit qui fait surgir la cohérence d’un chaos d’événements conflictuels, en recadrant tout, en soulignant certaines choses et en écartant les autres. En tant que stratégie politique, cette machine mobilise d’immenses énergies de la part des gouvernements pour produire les résultats souhaités, mais l’horizon fluide de ce qui est techno-socialement possible constitue une limitation majeure. Au moment où l’on découvre le nouveau récit, un développement peut-être politiquement identifié comme une percée stratégique. À ce moment-là, tout s’accélère au point de devenir une initiative partagée, unissant experts gouvernementaux et capitalistes dans une course en avant. Mais avant ce moment, dans la phase inachevée, les entreprises de technologie et les agences de recherche définissent les frontières obscures comme des parois opaques et pâteuses, à travers lesquelles on sent les possibilités inexploitées qui se déclarent comme « rentables ». Le leitmotiv de cette phase est l’admirable intuition du capital-risqueur. L’investissement dans un avenir incertain qui n’a pas encore fait l’objet d’un contrôle scientifique doit être réalisé à l’aveuglette, comme les paris d’un joueur, plutôt que systématiquement évalué, comme dans les calculs du propriétaire du casino.
Dans cette situation, des idées très différentes du profit sont soumises à la même méthode, stupéfiante. Le casino brûle et poser les jetons pour un autre tour de poker pourrait être plus rentable que d’éteindre le feu. La classe capitaliste présente exactement le même genre de comportement au crépuscule du cycle actuel d’accumulation.
Pratiquement tous les capitalistes américains, outre les entreprises sidérurgiques, sont touchés par la guerre tarifaire, mais ils ont empoché des centaines de millions en réductions fiscales et ils salivent devant les possibilités offertes par l’abrogation des règlements environnementaux. Les capitalistes de la Silicon Valley ont reconnu que les politiques anti-immigration de Trump étaient une mauvaise stratégie commerciale, mais leurs protestations se sont amenuisées. Après tout, les gouvernements ne se contentent pas de restreindre ou de permettre l’accès aux marchés, comme le veut la philosophie libérale. Ils créent aussi des marchés. Microsoft, Google, Amazon et Accenture ont plongé leurs doigts dans des contrats lucratifs avec l’ICE et le Pentagone, offrant un régime frontalier rentable. L’État est nécessaire pour apprivoiser le terrain social de l’expansion économique, mais les États disposent aussi de tant de ressources qu’ils peuvent amener les capitalistes à investir dans des domaines qui contredisent leurs intérêts à long et moyen terme.
Les capitalistes ne connaissent pas l’avenir. Il peut être utile de sonder leurs prédictions, mais au mieux cela nous fait entrer dans la tête d’un expert en profits, alors qu’ils sont aveuglés par leur idéologie à tel point qu’ils ne voient pas la nature contradictoire du capitalisme.
Dans l’ensemble, ce que l’on peut voir dans leur comportement est une augmentation de l’instabilité systémique.
Les États-Unis hébergent toujours le plus grand ou le deuxième plus grand marché du monde, selon la façon dont on l’évalue ; cependant, l’investisseur américain typique conserve maintenant 40% voire 50% de son portefeuille en actions étrangères, soit entre deux et quatre fois plus que dans les années 1980. Rien qu’en 2017, le montant total des fonds américains investis à l’étranger a augmenté de 7,6% (427 milliards de dollars), principalement vers l’Europe, dont 63 milliards de dollars d’investissements dans des sociétés suisses (plus 168 milliards, non comptabilisés comme investissements, déposés sur des comptes bancaires suisses), et encore plus en Irlande. Les investissements directs étrangers aux États-Unis ont chuté de 36% en 2017.
Les ultra-riches investissent également dans des bunkers post-apocalyptiques de luxe, achetant pour des centaines de millions de dollars des installations militaires rénovées ou des silos à missiles en Europe et en Amérique du Nord, équipés pour la survie pendant un an ou plus avec des systèmes autonomes d’aération, de distribution d’eau, de réseau électrique, ainsi que des piscines, des bowlings, des salles de projection. Les ventes de bunkers haut de gamme par l’une des plus grandes entreprises du domaine ont augmenté de 700% entre 2015 et 2016, et ils ont continué à augmenter après les élections présidentielles.
Pour ajouter aux mauvaises nouvelles, les experts en Intelligence Artificielle (IA), y compris bon nombre de ceux qui bénéficient des développements dans ce domaine, préviennent que d’ici dix à vingt ans, l’IA pourrait causer un chômage massif car les robots et les programmes informatiques remplaceront les emplois de fabrication, d’administration, de gestion, de vente au détail et de livraison. Sur les 50 plus grandes catégories d’emplois aux États-Unis, seuls 27 ne sont pas significativement menacées de remplacement par l’IA. Sur les 15 premières, seulement 3 ne sont pas menacées : les infirmiers, les serveurs et les aides-soignants. Les vendeurs dans le commerce de détail, qui occupent la première place avec 4 602 500 employés en 2016, devraient diminuer considérablement à mesure que les ventes en ligne continueront de croître. Dans les magasins physiques qui persisteront en raison des préférences pour l’achat de certains produits en main propre, le personnel de vente au détail subsistera même s’il ne sera plus technologiquement nécessaire, car son but premier est de donner une touche humaine pour encourager les ventes, contrairement aux caissières (le numéro deux avec trois millions et demi) qui continueront à être remplacées par des machines.
En fait, la plupart des catégories d’emplois qui ne seront pas remplacées par des machines ne sont pas protégées par des limites technologiques mais par des limites culturelles. Notre société devrait subir un énorme changement de valeurs pour permettre aux avocats (num. 44) ou aux enseignants du primaire (num. 22) d’être remplacés par des robots. Prenons l’exemple des serveurs, la catégorie d’emploi qui connaît la croissance la plus rapide. À aucun moment de l’histoire, ce travail n’a été technologiquement nécessaire. Mais le fait d’avoir une personne dont le travail est d’attendre, d’être de garde pour transporter votre nourriture de la cuisine à votre table, crée une expérience que ceux qui en ont les moyens ont toujours été prêt à payer pour en bénéficier.
Bien que les pires effets de l’IA et de la robotisation n’aient pas encore été ressentis (en dehors des activités manufacturières, des télécommunications et des services postaux), le sous-emploi est déjà élevé et de plus en plus de gens ont du mal à joindre les deux bouts. Les taux de chômage réels aux États-Unis sont réputés historiquement bas, mais c’est en grande partie parce qu’un nombre croissant de personnes sans emploi ne sont plus dénombrées parmi la population active.
La dette américaine liée aux cartes de crédit a atteint mille milliards de dollars et les taux d’intérêt ne font qu’augmenter, beaucoup plus rapidement que les salaires, en fait. Cela s’explique surtout par le fait que le principal cadeau fiscal de Trump a forcé la Fed (NdT. Réserve Fédérale) à augmenter les taux pour prévenir l’inflation galopante. La proportion de paiement du service de la dette par rapport au revenu disponible par ménage est récemment revenue aux niveaux élevés que l’on observait juste avant la Grande Récession de 2008 ; en termes simples, les gens doivent dépenser une plus grande part de leur argent pour rembourser leurs dettes. Entre-temps, les effets de stimulation économique engendrés par les réductions d’impôt de Trump devraient prendre fin d’ici 2020. Le ministre saoudien de l’Énergie a également averti que d’ici 2020, la demande croissante de pétrole excédera l’offre en cours de diminution, à moins d’un afflux important d’investissements en vue d’exploiter de nouvelles ressources. Et les prix du pétrole ont déjà augmenté, ce qui tend à augmenter les prix de tous les autres biens de consommation.
Au sujet du pétrole, les industriels ont majoritairement décidés qu’une taxe sur les émissions de carbone était acceptable. Même certains républicains ont proposé une telle taxe. Les entreprises devraient payer 24$ la tonne pour le droit d’émettre du CO2 ; cette somme d’argent serait versée aux ménages les plus pauvres et servirait à améliorer les infrastructures de transports. Le piège de cette proposition, c’est que le gouvernement affaiblirait la réglementation sur les émissions, de sorte que les entreprises pourraient faire tout ce qu’elles veulent avec l’atmosphère tant qu’elles en paient le prix, et elles seraient à l’abri des responsabilités civiles comme celles qui ont été vues à la baisse pour l’industrie du tabac et même pour Monsanto. Tout cela indique que les entreprises du secteur de l’énergie veulent des incitations pour développer des énergies alternatives, qu’elles s’attendent à ce que les prix du pétrole continuent d’augmenter et qu’elles craignent qu’un retour de bâton ne les oblige à payer des dommages.
La dette des entreprises a atteint de nouveaux sommets. La valeur de l’encours des obligations d’entreprises est passée de 16% du PIB américain en 2007 à 25% en 2017. Il y a encore plus d’emprunts d’entreprises sur les marchés émergents et des prêts plus risqués. Tant que les taux d’intérêt seront bas, la plupart des entreprises pourront se permettre de poursuivre cette pratique, mais si les taux d’intérêt augmentent, comme ils sont censés le faire afin de contenir l’inflation, cela pourrait provoquer une cascade de défauts de paiement – le dégonflement de la bulle – surtout si cela coïncide avec le ralentissement économique mondial qui devrait commencer entre 2020 et 2022. Les taux d’intérêt augmentent au fur et à mesure que les affaires baissent : les entreprises ne peuvent pas payer toutes leurs dettes, ou contracter de nouveaux emprunts pour rembourser les anciennes.
Il ne s’agit pas seulement d’un problème américain. Bien que la croissance économique indienne et surtout chinoise ait été astronomique, la Chine ralentit et commence à montrer des signes avant-coureurs d’un krach boursier, quant à l’Inde, elle se heurte à des problèmes monétaires qui pourraient bientôt mettre un terme à sa croissance.
Par nature, le capitalisme crée des bulles et s’engage de manière répétitive sur la voie de l’effondrement financier. Cependant, ces effondrements peuvent être très difficiles à prévoir. Élaboré par le théoricien des systèmes mondiaux Giovanni Arrighi, l’un des meilleurs modèles rétrospectifs à ce jour et offrant une vision à long terme de ces cycles d’accumulation, est pourtant déjà en retard dans ses prévisions. Du passé, Arrighi a dressé la frise d’une accélération exponentielle de la fréquence des crises : à mesure que le capitalisme croît exponentiellement, le capital s’accumule et s’effondre de plus en plus rapidement. Cependant, pour que son modèle conserve sa précision géométrique, la Grande Récession de 2008 aurait dû être la crise terminale du cycle d’accumulation américain. Même si, selon certaines mesures, cette récession vient d’être évitée et n’a pas été complètement dépassée, la reprise apparente rompt encore le schéma historique des transitions d’un cycle à l’autre.
Cela s’explique en partie par l’intelligence et la complexité institutionnelle de plus en plus grandes du capitalisme, à savoir le rôle toujours plus important de la planification étatique dans l’économie et les interventions économiques de l’État toujours plus fortes et constantes. Cela réfute les néomarxistes qui annoncent en toute occasion l’obsolescence de l’État, quel que soit le nombre de fois où ils se trompent.
Le New Deal de Roosevelt, un investissement majeur de l’argent du gouvernement dans les travaux publics afin de créer des emplois, a permis aux États-Unis de sortir de la Grande Dépression avant leurs contemporains européens, tout en se positionnant comme le sauveur économique de l’Europe et de l’Asie ravagées par la guerre, et donc comme l’architecte du prochain cycle d’accumulation. Les dépenses publiques massives assimilées à un stimulant économique continu ont caractérisé le système américain, lié à la Réserve fédérale et à un réseau mondial de banques centrales et d’institutions monétaires qui maintiennent l’inflation dans des limites acceptables et renflouent les banques privées ou les petits gouvernements qui font faillite.
Paradoxalement, tout ce régime de stabilité économique est basé sur la dette. Pour empêcher le capitalisme de s’écrouler, les États-Unis et beaucoup d’autres États dépensent systématiquement beaucoup plus d’argent qu’ils n’en ont réellement. Le déficit américain – le montant qu’ils dépensent chaque année au-delà des gains réels – est maintenant supérieur à mille milliards de dollars, et la dette totale est maintenant de 21 mille milliards de dollars, soit plus que le PIB (la production totale de l’économie américaine). Le gouvernement paiera des centaines de milliards de dollars en intérêts à ses créanciers cette année.
Cependant, le système n’est pas aussi instable qu’il n’y paraît. D’un point de vue capitaliste, il est assez bien organisé (bien que, contrairement à l’idéologie du libre marché, il dépende entièrement de l’État). Environ un tiers de la dette est due à d’autres organismes gouvernementaux, principalement la Sécurité Sociale. Cette pratique d’un gouvernement qui emprunte à lui-même stabilise une énorme portion de la dette en la soustrayant aux créanciers privés qui pourraient encaisser des obligations ou cesser de faire des prêts. Cela donne également à ces capitalistes une assurance : si les États-Unis manquent à leurs obligations, ils peuvent en premier lieu choisir de ne pas rembourser la dette due à leurs propres citoyens ordinaires, de sorte que ceux qui en souffrent sont les vieux retraités et non les investisseurs. C’est comme ce qui est arrivé récemment à Porto Rico.
Environ un quart de la dette est détenu par des fonds communs de placement, des banques, des compagnies d’assurance et d’autres investisseurs privés, et plus du tiers est détenu par des gouvernements étrangers, principalement la Chine et le Japon. Les investisseurs privés et les investisseurs d’État étrangers achètent la dette du gouvernement américain parce qu’on considère qu’il s’agit d’un pari sûr. Quiconque a beaucoup d’argent en main veut probablement en investir une partie importante dans un placement sans risque qui rapportera continuellement des intérêts modestes mais sans danger. Mais cela en dit très peu sur les mathématiques de ce pari. Personne ne peut expliquer comment les États-Unis pourraient un jour rembourser leur dette sans dévaluer massivement leur monnaie et détruire ainsi l’économie mondiale. Et plus la dette augmente, plus les intérêts augmentent, jusqu’au moment où le paiement des intérêts dus dépassent la capacité de paiement du budget américain.
Au fond, la notation favorable de la dette américaine signifie seulement que, dans le système économique mondial actuel, les investisseurs ne peuvent pas imaginer que les États-Unis ne soient pas en mesure de payer les intérêts de leurs dettes. Mais la seule façon d’éviter un défaut de paiement est que les investisseurs et les gouvernements étrangers continuent à jamais de prêter aux États-Unis des sommes d’argent toujours plus élevées. La Chine et le Japon (les deux plus grands prêteurs) ont tous deux ralenti leurs achats de dette américaine, tandis que la Russie en a récemment abandonné sa part relativement faible.
Les crises capitalistes sont souvent liées aux guerres, alors même que les États-nations luttent pour le contrôle du système mondial. La guerre est également utile au capitalisme parce qu’elle détruit une énorme quantité de valeurs excédentaires, effaçant l’ardoise pour de nouveaux investissements. C’est fondamentalement un moyen de sauver le capitalisme de lui-même. En permanence, le système économique génère une quantité de capital en croissance exponentielle, jusqu’à ce qu’il ait plus de capitaux qu’il ne peut en investir. Cette abondance – et ce n’est pas une abondance humaine, mais une abondance purement mathématique, car les gens meurent encore de faim, même en ces temps bienheureux – menace de détruire la valeur cumulative de tout capital. Ainsi, une partie est détruite par la guerre, ceux qui misent du côté des perdants sont écartés du terrain, et les autres continuent le jeu.
Cependant, depuis la Seconde Guerre mondiale, il n’y a pas eu de guerre directe entre les grandes puissances, surtout à cause des armes nucléaires qui ont introduit le principe de certitude de la destruction mutuelle. Les progrès technologiques de la guerre ont dépassé son utilité en tant qu’outil politique, sauf à l’échelle des petites guerres par procuration.
Pourtant, dans une économie basée sur l’endettement, il est possible de détruire une énorme quantité d’excédent de valeur sans guerre. L’effacement de la dette américaine nuirait aux gouvernements japonais et chinois et donc à leurs économies, ruinerait de nombreuses banques et fonds communs de placement, et laisserait la majeure partie de la classe ouvrière américaine sans couverture de santé ou sans prestations de retraite.
Dans ce cas, sauf révolution, une économie robuste, capable d’un haut degré de production industrielle et de capitaux liquides pour les investissements et les prêts nécessaires, ramasserait les morceaux et amorcerait un nouveau cycle d’accumulation. L’Union européenne ou la Chine pourraient se trouver dans une telle situation. La première, parce que sa politique de dépenses anti-déficit lui offre une certaine protection et pourrait la distinguer comme modèle d’économie responsable en cas d’effondrement catastrophique du modèle américain ; quant à la seconde, c’est en raison de sa plus grande aptitude gouvernementale à ajuster toute son économie de manière technocratique et à l’aide de ses énormes capacités industrielles.
Après cet effondrement, selon l’ampleur du chaos politique et leur capacité à projeter les forces militaires, les nouveaux dirigeants mondiaux répareraient et reconstruiraient les éléments institutionnels du système actuel qu’ils jugeraient les plus utiles à leurs plans stratégiques, tels que l’OMC ou l’ONU, ou – si les conflits débouchaient sur une rupture avec la structure traditionnelle – ils devraient acquérir une influence politique suffisante pour amener assez de joueurs à la table et créer un nouveau complexe mondial d’institutions.
Mais il y a un problème. Pour que le capitalisme continue, le nouveau cycle d’accumulation qui suivra le prochain effondrement devra être exponentiellement plus grand que celui qui l’a précédé. Cela semble être l’une des caractéristiques les moins variables du modèle historique en vigueur. Intrinsèquement, le montant du capital à investir est en constante augmentation. Ceci explique la variation historique entre les périodes d’expansion géographique, lorsque de nouveaux territoires sont mis en contact avec le capitalisme par le biais d’une relation de principe qui se caractérise au mieux par l’accumulation primitive grâce à une forme de contrôle colonial, et les périodes d’intensification, lorsque les habitants des zones colonisées dans la période précédente sont davantage intégrés et reproduits comme des sujets capitalistes, non seulement en s’adonnant au travail forcé pour produire des matières premières pour les marchés lointains et acheter une petite portion de l’excès de production venant de la métropole, mais aussi en vivant, en respirant et en mangeant le capitalisme, devenant à part entière capitalistes et travailleurs salariés.
Le « siècle américain » a vu l’intensification des relations capitalistes sur l’ensemble du territoire qui était placé sous le contrôle du capital pendant le cycle britannique, ce qui représente pour ainsi dire le monde entier. Il n’y a pas d’autre géographie terrestre pour qu’un nouveaux cycle d’accumulation puisse s’étendre. Certes, l’économie indienne continue de croître et les capitalistes d’État chinois passent par l’Afrique, l’Océanie et les Caraïbes, et engagent des prêts sur un mode prédateur pour acquérir des infrastructures dont la Banque mondiale a été promotrice dans les années 1970 et 1980, tandis que Google et quelques autres entreprises font des incursions tièdes en Afrique pour y encourager une économie fonctionnelle high-tech. Mais ces populations dites sous-développées sont plus petites, et non plus grandes, que les populations d’Amérique du Nord et du Sud, d’Europe, d’Asie et d’Australie, où le développement capitaliste atteint un point de saturation. Pour simplifier grosso modo, le prochain terrain pour l’expansion capitaliste devrait être plus grand pour s’adapter à un autre cycle.
C’est cette problématique qui a conduit à la prédiction dans « Un pari sur l’avenir » et « Exploitation extraterrestre » que le prochain territoire d’expansion capitaliste était hors planète, sur la lune, la ceinture d’astéroïdes, et un jour, Mars. Beaucoup des capitalistes parmi les plus avisés d’aujourd’hui s’engagent dans des investissements et des projets ambitieux pour rendre cela possible. Mais ici sur Terre nous pouvons remercier notre bonne étoile qu’au cours des deux dernières années ils n’aient pas fait de progrès assez rapides pour sauver le capitalisme de son effondrement imminent.
Les fusées réutilisables et le système de récupération des drones de SpaceX constituent l’une des composantes les plus importantes d’un hypothétique cycle extraterrestre d’accumulation – un accès peu coûteux à l’espace – mais aucune des pièces suivantes n’a encore été mise en place. Il s’agirait d’un service de transport de passagers de luxe vers l’espace orbital et, à terme, vers la lune, ce qui ne serait jamais en soi une industrie importante, mais qui contribuerait à injecter des flux de trésorerie à un stade décisif du développement des capacités à plus longue distance, ainsi qu’à vanter l’attractivité de l’espace aux méga-riches afin d’obtenir du financement supplémentaire. La deuxième pièce, plus importante, est l’exploitation des astéroïdes et de la lune. Le Japon et la NASA sont actuellement en train d’installer des sondes robotiques sur des astéroïdes pour effectuer les analyse chimique qui faciliteront la prospection future, entre autres choses, mais ces sondes ne sont pas prévues avant 2020 et 2023, et il reste d’autres étapes à franchir avant de pouvoir commencer l’exploitation commerciale. Sans ces éléments, les fusées moins coûteuses ne contribuent qu’à la rentabilité d’une activité économique résolument géocentrique, c’est-à-dire le lancement de satellites toujours plus nombreux.
Il y a cependant une autre voie possible pour l’expansion capitaliste. Comme le disait Richard Feynman en 1959, « il y a plein de place en bas ».
Expansion bioéconomique
Les sept milliards d’êtres humains sur la planète sont un petit troupeau si l’ensemble du vivant pouvait être assimilé au capitalisme. Il n’y a aucune raison pour qu’une nouvelle expansion productive du capitalisme soit géographique, puisque le capitalisme fonctionne selon les flux, les relations, et non selon les lieux, ou les kilomètres carrés.
Une expansion bioéconomique impliquerait l’invasion du capitalisme dans les processus par lesquels la vie elle-même est produite et reproduite. Les antécédents de cette activité sont importants : ils représentent les premières incursions, mais ils n’ont pas encore été développés au point de déclencher un nouveau cycle d’accumulation. Dans la production de la vie organique, ils concernent les domaines du génie génétique et de la reproduction de la vie humaine, ainsi que les technologies de réseaux sociaux. Les premiers ont permis à certaines entreprises de faire beaucoup d’argent, mais ils n’ont pas été extrêmement efficaces et sont encore loin d’avoir réussi à modifier notre relation avec la production alimentaire, les maladies et les autres domaines d’intervention. Les autres ont sidéré les masses et produit des techniques de contrôle social qui s’améliorent de jour en jour, mais elles se mesurent encore en dollars publicitaires qu’elles génèrent pour la vente de marchandises réelles, donc un secteur quaternaire plutôt qu’une économie à part entière.
Une expansion bioéconomique impliquerait de rentabiliser les processus planétaires qui, une fois intégrés à une logique capitaliste, pourraient être analysés comme « reproductifs » ; rentabiliser les processus biologiques qui sont exploités en permanence par accumulation primitive mais ne se sont pas encore soumis à une architecture capitaliste ; rentabiliser les processus chimiques organiques qui conditionnent le déroulement continu de la vie ; et rentabiliser les processus sociaux qui, sous l’appellation « temps libre », n’ont été jusqu’ici que mal exploités par la consommation.
Au cours des deux prochaines décennies, ces secteurs pourraient voir leurs expansions prendre les formes suivantes :
- Le déploiement de réflecteurs orbitaux ou d’autres dispositifs visant à diminuer puis ajuster la quantité de rayonnement solaire qui atteint la planète. Conjuguée à une multiplication des technologies de captage du carbone, cette évolution pourrait permettre un contrôle mécanique du climat axés sur des modèles d’affaires, non pas comme une biosphère dans laquelle s’inscrit l’économie, mais un nouveau champ économique à considérer.
- L’utilisation du clonage pour prévenir l’extinction d’espèces économiquement utiles. Avec un inventaire total de la biodiversité régulée par l’IA qui peut déployer des drones et des nanorobots comprenant une codification génétique et capables d’identifier et de détruire des espèces cibles, cela pourrait théoriquement permettre un contrôle rationnel total de tous les écosystèmes, avec des paramètres et des objectifs fixés par des consortium d’entreprises et de gouvernements possédant la technologie et contrôlant les procédures.
- L’assemblage de nanomatériaux fabriqués sur commande et l’utilisation d’animaux-usines génétiquement modifiés pour produire des composés organiques complexes. Cela supprimerait le concept de « ressources naturelles » en transformant les matières premières en un produit industriel affranchi des limites naturelles.
- Le développement de la nanomédecine et de la thérapie génique pour soustraire davantage la vie humaine aux aléas de la mort et des maladies qui ont un impact négatif sur la productivité humaine. La mort est particulièrement problématique car elle permet aux gens d’échapper définitivement à la domination.
- Le passage d’une monoculture de plein champ à un modèle de contrôle total décentralisé de l’agriculture basé sur la production en serre et la technique hydroponique. Dans ce modèle la production alimentaire se fait dans un environnement totalement contrôlé en fonction de la lumière, de la chaleur, de l’atmosphère, de l’eau et des nutriments, en rupture avec l’agriculture de la Révolution Verte qui tentait de produire des aliments en modifiant l’environnement naturel par voie industrielle. L’agriculture décentralisée serait plus économe en énergie, réduirait la dépendance au transport sur de longues distances et à la machinerie lourde, et permettrait temporairement une augmentation de l’emploi et des investissements à mesure que les terres agricoles – 40% de la surface de la planète – seraient redessinées et potentiellement réintégrées à l’espace urbain.
La capitalisation des processus sociaux peut progresser grâce à l’expansion des activités économiques dans les domaines de la santé, des loisirs, des activités sexo-affectives, des activités récréatives et du divertissement, ainsi qu’à la surveillance algorithmique et la combinaison de ces secteurs économiques. Cela impliquerait la conquête totale du « temps libre » et l’abolition de cette victoire partielle remportée à travers des siècles de luttes ouvrières.
Il fut un temps où les capitalistes ne pouvaient qu’apprécier la valeur productive de leurs vassaux, considérés comme des esclaves ou des machines, selon que l’on soit progressiste ou non. La résistance de ces classes exploitées n’a pas réussi à abolir cette relation, mais elle a réussi à gagner une certaine marge de manœuvre. L’obtention de salaires plus élevés était avant tout la conquête du « temps libre ». Les travailleurs ne voulaient pas d’un salaire plus élevé pour les mêmes journées de 12 ou 14 heures ; ils ont laissé cela aux classes professionnelles, comme les avocats et les médecins, dont l’estime de soi découle entièrement de leur valeur sur le marché. Ils voulaient pouvoir répondre plus facilement à leurs besoins afin de conserver une partie de leur vie pour leur propre plaisir. L’opposition entre la vie et le travail est on ne peut plus claire.
Le capitalisme ne peut tolérer aucune autonomie, aucun espace libéré, mais il ne peut pas non plus vaincre la résistance des exploités. Pendant un siècle, son approche stratégique avec le temps libre a consisté à produire des activités commerciales alternatives pour capitaliser sur les choix faits par les gens en dehors du travail. Le temps libre était encore libre, mais comme les capitalistes et les décideurs gouvernementaux ont appauvri l’imagination et le paysage social au point que les peuples furent plus enclins à choisir des activités de consommation plutôt que des formes non marchandes de jeu et de détente, ces peuples devinrent dépendants des relations capitalistes, générant de la demande artificielle, et assurant de nouveaux secteurs productifs.
Les espaces verts et les terrains publics ont été asphaltés. La politique partisane et la répression d’État ont conduit à l’effritement des centres ouvriers. Les trottoirs et les places ont été envahis par les terrasses de restaurants. Le canapé devant la radio ou la télévision a remplacé le perron ou les chaises qu’on plaçait à même la rue. Les espaces de vie communs de couture et de lavage ont été remplacés par des machines. Les sports ont été professionnalisés et rendus commerciaux. Les bars ont remplacé la consommation dans les bois ou dans les parcs. Les promenades en montagne ont cédé la place à des sports spécialisés qui dépendent de l’acquisition d’équipements coûteux. Des monstruosités en plastique et, plus tard, des monstruosités électroniques ont éclipsé les jouets en bois simples, imaginatifs et physiquement a attrayants que les oncles sculptaient pour leurs neveux et nièces, ou les simples bâtons que les enfants prenaient sur le sol et transformaient en mille choses différentes selon leurs besoins et selon leur imagination.
Les incursions capitalistes dans le temps libre nécessitaient une publicité qui devint un capteur d’attention de plus en plus agressif et omniprésent, un détournement des possibilités non marchandes sur le terrain du temps libre, avec des rendements à la baisse à mesure que les cibles publicitaires deviennent hostiles, cyniques, sophistiquées, saturées ou égocentrées. La diminution de l’efficacité de la publicité révèle que le temps libre offrait encore aux gens un choix, et bien que les capitalistes aient remporté une victoire écrasante contre la nature, l’imagination et la sociabilité im-médiates (unmediated : ici mon dictionnaire automatique affiche une ligne rouge ondulée pour me dire que « sans médiation » n’est pas un mot) – et l’économie de consommation a été extrêmement rentable et ne cesse de le devenir – nonobstant l’efficacité de la publicité, les puissants préfèrent que nous ne puissions plus avoir aucun choix significatif du tout.
Qu’il en soit ainsi : dans la nouvelle économie, il n’y a plus de distinction entre le temps de travail et le temps libre, ni même entre le temps du producteur et le temps du consommateur ; au contraire, tout le temps vécu est absorbé dans une logique capitaliste unifiée qui conduit à une avance qualitative dans la production des subjectivités. Depuis l’arrivée du téléphone cellulaire, les travailleurs sont toujours sur appel, mais les technologies sociales qui ont été inaugurées plus récemment ou qui attendent leur avènement proche font en sorte que l’ensemble de notre temps vécu fait l’objet de surveillance, de commercialisation et d’exploitation. Alors qu’auparavant l’information sur les consommateurs était vendue à des annonceurs qui pouvaient faire de l’argent en convainquant les gens d’acheter des produits matériels, toute la chaîne économique dépendant en fin de compte de la vente d’un produit manufacturé, nous avons opéré un saut qualitatif où les données sont devenues une ressource à valeur intrinsèque (think bitcoin), et afin de ne pas perdre notre condition d’êtres sociaux, nous devons adosser nos comportements sociaux aux dispositifs numériques qui extraient notre activité pour produire des données.
Avant, vous pouviez encore être un être humain sociable si vous jouiez au football dans le parc, si vous invitiez les gens à un barbecue ou alliez camper dans les bois plutôt que d’acheter des billets pour le match, vous rencontrer dans un bar ou sauter à l’élastique. Aujourd’hui, vous êtes un paria social et inemployable si vous n’avez pas de smartphone, pas de Facebook ou d’Instagram, pas de GPS, et si vous n’utilisez pas cette application stupide qui vous permet d’inviter des gens à des événements.
Il n’est plus possible de passer du temps libre dans les bois, en tant qu’activité non marchande, à partir du moment où vos déplacements y sont suivis par GPS, ce qui permet aux acteurs concernées d’attribuer une valeur aux parcs naturels ou de faire des plans pour occuper cet espace commercial.
Nixon nous a fait renoncer à l’étalon-or pour permettre à l’expansion financière de se poursuivre sans entrave. Pour retrouver la stabilité, le capitalisme peut bien ancrer la valeur économique dans les données – sous une forme ou une autre de bit economy.
L’économie « sociale » (NdT. : ne pas confondre avec l’économie sociale/solidaire) devra se développer considérablement si elle veut permettre un nouveau cycle d’accumulation capitaliste, et bien que permettre l’accès à Internet et aux smartphones à une majorité de la population mondiale soit certainement une condition préalable nécessaire, cela ne sera pas suffisant en soi pour constituer une expansion industrielle. Rappelez-vous que l’expansion économique américaine de l’après-guerre reposait en grande partie sur l’acquisition d’une voiture et d’une maison de banlieue pour tous les gens de la classe moyenne. Par rapport aux maisons et aux voitures, les téléphones sont des équipements trop bon marché pour constituer l’épine dorsale d’une expansion industrielle, étant donné que chaque cycle doit être exponentiellement plus grand que l’expansion industrielle et financière du cycle qui l’a précédé.
La marge de croissance de l’économie « sociale » devra assimiler davantage la surveillance de l’activité vitale des personnes et l’exploitation de leur potentiel productif, afin que la surveillance ne se limite pas à repérer les comportements criminels ou à cibler des produits à promouvoir, mais englobe systématiquement les activités dans une logique économique, invitant ainsi les gens à s’exprimer ou à consacrer leur créativité à la décoration des espaces virtuels et sociaux, permettant à chacun de devenir un influenceur. Elle inclurait également la valorisation du crowdsourcing comme un modèle productif dominant, profitant de la connectivité générale pour traiter la population comme un réservoir de main-d’œuvre disponible en permanence, prête à se consacrer à résoudre tel ou tel problème, souvent sans rémunération en retour. Il y aurait également une croissance exponentielle de l’économie du soin, des loisirs, du sexo-affectif, du jeu, de la gastronomie, des voyages, de la médecine, du design et du divertissement, fusionnant dans une économie de la qualité de vie capable de générer les centaines de millions de profils d’emploi qui remplaceront ceux que l’IA et la robotisation rendront obsolètes dans les secteurs de la fabrication, des télécommunications, du commerce de détail, du design et de l’architecture, du nettoyage et de l’hygiène, puis des transports et de la distribution, du secrétariat et de la comptabilité, de la supervision dans les domaines du bâtiment et de la sécurité, de la surveillance et de la gestion.
Le secteur économique de la qualité de vie compenserait la misère et l’aliénation de la vie capitaliste par une sociabilité totalement organisée. Tout le monde suivrait une sorte de thérapie, et la classe moyenne-supérieure aurait des thérapeutes émotionnels et physiques, des entraîneurs personnels et des conseillers en diététique ; ils mangeraient beaucoup plus souvent à l’extérieur que chez eux, et leur vie tournerait en grande partie autour des activités de loisirs. Les précaires travailleraient non seulement dans la restauration et la vente, mais aussi dans une industrie du sexe en expansion qui se distingue des autres formes d’emploi selon des frontières de plus en plus floues, ou encore comme instructeurs de yoga, guides de sports extrêmes et de tourisme d’aventure, ou comme assistants ou personnages de décor pour des jeux commerciaux de type LARPing, paintball ou autres. Les concepteurs et programmeurs constitueraient un segment important et hautement rémunéré de la classe ouvrière, juste en dessous des cadres et des capitalistes, et suivraient à leur tour les professionnels comme les avocats, les médecins, les technocrates et les professeurs d’université, les flics, les infirmières et autres thérapeutes avec un large éventail de responsabilités et de salaires. Viennent ensuite les « créateurs » précaires mais bien payés, puis les autres professions en col bleu comme les menuisiers et réparateurs qui travaillent dans des situations trop variables pour être traitées en IA, puis encore les enseignants (NdT. : non-universitaires), et enfin, le gros des précaires dans cette économie de la qualité de vie.
Qu’en est-il de Mars ?
Incidemment, les secteurs technologiques – opérant au niveau planétaire, biologique, chimique et social – qui auraient besoin de progresser pour ouvrir le territoire à une autre expansion industrielle sont les mêmes secteurs qui auraient besoin de progresser pour permettre une expansion extraterrestre ultérieure du capitalisme et une véritable colonisation de l’espace extra-atmosphérique. Contrairement aux principales techniques de production et d’accumulation qui caractérisent le cycle qui se termine, une caractéristique majeure de ces technologies est leur décentralisation. De même, pour prendre un exemple, la colonisation de Mars nécessiterait une technologie décentralisée et à petite échelle. On ne peut pas faire voler des grands complexes industriels ; la mission ne serait réalisable qu’avec des nanorobots, des imprimantes 3D et des machines auto-reproductives. Les nanomatériaux fabriqués sur mesure seraient cruciaux pour des constructions capables de résister à des environnements extrêmes, et le clonage combiné à l’agriculture en serre dans des environnements totalement confinés et contrôlés serait nécessaire pour amorcer la production alimentaire et la production biosphérique. Qui plus est, une terraformation efficace serait impensable si l’État n’avait pas déjà l’expérience d’un contrôle climatique efficace ici sur Terre.
Quant aux technologies sociales, elles pourraient bien être la cheville ouvrière. La technologie décentralisée, telle qu’elle serait nécessaire dans une colonisation extraterrestre, peut contribuer à la décentralisation politique. Toute entreprise capitaliste, toute association scientifique et toute agence gouvernementale qui collaborent un jour à la colonisation de Mars ou d’un autre corps céleste aborderont sans aucun doute, avec mille autres questions techniques, la question de savoir comment garder le contrôle des colonies. Il n’est pas facile d’exercer un effet de levier militaire et bureaucratique sur une population qui se trouve à un ou plusieurs mois de voyage. Il y a cinq cents ans, les colonisateurs européens y sont parvenus grâce aux technologies sociales du christianisme et de la blancheur de peau, mais non sans quelques grandes mutineries et défections.
Encore une fois, il est plus logique d’analyser la situation sous l’angle du contrôle social que sous celui de l’accumulation du capital. Le capitalisme a longtemps favorisé des techniques de production industrielle beaucoup plus inefficaces et centralisées parce que l’État n’avait pas les techniques pour maintenir le contrôle sur une production dispersée. Plutôt que de rester un simple comité d’organisation du Capital, l’État remplace et englobe le Capital, car le territoire effectivement discipliné par l’État est le seul territoire où le capitalisme peut fonctionner. Ainsi, le contrôle général rendu possible par les nouvelles technologies sociales (cet Internet des objets dans lequel nous sommes les objets de prédilection) est une composante vitale de la colonisation extraterrestre.
La nécessité du changement climatique
Les récents remous de l’économie Turque qui ont failli faire chavirer l’UE, montrent clairement que la croissance économique actuelle ne cesse de dépendre d’une accumulation financière non soutenable. Les banques européennes n’ayant nulle part en Europe pour investir tous leurs bénéfices, elles financèrent alors une énorme vague de construction en Turquie, tandis que les entreprises turques se développaient en empruntant des dollars, profitant du faible taux d’intérêt. À court terme, de l’argent gratuit. Mais à mesure que le taux d’intérêt américain grimpait, la valeur de la livre turque s’effondrait, et comme l’économie locale n’avait jamais sollicité ce boom de la construction, elle n’a pas eu les moyens de rembourser la totalité des prêts. Les actions de toutes les grandes banques européennes ont alors chuté. Ça aurait pu être le début d’un gros krash. Mais le Qatar est intervenu avec un prêt de 15 milliards de dollars pour la Turquie, montrant une fois de plus l’importance de la politique : l’une des premières initiatives diplomatiques de Trump dans la région avait été de s’associer à l’Arabie saoudite et de se rallier pleinement à l’éviction du Royaume du Qatar. Puis Trump s’est brouillé avec la Turquie et a essayé de couler son économie. Le Qatar est alors intervenu pour la sauver, du moins pour l’instant. Mme Merkel, elle aussi récemment dupée par les États-Unis, a tenté de normaliser les relations avec la Turquie alors qu’elle avait même été l’une de ses principales détractrice.
Il y a des bulles de l’immobilier similaires au Brésil, en Chine, à Singapour. La prochaine crise pourrait commencer n’importe où, mais elle se propagera sans doute partout.
Si une expansion bioéconomique est le moyen le plus viable pour le capitalisme d’éviter ses contradictions et de poursuivre son déchaînement frénétique, quelles sont les stratégies politiques qui permettraient à cette expansion d’avoir lieu ? Certains des changements technologiques décrits ci-dessus sont déjà en cours, mais de nombreux éléments clés exigent un changement si radical qu’une planification stratégique à l’échelle mondiale serait nécessaire. Ce n’est pas de bon augure pour le capitalisme, puisque les institutions mondiales de coopération interétatique sont en désordre, en grande partie à cause des acteurs d’extrême droite de Netanyahou à Poutine et à Trump.
En fin de compte, la guerre contre le terrorisme n’a pas réussi à rallier les grandes puissances pour créer une nouvelle ère de coopération mondiale. Parce qu’elle a trop emprunté au jeu à somme nulle de l’orientalisme de la Guerre Froide, elle n’a conduit qu’à l’érosion des structures politiques mondiales qui maintenaient l’hégémonie américaine.
Actuellement, la seule tribune valable pour lancer un nouveau projet de coopération interétatique capable de déployer et de gérer les changements qu’exigerait une expansion bioéconomique du capitalisme se trouve dans la réponse au changement climatique. Le changement climatique fournit un tableau narratif de l’ensemble des intérêts mondiaux. Tout pouvoir politique qui agit au nom de la lutte contre le changement climatique peut agir au nom de l’humanité tout entière : cela permet d’établir un projet hégémonique, de la même manière que le récit de la démocratie et des droits humains a alimenté projet hégémonique après les horreurs de la Seconde Guerre Mondiale. Les structures politiques de coordination interétatique et d’intervention mondiale seraient justifiées en tant que mesures holistiques nécessaires pour sauver l’ensemble de la biosphère, et elles pourraient aussi avoir un caractère technocratique légitime, étant donné que les médias ont réussi à présenter le changement climatique comme une question scientifique et non économique ou spirituelle.
La principale faiblesse du système américain était que l’ONU, en tant que garante des droits de l’homme et de l’État, ne pouvait guère faire plus que protester alors que le FMI et l’OMC, sanctionnés pour mener des interventions technocratiques afin de sauvegarder l’ordre économique, présentaient clairement un caractère mercenaire, dressant le capitalisme contre les droits humains alors que, dans un régime libéral, ils devaient faire la synthèse des deux. Dans un régime où prévaut l’obligation de donner des réponses au changement climatique, des interventions technocratiques vigoureuses et la sauvegarde des intérêts communs trouveraient leur parfaite synthèse. Tant que le changement climatique sera traité comme une question purement scientifique, toute réponse devra être compatible avec les relations sociales préexistantes, les sources de financement et les mécanismes réglementaires par lesquels elle doit être menée. En d’autres termes, une approche technocratique du changement climatique ne menacerait pas le capitalisme.
Mais les capitalistes eux-mêmes sont incapables de construire la plateforme pour réaliser le type de changement systémique dont ils ont besoin. Les investissements dans les énergies renouvelables ont chuté de 7% en 2017. La volatilité du marché ne produira jamais les ressources nécessaires à un changement de phase des technologies énergétiques. Le capitalisme libéral nous laisserait en proie à l’effervescence – ou plutôt à l’ébullition – dans une économie basée sur les énergies fossiles. Un passage rapide à une économie du changement climatique ne sera pas possible sans que, dans leur majorité, les grands gouvernements introduisent d’énormes réorientations politiques et imposent juridiquement des investissements dans les énergies alternatives et des mesures de protection environnementale, puisant pour cela dans une part significative de leurs budgets, au même titre que les dépenses de santé ou militaires.
Le capitalisme fait face à un grand besoin de changement stratégique, un engagement gouvernemental capable de réorienter les ressources sociales de manière concertée et massive. C’est là que la question des différents modèles de gouvernement devient extrêmement importante, car certains types de gouvernement sont mieux placés que d’autres pour effectuer un tel basculement, et certaines tendances politiques sont bien placées pour s’emparer des problématiques du changement climatique, alors que d’autres en sont incapables.
Le fascisme, historiquement
Jusqu’à présent, en parlant de Nétanyahou ou de Trump, j’ai parlé de réactionnaires ou d’extrême droite. Il y a ceux qui favorisent l’hyperbole émotive à la clarté historique, et classent l’ensemble de ce mouvement réactionnaire dans la case « fascisme ». Si je conteste cette terminologie, ce n’est pas parce que j’aime les querelles sémantiques, mais parce que parfois, les mots comptent. Dans ce cas, la précision théorique est particulièrement importante, car il existe une divergence de longue date entre les modes dictatoriaux et démocratiques du pouvoir de l’État.
Dans le mode dictatorial, une partie de la classe dirigeante utilise des moyens militaires pour imposer ses orientations stratégiques au reste de la classe dirigeante et à la société en général. Ils le font en s’appuyant sur un appareil militaire fort ou en mobilisant une partie des classes inférieures contre un supposé ennemi intérieur – en général, ils font les deux. Ils peuvent suivre cette voie parce qu’ils estiment que les structures de pouvoir sur lesquelles ils s’appuient sont menacées d’une manière que le reste de la classe dirigeante n’apprécie pas, ou à cause d’un conflit culturel qui les conduit à voir les autres membres de la classe dirigeante comme des ennemis plutôt que comme des pairs, ou parce qu’ils n’ont pas le contrôle nécessaire sur les classes inférieures pour générer un consensus social.
Dans le mode démocratique, la classe dirigeante débat des orientations stratégiques et tente de gagner la participation volontaire à sa stratégie, et donc une sorte de consensus, de la part du plus large éventail possible de la société. Bien qu’ils puissent s’engager dans d’âpres combats contre leurs rivaux, ils ne leur refusent pas le droit d’exister et ne tentent pas non plus de détruire les mécanismes qui permettent le débat et la décision participative. À différents moments de l’histoire, les classes dirigeantes ont reconnu les avantages du mode démocratique. Ce mode leur permet de récupérer les mouvements révolutionnaires et de coopter les valeurs populaires pour qu’elles puissent se protéger de leurs propres classes subalternes, et même les enrôler pour aider à gérer les processus d’exploitation. Le mode démocratique leur permet de procéder à des réajustements intelligents et périodiques des stratégies décisionnelles, ce qui rend l’appareil d’État toujours plus fort et plus scientifique. Et il crée un jeu à somme positive qui donne la priorité à l’enrichissement mutuel de tous les membres de la société propriétaires de biens plutôt qu’à des luttes intestines à somme négative.
Historiquement, les États alternent entre le mode dictatorial et le mode démocratique, selon les circonstances ; cependant, ils ne sont capables d’opérer ce changement en un clin d’œil que s’ils ont construit auparavant un énorme complexe psychosocial qui entraîne les gens à s’identifier à leur dictateur ou à leur démocratie. Habituellement, plus un État est fort, plus l’échafaudage idéologique qui accompagne et justifie le mode dictatorial ou le mode démocratique est fort ; et donc, plus le mode est stable, plus la crise sera grande pour basculer d’un mode à l’autre.
Il est important de bien distinguer ces deux modes en raison de la différence entre les expériences de gouvernance de l’un à l’autre.
Le fascisme est un mouvement politique particulier qui s’est développé dans les années 1920 en Italie, inspirant des mouvements politiques similaires qui ont pris le pouvoir dans une douzaine d’autres pays, chacun étant une variante du modèle original. Ce modèle n’a jamais eu le temps de s’homogénéiser parce que le fascisme a été vaincu par les États démocratiques et socialistes, ceux-là mêmes qui ont ensuite mis en place le nouveau système mondial.
Dans le passé, certains anarchistes comme Voline, ont utilisé une définition plus étendue du fascisme afin de critiquer l’Union Soviétique. Ils l’ont fait parce que le fascisme était le mal dominant de l’époque et parce qu’il était politiquement opportun d’utiliser l’étiquette dans un sens plus large. Néanmoins, ils n’ont pas eu à s’entacher de pure malhonnêteté intellectuelle pour étendre la portée de ce terme, comme l’ont fait ceux Parti Communiste en qualifiant les socialistes allemands de « social-fascistes » pour justifier leur propre collaboration avec le Parti Nazi au début des années 1930. En fait, il y avait des relations organiques entre les autoritarismes de gauche et de droite à l’époque. Les fascistes italiens dirigés par Mussolini sortaient en grande partie du Parti Socialiste et améliorèrent la tactique socialiste consistant à mobiliser un mouvement de masse obéissant pour conquérir le pouvoir, et l’État policier Nazi s’inspira directement de son homologue soviétique, sans parler de l’affinité qui s’est manifestée dans le Pacte de non-agression entre l’Allemagne Nazie et les Soviétiques, ou encore de la complicité avérée entre le KPD et les Nazis dans l’attentat contre la démocratie allemande.
La définition élargie utilisée par Voline et quelques-uns de ses contemporains jouissait encore d’une certaine précision parce qu’elle faisait la distinction entre les modes de pouvoir dictatoriaux et démocratiques. Voline n’était pas un amoureux de la démocratie, mais il savait qu’il était important d’établir une distinction fondamentale entre ces différents modes. Ainsi, les justifications avancées pour qualifier l’URSS de « fasciste » étaient la suppression de la liberté d’expression, de la liberté de la presse et des élections – en un mot, sa constitution en tant que dictature.
Les détracteurs socialistes d’aujourd’hui, pour qui Trump et May représentent le « fascisme », ne font pas cette distinction. Dans l’ensemble, ils refusent aussi de définir le fascisme. Au lieu de cela, ils affirment parfois que, puisque certains historiens ont été encore plus stricts dans leur définition – en se demandant si les nazis ou les phalangistes peuvent aussi être qualifiés de fascistes – ils trouvent légitime d’aller à l’extrême opposé et d’être laxistes dans leur définition au point de ne faire aucune distinction entre les modes fascistes et démocratiques de domination blanche. En outre, ils lancent des prédictions dramatiques selon lesquelles le fascisme pourrait revenir dans des circonstances historiques complètement différentes parce qu’il y avait des gens dans les années 1930 qui ne croyaient pas que cela pouvait arriver (ces deux non-arguments sont tirés de « Yes, Trump Does Represent Fascism »). Ou encore, ils proposent les termes d’une définition qui pourrait s’appliquer à pratiquement n’importe quel État, citant des caractéristiques telles que « le populisme sélectif, le nationalisme, le racisme, le traditionalisme, la propagation de la Novlang et le mépris pour le débat argumenté » – sans jamais penser que ce sont des « caractéristiques communes à toutes les formes de politiques d’extrême droite (et en fait, la Novlang est une caractéristique du stalinisme) » comme je le disais précédemment dans une critique.
Ou bien ils fabriquent un simulacre de partialité ou d’argumentation de bon sens, comme McKenzie Wark : « Il est étrange que les catégories politiques libérales, conservatrices, etc. soient utilisées de manière trans-historiques, alors qu’on n’est pas censé utiliser la catégorie du fascisme en dehors d’un contexte historique spécifique… Nous devrions peut-être la concevoir non comme l’exception mais comme la norme. Ce qu’il faut expliquer, ce n’est pas le fascisme, mais son absence. »
Cette énigme rhétorique est facile à résoudre. Le libéralisme est un élément fondamental de la modernité. Nous vivons toujours dans le système économique et politique créé par le libéralisme, donc la terminologie du libéralisme est toujours d’actualité, toujours historique. Appliquer les termes « libéral » et « conservateur » à l’époque médiévale ou au début de la Chine des Han, c’est cela qui serait « trans-historique ».
Au contraire, le fascisme a perdu. Il n’a jamais créé de système mondial, et les circonstances dans lesquelles il s’est créé ne sont plus d’actualité. Il y a eu des douzaines de variantes à la politique autoritaire et à l’idéologie suprémaciste blanche, la plupart incohérentes ou s’opposant mutuellement. Pour justifier l’utilisation du « fascisme » comme catégorie fourre-tout, il faudrait que quelqu’un livre un argument positif pour expliquer pourquoi cela nous donne des outils théoriques que nous n’aurions pas autrement. Pour autant que je sache, cet argument n’a pas encore été avancé. Il semble que la raison pour laquelle les gens parlent du fascisme comme d’un danger imminent est que cela inspire la crainte et les fait paraître importants. On n’a pas la même réaction en parlant d’une « démocratie de plus en plus brutale », même si les gouvernements démocratiques sont responsables d’une grande partie des génocides les plus sanglants de l’histoire mondiale (y compris l’anéantissement et l’extermination de centaines de nations autochtones par les politiques coloniales des États démocratiques comme les États-Unis, l’Australie, le Canada, le Chili et l’Argentine ; les massacres perpétrés par des puissances démocratiques comme le Royaume-Uni, la Belgique, les Pays-Bas et la France en Inde, au Congo, en Indonésie, en Algérie, au Vietnam et dans d’autres colonies ; et les génocides perpétrés par des démocraties post-coloniales comme la Colombie et la Birmanie). La plupart des gens ne le savent pas, parce qu’on accorde tellement d’importance aux méfaits des régimes dictatoriaux… Les crimes des démocraties sont occultés. Les anarchistes devraient être mieux informés, mais un nombre important d’entre eux ont choisi l’opportunisme politique plutôt que l’honnêteté intellectuelle et la tâche difficile de partager les vérités que personne d’autre ne veut évoquer.
Il est important de critiquer cette négligence théorique parce que notre analyse de l’histoire est d’une importance vitale. L’amnésie historique est l’un des plus grands obstacles récurrents aux mouvements révolutionnaires.
Tirée d’un article précédent, voici une définition opérationnelle du fascisme :
Le fascisme n’est pas n’importe quelle position d’extrême droite. C’est un phénomène complexe qui mobilise un mouvement populaire sous la hiérarchie d’un parti politique et cultive des systèmes parallèles d’allégeance dans la police et l’armée afin de conquérir le pouvoir, que ce soit par des moyens démocratiques ou des moyens militaires ; il abolit ensuite les procédures électorales pour garantir la perpétuation d’un parti unique ; il crée aussi un nouveau contrat social avec la classe ouvrière nationale, d’une part en créant un meilleur niveau de vie que ce qui pourrait être atteint sous un capitalisme libéral, d’autre part en protégeant les capitalistes par une nouvelle paix sociale ; et enfin il élimine les ennemis intérieurs qui étaient responsables, selon lui, de la déstabilisation du régime précédent.
L’abolition d’un système électoral libre est essentielle. Avec des élections libres, pas de dictature ; sans dictature, pas de fascisme. Le fascisme multipartite avec une presse capitaliste libre est une contradiction dénuée de sens qui prive le langage de toute précision ou pertinence au profit de l’amplification démagogique, un peu comme le style préféré des populistes de tous bords, de Trump aux fascistes d’aujourd’hui.
La présence d’une force paramilitaire organisée hiérarchiquement est également essentielle pour détruire les freins et les contrepoids du système démocratique et soutenir la création autocratique d’une nouvelle juridiction pendant la période de transition. Dans le fascisme historique, ces chemises noires ou stormtroopers sont indispensables dès les premières années, et sont finalement affaiblis ou même supprimés après que les nouvelles lois fascistes aient été suffisamment institutionnalisées.
Ami du Radical met en garde contre les « organisations de chemises noires dans tous les États », mais c’est une exagération. L’Alt-Right aux États-Unis est une organisation criminelle ; les priver d’une tribune et les expulser de la rue a été la meilleure chose à faire. Mais ces groupes hétéroclites de guerriers d’Internet et de trolls de bas-étage sont des broutilles à côté des chemises noires historiques ou du KKK pendant la Reconstruction. Ils n’ont pas de leadership unifié, pas de structure militaire étoffée1, pas de discipline et un nombre relativement faible de membres. Les para-militaires susmentionnés étaient engagés dans une guerre civile ouverte. Le nombre de morts se chiffrait en milliers et en dizaines de milliers. Il est important de le reconnaître, car c’est une chose, pour les anarchistes, de pouvoir vaincre un groupe dispersé et marginalisé comme l’Alt-Right. Ce serait vraiment autre chose que de se mesurer à une véritable organisation de chemises noires.
Les différents modèles d’organisation sont aussi extrêmement importants. S’il y avait une véritable organisation paramilitaire organisée hiérarchiquement à la suite d’un parti politique avec un programme fasciste (antidémocratique), cela en dirait long sur la faiblesse du gouvernement et sur les inquiétudes de la classe capitaliste prête à autoriser une telle violation de ses propres normes. Ces conditions n’existent tout simplement pas à l’heure actuelle, et quiconque ne le comprend pas se bat contre des moulins à vent. En second lieu, la structure organisationnelle actuelle de l’extrême droite aux États-Unis est tout à fait conforme au mode diffus de violence paramilitaire qui existe sous les gouvernements démocratiques. Confondre l’un avec l’autre équivaut à laisser passer le suprémacisme blanc et démocratique, ce qui constitue une erreur stratégique majeure.
Il y a eu un parti néo-fasciste ces dernières années, avec un programme fasciste visant à s’emparer du pouvoir et à créer une force paramilitaire avec des allégeance anti-démocratiques dans la police et l’armée. Aube Dorée, en Grèce. Souvenez-vous de ce qui leur est arrivé. Ils ont certainement été affaiblis par des actions directes anarchistes, mais c’est le gouvernement démocratique de la Grèce qui les a fait taire, du jour au lendemain, après qu’ils aient outrepassé leur mission en tuant des artistes et en attaquant des journalistes plutôt que de se contenter de tuer des migrants et blesser des anarchistes.
Avant et après les poursuites visant leurs dirigeants, Aube Dorée a utilisé une rhétorique similaire à celle de l’AfD en Allemagne et d’autres partis d’extrême droite. Les principales différences étaient leur structure paramilitaire, leur adhésion permanente à l’esthétique nazie, même après avoir été sous les projecteurs des médias, et leur tendance à promouvoir une stratégie putschiste unie autour d’un personnage faisant office de Führer. Les partis d’extrême droite utilisent les feux des médias pour rendre le nationalisme et la xénophobie acceptables. L’AfD, par exemple, a salué la manière dont les chrétiens-démocrates ont adopté des éléments concernant l’immigration dans leur programme. Aube Dorée, en revanche, affiche ses intentions dictatoriales. Aux États-Unis, c’est une chose que seuls les secteurs les plus extrêmes de l’extrême droite feront, alors que tout groupe qui veut courtiser le Parti Républicain ou les riches donateurs minimise l’esthétique nazie et se concentre sur l’adoption de programmes politiques assimilables dans le cadre du système démocratique. Quant aux forces paramilitaires, dans une démocratie, elles devraient être gérées par des agences de renseignement, plutôt que de travailler directement pour un parti politique. Bien que cette distinction s’estompe parfois dans certains cas sous l’administration Trump, avec des implications à la fois effrayantes et dangereuses, nous ne pouvons encore rien affirmer à propos d’un mouvement fasciste unifié, avec des paramilitaires, et qui serait sous le contrôle direct d’un grand parti politique.
Depuis le triomphe des puissances capitalistes démocratiques à la fin de la Seconde Guerre mondiale, le fascisme a été apprivoisé et mis en laisse comme un monstre de compagnie, enfermé dans la boîte à outils démocratique. Les fascistes dans l’hémisphère Nord sont utilisés pour faire passer un discours acceptable à droite, pour attaquer et intimider les marginalisés sociaux, pour fabriquer des tensions ou des crises politiques, mais on ne détache jamais la laisse. Les fascistes qui font comme si cette laisse n’existait pas finissent au tribunal, comme les dirigeants d’Aube Dorée ou encore comme ces membres survivants d’une cellule néonazie allemande qui avaient des contacts étroits avec les services de renseignement allemands mais qui ont fini par tuer un policier après ce que j’imagine être considéré par leurs supérieurs comme une traque réussie pour tuer des migrants.
Dans les pays du Sud, l’équation est un peu différente, principalement parce que le système démocratique mondial a toujours permis les dictatures dans les sociétés post-coloniales. C’était en fait la norme tout au long de la guerre froide, au cours de laquelle un gouvernement démocratique était une marque de privilège et de progrès plutôt qu’une garantie universelle. La dictature est particulièrement compatible avec les économies fondées principalement sur l’extraction de ressources comme l’exploitation minière, pétrolière, agricole et forestière. Quand le capitalisme prend la forme d’un simple pillage, il n’y a pas vraiment besoin de cultiver les valeurs de la citoyenneté. La démocratisation, par contre, a tendance à accompagner des investissements plus importants et plus complexes ainsi que des cycles locaux d’accumulation – quoique si la démocratie ne parvient pas à établir la paix sociale, la dictature puisse réapparaître rapidement. Pourtant, depuis la Seconde Guerre Mondiale, la plupart des dictatures ne se sont pas positionnées comme des adversaires à l’ordre démocratique mondial, mais plutôt comme des alliés. Suivant les signaux des États-Unis, elles se sont engagées dans la croisade contre le communisme sans se positionner comme les héritières du fascisme. C’est d’ailleurs exactement le même espace de compromis idéologique que la démocratie libérale occupait dans les années 1930 et 1940.
Against the Fascist Creep d’Alexander Reid Ross est l’une des plus ambitieuses tentatives de cartographie du fascisme sur le plan historique et théorique. Le livre retrace l’évolution des philosophies et des penseurs qui ont fini par former des mouvements fascistes en Italie et ailleurs. La recherche est vaste et intéressante, mais le cadrage souffre d’une erreur qui rend l’œuvre presque inutile d’un point de vue théorique : il prend le fascisme au sérieux en tant que mouvement philosophique. Ni Mussolini, ni Hitler, ni Franco, ni Codreanu, ni aucun des autres dirigeants fascistes n’étaient des penseurs cohérents. Ils étaient des populistes efficaces, ce qui signifie qu’ils mélangeaient et correspondaient à n’importe quel modèle de revendications, de philosophies et de visions du monde qui pouvait motiver leur base. C’est pourquoi les fascistes étaient à la fois chrétiens, païens et athées, bohémiens et esthétiques, capitalistes et socialistes, scientifiques et mystiques, rationalistes et illogiques. Cet aspect pseudo-intellectuel a été une caractéristique essentielle de l’extrême droite tout au long du XXe siècle et jusqu’à nos jours. C’est une raison de plus pour laquelle il n’est pas judicieux de s’engager avec eux dans un débat raisonné, car ils sont prêts à dire n’importe quoi pour provoquer le genre de réaction qu’ils veulent provoquer.
Il serait stupide de faire remonter le fascisme à Nietzsche et Sorel à moins d’avoir des idées derrière la tête. Sur le plan structurel et organisationnel, le fascisme a emprunté énormément à la gauche, en particulier au syndicalisme et au parti socialiste et communiste. Pourtant, ceux qui tentent de faire une généalogie philosophique du fascisme tentent toujours de le relier aux éléments les plus marginalisés des mouvements anticapitalistes ; les nihilistes, les naturalistes et les individualistes sont les souffre-douleur habituels. Ce n’est pas spécialement utile pour comprendre le fascisme ; c’est plutôt un mécanisme par lequel les gauchistes nettoient la maison et marginalisent davantage leurs critiques les plus radicaux.
Une analyse historique utile du fascisme emprunterait bien plutôt une approche économique et poserait la question suivante : à partir de quel moment les capitalistes commencent-ils à soutenir les mouvements fascistes ? Le moment où l’establishment industriel et militaire allemand décida de soutenir les nazis fut sans aucun doute un tournant pour ce petit groupe d’abrutis violents qui évolua en un immense parti capable de prendre le pouvoir. Le soutien militaire et capitaliste a également joué un rôle décisif dans le changement de l’idéologie nazie et dans l’affaiblissement de nombreuses croyances ésotériques et contestataires sur lesquelles Ross a passé tant de temps à faire des recherches.
Sans le soutien économique des capitalistes, il n’y a pas de fascisme. Les anarchistes devraient passer moins de temps sur les forums d’Alt-Right et prêter plus d’attention à ce que les capitalistes les plus influents disent sur la façon de répondre à la crise en cours. Il s’agit d’une question de priorités et non d’une critique de cette dernière activité. L’Alt-Right n’avait pratiquement aucun soutien capitaliste en dehors de la famille Mercer, des capitalistes moyens pour ainsi dire, et quand la scission s’est faite entre Trump et Bannon, ils ont clairement choisi Trump (faisant apparaître de réelles divergences entre le suprémacisme blanc démocratique et le suprémacisme blanc fasciste, comme je le disais précédemment, et comme l’auteur de Yes ! le conteste en qualifiant Trump et Bannon de « bons camarades » huit mois avant leur discorde). À l’échelle mondiale, il n’y a pratiquement aucun capitaliste qui envisage le fascisme pour résoudre ses problèmes. Et nous le saurions si c’était le cas. Dans les années 1930, Ford, Dupont et d’autres capitalistes de premier plan exprimèrent ouvertement leur admiration pour Mussolini et les groupes qui manifestaient pour faire écho aux chemises noires. Certains d’entre eux ont également pris contact avec l’armée pour discuter d’un éventuel coup d’État.
Tout indique aujourd’hui que les capitalistes apprécient Trump pour l’allégement fiscal à court terme qu’il leur a accordé, mais craignent ses guerres commerciales et désapprouvent la plupart de ses stratégies à moyen terme (ou ce qui passe pour être des stratégies dans le camp Trump), et poussent un soupir de soulagement quand il prend ses distances avec l’extrême droite. Les capitalistes joueront avec Trump tant qu’il aura ses petites mains sur les manettes. Ils se fichent de Bannon. En Europe, les investisseurs ont tremblé à chaque victoire de l’extrême droite, du Brexit à la nomination de Salvini en Italie.
Plus le capitaliste est fort, plus son engagement en faveur d’une conception politique ou une autre est faible. Les capitalistes sont réputés à la hauteur de leurs profits sous des gouvernements complètement différents. Ils feront des profits à court terme sous un gouvernement qui se suicide sur le plan politique, et des profits à long terme sous un gouvernement qui adopte une stratégie plus intelligente. Ce qu’ils ne feront pas, c’est saboter un système mondial qui leur assure la stabilité, encourager des stratégies suicidaires dans les pays dont ils sont tributaires ou entreprendre des croisades politiques qui sacrifient le profit, augmentent l’instabilité et entravent la finance et le commerce.
Curieusement, dans les années 1930, les paramètres économiques étaient souvent très similaires entre New Deal démocratique et New Deal fasciste, tous deux axés sur des programmes gouvernementaux ambitieux pour stimuler l’emploi. Cela montre comment, indépendamment de la politique politicienne, les capitalistes ont tendance à faire face simultanément aux mêmes besoins à l’échelle mondiale, et qu’ils peuvent réaliser le même grand programme économique avec une variété de modèles politiques. Les démocrates triomphants ont convaincu les capitalistes de la scène internationale d’investir dans les déficits budgétaires américains, alors que les fascistes ont désespérément essayé de faire la guerre à tous pour voler les ressources dont ils auraient eu besoin pour financer des dépenses aussi élevées. C’était clairement un jeu à somme négative, et il a mal fonctionné pour ceux qui ont parié trop lourd sur les grandes fortunes de l’Allemagne. Les capitalistes allemands, cependant, ont été exclus des marchés coloniaux par le succès des Anglais et des Français dans la Première Guerre mondiale, ils n’avaient donc pas le choix.
Combien de ceux qui crient aujourd’hui au « fascisme » se sont demandé si la situation actuelle est comparable ? La réponse est simple : ce n’est pas le cas. De même, il n’y a pas besoin d’une guerre économique entre les grandes puissances comme dans les années 1930. La destruction mutuelle que nous assurerait une guerre nucléaire supprime les avantages économiques que procure la guerre conventionnelle, la poursuite de la politique de la Guerre Froide signifie que les dépenses militaires sont perpétuellement au niveau de conflit imminent, et les multiples guerres héritées de la Guerre contre le Terrorisme donnent toute la stimulation nécessaire à une production militaire.
Suprématie blanche démocratique
Les gens doivent se sortir de la tête que la démocratie est une bonne chose. La vraie démocratie n’exclut pas l’esclavage. La vraie démocratie, c’est le capitalisme. La vraie démocratie, c’est le patriarcat et le militarisme. La démocratie a toujours comporté ces éléments. Il n’y a pas d’histoire sérieuse de la démocratie qui pourrait nous servir un exemple du contraire.
Nous avons vu, de façon dramatique, à quel point les fascistes de la rue peuvent être dangereux. Mais l’histoire des États-Unis est jalonnée de rappels sur la façon dont les suprémacistes blancs peuvent soutenir la démocratie et non le fascisme, de manière beaucoup plus systématique, lorsqu’il s’agit de se tirer d’affaire en cas de meurtre. Semblable à certains égards au mouvement du Tea Party, le KKK est né entre autre pour protéger la démocratie américaine – suprémaciste blanche depuis ses origines – des changements qui étaient indésirables aux yeux des riches blancs. Ils se sont mobilisés pour empêcher les Noirs de voter, pour empêcher les Noirs de communautariser les terres saisies aux propriétaires de plantations (et en cela ils ont été aidés par l’armée de l’Union), et pour attaquer les politiciens blancs qui tentaient de changer les relations de classe qui ont toujours prévalu dans le Sud. Ils ont essayé d’influencer les élections par divers moyens (y compris le terrorisme dans le cas du Klan et par le biais des médias dans le cas du Tea Party), mais ils ont aussi légitimé le système électoral, au lieu de chercher à en prendre le contrôle et l’éliminer.
Si on remonte aux premiers États, toutes les formes de gouvernement reposent sur une combinaison de mécanismes inclusifs et exclusifs. La démocratie prêche les droits universels et donc l’inclusion, mais elle permet aussi à l’État de déterminer qui est citoyen et donc qui obtient tous les droits. Elle prescrit certains modes d’être humain et pratique le génocide et la colonisation contre ceux qui adoptent d’autres modes. Les gouvernements démocratiques n’ont jamais concédé les droits de l’homme aux sociétés qui n’acceptent pas la propriété ou le travail obligatoire (salaire ou esclave). Les conservateurs ont tendance à être plus exclusifs et les progressistes sont connus pour être plus inclusifs, mais tous ont été responsables des guerres exterminatrices contre les formes de vie qui ne défendent pas les valeurs des Lumières patriarcales et suprémacistes des Blancs qui déterminent ce que signifie être humain.
C’est pourquoi le concept diffus de suprématie blanche dans l’histoire américaine, si différent du modèle centralisé du fascisme, est si crucial. Roxanne Dunbar-Ortiz évoque une idée similaire lorsqu’elle décrit la « manière de faire la guerre » de l’Amérique, une guerre totale et d’extermination menée par des milices volontaires de rangers colons. Il ne s’agit pas de brutalité raciste dirigée par un parti extrémiste ; il s’agit plutôt d’une aspiration commune que partagent tous les Blancs. En tant que telle, elle transcende les partis et s’épanouit dans un système démocratique.
La crise de la blancheur dans laquelle Trump a puisé provient d’une crainte profondément enracinée selon laquelle le rôle paramilitaire historique des Blancs deviendrait obsolète. Il s’agit d’une insécurité viscérale qui a fait disparaître le rôle de protagoniste que les Blancs jouaient depuis longtemps. Dans l’histoire des États-Unis, ce rôle a toujours été de soutenir la démocratie américaine, en attaquant violemment les ennemis de la nation mais aussi en définissant ce que cela signifie d’être humain et de se voir attribuer des droits. Cette forme de suprématie blanche existe même à l’intérieur de la gauche du Parti démocrate, comme un prétendu droit à déclarer si une résistance est légitime ou non en devenant des protagonistes dans les luttes des autres peuples, soit comme les dispensateurs des libertés (et des relations capitalistes de propriété) pendant la Guerre Civile et la Reconstruction, soit comme les « alliés blancs » du mouvement pour les droits civils jusqu’à aujourd’hui.
L’idéologie blanche a été développée précisément pour les contextes coloniaux où le capitalisme exigeait une activité économique décentralisée et était limité dans sa capacité à centraliser le contrôle politique : en d’autres termes, l’État colonisateur. Non seulement une suprématie blanche décentralisée et démocratique est plus efficace dans un État colonisateur, mais une itération dictatoriale ou fasciste de la suprématie blanche dans de telles circonstances est très dangereuse pour le pouvoir étatique. Le fascisme implique la suppression des éléments privilégiés de la société qui ne suivent pas la ligne du parti. Dans un État colonisateur, cela obligerait les membres progressistes de la caste des colons (les Blancs) à conclure des alliances d’autodéfense avec des éléments moins bien classés de la main-d’œuvre coloniale ou néocoloniale (personnes de couleur), menaçant ainsi la dynamique même du pouvoir qui donne vie à l’État. Voyez comment, dans les pays occupés par les nazis, des cadres progressistes et des familles riches ont conclu des alliances avec des Juifs et des anticapitalistes de la classe ouvrière pour combattre le régime, modérant temporairement leur antisémitisme et leur sentiment de classe. En fait, le mouvement partisan était si ample et si puissant qu’il était capable de vaincre les nazis militairement dans plusieurs régions et de contrecarrer continuellement leurs plans dans une grande partie du reste de l’Europe.
Au départ, les États colons ont tendance à exercer une suprématie blanche décentralisée parce qu’il s’agit de faire en sorte que tous ceux qui sont catégorisés blancs puissent reproduire cette suprématie de leur propre chef. Au fur et à mesure de leur maturité, les États colons préfèrent une organisation démocratique afin de permettre aux progressistes et aux conservateurs d’exercer la suprématie blanche à leur guise. Ce n’est probablement pas un hasard si ce qui fut peut-être la plus grande itération du fascisme dans un État colonisateur, le péronisme en Argentine, a toléré des variantes de partis de droite et de gauche et n’a pas autant insisté sur la pureté raciale que les autres mouvements fascistes, permettant ainsi la reproduction diffuse de la suprématie blanche Argentine, non soumise à la centralisation du nouveau régime.
Il est clair qu’une grande partie de l’extrême droite américaine est néo-fasciste à tous points de vue. Ils veulent transformer les États-Unis en un État ethnique blanc et en dictature. De plus, les factions traditionnellement démocratiques d’extrême droite n’ont pas hésité à travailler en coalition avec ces néo-fascistes. Cela montre l’incohérence idéologique caractéristique de l’extrême droite, cela montre aussi une exaspération à l’égard du parti républicain et des institutions démocratiques qui avaient l’habitude de maintenir un ordre suprémaciste blanc plus visible et, dans certains cas du moins, cela montre la volonté des centristes de se servir des éléments d’extrême droite dans la rue, bien qu’ils comprennent que ces derniers ont peu de chances de gagner et prévoient de les abandonner quand l’alliance ne sera plus aussi commode.
Il est possible que l’extrême-droite américaine, historiquement démocratique, puisse devenir en majorité fasciste à long terme, même si cela l’éloignerait davantage des institutions qu’elle cherche à influencer. Cependant, il y a l’opinion que les capitalistes changeront soudainement leur politique quand se produira la crise économique. Ami du Radical affirme que le fascisme est historiquement une réponse à la crise économique. C’est une erreur2.
Les échantillons et premières expressions du fascisme structuré en Italie et en Allemagne ont été des réponses aux crises politiques qui ont précédé les grandes crises économiques : le Biennio Rosso et les occupations d’usines en Italie, les différentes communes ou républiques ouvrières écrasées par les Freikorps en Allemagne. (Bien sûr, un taux de chômage élevé est apparu à la fin de la Première Guerre mondiale, mais c’est la situation explicitement révolutionnaire qui a motivé les chemises noires et les Freikorps à agir). Les mouvements fascistes étaient déjà bien développés, et déjà sous contrôle en Italie, lorsque l’effondrement économique de 1929 s’est produit. L’Angleterre, la France et les États-Unis ont souffert de la même crise économique mais n’ont pas basculé dans le fascisme ; en fait, deux d’entre eux en sont sortis parce que la nature des crises politiques auxquelles ils étaient confrontés et les stratégies locales à long terme de contrôle politique étaient différentes. Dans les pays aux perspectives géopolitiques réduites, les capitalistes ont commencé à soutenir les mouvements fascistes en réponse à une crise politique, alors que les mesures économiques qu’ils soutenaient étaient globalement similaires à celles des États démocratiques.
De nos jours, les nouvelles itérations de ce que certains appellent négligemment le fascisme ont également précédé de manière significative la crise économique de 2008.
Le creuset de la droite réactionnaire aux États-Unis remonte à la déclaration des « Guerres Culturelles » dans les années 1970. Il s’agissait avant tout d’un appel à investir dans une renaissance idéologique de droite. Après les changements progressifs des Droits Civils et de la Grande Société, la droite était structurellement puissante mais culturellement moribonde, représentée par des bandes d’arriérés aussi embarrassantes que la John Birch Society et le KKK. Plutôt que d’indiquer une orientation stratégique – ils n’en avaient pas, et le Nixon sans perspective ou le Kissinger machiavélique et sans scrupules illustrent leur faillite – ils ont identifié une faiblesse stratégique et se sont mis à bâtir leurs propres médias, réseaux culturels, groupes de réflexion et autres structures qui les aideraient à formuler une idéologie pour bâtir un nouveau consensus politique. De toute évidence, ils avaient même le soutien d’un bon nombre de léninistes devenus néoconservateurs, rebutés par la politique identitaire de la Nouvelle Gauche, et qui avaient compris les techniques pour atteindre la classe ouvrière blanche (au Royaume-Uni, il existe une tendance similaire d’anciens Trot’s tournés vers l’extrême droite, avec des discours po-business). Leur principal effort ne visait pas à accroître la puissance géopolitique américaine ou à améliorer la conduite du capitalisme, mais plutôt à se faire les champions de la malhonnêteté intellectuelle, des préjugés et des discours alarmistes. Leur priorité était de sauver certaines valeurs élitistes qu’ils associaient à l’histoire et au pouvoir américains, plutôt que de faire une distinction lucide et stratégique entre intérêts et valeurs – une erreur courante à droite. Mais les tropes qu’ils formulaient s’exportaient rapidement et devenaient une idéologie de plus en plus internationale.
Les Guerres Culturelles ont réussi pendant un certain temps à conduire le débat vers la droite, mais les mouvements antimondialisation, féministes et antiracistes ont finalement réussi à abattre toutes les vaches sacrées de la droite, même si, à gauche, on a réussi à institutionnaliser ces mouvements et limiter leur pouvoir subversif. En fin de compte, les Guerres Culturelles ont laissé aux États-Unis et dans certains pays d’Europe et d’Amérique latine des minorités enracinées et réfractaires, presque incapables d’établir un dialogue politique et des stratégies de gouvernance intelligente. Elles contribuent à la crise de la démocratie, mais n’indiquent pas de voie de sortie.
Certains soutiennent que les néo-fascistes n’ont pas besoin de renverser le gouvernement s’ils peuvent créer un système à parti unique au sein d’un gouvernement démocratique. L’Israël de Netanyahou, la Turquie d’Erdogan et la Hongrie d’Orban offrent ici des scénarios potentiels, bien que décrire un gouvernement juif comme architecte d’une nouvelle forme de fascisme soit une manœuvre risquée pour les gens qui ne sont pas absolument sûrs du choix de leurs mots. Il est difficile de trouver d’autres exemples de gouvernements démocratiques de droite qui se soient maintenus au pouvoir pendant seulement huit ou neuf ans – ce qui n’est pas une si longue période pour un parti capable de rester au pouvoir dans un système multipartite – et même avec cette faible liste, il est difficile de savoir si l’idée de système démocratique à parti unique ne relève pas simplement d’une exagération. Le fait que certains prétendent qu’un système de parti unique est déjà arrivé aux États-Unis en raison de la majorité temporaire des républicains, montre comment ils ont transformé la panique et l’impatience en valeurs analytiques.
Cela montre également la tolérance à l’égard d’un système de valeurs fondamentalement démocratique. En mettant en garde contre les dangers de tomber dans un système à parti unique, ils identifient implicitement la victoire du second parti, les démocrates, comme un moyen d’éloigner la menace, une victoire de l’antifascisme. Cela jette les bases d’un renouveau démocratique.
Mais prenons la menace au pied de la lettre : l’avantage d’un tel modèle est que l’extrême droite n’a pas à renverser le gouvernement ni à provoquer une déstabilisation. En d’autres termes, centraliser toutes les institutions et fabriquer une majorité pérenne est probablement plus facile aujourd’hui que lancer une sorte de coup d’État. L’inconvénient est qu’un système à parti unique perd presque tous les avantages d’un gouvernement démocratique, comme la récupération de la dissidence, la correction stratégique des trajectoires et l’institutionnalisation du changement et du renouveau politiques. Netanyahou, Erdogan et Orban ont tous fabriqué des majorités relativement stables, qu’ils ont renforcées par des lois récentes en référence à l’« État-nation », c’est-à-dire un référendum constitutionnel et des restrictions imposées aux ONG. Mais aucun de ces États ne fournit de modèle facilement exportable vers de plus grands pays, et ils ne s’avèrent pas non plus être des modèles économiquement performants. Les politiques de Netanyahou ont conduit à l’exode massif des Juifs progressistes, créant le genre de carcan culturel qui n’est généralement pas associé aux idées de croissance économique et d’innovation. La construction de sa majorité se fait au détriment de l’avenir d’Israël, un calcul qui n’était possible que dans un État enclavé et qui considère la géopolitique essentiellement en termes militaires. La situation est similaire en Turquie, où la guerre civile est un aspect déterminant de la politique intérieure ; c’est d’une main de fer qu’Erdogan a construit une majorité, ce qui a joué un rôle significatif dans la destruction de l’économie turque, éloignant le pays de multiples partenaires commerciaux possibles, dont l’UE. Quant à la Hongrie, où Orban a construit sa majorité sur le dos d’une population rurale notoirement xénophobe, la droite bien établie n’a qu’une portée limitée à l’échelle européenne, en tout cas comme exemple des difficultés liées à l’intégration culturelle, ou peut-être pour justifier un autoritarisme technocratique, mais non comme un modèle à suivre. Du point de vue des dirigeants de l’UE et des capitalistes européens, la Hongrie est un État perdant et gênant qui n’est en mesure de donner des conseils à personne.
Quant aux États-Unis et au Royaume-Uni, il n’y a pas de solide majorité de droite, et il est peu probable que les politiques de Trump et May marquent un changement radical dans la direction politique et économique de ces deux pays. Mais si les annonciateurs d’une menace fasciste sont convaincus que nous sommes sur la voie d’un système à parti unique, appelons ça un pari. Il est fort probable qu’ils s’apercevront de leur erreur dès 2020, mais pour que leurs sinistres avertissements soient fondés, il faudrait que ce nouveau style de politique reste à la barre pendant au moins trois mandats, avec une centralisation efficace entre l’exécutif, le législatif et le judiciaire ainsi qu’un contrôle plus serré des médias par la droite politique. Les alarmistes auront raison si Trump peut transmettre le pouvoir à un successeur en 2024, ou s’il s’avère capable d’abolir la limite constitutionnelle du nombre de mandats et d’en gagner un troisième. Cela ne se produira probablement pas : le virage actuel vers la droite sera suivi d’un virage vers la gauche, dans le pendule éternel et sidérant de la démocratie.
Renouveau démocratique
En termes de longévité parmi les pays fascistes, l’Espagne franquiste l’a emporté largement. De 1936 à 1976, le régime a survécu à ses coreligionnaires les plus belliqueux, principalement parce qu’il pouvait s’incliner devant un système mondial démocratique – en fait, Franco a reçu une aide secrète de la Grande-Bretagne dès les premiers moments du coup d’État. L’histoire de la transition espagnole vers la démocratie est de la plus haute importance pour les anarchistes, non seulement parce qu’elle s’est déroulée au milieu de l’un des plus grands mouvements de grève sauvage de l’histoire mondiale, mais parce que ce sont les fascistes eux-mêmes qui ont initié la Transition, comprenant que sous un gouvernement capitaliste démocratique, ils pouvaient tirer plus de profit et créer une structure gouvernementale plus stable et plus puissante. Plus que les victoires américaines et soviétiques de la Seconde Guerre Mondiale, cet épisode illustre la subordination définitive du fascisme à la démocratie. Lorsque les fascistes eux-mêmes réalisent qu’ils peuvent mieux atteindre leurs objectifs sous les auspices de leur ancien ennemi juré, la démocratie, le fascisme en tant que modèle de gouvernement cesse d’être pertinent3.
La Transition est aussi une étude de cas sur la façon dont la peur ou l’opposition unanime à l’apparente exception du fascisme a été systématiquement utilisée par la classe dirigeante pour renforcer le capitalisme. En Espagne, le renouveau démocratique des années 1970 et 1980 a réussi à institutionnaliser ou à réprimer des mouvements anticapitalistes très puissants. En abandonnant leurs insignes de Phalangistes et en rejoignant les libéraux ainsi que les socialistes et les communistes sous la bannière démocrate, les fascistes d’Espagne ont réussi à créer les conditions d’une croissance plus régulière du capitalisme.
Des facteurs similaires sont à l’œuvre dans les dénouements des dictatures militaires du Brésil, de l’Argentine, du Chili, de la Bolivie et, plus récemment, de la Birmanie4.
Un renouveau démocratique antifasciste n’est qu’une variante du modèle (contre-)révolutionnaire que les mouvements démocratiques ont utilisé depuis le début de la modernité :
- faire appel aux classes populaires contre un ennemi commun (en premier lieu, l’aristocratie et l’Église) ;
- s’appuyer sur des principes équivoques et néanmoins partagés comme les droits et l’égalité qui semblent être meilleurs que les valeurs de l’ancien système ;
- laisser de côté les valeurs des classes sociales inférieures comme la défense des biens communs et l’auto-organisation non représentative, au motif qu’elles sont anti-modernes ou qu’elles « aliéneraient » la bourgeoisie qui, en fait, dirige toute la coalition ;
- utiliser les classes populaires comme de la chair à canon et leurs éléments les plus radicaux comme des croque-mitaine pour effrayer les plus modérés parmi les détenteurs du pouvoir afin de les poursuivre à la table des négociations ;
- à la table des négociations, inclure des représentants des structures institutionnelles formelles – celles qui sont capables de produire des représentants et une adhésion disciplinée et obéissante – tout en excluant les radicaux et les masses.
Tout au long des révolutions libérales des xviiie et xixe siècles, tout au long des luttes anticoloniales du xxe siècle, ce même modèle a été utilisé à maintes reprises pour désamorcer les mouvements radicaux qui menaçaient de détruire l’ordre capitaliste et interétatique, pour institutionnaliser une partie des insurgés et réprimer les autres, permettre aux capitalistes et aux dirigeants intellectuels de prendre le contrôle du gouvernement et de créer un État plus robuste, contrôlant mieux ses populations et capable de façonner les conditions d’accumulation capitaliste. Nous avons été vaincus par ce même modèle tellement de fois que nous devrions nous le faire tatouer sur le front pour y penser à chaque fois que nous nous regardons dans le miroir.
Les indices ne manquent pas pour montrer que la plupart des élites américaines, en particulier les secteurs les plus cultivés, se préparent à un renouveau démocratique majeur, en utilisant la peur de l’autoritarisme trumpien comme tactique de mobilisation.
Avant Trump, la démocratie américaine était déjà confrontée à une crise, tout comme de nombreuses autres démocraties libérales à travers le monde. Aux États-Unis, la crise a frappé les fondement mêmes du pays en tant qu’État colonisateur. D’énormes foules rejetaient énergiquement le droit de la police d’assassiner des personnes racialisées et le droit des compagnies d’extraction minières liées au gouvernement d’exploiter ou de contaminer des terres autochtones. Les expériences des Noirs et des peuples autochtones ont été au premier plan dans ces deux luttes, mais en même temps, les discours raciaux n’ont pas été utilisés efficacement pour diviser les gens et empêcher la solidarité interraciale, bien que les progressistes liés aux ONG, aux églises et au Parti démocratique aient certainement essayé.
Avec l’élection de Trump et la montée temporaire de l’extrême droite, le récit a radicalement changé. La police n’est plus sous les feux de la rampe et, bien qu’elle n’ait pas fait du bon travail en se contentant de faire jouer à ses agents le rôle de médiateurs neutres pour empêcher les escarmouches entre Nazis et Antifa, les critiques auxquelles elle doit maintenant faire face soulignent que c’est ce rôle qui doit être joué désormais, alors que lors des événements de Ferguson, on avait surtout exigé des policiers d’aller mourir.
Le nouveau récit dépeint un gouvernement corrompu, de droite, avec des liens peu recommandables avec des groupes d’extrême droite – un gouvernement qui harcèle la presse, s’associe à l’ennemi juré qu’est la Russie, se montre conciliant envers les dictateurs et attaque le libre échange.
Ce discours est idéal pour le Parti Démocrate. La solution la plus évidente est de favoriser un contrôle juridique plus rigoureux du financement des campagnes électorales et du lobbying, de faire honneur aux médias, de promouvoir l’indépendance de la justice, de protéger l’OTAN, l’ALENA, l’Union européenne et « nos » autres alliances, de cautionner une censure toujours plus sévère sur Twitter, Facebook et les plateformes similaires, et de se livrer à nouveau à une guerre froide contre la Russie. Ce n’est pas un hasard si, malgré une courte mais enthousiasmante vague subversive d’occupations aéroportuaires au tout début du mandat de Trump, les principaux protagonistes de la résistance anti-Trump ont été les juges, le FBI, la CIA, des dirigeants comme Trudeau, Merkel et Macron, des politiciens « honorables » comme McCain, les stars hollywoodiennes, les grands médias tels CNN et le New York Times.
Le nouveau conflit social réunit une large gauche pour combattre une droite dangereuse sans pour autant remettre en cause les aspects fondamentaux de l’État. Au contraire, le nouveau terrain est façonné de manière à canaliser nos efforts vers le renouveau de l’État.
Cela ne veut pas dire que la seule posture critique consiste rester sur la touche. Bien au contraire. La destruction récente de la statue de Silent Sam à Chapel Hill est l’un des nombreux exemples où des personnes ont agi avec courage et intelligence dans des circonstances difficiles pour faire reculer simultanément la droite suprémaciste blanche et subvertir la tendance pacificatrice de la gauche institutionnelle. Le contrepoint est que le spectre de Trump et de l’extrême droite rendent encore plus facile les relations de solidarité entre les gens et la dissémination de pratiques d’autodéfense et d’action directe, et cela dans beaucoup plus de situations par rapport aux rebellions anti-police qui se sont multipliées avant Trump.
Le problème est que ces nouvelles alliances sont beaucoup plus susceptibles d’être accaparées ou neutralisées par les politiciens identitaires, la gauche autoritaire et les militants des partis.
Cela ne rend pas les choses plus faciles quand de nombreux anarchistes et antifascistes adoptent pour l’essentiel la politique du Front Populaire et font le travail discursif des démocrates. Dans le même ordre d’idées, nous avons Ami du Radical qui met en garde contre un « système judiciaire corrompu », d’autres encore qui prônent les « droits de l’homme » ou même les antifascistes de Portland qui exigent que la police reçoive une meilleure formation.
Chaque fois que nous participons à des débats essentiellement gauchistes, de tels discours abondent. Cela fait partie du paysage, et dans la mesure où ces discours sont en dehors de notre contrôle, la seule question pour nous est de savoir comment y répondre efficacement, en soulignant leurs défauts sans être autoritaire ou insensible. Mais lorsque nous reproduisons ces discours pour nous intégrer, ou parce que nous avons tellement peur de la droite que nous commençons à soutenir les projets de la gauche, nous creusons nos propres tombes. Il est vital d’articuler des positions spécifiquement anarchistes en ce qui concerne les conflits sociaux plutôt que de se ruer vers les positions du plus petit dénominateur commun, précisément parce que ces positions sont formulées pour favoriser les intérêts du contrôle social – et sur le long terme, ces positions ne contestent pas la suprématie blanche.
Au centre gauche abondent les propos alarmistes quant à l’approche de la tyrannie et du fascisme. Comment comprendre qu’une grande partie du contenu d’un site anarchiste puisse être redondante par rapport aux éditoriaux de CNN et du New York Times ? Par exemple, Jeffrey Sachs écrit pour CNN sur la façon dont nous prenons le chemin de la tyrannie, ou encore les récents best sellers tels On Tyranny, de Timothy Snyder, The Plot to Destroy Democracy de Malcolm Nance, et Fascism: A Warning, de Madeleine Albright. Des entreprises de premier plan y participent également, comme Microsoft avec son nouveau Programme de Défense de la Démocratie.
On perçoit communément les démocrates comme des nullards politiques, et ils n’ont pas cette réputation pour rien. Pourtant, ils ont beaucoup plus d’influence dans la rue que nous ne voudrions l’admettre, surtout vis-à-vis des anarchistes. En 2008, le Parti démocrate a prouvé qu’il était capable de gérer un vaste mouvement populaire de rue qui a temporairement réduit au silence les initiatives plus critiques et qui a canalisé un grand déploiement d’efforts militants dans une campagne électorale. Les Marches des Femmes ont montré qu’elles n’ont pas oublié comment transformer les angoisses populaires en bases électorales. La Marche pour Nos Vies les a vus créer un mouvement dans un délai beaucoup plus court, mobilisant des centaines de milliers d’élèves du secondaire qui seront en âge de voter en 2020.
Les démocrates, dans leur grand cynisme, ont utilisé le mouvement contre la séparation des enfants pour montrer qu’ils pouvaient coopter un mouvement ayant des implications potentiellement radicales et l’utiliser pour protéger le régime frontalier auquel il s’était d’abord opposé. Les manifestations contre l’éclatement des familles immigrées et l’emprisonnement des enfants de parents sans papiers ont été organisées en partie par des ONG qui reçoivent des fonds publics pour administrer les centres de détention des immigrants. Le résultat a été que l’enfermement des familles a été présenté comme une victoire, la haine des frontières a été remplacée par la haine de l’ICE et de Trump (souvenons-nous que l’ICE peut être remplacé par d’autres agences), et tout le monde a oublié que les enfants migrants étaient également enfermés sous Obama. En fait, les tribunaux ont dû forcer l’administration Obama à cesser d’enfermer indéfiniment des familles de demandeurs d’asile – ensemble – dans des « conditions généralement déplorables » afin de dissuader d’autres demandeurs d’asile, c’est-à-dire une sorte de terrorisme léger visant à empêcher l’accès à ce qui, selon l’ordre démocratique, est censé être un droit humain fondamental. Et alors que l’administration Obama ne séparait qu’« occasionnellement » les enfants de leurs parents à la frontière, chacune des plus de 2,5 millions de personnes déportées par Obama laissait derrière elle des enfants ou d’autres êtres chers.
Les frontières séparent les familles. C’est ce qu’elles font. Et ceux qui sont en faveur des frontières, c’est-à-dire ceux qui soutiennent les États, les élections et tout ce qui va avec, peuvent soit déshumaniser les migrants, soit se réjouir des façons « humaines » de les emprisonner et de séparer leurs familles.
À l’approche des élections de novembre 2018, on nous dira que nous sommes des monstres si nous ne votons pas en faveur de frontières plus humaines, pour des assassinats policiers plus humains, pour des guerres plus humaines, pour les habituelles alliances politiques et pour les accords commerciaux néolibéraux d’usage. Ce processus s’intensifiera graduellement jusqu’à la campagne électorale de 2020, qui débute le 7 novembre prochain. Le Parti démocrate dépensera des millions de dollars pour prendre le contrôle ou réduire au silence les grandes coalitions de gauche formées au cours des deux dernières années d’organisation antifasciste et pro-immigrés. Ceux qui font valoir des positions critiques seront traités de criminels, de racistes, ou de n’importe quoi d’autre. Partageant nos terrains d’action, les militants d’ONG ont appris notre langue et ils savent comment nous neutraliser presque aussi bien que le FBI a neutralisé les Panthers dans les années 1960 et 1970.
Pendant ce temps, des dizaines de millions d’Americains, jeunes et moins jeunes, fonderont leurs espoirs sur une renaissance progressive. Les jeunes femmes migrantes rêveront d’étudier pour devenir avocates et juges dans les « tribunaux du conquérant », pour reprendre une phrase de ce juge en chef historique, John Marshall. Les étudiants radicaux se qualifieront de socialistes et iront jusqu’à préconiser l’élargissement des programmes gouvernementaux de soins de santé et la gratuité des frais de scolarité à l’université. Ils vont tous, sans le dire, conspirer pour que l’Amérique redevienne grande (great again).
Pour que ce renouvellement soit possible, le Parti démocrate devra négocier une sorte de consensus viable entre sa branche centriste et sa branche progressiste. Les progressistes qui ont remporté les primaires devront montrer qu’ils peuvent gagner des sièges en novembre 2018 ; comptons néanmoins une amélioration sérieuse de la machine populaire qui n’a pas obtenu la nomination de Bernie Sanders en 2016, et le candidat 2020 sera le représentant de la mouvance centriste. En 2016, les primaires démocrates ont surtout servi de référendum pour savoir qui était le mieux connecté à la machine du parti, et non savoir qui avait les meilleures chances de battre les républicains. Si les démocrates sont tout aussi stupides et ne privilégient pas les critères qui leur donneront des chances de gagner, ils risquent de perdre coup sur coup deux élections pourtant acquises d’avance. S’ils se réveillent, ils nommeront quelqu’un de charismatique capable de faire un signe de tête dans le sens des programmes progressistes qui motiveront une base activiste. C’est particulièrement crucial si l’on considère deux facteurs : le déclin toujours plus vif de la participation électorale des plus jeunes et, pour ceux des moins vieux qui votent néanmoins, une forte inclination à gauche. En favorisant des candidats centristes sans perspective qui découragent les électeurs progressistes, les démocrates se suicident politiquement, utilisant une arithmétique pro-centre qui ne s’applique plus à la réalité sociale actuelle.
Si l’économie commence à s’écrouler avant novembre 2020, les Démocrates recevront une aide supplémentaire, peut-être même qu’elle les rendra hermétiques à la stupidité aussi bien que Trump s’est lui même judicieusement rendu hermétique aux controverses. Ils devront travailler dur pour ne pas gagner en 2020, et s’ils le font, ils s’engageront immédiatement dans un volte-face musclé de la politique américaine. La fin des tarifs douaniers, des relations plus étroites avec l’UE, un retour tardif à l’accord de Paris, une riposte contre l’influence russe au Moyen-Orient, un dégel en Iran, une politique moins agressive concernant les limites imposées à la Chine, une tentative hypocrite pour diffuser une propagande démocratique cohérente et stimulante. Sur le front intérieur, si la majorité du Congrès le permet, ils chercheront à réformer le système de santé – soit en consolidant le Obamacare, soit en mettant en œuvre quelque chose qui a du sens – et à légaliser en masse les migrants, tout en renforçant davantage les mécanismes frontaliers et les expulsions.
Par-dessus tout, ils vendront le rêve d’un patriotisme inclusif, une vision que les médias grand public essaient déjà de véhiculer. Cela nous rappelle le gouvernement SYRIZA en Grèce, le plus progressiste de toute l’Europe, qui, en plus d’avoir mis en place les mesures d’austérité les plus sévères, s’est également distingué en étant encore plus militariste que ses prédécesseurs conservateurs.
Avec le temps, les circonscriptions démocrates continueront probablement à se réorienter en faveur de la faction progressiste qui pourrait présenter un candidat d’ici 2028. Bien sûr, si l’effondrement économique est aussi grave qu’il pourrait bien l’être, toutes leurs politiques porteront sur ce sujet, se limiteront à cela et à la tourmente géopolitique qui ira avec.
Pendant ce temps, l’infra-majorité fantôme de Trump va continuer à s’affaiblir. Les tranches d’âge qu’il a conquises commencent à 65 ans, de sorte qu’un nombre croissant mourront chaque année, et à moins que les progressistes ne commencent soudainement à perdre les Guerres Culturelles, ces groupes d’électeurs ne se renouvelleront pas vite. Pendant un certain temps, toutefois, ils diviseront fatalement les circonscriptions républicaines, forçant ce parti à trouver un équilibre en devant concilier deux factions polarisées, dont aucune ne sera franchement motivée à soutenir l’autre aux élections (surtout maintenant que l’objectif de la majorité à la Cour suprême ne joue plus).
Si d’une manière ou d’une autre les républicains gagnent en 2020, soit ils reviennent en arrière (par exemple, en remplaçant un Trump destitué par un Pence), soit ils vont se raffermir autour de leur destruction de l’hégémonie politique américaine et sa domination économique. Le programme de Trump, tel qu’il est, n’est pas « revanchard » comme l’ont prétendu par hyperbole certains antifascistes ; plutôt que d’essayer de retrouver le rôle dominant de l’Amérique dans le monde, il le détruit en fait. Dans un avenir alternatif où les États-Unis sont économiquement déprimés, géopolitiquement has-been, et où les républicains trumpistes continuent de gagner, on pourrait imaginer les possibilités pour davantage de mouvements fascistes, mais que feraient tous les capitalistes américains extrêmement puissants durant toutes ces années intermédiaires en voyant leurs fortunes s’évaporer ? Ils feraient tout ce qu’ils pourraient pour l’empêcher, comme ils ont déjà commencé à le faire, ainsi qu’en témoignent nombre d’entreprises américaines parmi les plus importantes qui s’élèvent régulièrement contre les politiques de Trump. Encore une fois, cela contredit l’affirmation antifasciste simpliste selon laquelle la récession économique est synonyme d’une montée du fascisme. C’est beaucoup plus compliqué que cela : parfois, les crises économiques poussent les capitalistes à soutenir davantage la démocratie, pas moins, comme ce fut le cas en Espagne dans les années 1970 et comme c’est le cas aujourd’hui.
Dès lors, face à la résurgence de la droite et à la possibilité encore plus grande de voir une gauche triomphante, la question pour les anarchistes est la suivante : quelles sont les positions qui vont au cœur du problème, peu importe qui est au pouvoir, tout en se concentrant aussi sur les détails concrets qui expliquent comment le pouvoir étouffe les peuples ?
Il n’est pas si difficile de trouver un moyen de s’opposer au pouvoir de l’État et à la violence raciste, de manière à ce que nous soyons prêts, aptes et sur pieds, peu importe qui gagne en novembre, et de nombreux anarchistes font exactement cela. En tant qu’anarchistes, nous lutterons toujours contre les frontières, contre le racisme, contre la police, contre la misogynie et la transphobie, et nous serons donc toujours en première ligne contre toute résurgence de la droite. Mais les frontières, la police, la pérennisation des institutions coloniales, la régulation du genre et de la famille ne sont-elles pas aussi des éléments fondamentaux du projet progressiste ?
La principale hypocrisie des progressistes réside souvent dans leur soutien tacite à la répression, cette chaîne ininterrompue qui relie le fasciste le plus vicieux à la gauche la plus humaniste. C’est pourquoi, au cœur de toute coalition avec la gauche, il est logique que les anarchistes mettent l’accent sur la grève des détenus (NdT. : août-sept. 2018) et amènent la question de la solidarité avec les prisonniers militants des luttes anti-pipeline et les ceux des soulèvements anti-police. S’ils veulent protéger l’environnement, appuieront-ils Marius Mason et Joseph Dibee ? S’ils pensent que la construction d’un plus grand nombre d’oléoducs et de gazoducs à ce stade avancé du réchauffement de la planète est inadmissible, se joindront-ils aux mouvement des Water Protectors ? S’ils détestent le racisme policier, vont-ils soutenir ceux qui sont encore emprisonnés après les soulèvements à Ferguson, Baltimore, Oakland et ailleurs, principalement des Noirs qui se battent en première ligne contre la violence policière ?
Une telle approche permettra de séparer les agents du Parti Démocrate d’un côté et de l’autre les militants sincères des mouvements en faveur de l’environnement, de la solidarité avec les migrants et du mouvement « Black Lives Matter ». Elle remettra également en question l’illusion que de nouveaux politiciens résoudront ces problèmes et généralisera le soutien aux tactiques d’action directe et d’autodéfense collective.
Socialisme démocratique ou technocratique
Rien n’est éternel, et même si les stratégies démocratiques de gouvernance et d’exploitation sont peut-être le plus grand danger actuel, cela ne signifie pas qu’il en sera de même demain. La démocratie en tant que pratique gouvernementale incapable de réaliser ses idéaux est en crise aux États-Unis et dans de nombreux autres pays, et la démocratie en tant que structure de coopération interétatique et d’accumulation de capital fait également face à une crise au niveau mondial.
En raison de sa crise interne, la démocratie ne parvient pas à capter les aspirations de ses sujets. Les types d’égalité qu’elle garantit sont pour la plupart insignifiants ou pernicieux, et les avantages diminuent à mesure que l’on descend dans l’échelle sociale. Le régime démocratique n’a pas réussi à créer des sociétés justes et n’a pas réussi à combler l’écart qui se creuse entre les nantis et les démunis. Il a fini par devenir un autre système aristocratique, pas meilleur que ceux qu’il a remplacés.
Cela signifie que la démocratie est en train de perdre sa capacité novatrice de récupération des résistances. Mais jusqu’en 2008 environ, les membres de l’élite néolibérale se souciaient à peine de la résistance. Ils pensaient qu’ils avaient si bien vaincu et enterré les potentiels révolutionnaires qu’ils n’avaient plus besoin de faire semblant, plus besoin de jeter des cacahuètes à la foule. Au fur et à mesure que les années 1990 et 2000 avançaient, ils sont devenus de moins en moins discrets dans leur croisade pour concentrer la richesse dans un nombre de mains toujours plus faible, tout en détruisant l’environnement et en marginalisant une partie toujours plus importante de la population. Maintenant qu’ils ont révélé leur vrai visage, il faudra un certain temps pour que les gens oublient avant de pouvoir à nouveau succomber à leurs sirènes, et ce manque de confiance dans les institutions publiques arrive à un mauvais moment pour les pays autrefois hégémoniques de l’OTAN et leurs alliés.
Cela souligne à quel point les radicaux font preuve d’un court-termisme frustrant lorsqu’ils cherchent à restaurer la valeur séduisante de la démocratie en parlant de ce à quoi devrait ressembler la « vraie démocratie » : c’est comme l’histoire de cet ingénieur pendant la Révolution française dont la vie est épargnée au dernier moment alors que la guillotine se bloque, jusqu’à ce qu’il lève les yeux et dise « je pense voir votre problème ».
Si la crise mondiale de l’ordre démocratique atteint son point culminant avant que le potentiel de séduction de la démocratie ne soit renouvelé, il leur sera d’autant plus difficile d’empêcher les mouvements révolutionnaires de devenir de véritables menaces. Cette deuxième crise s’articule autour de l’effondrement en cours des mécanismes politiques interétatiques qui sont de moins en moins en mesure de tempérer les conflits, et de l’effondrement économique imminent qui menace de fermer le banquet autour duquel la plupart des États du monde s’agglutinent, cherchant à coopérer en faisant valoir les possibilités de croissance économique dont ils sont tous dotés.
Les problèmes multiples et toujours plus nombreux du système mondial conçu par les États-Unis ont en effet conduit de nombreux experts économiques et de gouvernement à envisager de modifier le système démocratique actuel. Différentes propositions pour résoudre la crise interne de la démocratie comprennent le passage à une démocratie plus délibérative ou participative, le passage à la démocratie numérique ou électronique, comme moyen de recouvrer la participation civique des masses ; ou de relier à nouveau les aspects socio-économiques à l’égalité politique et de contrôler le pouvoir cumulatif de l’élite. Ce courant a décidément peu d’influence sur les institutions et les décideurs politiques. Autrefois défendues par les idéalistes de la science politique, qui étaient très lus mais peu connectés, ces idées ont depuis migré vers la rue, et sont aujourd’hui principalement évoquées par des acteurs du secteur des technologies qui pensent que leurs nouveaux gadgets peuvent révolutionner le gouvernement – en présumant sans réserve que les mauvais résultats des gouvernements ont été les conséquences des limitations technologiques – et par des partis progressistes en Europe et en Amérique latine, qui exercent surtout leur influence au niveau municipal.
La plupart des chercheurs et des groupes de réflexion politiquement connectés adoptent l’approche inverse : la participation civique de masse est un objectif irréaliste ou indésirable, et beaucoup accablent même la plèbe du déclin de la démocratie. Une contre-proposition consiste à doubler la démocratie représentative et à résoudre la crise par la consultation de « mini-publics » qui remplacent la participation civique de masse. Cette dernière, en tant que contrôle institutionnel du pouvoir de l’élite, ne serait plus un objectif réaliste selon les promoteurs. D’autres parlent de la nécessité d’un plus grand professionnalisme et d’une amélioration structurelle des intermédiaires (partis politiques et groupes d’intérêts), une sorte d’hybride entre la démocratie et des politiciens professionnels de la représentation. Mais comme la première crise porte autant sur la perception que sur les résultats, il est peu probable que les chercheurs collet monté qui se méfient profondément du public sachent comment la résoudre, quelle que soit la qualité de leurs données.
Cependant, il n’y a aucune raison pour que ces deux courants ne puissent être combinés : des référendums plus populaires et des sondages numériques à l’échelle municipale ; une plus grande professionnalisation, des évaluations technocratiques et une amélioration structurelle des partis politiques à l’échelle nationale. Les premières dispositions amélioreraient la confiance du public et le sentiment d’autonomisation, les secondes réduiraient l’incompétence et empêcheraient des changements populistes désastreux et soudains dans les choix politiques. Le plus grand obstacle à de tels changements stratégiques est la culture politique, l’inertie institutionnelle d’un système complexe déjà en place depuis plusieurs décennies. Considérez l’impossibilité pratique d’aller au-delà d’un système bipartite aux États-Unis et considérez que dans la plupart des pays, toute modification de la structure des partis politiques et autres intermédiaires, au-delà d’une simple réforme du financement des campagnes électorales (déjà mise en œuvre dans de nombreuses démocraties), exigerait des réformes constitutionnelles bien difficiles à réaliser.
Quant à la deuxième crise, il semble y avoir beaucoup moins de débats. Les journaux économiques occidentaux font état d’un consensus presque complet sur la nécessité de rejeter le nationalisme économique et de rétablir « l’ordre commercial multilatéral régi par des règles que les États-Unis eux-mêmes ont créé ». Les seules voix en faveur du nationalisme économique sont celles de certains écologistes peu influents sur le plan politique ; celles des restes de l’antimondialisme péroniste de gauche en Amérique latine, longtemps éclipsés par des courants néolibéraux endogènes suivant les signaux de Lula et compagnie ; et celles de certains politiciens réactionnaires de l’hémisphère Nord qui ne comprennent rien à l’économie et sont arrivés au pouvoir uniquement parce qu’ils étaient les premiers en ligne pour appliquer des récentes innovations en analyse de données que les politiciens plus centristes, certains de leur succès, n’avaient pas encore exploitées5. L’élite des entreprises voit unilatéralement le nationalisme économique comme un risque – une mauvaise chose – et organise actuellement un débat sur la façon dont « les compagnies multinationales doivent surmonter les sentiments protectionnistes des consommateurs et des organismes de réglementation gouvernementaux et réinventer leurs modèles de responsabilité sociale des entreprises ».
Il n’y a qu’une seule exception importante à ce consensus, et en réalité la seule véritable alternative à l’ordre démocratique actuel : la technocratie, qui est parfois assimilée à un nationalisme économique sans rapport avec celui proposé par des gens comme Bannon.
L’État chinois est le principal modèle et promoteur d’un tel système, bien que des discussions franches aient également eu lieu à ce sujet en Occident. L’Union Européenne constitue un hybride entre un modèle technocratique et un modèle démocratique, bien qu’elle ne puisse préconiser une telle hybridation, car reconnaître un fossé entre démocratie et technocratie serait en contradiction avec l’identité fondamentale de l’UE.
Un système technocratique laisse les décisions politiques à des experts désignés qui graviront les échelons, soi-disant en fonction des performances ; les nominations sont effectuées par l’institution elle-même, comme dans une université, et non par consultation avec le public. La plupart des dirigeants du Parti Communiste chinois, par exemple, sont des ingénieurs et autres scientifiques. Cependant, il serait naïf d’ignorer qu’ils sont d’abord et avant tout des politiciens. Ils doivent simplement répondre à la dynamique interne du pouvoir au lieu de consacrer leur efficacité pour le grand public.
Aux États-Unis, la très importante Réserve Fédérale fonctionne de manière technocratique, bien qu’elle soit subordonnée au leadership démocratique. Les éléments technocratiques de l’Union européenne, tels que la Banque Centrale Européenne, jouissent d’un pouvoir décisionnel beaucoup plus important et sont souvent capables de dicter des conditions aux gouvernements démocratiques des États membres. Cependant, l’UE a pris soin de profiter de la vieille distinction libérale entre politique et économie : en reléguant la technocratie à une sphère prétendument économique, l’UE maintient son engagement obligatoire envers la démocratie.
L’une des principales faiblesses de la démocratie occidentale qu’un système technocratique peut renforcer est la tendance à des changements politiques soudains et irrationnels qui correspondent à une tentative populiste de prendre le pouvoir. Quelqu’un comme Trump peut présenter une demande fondée sur des renseignements erronés qui, malgré tout, correspondent aux expériences vécues par une partie de l’électorat – par exemple, l’ALENA a fait du tort à un grand nombre de personnes, mais les raisons à cela et les effets de la solution de rechange proposée sont très différents de ceux que Trump a avancés. Au gouvernement, la condition sine qua non pour mettre en œuvre son programme est de prendre le contrôle des instruments du pouvoir. Dans un système démocratique, pour obtenir le contrôle de ces instruments, il faut réussir à attirer la majorité de l’électorat par le biais des filtres élitistes des médias corporatistes et du financement des campagnes électorales. Pendant longtemps, les partis y sont parvenus en faisant la distinction entre discours populaires et discours professionnels. En d’autres termes, ils ont régulièrement menti aux masses sur ce qu’ils allaient réellement faire, contribuant année après année à la crise de la démocratie. Les populistes comme Trump ont signalé qu’ils rompraient avec ce modèle en brisant toutes les autres règles de la politique respectable. Le problème (du point de vue de l’État) est qu’une telle stratégie est efficace pour gagner un vote mais pas pour défendre les intérêts des institutions gouvernementales.
Les systèmes technocratiques résolvent ce problème en supprimant la boucle de rétroaction non pertinente de l’électorat, en basant l’accès au pouvoir directement sur la performance des stratégies qui vont amplifier le pouvoir. Ce faisant, les technocrates se protègent aussi théoriquement du risque de mauvais dirigeants. Des dirigeants stupides et charismatiques sont la marque de la démocratie, mais le danger qu’ils représentent pour le système est neutralisé par des conseillers intelligents et peu charismatiques qui les tiennent en laisse. George W. Bush et Ronald Reagan étaient des exemples parfaits et fonctionnels de ce modèle. En rompant la laisse, Trump a démontré qu’il ne s’agit pas d’une composante structurelle importante du gouvernement démocratique, et donc d’un point faible potentiel.
Un autre avantage des systèmes technocratiques est leur capacité à centraliser les intérêts. Dans tout système démocratique, il existe de nombreux intérêts divergents qui rendent le consensus difficile, ce qui peut mener à une politique partisane, polarisée et retranchée. Pendant l’âge d’or de la démocratie, il y avait un consensus parmi les élites sur les stratégies fondamentales de la gouvernance. Aujourd’hui, nous constatons de plus en plus une divergence des intérêts de l’élite et l’incompatibilité des différentes stratégies de gouvernance. Un système technocratique utilise le pouvoir massif de l’État non pas pour créer un terreau sur lequel les capitalistes peuvent prospérer, mais pour ordonner stratégiquement les opérations du capital dans une trajectoire convergente. Ces dernières années, l’État chinois a arrêté, emprisonné et fait disparaître des milliardaires qu’il accuse de corruption, ce qui signifie qu’il agit en dehors du contrôle du Parti sur le marché, s’engageant dans une planification économique alternative ou autonome.
Sur le plan géopolitique, le modèle technocratique chinois a un certain avantage. Pays après pays et entreprises après entreprises se sont pliés aux exigences de Pékin et ont cessé de reconnaître Taiwan comme un pays indépendant. Non seulement la Chine est une grande économie, mais elle a une plus grande capacité de tirer parti de l’accès à cette économie à des fins politiques, en combinant une plus grande centralisation avec une approche stratégique rationalisée qui exclut la séparation de la politique et de l’économie.
Cependant, il y a beaucoup de mythes autour de la gouvernance technocratique. On ne peut pas avoir un gouvernement purement « scientifique » parce que « intérêts objectifs » est une contradiction dans les termes. L’empirisme pur ne peut pas reconnaître quelque chose d’aussi subjectif que les intérêts ; c’est pourquoi les organes scientifiques doivent fabriquer des idéologies discrètes déguisées en présentations neutres des faits, puisqu’il n’y a aucune activité humaine, et certainement aucune recherche et développement bien coordonnée, sans intérêts. Pourtant, les gouvernements ne sont rien sans les intérêts. Ils représentent, à leur niveau le plus rudimentaire, la concentration d’une grande quantité de ressources, de pouvoir et de potentiel de violence dans le but de satisfaire les intérêts d’un groupe spécifique de personnes. La relation devient de plus en plus complexe au fur et à mesure que les gouvernements deviennent plus complexes, avec différents types de personnes qui développent des intérêts différents à l’égard du gouvernement, avec des institutions qui produisent des subjectivités et, par conséquent, façonnent la conception qu’ont les gens de leurs intérêts ; mais le caractère central des intérêts demeure, tout comme le fait que le pouvoir hiérarchique empêche le discernement en dehors d’une réalité très étroite, et une si grande insensibilité combinée à une telle puissance est une recette implacable qui engendre une stupidité sans précédent.
On peut citer à titre d’exemple le barrage des Trois Gorges, peut-être le plus grand exploit de construction du xxe siècle, et certainement un symbole de la capacité du Parti Communiste Chinois à mener à bien une planification stratégique qui sacrifie les intérêts locaux au profit d’un présumé plus grand bien. Mais le barrage a causé tellement de problèmes démographiques, environnementaux et géologiques qu’ils pourraient l’emporter sur les avantages de la production d’énergie. La principale motivation pour la construction du barrage était probablement l’orgueil – l’État se prélassant dans son pouvoir technocratique – plus qu’une juste estimation des avantages du barrage.
Les politiques de pouvoir peuvent également jouer un rôle dans la crise du crédit en Chine. Les petites entreprises ont du mal à obtenir des prêts du système bancaire chinois, qui a traditionnellement favorisé les entreprises publiques, les grandes entreprises ou les entreprises affiliées politiquement. Ces petites entreprises se sont donc tournées vers de nouvelles plateformes de prêts entre pairs, dont beaucoup ont été démantelées ou fermées par le gouvernement, entraînant une perte considérable en épargne. Le problème prend des dimensions supplémentaires si l’on considère l’importance des nouvelles entreprises dans l’économie américaine au cours des deux dernières décennies : pensez à Apple, Google, Amazon, Facebook. On peut soutenir que seules ces entreprises permettent aux États-Unis de conserver leur première place dans l’économie mondiale. Et si des start-up technologiques comme Didi et Alibaba ont joué un rôle important dans la croissance économique chinoise et ont également réussi à gravir les échelons pour recevoir un soutien vital de l’État, elles n’ont pas encore démontré les capacités d’innovation de pointe qu’un leader mondial devrait avoir. Elles ne peuvent peut-être être perçues que comme des copies d’entreprises occidentales bien implantées, n’ayant pu recevoir de financement qu’après que les occidentaux aient démontré l’importance de ces firmes. Si cela est vrai, cela n’augure rien de bon pour la capacité du capitalisme d’État chinois à créer un climat qui favorisera une innovation plus avant-gardiste que les États capitalistes occidentaux.
L’Union européenne a aussi des problèmes avec la technocratie. Outre les rébellions temporaires provoquées par l’autoritarisme de la Banque Centrale, la menace existentielle numéro un de l’UE à l’heure actuelle peut être attribuée au Règlement de Dublin, un accord européen précoce, peu examiné au moment de sa signature, qui prévoit que les migrants peuvent être renvoyés vers le premier pays européen où ils sont entrés. Ordinairement, en plus d’intimider leurs homologues les plus pauvres, les plus important États membres de l’UE (Allemagne, Royaume-Uni, France, Benelux) protègent leurs industries stratégiques tout en dictant quelles industries les plus pauvres doivent se développer ou abandonner. Et si les pays méditerranéens ont pu tolérer d’être transformés en colonies à dette et en enfers touristiques, ils n’ont pas été aussi tolérants à l’égard de la politique d’immigration, ce qui donne aussi à leurs dirigeants un bouc émissaire pour les deux premiers problèmes. La politique d’immigration de l’UE est un dumping évident pour la Grèce, l’Italie et l’Espagne et, dans une moindre mesure, pour la Pologne et les autres États frontaliers. Ce sont ces pays qui peuvent le moins se permettre d’alourdir le fardeau de leurs services sociaux, l’Allemagne s’accaparant les migrants les plus instruits et renvoyant les plus pauvres vers les États frontaliers. Cette politique a été la cause principale de toutes les menaces de droite qui pèsent sur l’intégrité de l’UE. Bien qu’elle soit le produit de planificateurs technocrates, elle reflète la même arrogance qui accompagne toute politique de pouvoir.
Il y a aussi la question de la résistance. Le gouvernement chinois fait le pari qu’il a le pouvoir technologique et militaire de neutraliser tous les mouvements de résistance, de façon permanente. S’il se trompe, il risque l’effondrement politique total et la révolution. Les gouvernements démocratiques jouissent d’une plus grande souplesse, car ils peuvent détourner les mouvements dissidents vers des réformes qui rajeunissent le système, plutôt que de les contraindre au silence ou à exploser. Les institutions démocratiques européennes ont prouvé que ce mécanisme de soupape de pression fonctionne toujours, les partis progressistes empêchant la croissance des mouvements révolutionnaires en Grèce, en Espagne et en France. Ensuite, il y a le problème de la continuité. En concentrant tant de pouvoir en la personne de Xi Jinping, l’État chinois s’attaque au problème séculaire de la succession : comment transmettre le pouvoir à un dirigeant qui a les bonnes compétences ?
Le modèle technocratique n’est donc pas franchement supérieur. Même si c’était le cas, les puissances occidentales auraient du mal à l’accepter sous une forme qui ne soit pas hybride. Cela nous ramène à la suprématie blanche et à sa centralité dans le paradigme occidental. La démocratie joue un rôle fondamental dans la mythologie de la suprématie blanche et dans les prétentions implicites des progressistes blancs à être supérieurs aux autres. S’appuyant sur les racines mythiques de la démocratie dans la Grèce antique, les Blancs peuvent se considérer comme les fondateurs de la civilisation et donc les meilleurs tuteurs pour les autres sociétés dans le monde. Les paranoïas orientalistes sont basées sur l’idée que les civilisations orientales sont associées à l’autocratie et le despotisme. Sans cette opposition, l’estime de soi occidentale s’effondre.
En fait, l’État chinois se réclame de la démocratie, de la justice, de l’égalité et du bien commun, de manière tout aussi valable que les États occidentaux. Mais ces prétentions sont validées dans un paradigme différent de celui que les élites occidentales utilisent pour justifier leurs propres défaillances. La démocratie chinoise s’inspire à parts à peu près égales du léninisme et d’une approche confucianiste de l’art politique. Dans ce modèle, le Parti consulte les groupes politiques minoritaires et les groupes d’intérêt avant de rédiger une déclaration consensuelle jugée dans l’intérêt général. Cette conception ne se traduit pas bien dans un paradigme libéral occidental. Les classes dirigeantes occidentales ne peuvent être convaincues par un tel modèle ; elles se sentent menacées par la perspective de la domination chinoise, même si elles croient en leur propre hypocrisie.
La concurrence entre l’OTAN et la Chine revêt de plus en plus ces nuances culturelles. Mais à mesure que les conflits géopolitiques entre les États-Unis, la Russie et la Chine continuent d’éroder les institutions interétatiques existantes, les querelles actuelles pourraient représenter un revirement plus radical vers une confrontation entre différents modèles de gouvernance à l’échelle mondiale.
La tendance que nous avons évoquée plus haut, par laquelle de nombreux pays ont changé leurs relations diplomatiques de Taiwan à la Chine, a une signification qui va au-delà du sort de l’île autrefois connue sous le nom de Formose. Bon nombre des pays qui se sont conformés aux exigences de Pékin sont de petits pays des Caraïbes et d’Amérique centrale historiquement inféodés aux États-Unis. Le fait qu’ils s’éloignent de Taïwan symbolise également un certain refroidissement de leurs relations avec les États-Unis eux-mêmes. Dans le système émergent, ils ont des alternatives, et ces alternatives érodent la domination américaine, non seulement en Amérique centrale, mais aussi dans un certain nombre de points chauds géopolitiques. Comme l’a dit M. Erdogan en réponse aux tentatives classiques des États-Unis de renforcer leur politique étrangère, « avant qu’il ne soit trop tard, Washington doit abandonner l’idée fausse que nos relations peuvent être asymétriques et accepter le fait que la Turquie a des alternatives. »
L’Arabie saoudite a fait preuve de la même sensibilité vis-à-vis de la situation géopolitique en expulsant l’ambassadeur du Canada et en suspendant les accords commerciaux après une énième critique à propos des Droits de l’Homme, vu que les réprimandes hypocrites typiques des pays occidentaux ont toujours laissé place au déroulement habituel des affaires. L’assassinat du journaliste dissident Khashoggi par la Couronne saoudienne et la réaction des gouvernements occidentaux montrent également que les règles sont en cours de réécriture. Certains acteurs tentent de modifier leurs prérogatives, tandis que d’autres reculent. Le rôle que joue l’État turc, qui tire astucieusement parti de la controverse à son profit, illustre à quel point tout est à sa portée dans cette situation : chaque alliance et chaque pays peut améliorer sa position, ou la perdre.
Les critiques véhémentes de la Chine à l’égard du racisme suédois, après l’humiliation relativement mineure d’un petit groupe de touristes chinois, sont également significatives. La critique est valable, mais son contenu n’est pas pertinent dans la mesure où l’État chinois aurait pu critiquer de la même manière des attaques beaucoup plus graves contre les voyageurs et les migrants chinois à travers l’Occident depuis plus de cent ans. Ce qui a changé, c’est qu’un État de l’hémisphère Sud remet en question la supériorité morale de l’Occident, frappant au cœur même d’une Scandinavie auto-satisfaite, et cet État associe la critique à une menace économique : la Chine a doublé sa réprimande d’un avertissement à ses citoyens contre le tourisme en Suède, et des campagnes ont également été menées pour boycotter des produits suédois.
Si l’État chinois devenait l’architecte d’un nouveau cycle mondial d’accumulation, il aurait besoin d’un système de relations interétatiques compatible avec le modèle technocratique de régulation de son capitalisme d’État. Tout porte à croire qu’il chercherait la stabilité mondiale en plaçant explicitement les droits de l’État au-dessus de tout autre type de droits. Cela signifierait que si la Turquie voulait raser tout le Bakur, si l’Arabie saoudite voulait complètement réduire en esclavage ses employés de maison, si la Chine voulait emprisonner un million d’Ouïghours dans des camps de concentration, ce serait leur prérogative et l’affaire de personne d’autre. Il s’agirait d’une stratégie efficace pour créer plus de bonne volonté et une coopération économique sans entrave entre les États avec, au fondement du droit, la puissance militaire. Cela ne nous choquerait pas non plus qu’une telle conception émane du Parti Communiste, qui a depuis longtemps adopté l’idée jacobine que la fin justifie les moyens.
La CIA est intervenue dans le discours public pour avertir le monde que la Chine veut remplacer les États-Unis en tant que superpuissance mondiale. Afin de faire passer cela pour une mauvaise chose, ils doivent suggérer que le monde est mieux en tant que protectorat américain qu’en tant que protectorat chinois. Selon un agent : « moi aussi, je suis optimiste que dans la bataille pour les normes, les règles et les standards de comportement, l’ordre national libéral est plus fort que les standards répressifs promulgués par les Chinois. Je suis sûr que les autres ne voudront pas souscrire à ça. »
En toute transparence, les États-Unis doivent convaincre le monde que le modèle démocratique peut fournir un meilleur système interétatique. Mais malgré plus d’un siècle de propagande occidentale, le produit se vend difficilement. Les populistes comme Trump affichent délibérément les faiblesses du système démocratique et sapent les alliances occidentales à leur moment le plus critique depuis 1940 – et même à leur apogée, la démocratie a donné des résultats décevants. Les États-Unis sont réputés pour leur racisme systémique et leur injustice. Avec tous les Brixton et Tottenham, le Royaume-Uni montre qu’il est dans la même voie, et la vague croissante de mouvements d’extrême droite à travers l’Europe montre que les démocraties libérales, de la Suède à l’Italie, n’ont jamais été moins racistes que les États-Unis, comme elles aimaient à le croire. Au moment où des personnes de couleur ont gagné en visibilité dans ces sociétés, des citoyens supposés éclairés se sont jetés dans les bras de partis xénophobes et d’extrême droite. Même l’extrême gauche allemande a commencé à adopter des positions ouvertement anti-immigrés.
Dans les pays du Sud, où les puissances occidentales prêchent depuis longtemps la démocratie comme la panacée alors même qu’elles continuent à soutenir les dictatures militaires, les résultats ont été décevants. Dans toute l’Amérique du Sud, la gouvernance démocratique n’a fait que cristalliser la polarisation sociale causée par le capitalisme et le néocolonialisme, et a tout ramené au niveau d’instabilité qui amené les dictatures militaires au devant de la scène6. En Birmanie, un pays qui a longtemps été une grande cause des démocrates et des pacifistes, la conseillère d’État lauréate du prix Nobel n’a pas été au pouvoir plus d’un an avant que son gouvernement ne commence à commettre le génocide contre les Rohingyas et à persécuter les journalistes dissidents. Mais quelle démocratie n’a jamais commis un petit génocide, n’est-ce pas ?
Ailleurs, la supériorité morale que les médias et les institutions gouvernementales occidentaux ont tenté de propager contre la prétendue menace chinoise a été tout aussi creuse. En réponse à la concurrence économique croissante en Afrique, longtemps réservée à l’arrière-cour de l’Europe, les articles de presse se sont enchaînés. Il déploraient la pratique chinoise des prêts prédateurs, et la manière de refourguer aux pays pauvres d’Afrique, et du Sud en général, des infrastructures inutiles tout en s’appropriant tous leurs services publics, leurs ressources et leurs futurs intérêts lorsque ces pays ne peuvent rembourser leurs dettes.
Le New York Times décrit la sujétion à la dette chinoise de la Malaisie et salue le gouvernement local pour avoir supposément tenu tête à cette pratique. Ils vont jusqu’à parler d’une « nouvelle version du colonialisme ». Ce n’est pas faux : il n’y a eu qu’un siècle sur les vingt derniers (1839-1949) où la Chine n’était pas une puissance coloniale ou impériale avec sa propre forme de supériorité ethnique. Le colonialisme a eu de nombreux visages en plus du modèle racial particulier qui a évolué dans le commerce triangulaire de l’Atlantique. Une pratique anticoloniale véritablement mondiale ne peut se limiter à une compréhension eurocentrique de la race ou à une opposition simpliste qui place tous les blancs d’un côté et tous les gens de couleur de façon homogène de l’autre.
Ce qui est en fait inexact dans le New York Times, c’est que cette « nouvelle version du colonialisme » a été développée par les États-Unis dans les décennies suivant la Seconde Guerre Mondiale. Quiconque connaît les critiques du mouvement antimondialisation et altermondialiste sait que ce sont les institutions de Bretton Woods créées aux États-Unis qui ont été les pionnières de la pratique de la servitude pour dette et de l’appropriation des infrastructures publiques. Les médias institutionnels espèrent apparemment que tout le monde a déjà oublié ces critiques.
Si cette préoccupation bien tardive et moralisatrice est ce que les promoteurs de la démocratie occidentale peuvent susciter de mieux, le combat est déjà perdu. Il faudrait une refonte majeure pour sauver les institutions actuelles de coopération interétatique et créer la possibilité d’un nouveau Siècle Américain, ou du moins Américano-Européen. Cela signifierait faire de l’ONU une organisation qu’il faudrait prendre au sérieux, une organisation qui pourrait isoler les pays qui ne respectent pas le cadre juridique commun. Pour y parvenir, les États-Unis devraient cesser d’être les principaux saboteurs de l’ONU et faire des actions sans ambiguïté, comme mettre fin à l’aide militaire à Israël.
Les responsables gouvernementaux ne prendront des mesures aussi radicales que s’ils en viennent à croire que le respect impartial des droits de l’hom me est essentiel pour faire des affaires et pour renforcer la coopération internationale. Et au xxie siècle, un respect significatif des droits de l’homme devrait tenir compte des considérations écologiques, ne serait-ce que d’un point de vue anthropocentrique. Cela signifie rien de moins qu’une intervention massive de l’État dans les processus économiques pour réduire la poursuite des intérêts à court terme et assurer la gestion humanitaire du climat et de tous les autres systèmes géobiologiques. Et comme une telle intervention serait inséparable des enjeux technologique, et donc de l’IA, les responsables gouvernementaux devraient atténuer la contradiction de la démocratie entre égalité politique et inégalités économiques en introduisant du socialisme sous la forme du salaire de base universel. Tout cela au cours des dix ou vingt prochaines années.
En d’autres termes, les gouvernements occidentaux devraient subir un changement radical de paradigme afin de pouvoir continuer à façonner le système mondial. Le défi est probablement trop grand pour eux. Les quelques progressistes visionnaires, capables d’anticiper, sont enchaînés par la logique même de la démocratie au poids mort du centre. Cela n’arrange pas les choses que la Chine ai damé le pion à l’Europe en tant que leader mondial incontesté dans la production de cellules solaires et autres énergies renouvelables. (75% des panneaux solaires dans le monde sont fabriqués soit en Chine, soit par des entreprises chinoises dans des néo-colonies industrielles d’Asie du Sud-Est et grâce à une campagne gouvernementale agressive qui pousse les banques publiques à investir). Pendant ce temps, les États-Unis se dirigent vers d’autres excès pétroliers, ouvrant des gisements inexploités dans le bassin Permien au Texas, jugés encore plus grands que les champs pétroliers d’Arabie Saoudite.
En d’autres termes, nous pouvons presque écrire l’éloge funèbre du système mondial conçu par les États-Unis. Mais la suite n’est pas claire. La Chine elle-même se dirige vers un désastre économique. Son marché boursier tremble et le pays est lourdement endetté, en particulier ses grandes entreprises. La Chine a évité la récession de 2008 grâce à une vaste campagne de relance artificielle. Aujourd’hui, les dirigeants du Parti insistent pour que l’on mette un frein à l’octroi de prêts risqués, mais cela conduit à une pénurie de crédit qui ralentit la croissance économique. Prenons l’exemple de l’Australie, réputée pour ne pas pas avoir connu de récession technique depuis 27 ans : c’est aussi en partie à cause des dépenses publiques importantes. Mais les ménages s’endettent de plus en plus et donc dépensent de moins en moins, ce qui entraîne un ralentissement des dépenses intérieures, et le principal partenaire commercial de l’Australie est la Chine, où l’affaiblissement du yuan va également nuire à la capacité des consommateurs chinois à acheter des produits importés comme ceux qui proviennent d’Australie. Avec les ralentissements économiques en Turquie et au Brésil, où les bulles de surinvestissement sont également prêtes à éclater, la Chine est le dernier acteur de poids. S’il tombe, le krach économique sera probablement mondial, et vraisemblablement bien pire qu’en 2008. Toutes les contradictions du capitalisme sont en train de converger.
Pour soutenir l’économie, la Chine suit une voie similaire à celle des États-Unis : réduire les impôts, investir davantage dans les infrastructures et modifier les règles afin que les prêteurs privés puissent consentir des prêts dont le montant est largement supérieur à celui des dépôts.
La possibilité que la Chine devienne l’architecte d’un nouveau système mondial ne repose pas sur la croissance économique ou la puissance militaire. Elle n’a pas besoin de gagner une guerre contre les États-Unis, tant qu’elle dispose d’une autonomie militaire dans son coin ; par le passé, tous les pays qui voulaient accéder à ce type de rôle ont gagné des guerres défensives contre le leader mondial en titre, et la Chine l’a déjà fait pendant la guerre de Corée. En fait, elle devrait plutôt se faire le centre de l’organisation du capitalisme mondial.
La question cruciale pourrait être : quel pays se tire le mieux de la crise économique et ouvre de nouvelles directions et de nouvelles stratégies pour l’expansion du capitalisme ? et quelles seront ces stratégies ?
Et les anarchistes ?
L’une des rares choses dont on puisse être sûr, c’est que nous n’avons aujourd’hui aucun témoin vivant d’un tel niveau d’incertitude à l’échelle mondiale. Un système défaillant peut continuer à durer encore deux ou même trois décennies, tout en faisant des ravages. Une renaissance progressive pourrait sauver ce système par le socialisme démocratique, l’éco-ingénierie et le transhumanisme. Une coalition de certains pays pourrait inaugurer un ordre plus technocratique fait de plus grands États, sur la base d’institutions et de contrats sociaux qui restent à définir.
Bien entendu, aucune de ces possibilités n’intègre de perspectives de liberté, de bien-être et de soin de la planète. Tous supposent la survie de l’État. Je n’ai pas parlé d’anarchistes dans les considérations précédentes parce que nous perdons notre capacité à nous manifester en tant que force sociale dans des circonstances aussi changeantes. Nous n’avons pas réussi à résister au confort technologique, à surmonter les diverses dépendances que le capitalisme nous impose, à abandonner les habitudes puritaines qui passent pour de la politique, à répandre les imaginaires révolutionnaires, à communautariser la vie quotidienne. Notre aptitude à l’émeute a suffit à changer le discours social et à ouvrir quelques nouvelles perspectives aux mouvements sociaux au cours des deux dernières décennies. Si le système ne se répare pas rapidement, cependant, nos compétences combatives peuvent devenir insuffisantes et invisibles à côté des conflits beaucoup plus importants qui vont surgir. La compétence qui peut être la plus importante, et qui semble manquer le plus, est la capacité de faire de la survie une préoccupation communautaire. Malheureusement, la plupart des gens semblent tomber de l’autre côté de l’individualisme dans les formes les plus extrêmes d’aliénation.
Tout cela peut changer, bien sûr. En attendant, il est plus judicieux de parler de ce que pourrait être notre vie au cours de ces prochaines années de troubles. Nous avons encore la capacité de diffuser de nouvelles idées au niveau social, de faire fonction de conscience de la société. Le capitalisme n’a plus guère de légitimité ; il faut enfoncer les derniers clous de son cercueil avant qu’il ne développe un nouveau discours pour justifier son expansion acharnée.
Pour ce faire, nous devons développer un sens aigu des voies encore ouvertes à ceux qui voudraient préserver et renouveler le capitalisme, puis les saper avant qu’elles ne puissent être solidifiées et devenir la structure du prochain discours mondialiste. De simples critiques de la pauvreté, des inégalités et de l’écocide ne suffisent pas. Éloignées d’une perspective anarchiste, chacune de ces lignes de protestation ne fera que faciliter une stratégie de sortie des contradictions actuelles vers l’avenir capitaliste.
Une fois que le néolibéralisme aura pris fin et qu’une quantité importante de la valeur mondiale aura été détruite par des défauts de paiement en cascade ou par la guerre, des choses comme le salaire de base universel deviendront probablement des stratégies intéressantes de réintégration. Il pourrait réintégrer les pauvres et les marginalisés, constituer une nouvelle réserve de prêts garantis par l’État et offrir une solution au chômage de masse exacerbé par l’IA. De plus, les variantes du revenu universel sont compatibles aussi bien avec une politique progressiste et régénératrice qu’avec une politique de droite xénophobe qui attacherait de tels avantages à la citoyenneté. Le salaire de base universel, au lieu de l’aide sociale, peut être justifié à la fois par la rhétorique de la justice sociale et par la rhétorique de la réduction de la bureaucratie gouvernementale. Cet esprit augmente les possibilités d’une nouvelle politique de consensus. Les promoteurs du revenu universel – et ils sont de plus en plus nombreux – peuvent utiliser les critiques anticapitalistes de la pauvreté et de l’inégalité pour inciter les gouvernements à investir dans les formes de financement et d’ingénierie sociale qui atténueront les problèmes causés par les entreprises et maintiendront une base de consommateurs viable qui continueront à acheter leurs produits.
Les inégalités, quant à elles, peuvent plus facilement trouver leur remède avec la promesse d’une plus grande participation : le renouveau démocratique mentionné plus haut. Dans la mesure où les critiques des inégalités sont relatives au genre, à la race et à d’autres formes d’oppression liés aux conflits sociaux, le féminisme et l’antiracisme, dans leurs aspects égalitaires, ont déjà triomphé. Le féminisme a modifié les conceptions dominantes du genre, renforçant les stéréotypes binaires mais en dotant les gens des moyens de comprendre le genre comme un autre choix du consommateur pour s’exprimer librement. Ces concepts sont en voie d’intégrer entièrement toutes les identités au sein du modèle patriarcal et suprémaciste blanc. En rejetant nominalement les formes paramilitaire du pouvoir qui maintenaient historiquement les hiérarchies sociales (ex. les viols, les lynchages), on peut enfin partager les comportements et privilèges auparavant réservés aux hommes blancs hétérosexuels. Dans la pratique, l’égalité signifie que chacun peut agir comme un homme blanc normalisé, jusqu’à ce que cette norme soit déclassée et que ses fonctions paramilitaires soient réabsorbées par des institutions comme la police, le corps médical, les agences publicitaires, etc.
Une telle pratique de l’égalité neutralise la menace que les mouvements féministes et anticoloniaux font peser sur le capitalisme et l’État. La seule façon d’en sortir est de relier les corps non normatifs à des pratiques intrinsèquement subversives, plutôt qu’à des étiquettes identitaires récupérables (essentialisme). Nous ne critiquons pas l’État parce qu’il n’y a pas assez de femmes à sa tête, mais parce qu’il a toujours été patriarcal ; non pas parce que ses dirigeants sont racistes, mais parce que l’État lui-même est une contrainte coloniale, et le colonialisme sera vivant sous une forme ou une autre tant que l’État ne sera pas supprimé. Un tel point de vue exige de mettre davantage l’accent sur les continuités historiques de l’oppression plutôt que sur des indicateurs symboliques de l’oppression au moment présent.
En ce qui concerne les critiques de l’écocide, le capitalisme a sérieusement besoin prendre soin de l’environnement. À l’évidence, nous devons davantage nous pencher sur ce que cela implique, afin de le contester, plutôt que d’en rester aux discours réactionnaires qui, de toute façon, ne seront jamais d’accord avec l’idée de la protection de l’environnement. Les préoccupations capitalistes envers l’environnement impliqueront nécessairement la gestion et l’ingénierie de la nature. La préoccupation anticapitaliste pour l’environnement n’a de sens que si elle est éco-centrée et anticolonialiste.
Ce qui est fait à la planète est une atrocité. Les responsables doivent être dépossédés de tout pouvoir social et tenus de répondre des centaines de millions de morts et d’extinctions qu’ils ont causées ; par-dessus tout, on ne peut pas leur faire confiance pour résoudre le problème dont ils tirent les fruits. La racine du mal n’est pas l’énergie fossile, mais l’idée archaïque que la planète – en fait, l’univers entier – existe pour la consommation humaine. Si nous ne parvenons pas à changer de paradigme et à mettre au premier plan l’idée que notre but est de prendre soin de la terre et que nous devons être une composante respectueuse de la communauté du vivant, il n’y a aucun espoir de sauver la nature, de libérer l’humanité ou de mettre fin au capitalisme.
La technologie se trouve au carrefour de toutes les voies de sortie de la crise écologique causée par le capitalisme. La technologie n’est pas une liste d’inventions. Il s’agit plutôt de la reproduction de la société humaine à travers une lentille technique : le comment de la reproduction sociale. Tout ce qui concerne la façon dont les humains sont en relation avec le reste de la planète et la manière dont nous structurons nos relations internes est modulé par notre technologie. Plutôt que de nous embarquer dans un débat rabâché et inutile (du genre : la technologie, est-ce bien ou mal ?) nous devons nous concentrer sur la façon dont la technologie telle qu’elle existe dans la société mondiale fonctionne comme un « tout ou rien ». Le seul débat sur la technologie que nous ne pouvons pas perdre, et qui n’est pas pris en compte dans la conception dominante, concerne la nature autoritaire de la technologie telle qu’elle existe actuellement. Elle est présentée comme un choix du consommateur, mais chaque nouvelle avancée devient obligatoire en quelques années. Nous sommes forcés de l’adopter ou d’en être totalement exclus. Chaque nouveau progrès réécrit les relations sociales, nous privant progressivement du contrôle de notre vie et donnant le contrôle aux gouvernements qui nous surveillent et aux entreprises qui nous exploitent. Cette perte de contrôle est directement liée à la destruction de l’environnement.
On nous vend de plus en plus un récit transhumaniste dans lequel la nature et le corps seraient des contraintes à surmonter. C’est la même vieille idéologie des Lumières pour laquelle les anarchistes sont tombés amoureux à maintes reprises, et elle repose sur une haine du monde naturel et une croyance implicite dans la suprématie humaine (occidentale) et le libre arbitre. Elle est aussi de plus en plus utilisée pour rendre l’avenir capitaliste séduisant et attrayant, à une époque où l’une des principales menaces pour le capitalisme est que beaucoup de gens ne voient pas les choses s’améliorer. Si les anarchistes ne peuvent pas récupérer notre imagination, si nous ne pouvons pas parler de la possibilité d’une existence épanouie, non seulement dans des moments fugaces de contestation mais aussi dans le genre de société que nous pourrions créer, dans nos relations mutuelles humaines et avec la planète, alors je ne crois pas que nous puissions changer quoique ce soit pour l’avenir.
Le système entre dans une période de chaos. Les piliers sociaux, longtemps considérés comme stables, se mettent à trembler. Ceux qui possèdent et gouvernent ce monde cherchent des moyens de s’accrocher au pouvoir ou d’utiliser la crise pour obtenir un avantage sur leurs adversaires. Les structures qu’ils ont construites de longue date sont sur le point d’entrer en collision, ils ne s’entendent pas sur les remèdes, mais ils seront fichus s’ils nous laissent sortir de cette voie suicidaire. Ils peuvent nous offrir des emplois, de la nourriture et des voyages sur la lune ; ils peuvent nous terroriser et nous soumettre.
C’est un moment angoissant et les enjeux sont élevés. Ceux qui sont au pouvoir n’ont pas le contrôle. Ils ne savent pas ce qui va se passer ensuite, leurs intérêts divergent et ils ne sont pas d’accord sur un plan cohérent. Néanmoins, ils utiliseront tout ce qu’ils ont sous la main pour s’accrocher au pouvoir. Pendant ce temps, leurs échecs sont visibles par tous, et l’incertitude est dans l’air. C’est un moment qui exige qualitativement plus de notre part : des pratiques communautaires de solidarité qui peuvent s’étendre des groupes d’affinité aux quartiers et à la société dans son ensemble ; des représentations de ce que nous pourrions faire si nous étions maîtres de nos propres vies, avec des plans pour y arriver ; et des pratiques d’autodéfense et de sabotage qui nous permettent de rester sur nos pieds et qui empêchent ceux qui tiennent les rênes du pouvoir de s’en tirer en tuant encore et encore.
C’est un défi de taille. En fait, on ne devrait même plus être sur scène. Le capitalisme a envahi tous les recoins de notre vie, nous retournant contre nous-mêmes. Le pouvoir de l’État s’est accru de façon exponentielle et ils nous ont vaincus tant de fois auparavant. Cependant, leur système est de nouveau défaillant. À gauche et à droite, ils chercheront des solutions. Ils essaieront de nous recruter ou de nous faire taire, de nous unir ou de nous diviser, mais quoi qu’il arrive, ils veulent s’assurer que la suite ne dépend pas de nous.
Tel est l’avenir, une machine qui produit une nouvelle version de la même vieille domination afin d’enterrer, avant leur apparition, toutes les solutions au déclin du système. Nous pouvons détruire cet avenir et récupérer nos vies, en entamant le long travail qui consiste à transformer le terrain vague actuel en jardin – ou bien nous pouvons succomber.
-
Au cas où quelqu’un serait enclin à citer la structure pseudo-militaire de certains groupes de milices, il devrait d’abord la comparer à l’importante chaîne de commandement qui reliait les mouvements fascistes historiques aux vrais militaires ou à un parti politique fasciste. ↩︎
-
C’est en outre un argument embarrassant pour quelqu’un qui prétend que le fascisme est en train de renaître, étant donné que deux des principaux modèles d’État autoritaire et antidémocratique actuels – Israël et la Turquie – ont fait le changement en période de croissance économique. Hum… même Trump a été élu dans un contexte de croissance économique, mais il semble qu’au moins quelques antifascistes soient tombés dans le piège de la fable médiatique implicitement suprémaciste blanche, selon laquelle la victoire de Trump a été rendue possible par la hausse de la pauvreté des « blancs de la classe ouvrière ». ↩︎
-
La légende raconte qu’Eisenhower demanda à Franco quelle structure il avait mise en place pour s’assurer que l’Espagne ne retombe pas dans le chaos, ce à quoi Franco répondit : « la classe moyenne ». ↩︎
-
Bien que cela soit hors de propos ici, nous devons applaudir la Birmanie comme un autre triomphe de la non-violence. Je me demande si Gene Sharp va rendre visite aux Rohingya… ↩︎
-
Les analyses de données utilisées par les entreprises liées au méga-donateur réactionnaire Robert Mercer ont joué un rôle déterminant dans la victoire de Trump et celle du référendum du Brexit, toutes deux rejetées par les médias traditionnels, les campagnes d’opinion et les mesures prédictives. ↩︎
-
C’est un point douloureux que les libéraux essaient désespérément d’oublier : d’un point de vue étatique, la plupart des dictatures étaient en fait nécessaires. ↩︎
21.10.2019 à 02:00
Twitter et les gaz lacrymogènes
Les mouvements sociaux à travers le monde utilisent massivement les technologies numériques. Zeynep Tufekci était présente sur la place Tahrir et en Tunisie lors des printemps arabes, à Istanbul pour la défense du parc Gezi, dans les rues de New York avec Occupy et à Hong-Kong lors du mouvement des parapluies. Elle y a observé les usages des téléphones mobiles et des médias sociaux et nous en propose ici un récit captivant. Les réseaux numériques permettent de porter témoignage et d’accélérer les mobilisations. Ils aident les mouvements à focaliser les regards sur leurs revendications. Cependant, l’espace public numérique dépend des monopoles de l’économie du web. Leurs algorithmes, choisis pour des raisons économiques, peuvent alors affaiblir l’écho des contestations. Au delà de leur puissance pour mobiliser et réagir, faire reposer la construction des mouvements sur ces technologies fragilise les organisations quand il s’agit de les pérenniser, quand il faut négocier ou changer d’objectif tactique. De leur côté, les pouvoirs en place ont appris à utiliser les médias numériques pour créer de la confusion, de la désinformation, pour faire diversion, et pour démobiliser les activistes, produisant ainsi résignation, cynisme et sentiment d’impuissance. Une situation qui montre que les luttes sociales doivent dorénavant intégrer dans leur stratégie les enjeux de l’information et de la communication aux côtés de leurs objectifs spécifiques.
Tufekci, Zeynep. Twitter et les gaz lacrymogènes. Forces et fragilités de la contestation connectée. C&F éditions, 2019.
Lien vers le site de l’éditeur : https://cfeditions.com/lacrymo/
06.10.2019 à 02:00
Apprendre à marcher
Lancé par Framasoft en 2014, le grand projet « Degooglisons Internet » a agit pour beaucoup comme un révélateur. Il devenait en effet possible d’utiliser des services en ligne sans accroître sa dépendance aux grands monopoles du web. L’objectif du projet de Framasoft était d’accompagner chaque service d’une rubrique d’aide et d’incitation à l’installation pour des besoins individuels ou collectifs. Après avoir fait goûter le plat, il fallait en donner la recette.
En tout cas c’est ainsi qu’il fut promu.
En réalité, les membres de Framasoft ont largement mûri leurs intentions au fur et à mesure que les services se multipliaient et le nombre d’utilisateurs croissait. Des questions existentielles se sont posées au sujet d’une réputation hégémonique de l’association, au sujet de la charge technique, de la charge de modération, et surtout sur le besoin de plus en plus pressant d’identifier en France et à travers le monde des groupes similaires susceptibles de proposer des solutions de « dégooglisation ». Un début de réponse à nos inquiétudes est devenue de plus en plus évident : nous savions bien sûr que tous les utilisateurs ne sont pas des fondus d’informatique et n’ont pas forcément envie ou les compétences d’installer des serveurs et des logiciels, mais nous avons aussi constaté à quel point il fallait pousser la vague de collectivisation et d’appropriation du Libre dans ce domaine. Rendre des collectifs libristes plus solidaires, mieux connus, et faire naître des initiatives sérieuses, tel fut l’objectif du projet CHATONS et, au-delà, de l’orientation plus générale (et plus mature ?) voulue par l’initiative Contributopia.
Selon le public concerné, le projet « Dégooglisons Internet » recèle des messages différents :
- Les services sont basés sur des logiciels libres. Ils sont autant de preuves qu’il est possible de construire une offre alternative aux GAFAM sur du code libre tout en y contribuant. Le cycle est vertueux.
- « Degooglisons Internet » permet d’évaluer ces logiciels, estimer leurs capacités de charge, les mettre à l’épreuve dans un contexte de production avec un nombre conséquent d’utilisateurs. Pour certains les essais sont concluants, d’autres non. D’autres encore ont finalement été mis de côté, non pas en raison d’un manque de connaissances techniques mais à cause des contraintes de gestion qu’ils impliquent (c’est le cas de la solution de courrier électronique).
- les services respectent les données des utilisateurs et nous n’en faisons aucun usage déloyal. En fait, le modèle économique qui se présente, qu’il soit associatif ou entrepreneurial, n’est tout simplement pas basé sur de l’offre marketing ou publicitaire. Il n’y a donc aucune pression quant à valoriser les données des utilisateurs. En revanche il faut développer à chaque fois des outils pour que l’utilisateur ne soit pas prisonnier du système en place (export des données en quelques clics, chiffrement, sécurité des comptes, règlement RGPD, etc.). Et certains de ces défis sont encore à relever.
- le projet « Degooglisons Internet » a montré assez exactement comment établir des relations de confiance dans les échanges entre un hébergeur et un utilisateur. La renommée d’une association comme Framasoft peut y être pour beaucoup, mais cela ne suffit clairement pas. C’est pourquoi le collectif CHATONS possède un manifeste et une charte assez contraignants.
Finalement, on constate à quel point la confiance et la solidarité entretiennent des relations étroites d’interdépendance. La confiance est l’élément décisif non seulement parce que depuis 2013-2014 les révélations Snowden ont largement entamé le capital confiance des GAFAM (et des États), mais surtout parce que nos dépendances aux dispositifs technologiques placent nos vies sous surveillance. Ces capteurs de données construisent nos doubles numériques dans lesquels nous n’avons aucune raison de nous reconnaître. Lorsque nous le faisons, nous agissons comme des consommateurs dont le comportement est conformé au marché, avec l’illusion de la liberté de choix, et les contraintes propres aux marchés bifaces qui conditionnent l’usage au pillage des données. Au contraire la confiance repose sur le choix éclairé et des engagements clairs de respect mutuel.
Nous le savions déjà.
Dans ce cas, pourquoi les utilisateurs ne sont donc pas plus nombreux à réclamer à cor et à cris la « dégafamisation » d’Internet ? Certains politiques commencent à entretenir des discours dans ce sens (même si cela relève bien souvent d’un autre abus de confiance). Plus crédibles, beaucoup d’initiatives collectives, plus ou moins militantes, comptent en leurs rangs de plus en plus de personnes sensibles à la question de l’invasion de nos vies privées, parce que leurs combats sont en réalité très proches d’une remise en question plus générale des dégâts environnementaux et sociaux du capitalisme. D’autres mouvements s’engagent sur d’autres fronts, en particulier l’éducation populaire, et là aussi sont extrêmement sensibilisés aux conditions de nos libertés.
Cela fait du monde, dans notre petit cercle de consommateurs de démocraties libérales. Pour d’autres pays c’est la question de la liberté d’expression et d’autres urgences sociales qui finiront par mettre en perspective le monopole des GAFAM. Et pour les dictatures, la question de la liberté de choix est de toute façon hors de propos.
Alors devant ces inégalités, devant ces aspirations à l’égalité et à la liberté, pourquoi tant d’utilisateurs demeurent encore dans la caverne des GAFAM, admirant les promesses malhonnêtes projetées sur la paroi ?
De manière non exhaustive, on peut diagnostiquer :
- Par désintérêt. C’est à nous de nous interroger alors à propos des bouleversements sociologiques et psychologiques de l’envahissement des dispositifs numériques dans nos quotidiens, et comprendre pourquoi les solutions alternatives peinent, dans leur complexité, à se faire entendre.
- Par ignorance. Les libristes ont longtemps cru qu’il suffisait de montrer pour faire adopter. Mais cette époque est révolue (même si certains discours persistent et en deviennent même culpabilisants). L’ignorance relève surtout de l’aveuglement des institutions : la solution réside dans l’éducation populaire.
- Par résignation. Oui, il faut du temps pour remettre en question des pratiques dont, par impératif d’immédiateté, les GAFAM et les États ont provoqué l’adoption à marche forcée. On en voit les stigmates, par exemple, dans les inégalités d’accès aux services publics « numérisés », alors que les plus éloignés de ces pratiques subissent la double peine de l’exclusion sociale et de l’exclusion numérique.
- Par stupidité. C’est le seul discours culpabilisant que je pourrai prononcer ici : oui, il faut être stupide lorsque, en connaissance de cause, on choisi de se complaire dans le profil du consommateur arrogant pour lequel la fiabilité matérielle est un autre mot pour dire « pouvoir d’achat ».
- Par naïveté. Certains choix collectifs sont de mauvaises décisions. Lorsque par exemple une entreprise ou une administration publique préfère s’en remettre aux produits des GAFAM en éludant volontairement que ces firmes américaines sont les support d’une autre hégémonie, politique et militaire (celle des États-Unis qui, en vertu du Cloud Act, assimile nos dispositions législatives, comme le RGPD, à des boucliers de papier). Et s’il ne s’agit pas de naïveté, on flirte dangereusement avec la trahison.
Malgré tout cela, et alors même qu’on pourrait penser que Framasoft a la prétention d’être comme un phare dans la nuit, l’association a récemment annoncé un plan de fermeture de plusieurs de ses services.
Abandon du navire ?
Il importe de se rappeler la première intention du projet « Degooglisons Internet » : proposer une démonstration de services basés sur du logiciel libre pour que d’autres puissent se les approprier. En effet, comme le font certains, prétendre que Framasoft aurait découvert aujourd’hui les contraintes liées à l’hébergement de services ou que le logiciel libre n’est pas à la hauteur, c’est nier 5 années de développement de support à l’installation, de contribution à ces logiciels et oublier aussi que, justement, le succès de ces services est en fait une consécration des logiciels en question.
Alors pourquoi ce plan de fermeture ?
D’abord tous les services ne fermeront pas leurs portes. Il suffit de lire attentivement les annonces pour comprendre que la fermeture des services sur un temps long est en soi un projet ! C’est le projet d’une émancipation. C’est bien ce mot qu’il faut entendre derrière « déframasoftisons internet ».
Framasoft a d’autres projets d’envergure. Ils seront annoncés en temps et en heure. En attendant, j’estime que chacun d’entre nous a le devoir de suivre un précepte : cesser d’attendre que des offres toutes cuites fassent leur apparition comme si la confiance que des bénévoles portent sur leurs épaules était après tout une offre comme une autre dans le paysage de la consommation de masse.
Vous êtes membre d’une association, d’un groupe de musique, d’une bande de copains, d’une équipe sportive… et vous n’êtes pas un manche avec un clavier et un écran ? Alors allez-y, prenez un peu de ce temps bénévole pour aider vos amis à s’émanciper dans de bonnes conditions en endossant vous-même la responsabilité de leurs données et donc leur confiance. Selon vos compétences, offrez-leur d’héberger des images avec Lutim, un dépôt de fichier avec Lufi ou carrément un service cloud avec Nextcloud, etc. Qui prétend que de telles solutions devraient réunir des milliers d’utilisateurs ? Si vous les utilisez pour vous, pourquoi ne pas en faire profiter vos amis ?
Vous n’y connaissez rien ? Prenez alors encore un peu de temps pour trouver un CHATONS et ramenez-y vos amis. Vous pourrez aussi leur apprendre quelques astuces d’usage.
L’argent ? oui, c’est le nerf de la guerre. Les modèles économiques des GAFAM ont trop longtemps fait croire aux utilisateurs qu’une adresse courriel, l’hébergement de données ou n’importe quel service devait être gratuit. C’est impossible. Nous devons réapprendre à estimer les coûts de nos besoins. Lorsqu’une association investit dans un serveur, il me semble normal que les utilisateurs contribuent à ces frais. Nous parlons de quelques euros par an. Et si vous décidez de vous lancer par exemple avec une solution Yunohost que vous dédiez à votre famille, un nom de domaine vous coûtera moins de 20 euros par an, et un serveur entre 5 et 10 euros par mois (d’expérience, pour héberger quelques fichiers, les contacts et les agendas de la famille, cela me revient à moins de 60 euros par an).
Oui, cent fois oui, tout le monde ne peut pas dépenser encore quelques dizaines d’euros pour une solution courriel payante ou un hébergement chez un CHATONS. L’abonnement internet et téléphonie portable coûte déjà bien assez d’argent comme cela. Cela reste toutefois, pour beaucoup d’autres personnes, une simple affaire de choix, entre cela et dépenser encore plusieurs centaines d’euros pour un téléphone portable qui fait le café. Ne généralisons pas mais restons lucides : derrière la gratuité des services des GAFAM le discours de l’égalité d’accès aux services est un vaste mensonge.
Cette gratuité s’est certes déclarée au détriment de nos vies privées, mais pas uniquement ! Elle est aussi la condition d’une dégradation des services : au détriment de la sécurité des données, au détriment des règles de chiffrement, au détriment de l’interopérabilité, au détriment de la liberté d’expression (notamment sur les médias sociaux), et surtout… surtout au détriment de nos savoirs.
Prenons le cas d’un usage assez simple comme configurer les options d’un clients de courriel (ses protocoles POP, IMAP, SMTP ou la sécurité SSL, TLS, les ports de connexion…). Tout cela, personne n’est tenu d’y comprendre goutte et d’ailleurs la plupart des bons logiciels client de courriel proposent d’automatiser les procédures. Mais il reste très important de savoir qu’en cas de besoin, on peut y avoir accès. Tout comme il est important de savoir qu’en cas de besoin et avec un peu de patience et de logique je peux changer seul la chambre à air de ma roue de vélo même si je vais chez un réparateur pour le faire. Au lieu de cela les services des GAFAM nous ont privé de ces savoirs : des savoirs censés être disponibles, pas forcément obligatoires mais présents.
La sortie de la caverne de Platon, ou le sapere aude d’E. Kant (dans « Qu’est-ce que les Lumières ? »), c’est exactement de cela dont il s’agit. Il est bien plus grave de ne pas pouvoir se servir de son entendement que de ne pas apprendre. L’éducation populaire dont se réclame Framasoft a au moins cette prétention : si les alternatives aux GAFAM doivent être des modèles d’équilibre entre les usages et la confiance, il doivent surtout rendre de nouveau accessibles les savoirs dont nous privent les GAFAM.
Après les avoir d’abord abêtis en les traitant comme des animaux domestiques, et avoir pris toutes leurs précautions pour que ces paisibles créatures ne puissent tenter un seul pas hors de la charrette où ils les tiennent enfermés, ils leur montrent ensuite le danger qui les menace, s’ils essayent de marcher seuls. – Emmanuel Kant, « Qu’est-ce que les Lumières ? » (1784), trad. fr. J. Barni, voir sur Wikisource.
22.08.2019 à 02:00
Ce que le capitalisme de surveillance dit de notre modernité
Cette partie de mon ouvrage (à paraître en automne 2019) intervient après une lecture critique du texte de J. B. Foster et R. W. McChesney (« Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age ») paru en 2014. Comme on le verra dans la suite de l’ouvrage, l’approche critique de Shoshana Zuboff est loin de satisfaire une lecture intégrée de l’histoire économique et politique du capitalisme de surveillance. À mon avis, c’est chez Anthony Giddens qu’on peut trouver assez de matière pour pouvoir mieux comprendre pour quelles raisons on ne peut pas décorréler l’histoire du capitalisme de surveillance de la modernité occidentale et donc des modèles organisationnels qui prévalent depuis un siècle au moins. Le post-modernisme (et avec lui on pourrait inclure les idéologies plus ou moins libertaires et californiennes des années 1980) nous a rendu en réalité bien démunis pour penser cet écrasement des sociétés par la surveillance, et en particulier à cause des conjonctures économico-politiques (et leur modèle américain).
Extrait (Archéologie du capitalisme de surveillance)
[…] Ce que soulève le texte de J. B. Foster et R. W. McChesney, c’est le besoin de redéfinir une certaine vision de la modernité. On la trouve chez Anthony Giddens qui synthétise cette modernité comme une description des organisations, des modes de vie, et leurs trajectoires historiques qui, depuis au moins le xviie siècle, ont configuré durablement la conjoncture mondiale1. C’est une modernité dont on pensait visiblement à tort que la conception unificatrice de l’histoire (c’est-à-dire les contraintes de notre temps comme le pouvoir des institutions sur les individus) avait été dépassée pour faire entrer l’homme dans ce que Jean-François Lyotard appelle, à la fin des années 1970, la condition post-moderne2 où les savoirs prétendument empiriques ne seraient finalement que des jeux de langages qui légitiment la vérité.
Or, c’est à la fois par un procédé narratif (l’histoire racontée par J. B. Foster et R. W. McChesney) et par un discours sur les institutions que nous nous retrouvons en proie à ces contraintes pour comprendre l’histoire qui nous est infligée, malgré nous, par un capitalisme de surveillance envisagé comme un processus qui transcende et traverse les histoires (de l’informatique, de la politique, de l’économie).
Le post-modernisme est une manière de penser l’individu selon son rapport à l’espace et au temps afin d’échapper au « désenchantement du monde », à la fin des utopies (la chute du Mur vue comme une fin de l’histoire sous un certain angle), ou aux failles épistémologiques (nous pensons par paradigmes, il n’y a pas de vérité éternelle). Le post-modernisme est un rempart à l’encontre des visions (trop) unificatrices. Et voilà qu’une dystopie, celle d’Orwell, nous rattrape. Elle nous montre à quel point sa modernité est radicale3, à l’heure où, grâce à Edward Snowden, l’organisation Wikileaks, et d’autres lanceurs d’alertes restés dans l’ombre, il apparaît aux yeux du monde que les États n’hésitent pas à investir des sommes colossales et beaucoup d’énergie pour espionner les populations à un degré inédit d’ampleur et de précision.
Nous sommes radicalement modernes. Du moins, à lire J. B. Foster et R. W. McChesney, nous n’échappons pas à la modernité tant les faits, à l’échelle mondiale, sont écrasants et conditionnent à ce point l’histoire sociale et politique.
Chez le sociologue Anthony Giddens, nous trouvons de quoi commenter en ces termes le capitalisme de surveillance. A. Giddens est célèbre surtout pour son approche critique (et exhaustive) des fondements de la sociologie contemporaine. Dans son livre Les conséquences de la modernité, il se livre à une approche critique de la vision post-moderne de notre rapport au monde. Il ne la considère cependant pas comme une erreur. Il en donne plutôt une nouvelle définition : un ensemble de transformations nécessaires, des améliorations rendues possibles par l’engagement politique, à l’encontre, justement, de la dispersion post-moderne qu’identifiait J.-F. Lyotard.
Pour A. Giddens, la post-modernité est comme un moment de réflexion qui ne prend pas en compte une approche plus intégrée de l’histoire. Selon lui, l’exemple le plus illustratif d’une modernité déconnectée et que le post-modernisme a assimilé comme un relativisme, c’est ce que K. Marx, M. Weber et E. Durkheim ont compris non comme une rupture mais comme autant d’opportunités de changement. Pour K. Marx la lutte des classes, aussi violente soit-elle, est un cheminement vers un nouvel ordre social. E. Durkheim concevait la division du travail comme une violence transitoire vers une harmonie possible entre l’industrie et la société. Seul M. Weber était assez pessimiste et assez critique vis-à-vis de la notion de progrès pour voir, dans la forme inéluctable de la bureaucratie et du contrôle, l’avenir des organisations soumises au pouvoir. A. Giddens en vient à affirmer4 :
Les penseurs de la sociologie, à la fin du dix-neuvième siècle et au début du vingtième, ne pouvaient prévoir l’invention de l’arme nucléaire. Mais le mécanisme liant innovation et organisation industrielles au pouvoir militaire remonte aux origines même de l’industrialisation moderne. Le fait que la sociologie ait amplement négligé cette réalité montre à quel point on était persuadé que l’ordre moderne en plein essor allait être pacifique, par opposition au militarisme typique des époques précédentes.
Si l’on suit A. Giddens, au lieu d’un dépassement de la modernité, l’histoire nous montre au contraire une radicalité des mécanismes qui la caractérisent. La modernité a changé de forme depuis l’arrivée de la société post-industrielle et des notions sont devenues centrales telles la globalisation, le choix de vie, l’identité personnelle, les relations familiales, le rôle de l’État-providence. Ces mécanismes sont aussi devenus universels, et même si cet universalisme chez A. Giddens a été souvent critiqué5, de même que ses positions politiques6, ce qui nous intéresse, c’est qu’il propose une approche de la formation des sociétés depuis les années 1960. Cette modernité qu’A. Giddens définit comme le mode de vie et les organisations européens qui se sont étendus dans le monde pendant près de trois siècles, sont entrés dans une phase critique fortement liée à la conjoncture du capitalisme et du consumérisme.
Nulle place pour un individualisme transcendant agissant d’aventure contre les contraintes du temps et de l’espace. On est loin de la toute-puissance du sujet dépassant les failles de la modernité, et la notion même de société, comme le promouvait Alain Touraine peu de temps avant la publication du livre d’A. Giddens7. Au contraire, A. Giddens donne des exemples on ne peut plus rationnels et s’efforce de penser une société embarquée dans l’histoire, parfois malgré elle et parfois par choix. Tel est l’exemple du complexe militaro-industriel : au regard de l’histoire du xxe siècle les sociétés ont été de plus en plus soumises à cette conjoncture. Cette dernière est aussi ressentie comme un manque de sécurité (un « environnement du risque » permanent hérité de l’époque pré-moderne) et, par conséquent, la société ressent un besoin croissant de sécurité qu’elle cherche par excès de confiance dans des dispositifs désincarnés, soit technocratiques, soit des mécanismes institutionnels en réseaux, ce qu’il nomme des « systèmes experts ». Face aux risques, que l’on souhaite mesurés, évalués, quantifiés, la société moderne s’est de plus en plus raccrochée à une foi envers ces systèmes sans toutefois se débarrasser de ses angoisses. Par conséquent, A. Giddens s’emploie à déterminer ce que sont les « institutions » de la modernité qui se sont radicalisées, à chaque fois source d’angoisses8 :
- le capitalisme (« L’accumulation de capital dans le contexte de marchés concurrentiels du travail et de la production »),
- l’industrialisme (« La transformation de la nature : développement de l’environnement créé »),
- Le militarisme (« La maîtrise des instruments de la violence dans le cadre de l’industrialisation de la guerre »),
- La surveillance (« Le contrôle de l’information et le monitoring social »).
Selon A. Giddens, il reste des possibilités pour dépasser ces régimes de la modernité et elles passent par les mouvements sociaux tels le syndicalisme, l’environnementalisme, le militantisme contre l’armement. Cependant on pourrait tout aussi bien lui reprocher de ne pas tenir compte des contre-mouvements, ceux qui ne provoquent que des contraintes supplémentaires à ces régimes, tels les populismes d’extrême droite, les fondamentalismes religieux et même certaines croyances libérales et autoritaires (dérégulation systématique des marchés, doctrine anti-interventionniste, etc.). Outre ce combat sans fin d’exemples et de contre-exemples, A. Giddens a fait de ces régimes organisationnels une définition globalisée de l’État moderne-contemporain : un système mondial d’États-Nations capitaliste qui ne repose pas uniquement sur des catégories marxistes mais intègre l’industrialisme (y compris militaire) et la surveillance comme les socles de sa permanence. En 1985, déjà, il affirmait ainsi, à propos de ces régimes organisationnels9 :
Ce sont des processus associés au système de l’État-nation, coordonnés par des réseaux mondiaux d’échange d’informations, l’économie capitaliste mondiale et l’ordre militaire mondial.
Toutefois, A. Giddens évacue les choix politiques trop radicaux, ou, du moins l’idée qu’une solution de dépassement puisse passer par un choix qui s’imposerait à la société, entre le capitalisme et le socialisme. Comme le précise un de ses commentateurs à propos des derniers chapitres de The Nation-State and Violence, A. Giddens « souligne qu’aucune théorie critique de la société moderne qui ne fait que poser le choix entre le capitalisme et le socialisme ne peut rendre justice aux complexités et aux problèmes de la modernité »10.
La raison à cela, c’est justement la surveillance. En 1981, alors même que la critique de la modernité n’était pas encore chez lui arrivée à un stade de maturité complète, il se livrait à une critique du matérialisme historique et démontrait combien la surveillance est un processus central qui appartient à nos sociétés et échappe cependant à toute tentative de dialectique marxiste. Pour A. Giddens, la surveillance est définie d’abord comme un processus d’accumulation d’informations par une organisation publique ou privée, de manière à accomplir un processus de contrôle11. On ne rassemble aucune information par quel procédé que ce soit si ce procédé n’est pas d’abord dessiné comme un outil de contrôle.
L’argument est double : premièrement, la surveillance est un instrument de pouvoir totalitaire et deuxièmement les technologies de l’information et en particulier l’informatique ne peuvent se penser indépendamment de la surveillance. Il affirme :
La théorie sociale classique n’a pas reconnu le potentiel de ce qui est devenu de nos jours une menace fondamentale pour les libertés humaines, un contrôle politique totalitaire maintenu par un système de surveillance à l’échelle de la société, lié à la « police » de la vie quotidienne. L’expansion de la surveillance dans les mains de l’État peut soutenir un totalitarisme de classe de la droite (fascisme) ; mais elle peut aussi produire un totalitarisme de gauche fortement développé (stalinisme).
En somme, ce qui est vrai pour le monde ouvrier contrôlé par les machines est tout aussi vrai du point de vue des institutions qui accumulent les informations à des fins de contrôle, et tout aussi vrai du point de vue de la consommation de masse que l’on contrôle et mesure en vue de maintenir ou optimiser les marchés (cette police de la vie quotidienne). Pour A. Giddens, en effet, c’est tout le processus d’informatisation de la société qui doit être pensé sous l’angle de la surveillance12 :
On pourrait supposer que l’arrivée de l’ordinateur, l’extension la plus extraordinaire de la capacité de stockage de l’esprit humain jamais imaginée, est le développement le plus récent et le plus important dans l’expansion de la surveillance comme contrôle de l’information. Même dans les années 1950, on trouvait rarement des ordinateurs à l’extérieur des universités et des établissements de recherche. Aujourd’hui, aux États-Unis, et de plus en plus dans les autres sociétés capitalistes avancées, de grands secteurs du contrôle de l’information sont informatisés tant au sein du gouvernement que de l’industrie. La « première génération » d’ordinateurs des années 1950 a déjà largement cédé la place à une deuxième (transistorisée) et une troisième (microprocesseur) génération d’ordinateurs, intégrés dans des systèmes de base de données. Mais l’ordinateur n’est pas aussi dissocié de l’histoire du capitalisme industriel que l’on pourrait l’imaginer ; et considérer l’informatisation seule comme un nouveau complément tout à fait distinct de la surveillance est trompeur.
D’aussi loin que nous pouvions croire qu’une société « post-industrielle » aurait succédé à la société industrielle d’un ancien monde, grâce à la montée du capitalisme en quelque sorte boosté par l’automatisation et les technologies de l’information, à défaut de rupture le lien est bel est bien continu. Il n’y a pas d’un côté une surveillance à la source du pouvoir à la manière du panoptique foucaltien et, de l’autre, une surveillance à visée productiviste aux fondements du capitalisme. Il n’y a pas d’un côté une société post-industrielle technologiquement avancée et, de l’autre, les archaïsmes du pouvoir politique dont les ressorts institutionnels et idéologiques seraient voués à la disparition. Au contraire, affirme A. Giddens, surveillance et État n’ont jamais été aussi fusionnels :
la « technocratisation » de l’État, au sujet de laquelle Habermas et d’autres ont écrit, tend de plus en plus à concilier les deux aspects de la surveillance de la même manière que dans l’entreprise. Le facteur technologie s’est avéré ici un facteur potentiellement obscurcissant, puisque la technologie a une forme matérielle visible, et peut être facilement considérée – comme l’ont supposé les partisans de la théorie de la société industrielle – comme ayant sa propre « logique » autonome. Mais la « logique » de la machine n’est pas différente par nature de la « logique » du contrôle technocratique de la politique (…)
Cette compréhension de la modernité a guidé la pensée d’A. Giddens à travers les années 1980 et 1990. Et même si les écoles de pensées sont très différentes, sur ces points elle fait aussi écho à la vision unificatrice de J. B. Foster et R. W. McChesney. L’intuition de départ est la même : alors que les idéologies libertariennes, plus ou moins formulées, pensent le « progrès » des technologies de l’information comme autant de solutions qui pallieraient les manquements des institutions, faciliteraient le développement social sur une base d’autonomie individuelle où tout un chacun pourrait s’épanouir grâce aux consumérisme numérique, J. B. Foster et W. Chesney tiennent le retour de l’État-Nation et de la surveillance comme l’instrument total de la soumission des sociétés mondiales à un ordre militaro-industriel.
À ceci près que, une fois regardé à travers les catégories de la critique de la modernité, le capitalisme de surveillance tel que le montre J. B. Foster et R. W. McChesney ressemble fort à une tautologie. Le capitalisme moderne suppose la surveillance : il n’a jamais échappé à une progression continue. Pour prendre l’exemple des États-Unis, il s’agit d’une application toujours plus sophistiquée de la doctrine impérialiste déjà fort ancienne, et d’une application toujours plus sophistiquée de la surveillance sublimée par les technologies. Or, nous sommes arrivés non pas à un point culminant mais à un point de rupture où toute critique de la surveillance est une critique du capitalisme. Ce que les révélations Snowden permettent de montrer, à ce moment de l’année 2013, c’est un instantané du contexte, un moment où la mondialisation du capitalisme de surveillance éclate non pas au grand jour mais dans une possibilité d’énonciation. C’est un moment où nous pouvons désormais construire un discours sur le capitalisme de surveillance en lui donnant un nom.
Nous sommes alors face à un nouveau choix. Soit nous considérons le capitalisme de surveillance comme une cage structurelle de notre société, un état de fait, soit nous cherchons à en déduire une dimension opératoire non plus pour comprendre « métaphysiquement » notre condition moderne mais pour comprendre les mécanismes concrets à l’échelle des société et des individus. Reformulé autrement : soit nous considérons que nous sommes condamnés et même soumis au capitalisme de surveillance et nous accordons, pour nous prémunir des abus, toute notre confiance aux institutions existantes (aux « systèmes experts » décrits par A. Giddens), soit nous tâchons de voir, empiriquement, comment ce capitalisme de surveillance opère et comment nous pourrions y réagir, par effet de mouvements voire de révolte.
-
Anthony Giddens, Les conséquences de la modernité, Paris, L’Harmattan, 1994. ↩︎
-
Jean-François Lyotard, La condition postmoderne, Paris, Les Éditions de Minuit, 1979. ↩︎
-
Auparavant dans le livre, j’effectue un commentaire poussé de l’interprétation dystopique des impacts sociaux de l’informatique dans l’histoire. ↩︎
-
Anthony Giddens, Les conséquences de la modernité, op. cit., p. 18. ↩︎
-
Jean Nizet, La sociologie d’Anthony Giddens, Paris, La Découverte, 2007, p. 87 sq. ↩︎
-
On retient A. Giddens comme le théoricien de la « troisième voie », qui a notamment inspiré le britannique Tony Blair. Très brièvement résumé, il s’agissait de poursuivre son analyse des transformations modernes en appelant à une refonte de la sociale-démocratie, pour opposer au néo-libéralisme une sorte de libéralisme de gauche libéré des carcans socialistes. Ses idées ont été bien trop caricaturées pour finir, notamment chez certains politiques français, comme un appel à un mouvement « ni droite ni gauche », ce que naturellement la pensée d’A. Giddens serait en peine de se satisfaire. Nous n’entrerons pas dans ce débat, d’autant plus que nous allons, dans la suite de cet ouvrage, utiliser des concepts qui nous éloignent assez radicalement du libéralisme. En revanche, nous mentionnons l’admirable travail d’A. Giddens en le situant aussi dans l’histoire du capitalisme de surveillance, et pour sa lecture socio-historique fort instructive. ↩︎
-
Alain Touraine, Critique de la modernité, Paris, Fayard, 1992. ↩︎
-
Anthony Giddens, The Consequences of Modernity, Cambridge, Polity Press, 1990, p. 59, nous traduisons. ↩︎
-
Anthony Giddens, The Nation-State and Violence, Cambridge, Polity Press, 1985, p. 135 et p. 290. ↩︎
-
Bob Jessop, « Capitalism, Nation-State and Surveillance », in Social Theory of Modern Societies. Anthony Giddens and his Critics, Cambridge, Cambridge University Press, 1989, p. 103‑128, p. 110. ↩︎
-
Anthony Giddens, A Contemporary Critic of Historical Materialism. Vol. 1 Power, Property and the State, Berkeley, University of California Press, 1981, p. 169. ↩︎
-
Ibid., p. 175. ↩︎
06.08.2019 à 02:00
Misère numérique
Les techniques ont toujours créé des formes de dépendances. C’est leur rôle, leur définition. Dans la lutte pour la survie dans un environnement hostile ou pour pallier les caprices du corps, la technologie a toujours été pour l’homme la source créative des supports cognitifs, mécaniques, biologiques. Mais par-dessus tout, fruits des apprentissages, elle suscite d’autres apprentissages encore : apprendre à utiliser des béquilles, apprendre à gérer ses doses d’insuline avec une pompe, apprendre à conduire une voiture, apprendre à utiliser un ordinateur, apprendre à utiliser Internet.
Les apprentissages fluctuent. Dans les années 1990, tous les utilisateurs ou presque de l’Internet grand public utilisaient le courrier électronique inventé 20 ans auparavant. « J’ai une adresse electronique », lançait-on à qui voulait l’entendre… et s’en fichait pas mal. L’époque a changé. Face aux grands chambardements de la « digitalization disruptive », des plateformes « ouine-ouine » et à la « start-up nation » qui prétend achever la grande transformation des services publics en services numériques (tout en inféodant le tout à des entreprises privées), le public ne retrouve plus ses billes.
Aujourd’hui, renforçant l’idée que le courrier électronique est d’abord un outil de travail, une pléthore d’utilisateurs ne connaissent d’Internet que les applications de médias sociaux et leurs messageries. Surtout chez les plus jeunes dont on nous faisait croire, pour mieux avaler la pilule, qu’ils savaient bien mieux se débrouiller dans un monde « digital » et qu’il ne fallait donc pas craindre pour leur avenir.
Quelle connerie, cette génération Y. Construction inique de marketeux malades soumis aux GAFAM. Le résultat : une dépendance de plus en plus grande vis-à-vis des monopoles, la centralisation de services, la concentration des capitaux et le pompage général des données. Même les plus grands scandales, des révélations de Snowden à Cambridge Analytica, ne semblent pas changer nos rapports quotidiens à ces plateformes.
Il faut l’intégrer, regarder la réalité en face : les usages et les pratiques d’Internet ne sont pas (et ne seront jamais) ce que les pouvoirs publics et le marketing nous en disent. Il faut lire l’étude de Dominique Pasquier, L’internet des familles modestes (2018) pour se faire une idée à peu près lucide des usages.
Zones rurales, quartiers pauvres, hyper centres urbains, les inégalités face aux usages des services numériques ne se résument pas aux inégalités d’accès aux réseaux. D’autres aspects doivent être pris en compte de manière prioritaire :
- compréhension des enjeux de la confidentialité et de la sécurité des données,
- apprentissage des protocoles de communication (et destination des usages) : courrier électronique, médias sociaux, messageries instantanées,
- rapports cognitifs aux contenus (savoir estimer la fiabilité d’un contenu, et donc la confiance à accorder et le degré d’attention qu’on peut lui prêter),
- etc.
Le modèle publicitaire des plateformes est un modèle de sectorisation et donc d’exclusion. Les bulles de filtres et autres usages qu’imposent Facebook, Twitter ou Google, par exemple, ne sont en fait qu’un aspect parmi d’autres où l’efficacité de l’usage des outils est conditionné par les choix permanents des utilisateurs. Ceux qui s’en sortent sont ceux qui ont les meilleures capacités à trier les contenus et gérer leur attention. Il se génère ainsi une charge mentale qui, avant cette numérisation généralisée des services, n’était pas nécessaire.
Faire croire une seconde que la connexion à un service public comme celui des impôts est indépendant de ces conditions cognitives et pratiques est un mensonge. Quels que soient les avantages qu’une partie de la population pourra trouver à pouvoir échanger à distance avec une institution publique, si on ne change pas d’urgence le modèle, les grandes inégalités qui existent déjà vont s’agraver.
Quel est ce modèle des services publics « numérisés » ? il se résume finalement à un principe simpliste : faire la même chose qu’avant mais par ordinateurs et applications interposés. Aucune remise en cause des organisations, des pratiques, du rapport au public.
Le couple ordinateur / Internet est à certaines administrations ce que l’hygiaphone était au guichet de La Poste il y a quarante ans. L’hygiaphone avait une fonction : instaurer plus de distance entre le préposé et l’usager. Au sommet : l’hygiaphone avec micro et haut-parleur, où même la voix humaine était devenue méconnaissable.
Désormais on a trouvé un moyen plus efficace de balancer une partie du travail administratif sur les usagers en rendant impossibles des demandes effectuées en présence. Invariablement, toute personne se rendant dans un centre des impôts ou une mairie en ressort avec une injonction : « rendez-vous sur internet pour faire votre démarche ». Et le pire, dans ces histoires, c’est que les préposés ne se posent jamais la question de savoir si la personne qu’ils renvoient ainsi dans les cordes numériques, sans ménagement, sont bel et bien en mesure de remplir les bonnes conditions d’usage du service numérique concerné. Corollaire : ces mêmes préposés scient aussi la branche de l’emploi dont ils dépendent.
Vous avez 80 ans avec une déclaration d’impôts un peu complexe ? Vous devez refaire votre carte d’identitié ? Un rendez-vous chez le médecin ? Remplissez des formulaires sur Internet, demandez des rendez-vous depuis une application… et si vous n’y parvenez pas, soit vous avez des enfants et des petits-enfants capables de vous aider, soit… rien.
Indiscutablement, les personnes âgées sont les premières victimes de cette misère numérique. C’était d’ailleurs l’objet du rapport des Petits Frères des Pauvres en 2018, intitulé « Exclusion numérique des peronnes âgées ». La misère numérique est sociale. Elle n’est plus seulement un clivage géographique entre zones rurales et zones urbaines, entre pays riches et pays pauvres.
La faute à la politique ? à l’économie ? On pourra invoquer toutes sorte de raisons pour lesquelles nos aînés aussi bien que les pauvres ou les jeunes précaires se trouvent tous doublement exclus. L’exclusion sociale et l’exclusion numérique vont de pair. On ne peut pas décorréler la question des usages numériques d’une lutte contre les inégalités sociales et économiques.
La transformation numérique des services publics s’est effectuée en excluant les utilisateurs. Tout changement technologique suppose une révision des organisations. Ici, il s’agit de l’ensemble de la société et pas seulement la réduction des effectifs des services. Imposer de tels changements dans les usages tout en conservant de vieux modèles de gestion est une mauvaise stratégie. Elle ne peut déboucher que sur l’exclusion.
Nos responsabilités individuelles ne sont pas pour autant exemptées. Renvoyer une personne âgée sur Internet lorsqu’elle vient effectuer une démarche administrative est un comportement inacceptable. Il est la preuve d’un service public mal rendu et le signe d’une indigence morale.
Quant à l’avenir, il se dessine déjà. D’aucuns pourraient penser que, habitués comme nous le sommes, nous n’aurons aucun mal à interagir avec ces services numériques lorsque nous aurons l’âge de nos aînés. C’est faire preuve de naïveté. D’abord, croire que la situation restera la même, avec les mêmes technologies et les mêmes usages. Ensuite, croire que nos capacités physiques et cognitives restent les mêmes qu’à vingt ans. Rien n’est plus faux. En entretenant ce genre de croyances nous construisons tous ensemble les cercueils numériques de nos vieux jours.
02.08.2019 à 02:00
Obfuscation
« Où le Sage cache-t-il une feuille ? Dans la forêt. Mais s’il n’y a pas de forêt, que fait-t-il ?… Il fait pousser une forêt pour la cacher. » L’obfuscation, magistralement illustrée par l’auteur de roman G. K. Chesterton.
Dans ce monde de la sélection par des algorithmes, de la publicité ciblée et du marché des données personnelles, rester maîtres de nos actions, de nos relations, de nos goûts, de nos navigations et de nos requêtes implique d’aller au delà de la longue tradition de l’art du camouflage. Si on peut difficilement échapper à la surveillance numérique, ou effacer ses données, il est toujours possible de noyer nos traces parmi de multiples semblables, de créer nous-mêmes un brouillard d’interactions factices.
Quels en sont alors les enjeux et les conséquences ? Finn Brunton et Helen Nissenbaum ayant constaté l’asymétrie de pouvoir et d’information entre usagers et plateformes dressent le bilan, proposent des actions et prennent le temps de la réflexion : pourquoi et comment reconquérir son autonomie personnelle ? Comment résister éthiquement avec les armes du faible ? Comment réfléchir ensemble à ce que l’obfuscation nous fait découvrir sur l’influence mentale exercée par les puissants du numérique ?
Nissenbaum, Helen Fay, et Finn Brunton. Obfuscation. La vie privée, mode d’emploi. Traduit par Elena Marconi, C&F éditions, 2019.
Lien vers le site de l’éditeur : https://cfeditions.com/obfuscation/
29.07.2019 à 02:00
Rocher de Mutzig-Schneeberg
Après plusieurs tournées du côté de ce massif fort connu des randonneurs (Rocher de Mutzig, Schneeberg), j’ai pu élaborer ce parcours réservé toutefois aux vététises confirmés. Il fera appel à un pilotage un peu engagé en cross-country (les descendeurs trouveront cela évidemment très facile). Les passages délicats seront signalés pour vous faire une idée précise. Des points de vue exceptionnels vous attendent et beaucoup de plaisir en descente.
La première remarque : ceux qui ont peur des dévers et n’aiment pas les longues montées monotones, passez votre chemin. Oui, le plaisir a un prix. Cependant, la distance totale est courte. Il ne s’agit que de 30 km avec un peu plus de 1100 m de dénivelé positif, du moins pour ce qui concerne la version « rapide » du parcours.
Une seconde remarque : sur la zone en question, notamment du côté de la commune de Wangenbourg-Egenthal, il existe tout un ensemble de circuits VTT fléchés (malheureusement la plupart du temps sur des grands chemins, cadre légal oblige), et nous en croiserons certains. Alors pourquoi un tel circuit supplémentaire ? Parce qu’il est conçu pour l’entraînement aussi : l’idée est de cumuler en peu de temps un maximum de dénivelé positif. Mais pour éviter les aspects pénibles d’un parcours uniquement dédié à cela, la zone offre une variété de terrain, ce qui romp la monotonie. Quant aux descentes, elles se feront de manière ludique.
Notez aussi que le Rocher de Mutzig est d’abord le royaume des randonneurs : soyez courtois et discret lorsque vous en croisez, en particulier sur les petits sentiers. Cela fait aussi partie des qualités de pilote que de rouler en sécurité.
Habituellement, sur le Rocher de Mutzig, la montée s’effectue via Lutzelhouse et descente du côté Porte de Pierre et col du Wildberg. Nous ferons tout l’inverse pour la première partie du parcours.
Le départ se fait depuis Oberhaslach. Garez-vous sur le parking de l’école, en tournant dans la petite rue au niveau de la mairie du village. Notez la présence de la fontaine, en façade, qui peut s’avérer utile en cas de terrain trop gras (mais ne faites pas ce circuit en temps de pluie).
La carte du parcours ci-dessous montre le chemin le plus rapide du parcours. Je mentionne les variantes possibles.
La montée au Rocher de Mutzig
La montée sera longue. Dirigez-vous dans un premier temps (disques rouges) vers la maison forestière Weinbaechel. Dépassez cet endroit, puis suivez le chemin forestier. Tournez à gauche à l’intersection du GR532 et suivez le chemin forestier jusqu’au col du Wildberg. Variante : prenez les croix jaunes jusqu’au col du Wilberg avec un bon coup de mollet (80 m de dénivelé un peu raide) mais des récents travaux forestiers ont un peu gaché le chemin.
Au col du Wildberg, vous avez le choix :
- Suivez les croix bleues sur le chemin forestier puis les croix jaunes jusqu’à la Porte de Pierre. C’est à mon avis le plus simple. Une montée raide de 50 m vous attend une fois quittée le chemin forestier, et un seul portage juste en dessous de la Porte de Pierre.
- Ou bien suivez les croix jaunes d’emblée pour monter le Petit Katzenberg, mais il y aura plusieurs portages (au moins 3).
Juste après la Porte de Pierre et après avoir franchi quelques racines pénibles, vous pouvez monter sans problème jusqu’au Rocher de Mutzig. Le sentier est pierreux, il fera appel à votre sens de l’équilibre et à votre explosivité.
Du Rocher de Mutzig au Schneeberg
La descente du Rocher de Mutzig est très technique. Si vous ne le sentez pas, aucun problème, repartez sur vos pas et empruntez le chemin forestier jusqu’au Col du Narion. La descente technique, elle, se fait tranquillement une fois le terrain reconnu une ou deux fois auparavant. Si c’est la première fois que vous l’empruntez, ne présumez pas de vos réactions.
Attention aux randonneurs surtout ceux qui montent : s’ils ne sont pas vététistes, ils ne peuvent pas savoir où se placer pour vous laisser passer. Alors freinez, et laissez-les monter.
Depuis le Col du Narion, rejoignez le Altmatt via le large chemin forestier. Là encore vous avez le choix pour rejoindre le Elsassblick.
Le plus simple est de contourner le Grossmann par la Maison Forestière du Grossmann, prendre les croix bleues et le chemin forestier jusque Elsassblick.
Le plus amusant est d’emprunter la variante GR (rectangles blancs et rouges) qui est très jolie à cet endroit. Là vous aurez un festival de petits frissons. Certains passages avec un fort dévers (c’est carrément un ravin) vous laissent quelques 25 cm de chemin. Prudence. Un arbre a d’ailleurs été fourdroyé et a littéralement cassé le chemin : le portage peu être un peu délicat. Heureusement, il ne s’agit pas d’une descente : le chemin reste à niveau donc le risque est tout de même largement amoindri.
Surtout si vous passez à plusieurs, deux conseils : envisagez la présence des randonneurs (je me répète, je sais) et surtout restez attentifs, ne discutez pas, concentrez-vous sur ce que vous faites, pédale haute vers l’amont. Et tout se passera très bien.
Ensuite suivez toujours les rectangles blancs et rouges : prenez la route forestière sur quelques centaines de mètres et tournez vers le Eichkopf. Suivez toujours le GR mais méfiez-vous il faudra quitter le chemin large pour passer sous le Urstein (on loupe facilement cette bifurcation).
Ensuite, passez le col du Hoellenwasen, suivez toujours les rectangles blancs et rouges. Attention, un passage avec une descente très technique sur 40 m : je conseille même de descendre du vélo à cette occasion. Toujours sur le GR vous allez remonter, juste après cette descente, sur un chemin assez large. Vous quitterez ce chemin par les disques bleus pour rejoindre le GR 53 et monter au Schneeberg. Montez jusqu’au pied des rochers en franchissant les escaliers.
Descendre du Schneeberg
Une fois en haut des escaliers, il y a une petite place où vous pouvez faire une pause. Prenez ensuite un chemin non balisé qui serpente dans les myrtilles. C’est une descente un peu technique mais sans obstacle, traçée par d’autres vététistes, je suppose. Elle rejoint le GR en contrebas et le balisage des croix rouges.
Là encore vous avez le choix.
Soit vous prenez à gauche, en descente, jusqu’au croisement avec le chemin forestier des Pandours, que vous pouvez alors descendre tranquillement jusqu’au col du même nom. C’est du chemin large…
Soit vous prenez à droite et remontez un peu pour reprendre le sentier balisé croix rouges, passer l’abri du Schneeberg et rejoindre le chemin forestier des Pandours. La descente est encore une fois assez technique, et il y aura deux portages au moment de croiser d’autres chemins forestiers.
Col des Pandours
C’est la dernière étape après avoir traversé la route départementale 218. En empruntant le chemin forestier, vous suivrez les rectangles jaunes et blancs jusqu’au carrefour Anlagen puis les rectangles bleu (GR 531) jusqu’à Oberhaslach. Là c’est facile : c’est une très belle descente sur un sentier plutôt joueur. Une manière de terminer cette balade sur une note agréable.
Variante : du col des Pandours, poussez via les croix rouges vers le Carrefour du Brigadier Jérôme puis allez jusqu’au rocher du Pfaffenlap (très jolie vue). Ensuite, soit vous revenez sur le Carrefour Anlagen soit vous passez sur le Breitberg et, toujours en suivant les croix rouges, vous redescendez sur Oberhaslach via un sentier un peu moins joueur que l’autre (vous arrivez alors juste au-dessus de la Maison Forestière Ringenthal).
Dans les deux cas, reprenez les croix jaunes et rectangles bleus jusqu’au parking. Le tour est fini.
07.06.2019 à 02:00
Fuckapital
Il n’est pas toujours facile d’expliquer en quoi consiste le capitalisme de surveillance. C’est encore moins facile si l’approche que l’on choisit n’est pas tout à fait celle qui a le vent en poupe. Doit-on pour autant se contenter d’une critique édulcorée du capitalisme de surveillance ? Elle n’offre qu’une alternative molle entre un capitalisme immoral et un capitalisme supportable. Essayons de ne pas avoir à choisir entre la peste et le choléra.
Fuckapital. Dialogue à propos du capitalisme de surveillance
– Alors ça recommence, tu vas encore casser du sucre sur le dos de Madame Zuboff ?
– Maiiiis nooon. Que vas-tu imaginer ? Son travail sur le capitalisme de surveillance est exceptionnel. Et c’est justement pour cette raison qu’il est important d’un déceler les a priori et voir avec lesquels on peut ne pas être d’accord.
– Quoi par exemple ?
– La manière dont elle définit le capitalisme de surveillance.
– Oui, enfin… dans ce cas tu remets en cause tout son bouquin, The Age of Surveillance Capitalism.
– Non, non. J’ai déjà eu l'occasion d’en parler. Si elle ne cite pas les premiers chercheurs qui ont proposé cette notion (John Bellamy Foster et Robert W. McChesney), c’est parce que sa conception à elle est bien différente. Elle définit le capitalisme de surveillance à la manière d’un dictionnaire, avec une liste très bien faite détaillant sa polysémie. À lire cette définition, tout son livre est synthétisé (on salue au passage le talent). Mais ce n’est pas cela le problème. Je veux dire : le capitalisme de surveillance. C’est-à-dire la manière dont elle fait le lien entre les mécanismes du capitalisme et ceux du capitalisme de surveillance. En effet, pour elle, le capitalisme de surveillance est une évolution (néfaste) du capitalisme. Pour être plus exact, le capitalisme de surveillance est, selon elle, un exercice du capitalisme qui ne devrait pas fonctionner. Son livre est tout sauf une critique du capitalisme tel qu’il s’exerce aujourd’hui.
– Tu veux dire que, finalement, elle « détache » le capitalisme de surveillance du capitalisme tout court ? Comme si c’était une erreur de parcours ?
– Exactement. D’où la question : est-ce que le capitalisme de surveillance est une erreur de parcours du capitalisme ? Si oui, cela veut dire qu’il reste à le réglementer, comme on a (tenté de) réglementer les monopoles. Ce serait un peu comme on distingue le capitalisme « sauvage » et le capitalisme « apprivoisé », selon les orientations politiques d’un pays.
– Oui, je vois. Mais… C’est bien cela, non ? Regarde quelqu’un comme Hal Varian de chez Google, souvent cité par S. Zuboff. Ce type pense que pour améliorer notre « expérience utilisateur », il faut pomper toute notre vie privée, en réalité pour revendre ces données aux plus offrants et s’enrichir au passage. Ou bien ces allumés (doués) comme le germano-américain Peter Thiel, qui se disent libertariens. Si on les écoutait il n’y aurait presque plus d’État pour protéger nos libertés…
– Effectivement, Zuboff montre bien qu’il y a un grand danger dans ce laisser-faire. Cela va même beaucoup plus loin, puisque que grâce aux technologies dont ils ont le monopole, ces grands acteurs économiques que sont les GAFAM, sont capables non seulement de tout savoir de nous mais surtout d’influencer nos comportements de telle manière que le marché lui-même est modelé pour calibrer nos comportements, nos savoirs, et nos vies en général. Pour Zuboff, cela met en danger la démocratie libérale, c’est-à-dire cette démocratie basée sur les droits et les libertés civils. Mais justement, c’est-là tout le paradoxe qu’elle ne pointe pas : c’est bien grâce à ce libéralisme qu’il est possible de vivre dans une économie capitaliste. Dès lors, si le capitalisme de surveillance est un excès du capitalisme, et donc du libéralisme, le remettre en cause revient à questionner les raisons pour lesquelles, à un moment donné, la démocratie libérale a échoué. Cela revient à critiquer les politiques libérales des 10, 20, 30, 50 dernières années. Pour cette raison il faut non seulement en faire l’histoire mais aussi la critique et au moins tenter de proposer une porte de sortie. On a beau lire le livre de Zuboff, on reste carrément coincé.
– Je te vois venir : évidement tu arrives en grand sauveur… tu vas dévoiler la vérité. On connaît la chanson.
– Pas moi ! John Bellamy Foster et Robert W. McChesney ont déjà pointé la direction dans laquelle il faut absolument réfléchir : déconstruire les mécanismes du capitalisme de surveillance, c’est obligatoirement en faire une histoire pour comprendre comment le libéralisme a créé des bulles hégémoniques (à la fois politiques et économiques) à la source d’un modèle de domination dont les principaux instruments sont les technologies d’information et de la communication. Eux le font sur l’histoire politique. Moi, je compte proposer une approche plutôt axée sur l’histoire des technologies, mais pas uniquement.
– Mais attends une minute. J’ai vu une conférence de Zuboff donnée à Boston en janvier 2019 à la suite de la sortie de son livre. Je l’ai trouvée passionnante. Elle expliquait comment les pratiques du capitalisme de surveillance sont bien celles du capitalisme en général. Elle ne le détache pas de l’histoire.
– Vas-y, développe.
– Elle parlait de la tradition capitaliste. La manière dont évolue le capitalisme en s’accaparant des choses qui « vivent » en dehors du marché pour les introduire dans le marché, c’est-à-dire transformer en quelque chose qui peut être vendu et acheté.
– Heu.. si on réduit le capitalisme à un marché d’échange, dans ce cas, l’humanité à toujours vécu dans le capitalisme. C’est un peu léger. À moins que tu suggères par là que le capitalisme implique de tout transformer en biens marchands, y compris ce qui est censé y échapper comme les biens communs, les services publics, la santé, l’environnement, etc. Et dans ce cas, oui, c’est bien le cas, mais on enfonce des portes ouvertes.
– Certes. C’est même très orienté de penser les choses ainsi. Mais attends. Elle précise tout de même. Le capitalisme industriel procède de cette manière et accapare la nature pour la transformer en biens destinés à l’échange. De la même manière encore, notre force physique (un élément naturel) s’est trouvé valorisé sur le marché en tant que force de travail. Et encore de la même manière, ce qu’elle appelle notre expérience humaine privée se retrouve sur le marché du capitalisme de surveillance. Il y a ainsi un marché de nos données comportementales, avec des calculs prédictifs, des paris sur nos comportements futurs, bref, on marchande nos âmes, tu vois ce que je veux dire ?
– Mouais… Quoique… il faudrait encore savoir ce qu’on entend par capitalisme, dans ce cas. L’un des gros problèmes des libéraux, c’est qu’ils pensent que le capitalisme a toujours existé. Oups… non, ce n’est pas correct de ma part. Disons qu’il y a plusieurs acceptions du capitalisme et que leurs histoires sont relatives. Par exemple, la propriété des biens de production est un principe qui ne date pas uniquement du XIXe siècle ; la création de biens marchands est une activité qui date d’aussi loin que l’économie elle-même ; et pour ce qui concerne l’accumulation de capital, tout dépend de savoir si on se place dans un capitalisme modéré par l’État (dans ce cas, s’il y a une monarchie, n’importe qui ne peut pas accumuler le capital, n’est-ce pas) ou si on se place dans un régime libéral, auquel cas, soit c’est la fête du slip soit il y a tout de même des gardes-fous, voire des contradictions, selon les orientations politiques du moment.
– D’accord, mais quel rapport avec le capitalisme de surveillance d’aujourd’hui ?
– Attends, je n’ai pas fini là dessus. Il faut lire l’économiste Bruno Amable, par exemple, qui distingue géographiquement et culturellement différents modèles du capitalisme dans le monde (modèle européen, modèle asiatique, modèle méditerranéen, ou bien modèle socio-démocrate et modèle néolibéral). Et comme il y a plusieurs modèles du capitalisme, il y a aussi plusieurs manières d’envisager là où s’exerce le capitalisme selon les secteurs économiques. Par exemple le capitalisme financier, le capitalisme industriel ou bien… le capitalisme de surveillance, donc. Ce sont des formes du capitalisme.
– Tu veux dire que Zuboff dresse une filiation du capitalisme de surveillance avec un capitalisme fantasmé? qui n’existe pas en réalité ?
– Je veux dire que le capitalisme en général n’est pas ce qu’en dit Zuboff, mais ce n’est pas le plus important. Ce que fait Zuboff, c’est qu’elle sort le capitalisme de surveillance de l’histoire elle-même. Ses références historiques ne concernent que l’histoire fleuve du capitalisme dont elle imprime les mécanismes sur des pratiques (qu’on appelle la surveillance, la dataveillance, l’uberveillance, etc.) d’aujourd’hui alors que ces mêmes pratiques ont forcément une origine qui ne date pas d’hier. Elles ont elles aussi une histoire. Et dès lors qu’elles ont une histoire, le capitalisme auquel elles se rattachent n’est pas uniforme. Et attention, je n’oppose pas pour autant une approche matérialiste, mais c’est trop long pour t’expliquer maintenant.
– C’est pour cela que tu vas en faire une archéologie, parce que cette histoire nous est cachée ?
– En tout cas les vestiges ne sont pas directement visibles, il faut creuser. Par exemple, le capitalisme des années 1950-1960-1970 est un capitalisme qui a vu naître le consumérisme de masse, des technologies de marketing, et en même temps il se trouvait hyper-régulé par l’État, si bien que les pratiques de surveillance sont en réalité des pratiques qui naissent avec les institutions, l’économie institutionnelle : les secteurs bancaires, assurantiels, et les institutions publiques aussi. L’hégémonie des grosses entreprises monopolistiques est d’abord une hégémonie qui relève de l’économie politique, en particulier celle des États-Unis, mais pas uniquement. Par la suite, la libéralisation des secteurs a créé d’autres formes encore de ce capitalisme de surveillance. Et dans toutes ces histoires, il faut analyser quelles technologies sont à l’œuvre et quelles sont les tensions sociales qu’elles créent.
– Pfou… c’est nébuleux, tu peux donner un exemple ?
– Prenons l’exemple de la valorisation de l’information en capital. C’est un principe qui existe depuis fort longtemps. Si on prend plus exactement l’information personnelle qui relève de la vie privée ou ce que Zuboff appelle notre expérience humaine privée. Qu’est-ce que c’est ? jamais la même chose. Ce n’est pas une donnée naturelle dont le capitalisme se serait emparé pour la « mettre » sur le marché. D’abord ce qu’on appelle « vie privée » est une notion qui est définie dans le droit américain de manière très malléable depuis la fin du XIXe siècle, et cette notion n’a d’existence juridique en Europe dans un sens approchant celui d’aujourd’hui que depuis la seconde moitié du XXe siècle, de plus, selon les pays ce n’est pas du tout la même chose. Dans ce cas, quel est vraiment le statut des modèles mathématiques puis informatiques des analyses marketing, d’abord théorisés dans les années 1940 et 1950, puis informatisés dans la seconde moitié des années 1960 ? Par exemple, en 1966, DEMON (Decision Mapping via Optimum Go-No Networks), dédié à l’analyse prédictive concernant « la commercialisation de nouveaux biens de consommation avec un cycle d’achat court ». Ces systèmes utilisaient bien des informations personnelles pour modéliser des comportements d’achats et prédire les états du marché. Ils se sont largement améliorés avec l’émergence des systèmes de gestion de base de données dans les années 1980 puis du machine learning des années 2000 à aujourd’hui. Ces technologies ont une histoire, la vie privée a une histoire, le capitalisme de surveillance a une histoire. Les évolutions de chacune de ces parties sont concomitantes, et s’articulent différemment selon les périodes.
– Tout cela n’est manifestement pas né avec Google.
– Évidemment. Il n’y a pas des « capitalistes de la surveillance » qui se sont décidés un beau jour de s’accaparer des morceaux de vie privée des gens. C’est le résultat d’une dynamique. Si le capitalisme de surveillance s’est généralisé à ce point c’est que son existence est en réalité collective, sciemment voulue par nous tous. Il s’est développé à différents rythmes et ce n’est que maintenant que nous pouvons le nommer « capitalisme de surveillance ». C’est un peu comme nos économies polluantes dont nous avons théorisé les impacts climatiques qu’assez récemment, même si en avions conscience depuis longtemps : qui prétend jeter la première pierre et à qui exactement ? Est-ce que d’ailleurs cela résoudrait quelque chose ?
– Oui, mais à lire Zuboff, on a atteint un point culminant avec l’Intelligence artificielle, les monopoles comme Google / Alphabet et le courtage de données. Tout cela nous catégorise et nous rend économiquement malléables. C’est vraiment dangereux depuis peu de temps, finalement.
– À partir du moment où nous avons inventé le marketing, nous avons inventé le tri social dans le capitalisme consumériste. À la question « pourquoi existe-t-il un capitalisme de surveillance ? », la réponse est : « parce qu’il s’agit d’un moyen efficace de produire du capital à partir de l’information et du profilage des agents économiques afin d’assurer une hégémonie (des GAFAM, des États-Unis, ou autre) qui assurera une croissance toujours plus forte de ce capital ».
– Mais tu es bien d’accord avec l’idée que ce capitalisme est une menace pour la démocratie, ou du moins que le capitalisme de surveillance est une menace pour les libertés. Mais enfin, si tu prétends que cette histoire a plus de 50 ans, ne penses-tu pas que les régimes démocratiques auraient pu y mettre fin ?
– Dans les démocraties occidentales, les politiques libérales ont toujours encouragé les pratiques capitalistes depuis près de trois siècles, à des degrés divers. Elles se sont simplement radicalisées avec des formes plus agressives de libéralisme qui consistaient à augmenter les profits grâce aux reculs progressifs des régulations des institutions démocratiques et des protections sociales. Si d’un côté des lois ont été créés pour protéger la vie privée, de l’autre côté on a libéré les marchés des télécommunications. Tout est à l’avenant. Encore aujourd’hui par exemple, alors qu’on plaide pour rendre obligatoire l’interopérabilité des réseaux sociaux (pour que les utilisateurs soient moins captifs des monopoles), les politiques rétorquent qu’un tel principe serait « excessivement agressif pour le modèle économique des grandes plateformes ».
– Des luttes s’engagent alors ?
– Oui mais attention à ne pas noyer le poisson. Focaliser sur la lutte pour sauvegarder les libertés individuelles face aux GAFAM, c’est bien souvent focaliser sur la sauvegarde d’un « bon » libéralisme ou d’un « capitalisme distributif » plus ou moins imaginaire. C’est-à-dire vouloir conserver le modèle politique libéral qui justement a permis l’émergence du capitalisme de surveillance. Comme le montre ce billet, c’est exactement la brèche dans laquelle s’engouffrent certains politiques qui ont le beau jeu de prétendre défendre les libertés et donc la démocratie.
– C’est déjà pas mal, non ?
– Non. Parce que lutter contre le capitalisme de surveillance uniquement en prétendant défendre les libertés individuelles, c’est faire bien peu de cas des conditions sociales dans lesquelles s’exercent ces libertés. On ne peut pas mettre de côté les inégalités évidentes que créent ces monopoles et qui ne concernent pas uniquement le tri social du capitalisme de surveillance. Que dire de l’exploitation de la main d’œuvre de la part de ces multinationales (et pas que dans les pays les plus pauvres), sans compter les impacts environnementaux (terres rares, déchets, énergies). Si on veut lutter contre le capitalisme de surveillance, ce n’est pas en plaidant pour un capitalisme acceptable (aux yeux de qui ?) mais en proposant des alternatives crédibles, en créant des solutions qui reposent sur l’entraide et la coopération davantage que sur la concurrence et la croissance-accumulation sans fin de capital. Il ne faut pas lutter contre le capitalisme de surveillance, il faut le remplacer par des modèles économiques et des technologies qui permettent aux libertés de s’épanouir au lieu de s’exercer dans les seules limites de l’exploitation capitaliste. Fuck le néolibéralisme ! Fuck la surveillance !
– Bon, tu reprends une bière ?
28.05.2019 à 02:00
Rédiger et manipuler des documents avec Markdown
Rédiger des documents et élaborer un flux de production implique d’envisager clairement le résultat final. Formulé ainsi, cela pourra toujours sembler évident : que voulez-vous faire avec votre document ? À qui le destinez-vous ? Pour quels usages ? Après avoir livré quelques considérations générales relatives à la stratégie j’expliquerai comment j’envisage la rédaction de documents (souvent longs) avec Markdown vers ODT ou LaTeX.
Quelques considérations préalables
Rédiger un document avec LibreOffice, MSWord, LaTeX (ou d’autres logiciels de traitement de texte) c’est circonscrire le flux de production aux capacités de ces logiciels. Attention, c’est déjà beaucoup ! Les sorties offrent bien souvent un large choix de formats selon les besoins. Cela dit, une question peut se poser : ne serait-il pas plus logique de séparer radicalement le contenu du contenant ?
Après tout, lorsqu’on rédige un document avec un logiciel de traitement de texte, chercher à produire un format compatible consiste à produire un format qui sera non seulement lisible par d’autres logiciel et sur d’autres systèmes, mais aussi que sa mise en page soit la même ou quasi-similaire. Finalement, on veut deux choses : communiquer un format et une mise en page.
Voici quelques années que je fréquente différents logiciels dans le cadre de la rédaction et de l’édition de documents, à commencer par LibreOffice et LaTeX. Compte-tenu des pratiques actuelles de stockage dans les nuages et la sempiternelle question du partage de documents et de la collaboration en ligne, j’en suis arrivé à une conclusion : écrire, manipuler, partager, modifier un document déjà mis en forme par un logiciel de traitement de texte est une erreur. Les formats utilisés ne sont que très rarement faits pour cela (il y a bien sûr des exceptions, comme le XML
, par exemple, mais nous parlons ici des pratiques les plus courantes).
Tous les formats propriétaires sont à bannir : leur manipulation est bien trop souvent source d’erreur, et suppose un enfermement non seulement de la chaîne de production mais aussi des utilisateurs dans un écosystème logiciel exclusif. Sitôt qu’un écart minime se forme dans cette chaîne, c’est fichu.
Les formats ouverts sont bien plus appropriés. Justement parce qu’ils sont ouverts, leur compatibilité pose d’autant moins de souci. Il subsiste néanmoins toujours des risques lorsque des logiciels propriétaire entrent dans la chaîne de production parce que tous les utilisateurs n’ont pas les mêmes outils.
La faiblesse ne concerne pas uniquement ces formats ou ces logiciels mais elle réside aussi dans leur manipulation. Même si on accepte de travailler (au prix de nos libertés et de notre confidentialité) avec des services comme ceux de Google ou Microsoft, et même si on utilise des solutions libres et ouvertes comme OnlyOffice ou LibreOffice Online, l’enjeu auquel nous faisons toujours face est le suivant : en ligne ou en local, choisir un logiciel de traitement de texte revient à restreindre d’emblée l’usage futur de la production en choisissant par avance son format final et sa mise en page.
Faire ce choix n’est pas interdit (et heureusement !). C’est d’ailleurs celui qui prévaut dans la plupart des situations. Il faut seulement l’assumer jusqu’au bout et manœuvrer de manière assez efficace pour ne pas se retrouver « coincé » par le format et la mise en page choisis. Là aussi, il faut réfléchir à une bonne stratégie de production et conformer toute la chaîne au choix de départ.
D’autres solutions peuvent être néanmoins adoptées. Au même titre que la règle « faites votre mise en page en dernier » doit prévaloir pour des logiciels wysiwyg, je pense qu’il faudrait ajouter un autre adage : « choisissez le format le plus basique en premier ». Cela permet en effet de produire du contenu très en amont de la phase finale de production et inclure dans cette dernière la production du format à la demande.
Quels choix ?
En d’autre termes, si votre éditeur, votre directeur de thèse, vos collègues ou vos amis, vous demandent un .odt
, .doc
, un PDF
, un .epub
, un .tex
ou un .html
, l’idéal serait que vous puissiez le produire à la demande et avec une mise en page (ou une mise en forme s’il s’agit d’un document .tex
, par exemple) différente et néanmoins appropriée. Pour cela, il faut impérativement :
- connaître une méthode sûre pour convertir votre document,
- connaître les possibilités de mise en forme automatiques à configurer d’avance pour produire le document final.
Autrement dit, avant même de commencer à produire votre contenu (que vous allez détacher absolument de la forme finale), vous devez élaborer tout un ensemble de solutions de conversion et de mise en forme automatiques.
Rien de bien nouveau là-dedans. C’est exactement la même stratégie que l’on emprunte lorsqu’on rédige un contenu le formatant à l’aide d’un langage balisé comme le HTML ou (La)TeX. On ne fait alors que produire un document texte formaté et, parallèlement, on crée des modèles de mise en page (.css
pour le HTML, ou des classes .cls
pour LaTeX). La sortie finale emprunte alors les instructions et les modèles pour afficher un résultat.
L’idée est d’adopter cette démarche pour presque n’importe quel format. C’est-à-dire :
- créer du texte à l’aide d’un éditeur de texte et choisir un langage de balisage facile à l’utilisation et le plus léger possible : le Markdown est à ce jour le meilleur candidat ;
- convertir le document en fonction de la demande et pour cela il faut un convertisseur puissant et multi-formats : Pandoc ;
- créer des modèles de mise en page (pour les réutiliser régulièrement si possible).
Avantages
Les avantages de Markdown sont à la fois techniques et logistiques.
D’un point de vue technique, c’est sur la syntaxe que tout se joue. Comme il s’agit d’un balisage léger, le temps d’apprentissage de la syntaxe est très rapide. Mais aussi, alors qu’on pourrait considérer comme une faiblesse le fait que Markdown ne soit pas standardisé, il reste néanmoins possible d’adapter cette syntaxe en lui donnant un saveur particulière. C’est le cas de Multimarkdown, une variante de Markdown permettant des exports plus spécialisés. Ainsi, plusieurs fonctionnalités sont ouvertes lorsqu’on destine un document Markdown à la conversion avec Pandoc. On retient surtout les tables, les notes de bas de page et la gestion bibliographique ou d’index. Enfin, il est toujours possible d’inclure du code HTML ou même LaTeX dans le document source (parfois même les deux, en prévision d’une conversion multiple).
Pour ce qui concerne le travail Markdown + Pandoc + LaTeX, on peut se reporter à l’article que j’avais traduit sur ce blog : « un aperçu de Pandoc ».
Pour ce qui concerne la pérennité d’un fichier markdown, tout comme n’importe quel fichier texte, il sera toujours lisible et modifiable par un éditeur de texte, ce qui n’est pas le cas des formats plus complexes (exceptés les formats ouverts).
D’un point de vue logistique, la manipulation a plusieurs avantages, bien qu’ils ne soient pas réservés au seul format Markdown :
- les éditeurs de texte sont des logiciels très légers par rapport aux « gros » logiciels de traitement de texte, si bien que travailler sur un document Markdown ne nécessite que peu de ressources (et il y a un grand choix d’éditeurs de texte libres),
- on peut aisément travailler à plusieurs sur un document texte en utilisant des services en ligne légers comme des pads (par exemple sur framapad.org ou cryptpad),
- ce qui n’empêche pas l’utilisation de logiciels en ligne plus classiques, pourvu que l’export puisse se faire en texte ou dans un format qui permet la conversion « inverse » vers le Markdown (ou alors de simples copier/coller),
- on peut utiliser facilement un dépôt Git pour synchroniser ses fichiers et retrouver son travail où que l’on soit (ou collaborer avec d’autres utilisateurs),
- le fait de séparer le contenu de la forme permet de se concentrer sur le contenu sans être distrait par les questions de mise en page ou une interface trop chargée (c’est aussi un argument pour LateX, sauf que la syntaxe plus complexe contraint en fait le rédacteur à organiser son texte selon les critères « logiques » de la syntaxe, ce qui est aussi respectable).
Mon système à moi
J’en avais déjà parlé dans un autre billet sur Markdown, Pandoc HTML et LaTeX, aussi il y aura des répétitions…
J’utilise LibreOffice ou LaTeX ou la HTML en seconde instance. Dans la mesure du possible j’essaie de rédiger d’abord en Markdown, puis de convertir.
Je procède ainsi dans les cas de figure suivants (liste non exhaustive) :
- la rédaction d’un billet de blog (inutile de convertir car mon moteur de blog utilise le Markdown et converti tout seul en HTML),
- la rédaction de notes (pour une réunion ou un texte court) que je converti en PDF en vue d’une diffusion immédiate,
- la rédaction d’un document long que je produirai en PDF via LaTeX,
- la rédaction d’un document long que je produirai en HTML et/ou epub,
- la rédaction d’un document long que convertirai en ODT dans le cadre d’un projet éditorial,
- la rédaction d’un article que je destine à une diffusion en HTML et/ou epub.
Pour convertir avec Pandoc, la moulinette de base est la suivante (ici pour du .odt
) :
pandoc fichier-de-depart.md -o fichier-de-sortie.html
Ensuite tout est une question d’ajout d’options / fonctions dans la ligne de commande.
Les difficultés sont les suivantes (je ne reviens pas sur le mode d’emploi de Pandoc, l’usage des templates, etc.).
Les styles
La gestion des styles dans la conversion en .odt
dans LibreOffice n’est pas évidente. Le mieux est encore d’utiliser un modèle qui prenne en compte les styles que Pandoc produit lors de la conversion. En effet, la grande force de LibreOffice, ce sont les styles (voir cet ouvrage). Dès lors il est important que vous puissiez opérer dessus une fois votre document au format ODT.
Pour faire simple, il n’est pas utile de spécifier un modèle lors de la conversion avec Pandoc. Il faut la plupart du temps se contenter de produire le document en .odt
puis appliquer les styles voulus. Pour aller vite, voici ce que je conseille de faire :
- rédigez une fois un document Markdown avec toutes les marques de formatage que vous voulez,
- convertissez-le en
.odt
, - ouvrez le
.odt
avec LibreOffice et modifiez les styles que Pandoc a créé, - sauvegardez ce document,
- puis à chaque fois que vous devrez produire un document similaire, effectuez un simple transfert de style en suivant la méthode expliquée pages 64-66 de cet ouvrage.
Pour gérer les styles en vue d’une production de document HTML/epub ou LaTeX/PDF, le mieux est encore de créer ses classes .css
et/ou .cls
et/ou .sty
et d’y faire appel au moment de la conversion. On peut aussi intégrer l’appel à ces fichiers directement dans le template, mais faut dans ce cas donner leur nom, ce qui n’est pas pratique si l’on souhaite avoir plusieurs styles de mise en page à disposition et changer à la volée.
Par exemple, pour une sortie HTML :
pandoc --template=modele.html -H monstyle.css fichier-de-depart.md -o fichier-de-sortie.html
(notez que l’appel au fichier .css
peut très bien être déjà inclus dans le modèle)
La bibliographie
J’ai indiqué dans cet article comment utiliser Pandoc avec une bibliographie. L’essentiel est de comprendre que, quel que soit le format de sortie choisi, il faut que votre bibliographie soit enregistrée dans le format de bibliographie par excellence, bibtex (.bib
). Puis :
- si vous voulez sortir un fichier pour LaTeX, la bibliographie se gérera avec Biblatex (on ajoutera l’option
--biblatex
dans la ligne de commande), - si vous voulez sortir des fichiers HTML, ou ODT, avec une mise en forme de la bibliographie, il faut aussi installer Citeproc, un jeu de programmes auxquels Pandoc fera appel pour appliquer des instructions de configuration en CSL Citation Style Language.
Concernant les styles de bibliographie obtenus en CSL, le mieux est encore d’utiliser le logiciel Zotero. Il peut vous servir à créer votre bibliographie (il est très pratique grâce à son extension pour Firefox) ou simplement ouvrir votre .bib
obtenu par un autre logiciel, peu importe. Comme Zotero permet d’exporter des éléments bibliographiques formatés, il permet aussi de jouer avec les styles CSL disponibles sur ce dépôt. Si vous trouvez votre bonheur, conservez le fichier .csl
de votre style ou bien utilisez l'éditeur en ligne pour en créer un de toutes pièces ou modifier un modèle existant.
Notez que la conversion vers le format .odt
avec une bibliographie formatée avec un modèle .csl
ne vous produira pas une bibliographie comme si vous l’aviez obtenu avec l’extension Zotero dans LibreOffice et des références dynamiques. Au contraire, selon la mise en forme choisie vous aurez vos éléments bibliographiques dans votre document (y compris avec une bibliographie à la fin) mais il faudra re-compiler si vous changez des éléments bibliographiques. N’oubliez pas que vous devez prendre en compte toute la chaîne depuis votre format de départ (c’est pareil avec LaTeX : il faut recompiler si on met la biblio ou l’index à jour).
Git : travailler dans l’cloude
Comme il m’arrive tous les jours d’utiliser au moins deux ordinateurs différents, j’ai choisi d’utiliser Git lorsque je dois rédiger des documents longs sur une longue période de temps. Là encore, l’avantage d’utiliser de simples fichiers texte, permet de jouer sur la rapidité et la flexibilité de Git. On peut aussi se payer le luxe (selon les programmes disponibles sur le serveur) de configurer des jobs qui permettent, une fois uploadé(s) le(s) fichier(s) Markdown, de créer automatiquement les sorties voulues. Si Pandoc est installé, vous pouvez une fois pour toute configurer votre dépôt pour créer l’artefact à chaque fois.
il est donc inutile de s’encombrer localement (et encombrer le dépôt avec) des fichiers de sortie à moins de les tracer avec Git LFS (cf. ci-dessous).
Concernant les fichiers binaires, trop volumineux, les illustrations, etc. , il faut utiliser GIT LFS qui permet de trier et tracer les fichiers qu’il est inutile de recopier en doublon à chaque fois sur le serveur.
Choisir un bon éditeur
Non, il ne s’agit pas de l’éditeur de la collection où vous allez publier votre livre. Il s’agit de l’éditeur de texte.
Pour ceux qui sont habitués à utiliser à chaque fois un logiciel de traitement de texte wysiwyg pour écrire, il pourrait à première vue sembler bien austère de choisir un logiciel avec une interface moins fournie (en apparence, en tout cas) pour écrire. Et pourtant, que de tranquillité ainsi gagnée !
Tout d’abord un bon éditeur est un éditeur avec coloration syntaxique. Avec cela, les éléments importants de la syntaxe Markdown, ainsi que les titres, les mots en italique, etc., apparaissent en évidence. Ensuite, un bon éditeur de texte est presque entièrement configurable : il vous sera très bénéfique de configurer selon vos goûts le thème de la coloration syntaxique et de l’interface, ainsi que la police. Cela vous assurera surtout un confort d’écriture.
Certains éditeurs sont spécialisés en Markdown, tel Ghostwriter. Mais vous pouvez toujours utiliser des éditeurs destinés à la programmation mais disposant de tout ce qu’il faut pour écrire en Markdown. Certains sont de véritable machines à tout faire (et intègrent souvent une extension pour gérer un dépôt Git), tel Atom ou Geany, d’autres sont des éditeurs de textes historiques du Libre, plus difficiles au premier abord, comme Vi ou Emacs (et avec un grand choix d’extensions). Et il y a ceux qui sont beaucoup plus simples (Gedit, Kate, Notepad++).
Inutile ici de s’étendre sur les centaines d’éditeurs de texte libres et disponibles pour tout un chacun. L’essentiel est de comprendre qu’un bon éditeur est d’abord celui qui conviendra à votre usage et qui vous permettra d’écrire confortablement (esthétique et ergonomie).
Quels outils de production ?
Pour terminer ce billet, voici les éléments pour créer mon flux de production (du moins celui auquel je me conforme le plus possible).
Format | Outils | Fichiers | Résultats |
---|---|---|---|
Markdown | Pandoc + biblatex | .md , .bib , template .tex , .cls , .sty |
TeX (et PDF) |
Markdown + .bibtex | Pandoc + CSL | .md , .bib , .csl , .css , template .html |
HTML |
Markdown + .bibtex | Pandoc + CSL | .md , .bib , .csl |
ODT |
Logiciels utilisés :
- éditeurs : Gedit, Ghostwriter, Atom, Zettlr (cela dépend de mon humeur) ;
- Pour synchroniser et stocker en ligne : Git et Gitlab, ou bien une instance Nextcloud ;
- LaTeX (éditeur de texte classique ou Texmaker) ;
- LibreOffice pour un traitement de texte autre que LaTeX ;
- JabRef et Zotero pour la gestion bibliographique (parfois un simple éditeur de texte).
Concernant la rédaction d’un ouvrage à paraître bientôt, voici comment j’ai procédé tout au long du processus d’écriture :
- rédaction des parties (un fichier par partie) en Markdown avec Ghostwriter la plupart du temps (il dispose d’un outil de visualisation de table des matières fort pratique) ;
- Zotero ouvert sans interruption pour entrer les références bibliographiques au fur et à mesure et insérer leurs IDs dans le document en référence ;
- synchronisation à chaque fin de session de travail avec Git (une instance Gitlab), et une requête de récupération à chaque début de session ;
- pour donner à l’éditeur un « manuscrit » en ODT suivant ses prescriptions : conversion avec Pandoc et un fichier CSL pour la bibliographie : la collaboration avec l’éditeur se fera sur Libreoffice (mise en forme, suivi de corrections).
- à venir : récupération du travail fini en Markdown et export HTML/epub pour la postérité.
Ajoutons à cela que l’usage du Markdown tend à se prêter à bien d’autres situations. Ainsi ce blog est écrit entièrement en Markdown, mes courriels le sont parfois, le logiciel qui me permet de prendre des notes et de les synchroniser sur un serveur utilise le Markdown (j’utilise alternativement Joplin ou Notes de Nextcloud, et de temps à autre Firefox Notes). En somme, autant de situations qui me permettent d’écrire, synchroniser et exporter : le Markdown est omniprésent.
14.04.2019 à 02:00
Rando et VTT : dispositifs GPS et cartographie
Ce billet concerne tous ceux qui, dans le cadre d’activités de plein air (randonnée, VTT, trail) ont besoin d’une solution permettant de planifier et visualiser des parcours et disposer d’une solution mobile sur le terrain. Les logiciels cités ici ne sont pas tous libres : après avoir longuement cherché des solutions simples à mettre en œuvre, du moins qui ne nécessitent pas d’être un crack en Système d’Information Géographique, quelques compromis se sont imposés.
De quoi avons-nous besoin ?
- D’un smartphone Android (je n’ai pas fait de test avec d’autres OS) : j’ai choisi d’en recycler un sous version ancienne (mais pas trop) d’Android. Conseil : s’assurer que le smartphone dispose d’une puce GPS fiable (les puces d’il y a dix ans étaient réputées peu exactes, mais cela s’est largement amélioré). L’idée est de disposer d’un dispositif peu onéreux et néanmoins utile.
- d’un chargeur : en randonnée pédestre, il y a toujours moyen d’économiser de la batterie, voire se contenter d’enregistrer une trace ou simplement visualiser une carte embarquée à la demande. En VTT ou en course à pied, on ne peut guère manipuler le dispositif en pédalant ou en courant. Mes essais ont rarement dépassé 4 heures d’utilisation avec écran allumé en permanence et guidage GPS en action, mais au bout du compte le niveau de batterie excédait rarement 15%. Ajoutons à cela la température ambiante et la variabilité des batteries de smartphone : à vous de voir de quelle quantité d’énergie vous avez besoin.
- d’un ordinateur sous GNU/Linux ou MSWindows avec une bonne connexion Internet (pour télécharger les tuiles de cartes).
- être à l’aise avec la gestion de fichiers.
Quels sont les objectifs ?
Il s’agira d’utiliser des fonds de cartes les plus exacts possibles (en l’occurrence des fonds de carte IGN)1 sur le dispositif embarqué et visualiser une trace par-dessus de manière à suivre un parcours dans les meilleures conditions. On pourra néanmoins utiliser les fonds de cartes communautaires d’Open Street Map avec les logiciels permettant de planifier les parcours même si quelquefois, il vaut mieux s’assurer de la bonne correspondance avec les cartes IGN (et éventuellement contribuer à OSM pour compléter les cartes).
L’IGN a depuis peu de temps rendu disponible sur Geoportail les balisages du Club Vosgien. Étant donné que mes pérégrinations concernent les Vosges, j’ai d’autant plus d’intérêt à utiliser ces fonds de cartes.
Petite précision rapide
Nous allons parler de « tuiles » (tiles), de calques, et de niveaux de zoom. Kézako ?
Un fond de cartographie numérique est composé de plusieurs couches d’images correspondants à des puzzles rassemblés en autant de niveaux de zoom sur la carte. Ce n’est pas exactement les échelles (valables sur une carte papier) mais, pour faire court, on peut dire les choses ainsi : plus vous zoomez plus votre « échelle » est précise. Selon ce que vous voulez faire, par exemple pour de la randonnée, il n’y a pas besoin de composer un fond de carte qui comprend tous les niveaux de zoom. Ainsi, pour obtenir l’équivalent ce qu’on voit sur une carte papier à 1/250000 on utilisera toutes les images (les tuiles) qui correspondent au niveau voulu.
Quant aux calques, c’est un vocable que l’on retrouve partout où l’on traite d’image numérique. Là encore, pour faire simple, on peut dire qu’un fond de carte est un calque sur lequel on va superposer un autre calque qui est en fait le dessin d’une trace GPS. Ce dessin est obtenu avec un fichier (souvent portant l’extension GPX) qui contient tous les points GPS qui composent la trace.
Un tel fichier (lorsqu’on l’ouvre avec un éditeur de texte) comprend un listing, dans l’ordre de passage, de tous les points : latitude et longitude, date et heure, altitude, etc.
Quelles sont les tâches ?
Il y a plusieurs aspects à prendre en compte :
- choisir les logiciels à utiliser sur le dispositif portable (Oruxmaps, Maverick),
- récupérer les fonds de cartes pour être utilisés sur le dispositif portable (Mobac),
- choisir les logiciels à utiliser pour planifier les parcours sur l’ordinateur (Viking, QMapShack)
- choisir les logiciels à utiliser pour visualiser les parcours sur l’ordinateur (et créer sa base de données avec ses stats) : Turtlesport, Mytourbook, partager avec Framacarte…
Applications sur le smartphone
C’est sans doute le sujet le plus décevant : je n’ai pas trouvé d’application libre/open source satisfaisante. Cependant, les applications offrent la possibilité d’utiliser les cartes du projet Open Street Map (OSM).
Que faut-il ?
- une application dans laquelle on peut importer des fonds de carte sur mesure,
- une visualisation claire du tracé avec suivi GPS et, si possible, un code couleur pour les dénivelés.
Mon choix s’est porté sur Oruxmaps. Outre de nombreuses fonctionnalités utiles, cette application permet un guidage GPS particulièrement efficace et reste peu gourmande en énergie, même avec la fonction « écran allumé » pendant tout le trajet.
Une fois le smartphone connecté à l’ordinateur, pour déposer des fonds de carte et des traces GPX, il suffit de naviguer :
- dans
oruxmaps > mapfiles
et déposer les dossiers de fonds de carte. Ou bien (et c’est conseillé) configurer depuis Oruxmaps l’emplacement des fonds de carte (« définir le dossier où sont stockées les cartes ») et pointer sur un dossier de la carte SD externe. En effet, si on met toutes les Vosges du Sud, le dossier prend facilement 300 Mo, par exemple. - dans
oruxmaps > tracklogs
et déposer les fichiers GPX des traces que l’on veut suivre. Puis dans le menu Oruxmaps, « gérer traces / routes », sélectionner le tracé voulu.
Oruxmaps permet un affichage de la trace avec un code couleur bien visible indiquant les dénivelés. C’est très utile car le smartphone étant situé à plus de 30 cm des yeux (dans mon cas sur le guidon de mon VTT, avec moult vibrations), repérer les courbes de niveaux d’une carte est plutôt difficile.
Une autre application offre peu ou prou les mêmes conditions, c’est Maverick. L’interface est plus simple, plus facile à prendre en main, mais il y a moins de gadgets. L’essentiel porte sur la géolocalisation. De la même manière :
- pour déposer un fond de carte, on navigue dans le dossier
Maverick > maps
, - pour déposer une trace, on navigue dans
Maverick > tracks
.
On peut toutefois noter une particularité intéressante pour Maverick : comme on va le voir plus loin, nous allons créer des fonds de carte avec un certain niveau de zoom (zoom 15 pour ce qui nous concerne). Ce qui signifie que les tuiles qui correspondent à d’autres niveaux de zoom (par exemple le fond de carte OSM présent par défaut) peut très bien chevaucher nos tuiles. Ainsi, en zoomant, on obtient alors un mélange des cartes libres Open Street Map (OSM) et nos tuiles, ce qui permet d’avoir un panel très complet.
Une autre application se nomme RandoGPS. Je ne m’étendrai pas dessus car elle ne correspond pas tout à fait au besoin exprimé plus haut. Elle mérite cependant d’être signalée : elle permet d’afficher « offline » le fond de carte correspondant à la trace qu’auparavant on aura pris soin d’entrer sur notre compte en ligne. Grâce à un astucieux système de numéro, on peut alors récupérer la trace directement depuis l’application. RandoGPS est néanmoins dédiée à la randonné pédestre et se prête beaucoup moins bien à d’autres activités sportives.
Récupérer des fonds de carte
À cette étape, il faut utiliser un logiciel qui, non seulement est capable de récupérer toutes les images d’un fond de carte aux dimensions voulues, mais aussi convertir l’ensemble dans un format qui puisse être lu par l’une ou l’autre des applications sur le smartphone.
Pour cela, il y a un logiciel libre (sous licence GNU GPL) nommé Mobile Atlas Creator, alias MOBAC (avant 2010, il se nommait TrekBuddy Atlas Creator). Écrit en java, il est utilisable sur GNU Linux comme sous MSWindows. Il suffit de télécharger Mobac et dézipper le fichier localement pour lancer ensuite le .jar
sous GNU Linux ou le .exe
sous MSWindows.
Mobac propose, dès l’ouverture, une visualisation des fonds de carte téléchargeables à la demande via un système de clés (c’est pour cela qu’il faut être connecté à Internet pour l’utiliser). Si, à l’ouverture, vous avez une erreur indiquant que la cartographie choisie n’est pas disponible, sélectionnez, en haut à droite la source OpenStreetMap 4UMaps.eu
. C’est de loin un jeu très complet.
Utiliser le bon jeu
Comme je l’ai dit plus haut, aussi sympathiques que soient les tuiles communautaires d’OSM, elles ne sont pas aussi complètes que celles de l’IGN2 et nous cherchons aussi à obtenir les balisages du Club Vosgien.
Pour obtenir le fond de carte IGN sur MOBAC, on peut utiliser la Clé pratique que l’IGN a rendu disponible aux utilisateurs qui ne souhaitent pas utiliser de compte professionnel (et assez complexe). Pour cela il faut ajouter un petit fichier de configuration qui va utiliser cette fonctionnalité pratique de l’IGN. Voici comment faire ce petit bricolage facile.
Premièrement, fermez MOBAC et ouvrez un éditeur de texte. Si vous êtes sous GNU Linux, vous avez l’embarras du choix. Sous Windows, utilisez par exemple Notepad++, un logiciel libre très pratique. Créez un nouveau document et copiez-collez le code ci-dessous :
name = "IGN Pratique Cartes+ortho"; tileType = "jpg"; tileSize = 256; minZoom = 0; maxZoom = 19; ignoreError = "True"; String getTileUrl( int zoom, int x, int y ) { if (zoomEnregistrez ensuite le document en lui donnant l’extension
.bsh
(mettez le nom que vous voulez devant) dans le dossier\mapsources
de MOBAC (lorsque vous avez dézippé Mobac pour lancer le programme vous avez sans doute remarqué la présence de ce dossier).Relancez ensuite MOBAC et sélectionnez en haut à droite dans les sources celle qui porte le nom « IGN Pratique Cartes+ortho » (cf. le fichier que vous venez de créer).
Désormais, en zoomant vous reconnaîtrez les cartes IGN et, du côté des Vosges, vous verrez le balisage du Club Vosgien que l’IGN a rendu disponible sur ses fonds de carte.
Créer un atlas
Il faut maintenant créer un atlas, c’est-à-dire un fond de carte correspondant à la zone que vous désirez de manière à l’utiliser sur le dispositif mobile GPS.
- Sur Mobac, positionnez-vous sur la zone que vous désirez : clic droit pour bouger la carte et clic gauche pour sélectionner une zone.
- Sélectionnez dans le menu
Atlas > Nouvel atlas
.- Dans la fenêtre qui apparaît, donnez un nom à votre Atlas. Pour le format, si vous utilisez Oruxmaps, sélectionnez
Oruxmaps Sqlite
et si vous utilisez Maverick, sélectionnezRMaps SQlite
.- Dans le panneau de gauche, sélectionnez un ou plusieurs niveaux de zoom. Le niveau 15 correspond bien à l’usage habituel sur le terrain, mais vous pouvez en sélectionner plusieurs selon votre usage.
- Sélectionnez la zone qui vous intéresse sur la carte (dézoomez pour cela). La sélection rectangulaire est la plus simple à utiliser, mais vous pouvez aller dans le menu
Sélection
et choisirMode de sélection > polygonal
, par exemple.- Dans la partie « Contenu de l’Atlas », donnez un nom à votre nouveau contenu puis cliquez sur
Ajouter la sélection
.- Enfin dans le panneau de gauche, cliquez sur
Créer l'Atlas
.- MOBAC télécharge alors les tuiles qui correspondent à votre sélection et les niveaux de zoom choisis.
N’oubliez pas un point important : plus votre sélection est étendue et plus vous avez de niveaux de zoom, plus le nombre de tuiles sera important et plus votre atlas pèsera lourd. Pour un ordre de grandeur, tout le massif des Vosges du Sud (Saverne en haut) au niveau de zoom 15 est contenu dans un fichier de 300 Mo.
Une autre solution, si vous disposez déjà du fichier GPX de la trace que vous planifiez, consiste à laisser MOBAC sélectionner automatiquement les tuiles autour de la zone en question. Pour cela :
- Dans le menu de droite,
Charger GPX
,- Sélectionner votre fichier et l’importer,
- Dans le Menu
Sélection
choisirSélectionner avec une trace GPX
.Cela dit, d’un point de vue pratique, il est à mon avis plus simple de créer une fois pour toute un gros atlas sur tout un massif et que l’on place dans le smartphone, au lieu de répéter l’opération à chaque fois que l’on planifie un parcours.
Transférer les atlas sur le dispositif mobile
Mais où donc sont trouvables les fichiers ainsi créés ? En fait, après que MOBAC a fini de télécharger les tuiles, vous avez la possibilité de cliquer sur
ouvrir le dossier des atlas
. Si, pour une raison ou une autre cela vous est impossible, cherchez le dossier\atlases
dans votre\home
sous GNU Linux ou ailleurs surC:
sous Windows. Rassurez-vous, il ne doit pas être bien loin.Dedans vous trouverez :
- Le dossier de l’atlas si vous avez utilisé le format
Oruxmaps Sqlite
. Là, ouvrez ce dossier et vous trouverez un (ou plusieurs) sous-dossier(s) correspondant à votre (ou vos) sélection(s). C’est ce sous-dossier qu’il faut placer dans votre smartphone dans le répertoireoruxmaps > mapfiles
(ou là où vous avez spécifié via Oruxmaps l’emplacement du dossier des cartes, cf. la première partie de ce tutoriel). Par exemple, si vous avez créé un atlasVosges
et dedans deux sélectionsVosges-du-nord
etVosges-du-sud
, il y a aura donc deux dossiers à copier et coller dans Oruxmaps,\Vosges-du-nord
et\Vosges-du-sud
. - Ou bien un fichier
xxxx.sqlitedb
si vous avez utilisé le formatRMaps SQlite
pour Maverick. Dans ce cas, c’est ce fichier qu’il faudra copier et coller dans le dossierMaverick > maps
sur votre smartphone.
Après avoir débranché votre smartphone de l’USB de votre ordinateur, vous utilisez les applications comme suit :
- dans Maverick, menu
Maps > more maps
, déselectionnez toutes les étoiles et sélectionnez la map que vous venez d’entrer. - dans Oruxmaps, cliquez sur l’icône carte du menu du haut, puis
Nouvelle carte > offline
et vous trouverez dansMulticartes
le dossier OTRK que vous avez entré.
Préparer vos parcours
Il reste maintenant à planifier un parcours. Pour cela il existe plusieurs solutions. Beaucoup d’utilisateurs se rabattent sur des services en ligne comme Openrunner. Ce dernier propose des cartes (dont les cartes IGN) et un système de pointage permettant de tracer un parcours et l’enregistrer en GPX.
D’autres solutions peuvent néanmoins être tout à fait utilisables localement avec des logiciels libres. On peut citer Viking et QMapShack. Les deux sont présents dans les dépôts des distributions GNU Linux courantes.
Dans le cas de QMapShack, une opportunité intéressante est qu’on peut obtenir de la même manière avec MOBAC un fond de carte utilisable directement pour faire des traces. Nul besoin, par conséquent, d’utiliser un service en ligne. Voici comment faire.
A l’ouverture de QMapShack vous avez certainement remarqué un message bizarre : « Au secours ! je veux des cartes ! je n’ai pas envie de lire la documentation ! ». Bon… il fallait quand même lire un petit peu alors je vous livre mes résultats.
Dans la partie haute du panneau de gauche de QMapShack, vous pouvez activer ou désactiver des fonds de carte (clic droit). Mais un clic droit dans ledit panneau vous permet d’accéder à un menu Configurer les répertoires des cartes
. Il vous permet de préciser un répertoire dans lequel le logiciel peut aller chercher des fonds de cartes.
Oui, mais quelles cartes ? Hé bien celles que vous pouvez créer avec MOBAC exactement comme je l’ai décrit plus haut. Sauf que cette fois, au moment de créer un nouvel atlas, vous préciserez le format TwoNav (RMAP)
.
MOBAC créera alors un dossier portant le nom de l’atlas, avec, dedans, le fichier résultat du travail. Puis dans QMapShack :
- lancer la fonctionnalité
Configurer les répertoires des cartes
, - cliquer sur
+
et pointez le dossier que Mobac a créé (dans\atlases
) ou copier-coller le dossier dans un autre répertoire de votre choix et pointez dessus.
Vous trouverez alors, dans la partie haute du panneau de gauche de QMapShack le nom du fond de carte qu’il vous restera à activer pour le voir s’afficher.
Le reste est un jeu d’enfant :
- cliquez sur l’icône
Routage
et donnez un nom à votre projet, - clic droit sur la carte et
Ajouter une trace
, - faites votre tracé et enregistrez,
- puis
Fichier > Enregistrer toutes les données SIG
(et sauvegardez au format GPX).
Vous voilà avec une trace qu’il vous reste à transférer sur votre dispositif mobile pour Oruxmaps ou Maverick, dans le dossier correspondant, comme précisé plus haut.
Vous pouvez faire les mêmes opérations avec Viking. De la même manière vous importez votre trace GPX pour la visualiser.
Stocker et gérer vos traces
Cette partie sera plus courte car il s’agit simplement de signaler l’existence de quelques logiciels utiles.
Le premier est Turtlesport, qui vous permet de stocker vos traces (y compris depuis un dispositif GPS de type Garmin directement). Mais, au-delà, il vous permet de tenir le compte de vos performances et autres informations sur votre matériel sportif. Il agit exactement comme un carnet de bord de vos sorties.
Le second est Mytourbook. Il s’apparente au précédent avec un peu plus de gadgets.
Pour partager vos traces avec vos amis, vous pouvez aussi penser à Umap et Framacarte (le second est une instance du premier).
Je vous convie à consulter ce billet. Il est un peu ancien mais complétera utilement ce qui vient d’être dit ici.
-
Les fonds de cartes OpenStreetMap sont certes très fiables et exacts mais lorsqu’il s’agit de naviguer dans des coins peu fréquentés de certains massifs, il y a tout de même des chemins non cartographiés. Une solution très importante, si vous tournez régulièrement dans les mêmes coins, est de contribuer à OpenStreetMap dès que vous le pouvez. C’est facile, notamment avec l’éditeur de carte sur le site OSM. Un autre point, particulièrement bloquant dans les endroits que je fréquente (les Vosges), est que seul l’IGN a pour l’instant l’exclusivité du balisage du Club Vosgien. Cette histoire de droit et de propriété intellectuelle est désolante mais il faut reconnaître que, une fois sur le terrain, pouvoir visualiser sur la carte les parcours du club Vosgien est très utile, particulier pour avoir une idée de la « fréquentabilité » des sentiers. ↩︎
-
Mais encore une fois, il suffit de contribuer : OSM souffre la plupart du temps de quelques chemins non complétés, assez peu pour néanmoins utiliser les cartes. De retour chez vous, si vous voyez qu’il manque quelques centaines de mètres sur un sentier, vous pouvez compléter et obtenir au bout du compte une cartographie complète des coins où vous vous rendez souvent. Cela prend peu de temps et les mises à jour d’OSM sont régulières. ↩︎
31.03.2019 à 01:00
En attendant les robots
L’essor des intelligences artificielles réactualise une prophétie lancinante : avec le remplacement des êtres humains par les machines, le travail serait appelé à disparaître. Si certains s’en alarment, d’autres voient dans la « disruption numérique » une promesse d’émancipation fondée sur la participation, l’ouverture et le partage. Les coulisses de ce théâtre de marionnettes (sans fils) donnent cependant à voir un tout autre spectacle. Celui des usagers qui alimentent gratuitement les réseaux sociaux de données personnelles et de contenus créatifs monnayés par les géants du Web. Celui des prestataires des start-ups de l’économie collaborative, dont le quotidien connecté consiste moins à conduire des véhicules ou à assister des personnes qu’à produire des flux d’informations sur leur smartphone. Celui des microtravailleurs rivés à leurs écrans qui, à domicile ou depuis des « fermes à clics », propulsent la viralité des marques, filtrent les images pornographiques et violentes ou saisissent à la chaîne des fragments de textes pour faire fonctionner des logiciels de traduction automatique. En dissipant l’illusion de l’automation intelligente, Antonio Casilli fait apparaître la réalité du digital labor : l’exploitation des petites mains de l’intelligence « artificielle », ces myriades de tâcherons du clic soumis au management algorithmique de plateformes en passe de reconfigurer et de précariser le travail humain.
Casilli, Antonio A. En attendant les robots: enquête sur le travail du clic. Éditions du Seuil, 2019.
Lien vers le site de l’éditeur : https://www.seuil.com/ouvrage/en-attendant-les-robots-antonio-a-casilli/9782021401882
31.03.2019 à 01:00
Casser les GAFAM... et recommencer
Dans les années 1970, l’économiste américaine Susan Strange théorisait l’économie politique des États-Unis relativement aux intérêts de marché. Elle démontrait dans ses travaux comment la stabilité économique des États-Unis ne dépendait pas du seul pilier des intérêts territoriaux assurés par leur puissance militaro-financière.
Les jeux se jouaient à la fois sur les marchés intérieurs et extérieurs : conditions d’accès aux marchés, production de produits financiers, investissements et firmes multinationales. Elle identifiait plusieurs couches structurelles sur lesquelles devait reposer toute velléité impérialiste, c’est-à-dire la construction de plusieurs types d’hégémonies. La plupart d’entre elles étaient tout à la fois le fait de grandes entreprises mais aussi l’organisation des créneaux économiques que le pouvoir politique américain était capable de dessiner (imposer) sur le globe.
Note |
---|
Ce texte a été republié sur le Framablog le 03/04/2019. |
Aujourd’hui, nous connaissons bien évidemment nombre de ces structures et en particulier les structures de la connaissance, celles qui reposent pour l’essentiel sur les technologies de l’information et de la communication et qui sont maîtrisées en grande partie, voire en totalité, par des firmes américaines. Pour ce qui concerne Internet : Google-Alphabet, Amazon, AT&T, Microsoft, etc. (du côté chinois, le même jeu est en train de se dérouler et il importe de ne pas le perdre de vue).
Les processus qui ont permis l’émergence de ces firmes hégémoniques ne se résument pas uniquement aux pratiques de ces dernières. Leur manque d’éthique, l’organisation savante du vol de nos données personnelles, les implications de cette industrie de la data sur nos libertés d’expression, nos vies privées et la démocratie, ne sont pas la recette unique de leur position dominatrice.
On pourrait éternellement disserter sur ces pratiques, démontrer à quel point elles sont néfastes. Il n’en demeure pas moins que si la situation est telle, c’est parce que des stratégies structurelles sont à l’œuvre. Il s’agit de plusieurs pouvoirs : l’état de guerre permanent orchestré par les États-Unis depuis la fin de la Guerre du Vietnam, la transformation ultra-technologique de l’économie financière, les contraintes de marché imposées aux peuples (et pas seulement ceux des pays défavorisés) par des accords iniques, et enfin les technologies de l’information (depuis au moins l’histoire naissante des communications câblées, et à travers tout le XXe siècle). Ces éléments constituent ce que le sociologue et économiste John B. Foster et l’historien des médias Robert W. McChesney appellent le capitalisme de surveillance1, c’est à dire le résultat de ces stratégies hégémoniques et dont la puissance de surveillance (et donc de contrôle) est assuré par les GAFAM (mais pas seulement).
Il reste néanmoins un point crucial : la question des monopoles. Lorsqu’une économie a tendance à se retrouver sclérosée par quelques monopoles qui assurent à eux seuls de multiples secteurs d’activité (rappelons la multiplicité des activités de Google-Alphabet), et couvrent une grande part des capitaux financiers disponibles au détriment de la dynamique économique2, le problème de ces monopoles… c’est que l’économie politique à l’œuvre commence à se voir un peu trop bien.
Quels que soient les partis au pouvoir aux États-Unis, c’est cette politique qui a toujours primé. L’effet de ce conditionnement se fait sentir y compris chez les plus audacieux intellectuels. Les plus prompts à critiquer les pratiques sournoises des GAFAM le feront toujours au nom des libertés des individus, au nom de la vie privée, au nom du droit, mais très peu d’entre eux finissent par reconnaître que, finalement, c’est une critique du capitalisme qu’il faut faire. Y compris, et surtout, une critique des principes politiques qui encouragent les stratégies hégémoniques.
Lorsque le capitalisme et le libéralisme sont considérés comme les seuls systèmes capables de sauvegarder la démocratie, on en vient à des poncifs. Il me revient par exemple ce refrain stupide du milieu des années 1990, où l’on répétait à l’envi que là où McDonald s’installait, la paix s’installait. La démocratie a peu à peu été réduite à la somme des libertés que chacun peu exercer dans un marché capitaliste, c’est-à-dire un marché où les biens finissent toujours par être détenus par quelques-uns, détenteurs de fait du pouvoir politique.
Cette difficulté à penser la démocratie autrement qu’à travers le prisme libéral, est parfaitement illustrée par le récent ouvrage de Shoshana Zuboff3. Cette dernière démontre avec brio comment les stratégies des Gafam et consorts se révèlent être un hold-up sur nos vies et donc sur la démocratie. Elle décortique de manière méthodique la manière dont ces pratiques modifient nos comportements, modèlent le marché et nous privent de notre autonomie. Comprendre aussi : notre autonomie en tant qu’agents économiques, nos libertés de choix et de positionnement qui font le lit d’une certaine conception d’un marché redistributif fondé sur la concurrence et l’échange. En somme les monopoles cassent ce marché, brisent le contrat social (celui d’Adam Smith plus que celui de Rousseau) et brisent aussi l’équilibre libéral sur lequel est censé reposer un capitalisme qui dure, celui fondé sur la propriété privée, etc.
Peu importent finalement les solutions alternatives, y compris libérales, que l’on puisse opposer à ces modèles : si S. Zuboff ne parvient pas à aller au bout de sa démonstration4, c’est qu’elle ne critique que les mécanismes économiques et techniques du capitalisme de surveillance et se refuse à admettre qu’il s’agit d’une économie politique dont il faudrait analyser les principes et les remplacer.
Toutes ces considérations pourraient en rester au stade du débat d’idées. Ce n’est pas le cas. Les conceptions politiques qui ont permit justement l’émergence des monopoles américains du web et leur hégémonie, semblent avoir la peau bien plus dure qu’on le pensait. Cela alors même que leurs effets sur les libertés sont pointés du doigt. Tout se passe comme si la seule cause à défendre n’était qu’un credo libéral et pas n’importe lequel.
La candidate du parti démocrate Elizabeth Warren, résolument opposée à D. Trump pour les prochaines élections présidentielles de 2020, publiait récemment par l’intermédiaire de son équipe sur la plateforme Medium.com un article au titre apparemment incisif : « Here’s how we can break up Big Tech »5. La guerre au capitalisme de surveillance est-elle officiellement déclarée aux plus hauts niveaux des partis politiques ? Cette ancienne conseillère de B. Obama, dont les positions publiques et acerbes à l’encontre des requins de la finance mondiale lui ont valu une certaine renommée, a-t-elle trouvé le moyen de lutter contre les inégalités sociales et financières que créent les modèles économiques des Big Tech ?
En fait, non. Son texte est l’illustration des principes énoncés ci-dessus même si le constat a le mérite d’être lucide :
Les grandes entreprises technologiques d’aujourd’hui ont trop de pouvoir – trop de pouvoir sur notre économie, notre société et notre démocratie. Elles ont écrasé la concurrence, utilisé nos renseignements personnels à des fins lucratives et faussé les règles du jeu contre tout le monde. Ce faisant, elles ont nui aux petites entreprises et étouffé l’innovation.
À lire Elizabeth Warren, les outils de régulation économique se résument en fait à l’organisation d’un espace concurrentiel libre et non faussé. Son argumentation est intéressante : si les grands monopoles en sont arrivés là, c’est parce, profitant d’un manque de régulation, ils ont roulé les consommateurs. Ces derniers seraient les dindons de la farce, et se retrouvent après tant d’années les instruments involontaires du pouvoir des GAFAM.
La posture d’E. Warren est alors très confortable : elle réfute d’emblée l’idée que l’apparition de ces monopoles est le fruit d’une politique hégémonique (celle qui favorisait justement l’apparition de monopoles américains à l’échelle du globe) menée tant par les démocrates que par les conservateurs. Au contraire : c’est sur les individus uniquement, et à leur détriment, que se seraient bâti ces monopoles. Dès lors c’est en libérateur que le parti démocrate pourra intervenir, avec E. Warren à sa tête, pour défaire les liens des individus et leur rendre leur vie privée, leurs droits et, carrément, une vraie démocratie.
Cela dit, comme nous l’avons vu, cette démocratie ne s’exerce que dans un certain cadre, celui d’une concurrence maîtrisée et juste. Pour E. Warren, il est alors temps de « démanteler Amazon, Facebook et Google », d’une part en durcissant les règles anti-trust (en souvenir d’un âge d’or de la régulation contre les conglomérats) et, d’autre part, en distinguant l’utilitaire des plate-formes (les conditions techniques d’accès, les structures) et les services aux utilisateurs. Les entreprises qui posséderaient l’utilitaire (par exemple un fournisseur d’accès Internet) seraient alors réputées accomplir un service public (qui, au besoin, pourrait très bien être régulé à coup de subventions) et ne pourraient pas posséder les deux faces du modèle économique. Inversement, les compagnies qui assurent des services ne pourraient pas « coincer » les utilisateurs sur leur système.
Il y a deux conclusions que l’on tire de cette proposition de E. Warren. La première, c’est qu’il est désormais acté que les entreprises de la Tech sont à même d’accomplir du service d’intérêt public : loin d’être nationalisées, au contraire, de nombreuses solutions pourront toujours être externalisées par les États en toute confiance (tout comme Kaa hypnotise le jeune Mowgli) puisque, en théorie, cela ne risquera plus de créer de distorsion de concurrence. L’autre conclusion est que ces nouvelles dispositions n’interviennent évidemment que sur le territoire des États-Unis : on joue là encore sur la régulation des multinationales sur le marché intérieur et dont les effets se feront sentir sur le marché extérieur. Ici il s’agit de multiplier les acteurs, créer des « petits » Gafam qui auront alors l’avantage de se présenter auprès de l’Europe comme des acteurs économiques si différents et à chaque fois pleinement compatibles avec les lois européennes ressenties comme protectionnistes. Il restera cependant que les technologies, elles, resteront des émanations de l'american tech. Certes l’innovation sera moins bridée par les monopoles actuels, mais ces mini-gafam continueront d’assurer l’hégémonie tout en s’inscrivant de manière moins frontale sur les marchés mondiaux face à (ou avec) d’autres géants chinois.
Oui, parfois les libertés individuelles ont bon dos. On peut construire toutes sortes d’argumentations sur cette base, y compris celle qui consiste à rebattre les cartes et recommencer… Si vous voulez vous aussi jouer ce jeu de dupes, signez la pétition de la Team Warren.
-
John Bellamy Foster et Robert W. McChesney, « Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age », Monthly Review, 07/2014, vol. 66. ↩︎
-
Par exemple, on peut comparer aux États-Unis le nombre de salariés employés par les firmes multinationales de la Silicon Valley, pour des sommets de capitaux financiers jamais atteins jusqu’à présent et le nombre de salariés que l’industrie automobile (plutôt nationale) employait jusqu’à un passé récent. Le résultat n’est n’est pas tant de pointer que les Big tech emploient moins de monde (et il y a tout de même une multitude de sous-traitants) mais qu’en réalité l’organisation de cette économie crée des inégalités salariales radicales où les plus qualifiés dans les nœuds monopolistiques concentrent toute la richesse. Les chômeurs laissés pour compte dans cette transformation de l’économie manufacturière en économie de service constitue un déséquilibre évident pour l’économie américaine et qui s’est traduit récemment en crise financière. ↩︎
-
Shoshana Zuboff, Das Zeitalter Des ÜberwachungsKapitalismus, Frankfurt, Campus Verlag, 2018 ; Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, New York, Public Affairs, 2019. ↩︎
-
C’est un peu ce que montre Sébastien Broca dans une lecture critique du livre de S. Zuboff. S. Broca, « Surveiller et prédire », La vie des idées, 07/03/2019. ↩︎
-
Elizabeth Warren, « Here’s how we can break up Big Tech », Medium.com, 08/03/2019. ↩︎
17.03.2019 à 20:00
Un client, un'espresso
« J’en veux pas de ton café. Et puis t’as bien lavé la tasse au moins ? C’est pas un bar ici.
Je viens juste essayer la jolie montre que j’ai vue en vitrine. Elle me plaît bien, cette montre, avec un bracelet métal qui semble tenir la route. Il y a un peu de monde dans le magasin, ok, on est samedi, c’est normal. Pas grave, je peux attendre.
Mais tu m’emmerdes avec ton café. Je vais être obligé de décliner. Je vais devoir aller puiser dans ces années d’apprentissage de savoir vivre pour refuser poliment. Je ne voudrais pas donner une mauvaise impression, quoi. Un peu comme si on inversait les rôles. Puisque je refuse, c’est à moi qu’il revient de faire un effort. Merde alors.
Si je ne veux pas de ton café, c’est pas qu’il n’est pas bon, ou que ta tête ne me revient pas, ou que je préfère le thé, non… juste : je-n’en-veux-pas.
Comment te le dire sans te froisser ? Mais en fait peut-être que tu t’en contrefout. Et puis, je le vois bien, tu n’as pas le temps de m’offrir un café. Je veux dire : vraiment m’offrir un café, pour discuter, taper une belote, parler politique et lier une amitié. Du temps, tu en as déjà pris sur le client précédent pour venir m’asséner ton prénom et ton nom (et cette fois-ci, c’est moi qui m’en fout), accompagnés d’un laïus que tu as répété si vite, si machinalement…
En fait, tu dois m’accueillir avec tout un discours, toute une armada de phrases toutes faites, rabâchées, brandissant ta tablette… d’ailleurs, tu la trimballes cette tablette, c’est pas encombrant ? et puis qu’est-ce que tu viens d’y écrire là ?
Pourquoi utilises-tu tous les codes des relations sociales intimes, alors qu’on ne se connaît pas ? Enfin si, maintenant, on se connaît : je le vois dans tes yeux, en grosses lettres fatiguées : surcharge discursive.
Je regarde derrière le comptoir : diplôme de technicienne d’horlogerie. Pas un diplôme facile. Deux ans d’études, sans compter le bac pro, des stages, un vrai métier, quoi. Qu’est-ce que tu fous à me proposer un café ?
Il y a un an, ta boutique a complètement changé de look. Une volonté des grands patrons. Des chaises design (je le sais : cela fait 5 minutes que je viens de m’asseoir, j’ai les fesses gelées et une sciatique), un agencement à l’avenant avec un comptoir où tu ne peux même pas exercer ton métier, ne serait-ce que pour changer une pile.
Et puis surtout des formations. À la pelle. Sur l’accueil clientèle, sur la qualité du service, l’entretien de la peur du « client mystère », les frustrations des contrôles qualité.
C’est là qu’on t’a appris un truc que tu ignorais jusqu’alors : 86% des clients s’estiment mieux accueillis si on leur offre un café en magasin. Ouaih! sérieux, dans une horlogerie ! Ton patron responsable de boutique, lui aussi, l’ignorait totalement. Après 25 ans d’expérience, en voilà une surprise !
C’est les petits gars de la boîte Retail Service Expert qui lui ont appris. La boîte que le grand chef à Paris avait mandaté pour réaliser un audit sur la qualité de l’accueil clientèle dans la chaîne.
Ça n’a pas tardé. Moins d’un mois plus tard tous les magasins étaient équipés d’une machine à café (celle avec les capsules en alu qui polluent bien) et d’un coin « convivialité clientèle ». Tu l’as organisé comme tu pouvais, au détriment des rangements disponibles, à côté de « l’espace enfants » avec les bouquins déchirés et les jouets baveux, en face du grand portique des montres Artik, celui avec le grand ours blanc de deux mètres de haut. Déjà que la boutique était petite…
Pour toi, ce café, c’est devenu l’étape obligatoire pour « papoter » avec les clients pendant que cinquante commandes t’attendent à l’arrière boutique pour être traitées en grignotant sur le temps de travail. Si ça se trouve, tu ne l’aimes pas non plus ton café.
Maintenant tu rentres plus tard le soir, tu t’occupes moins des enfants, mais après tout, tu as bien « papoté » avec les clients, c’est pas comme si tu travaillais. Enfin, bon, sur le site internet de la chaîne, c’est marqué que les clients sont censés venir « papoter » autour d’un café avec les vendeurs… Il faut dire que les contrôles qualité organisés par les grandes marque partenaires y accordent beaucoup d’importance : sinon tu perdrais carrément le marché !
Il y en a des procédures, des discours à ressortir par cœur. Quand tu n’es pas en surcharge discursive, il te faut remplir de la paperasse, des évaluations de contrôles de procédures dans des dossiers… Staline en aurait rêvé.
Avant, tu réparais des horloges, tu vendais des belles montres et même des sur-mesure ! attention, même des japonaises et des suisses haut de gamme. Tu étais fière de ton métier… tu possédais un savoir-faire.
Là, tu bricoles. Tu vends ce qu’on te dit de vendre… et pourtant c’est les mêmes produits à peu de chose près. Pas de la camelote. Mais c’est un peu comme si tu n’en n’avais plus rien à foutre de ce que pense le client ou bien ce qu’il voudrait dire. Là… tu proposes un café… oui, même à la mère Chopin, 85 ans, qui est passée avant-hier pour réparer son coucou de la Forêt-Noire et qui est cardiaque. Pas son coucou, elle. Tu le sais parce que c’est son fils qui te l’a dit à la supérette, l’autre jour. Elle t’avait regardé bizarre, en rentrant, quand tu lui a annoncé ton nom en lui montrant la machine à café. Tout ça parce tu passais un audit ce jour-là. L’a rien pigé, la pauvre vieille.
Parce que si tu ne le proposes pas ce putain de café, c’est l’un des indicateurs de la qualité d’accueil qui saute. Sans ça, les managers qui ne sont pas horlogers, eux, ils ne sauraient pas dire si tu fais bien ou mal ton métier. Il faut bien te surveiller, des fois que t’oublies de remonter une info clientèle.
Alors j’ai une bonne et une mauvaise nouvelle pour toi. En attendant mon tour, j’ai un peu surfé avec mon smartphone. Je me demandais d’où pouvait bien provenir cette idée que les clients d’une horlogerie voulaient absolument du café. Ben j’ai trouvé.
Il y a beaucoup de sites internet de boîtes de conseil, et surtout des blogs, spécialisés dans la relation clientèle. Beaucoup vantent les mérites de la compétitivité de la « qualité d’accueil », celle qui transforme les vendeurs en carpettes pour clients et souffre-douleur pour managers sous pression. Tous font appel à de vagues études, ne citent presque jamais leurs sources et, quand ils le font, les études ne valent pas grand chose en définitive. Mais j’ai été étonné de constater que très peu mentionnent cette histoire de café. Il a fallu insister pour trouver ce qui, pourtant, semble connu.
Il y a celui-ci, qui mentionne clairement que le café est un « rituel de service » et qui soutient que, effectivement 86% des clients s’estiment satisfait lorsqu’on leur offre un café. Et de là tout un laïus sur la « symétrie des attentions », un concept managérial construit assez récemment. Et quand on s’y penche de plus près, la « symétrie des attentions », ben ça passe par du café.
Petite explication. La « symétrie des attentions » est une idée entretenue par l'Académie du service, un cabinet de conseil appartenant anciennement au groupe hôtelier Accor. Grosso-modo il s’agit de soutenir que la qualité du service au client dans une entreprise est relative (symétriquement) à la qualité des relations entre les collaborateurs à l’intérieur de cette entreprise. C’est expliqué là.
Personnellement, j’ai eu beau chercher, je n’ai pas trouvé d’éléments du côté de la littérature scientifique du management à ce propos, mais un concept semble s’y accoler parfaitement, celui de servuction. Là il s’agit surtout du processus de production de service, applicable pour beaucoup en hôtellerie et restauration : on parle d’un parcours de servuction, c’est-à-dire qu’on identifie les moment-clé la vie du client et à chaque étape proposer du service, calibrer des réponses et des rôles. Dès lors, il n’est pas délirant de se dire que si on identifie le parcours de servuction en mettant les collaborateurs et les clients ensemble dans un processus de discussion intelligente, et en faisant en sorte que les relations entre les collaborateurs soient bien huilées, sans pression inutile, on peut obtenir au bout du compte un service de premier ordre pour la majeure partie des clients.
Quelle que soit leur valeur scientifique, ces concepts, au départ, sont donc faits pour tenter d’augmenter les chances de satisfaire la clientèle. Mais lorsqu’ils sont appliqués bêtement à n’importe quel secteur d’activité tout en conservant un modèle hiérarchique (et tayloriste) des rôles, là où la concertation est nécessaire, on arrive à des aberrations.
Ce putain de café est une aberration.
Mais d’où sort-il ? ben des ex-hotelliers de l’Académie du Service, justement… Dans une étude, intitulée « Le rôle sociétal du café » qu’on peut se procurer sur leur site, on apprend que dans le cadre d’une évaluation de la satisfaction clientèle : 9 clients sur 10 considèrent qu’ils sont vraiment accueillis lorsqu’on leur propose un café ! Et cela va même jusqu’à apprécier la qualité du café, attention !
Alors, ma chère horlogère, tu apprendras aussi d’autres trucs :
- l’étude en question est une étude qui a été commandée par Nespresso ;
- l’étude montre que non seulement il faut offrir du café au client mais aussi que le café joue aussi un rôle très important entre les collaborateurs (ben oui, parce que si le café est bon pour huiler les relations entre les collègues, il le sera forcément avec les clients) ;
- que la Société Générale (qui témoigne avec force pour appuyer l’étude) avait déjà collaboré avec Nespresso en 2012 pour… démontrer la même chose ;
- et puis tiens on trouve aussi une autre étude menée par l’IFOP, toujours pour Nespresso, à propos du rôle sociétal du café, mais cette fois uniquement dans les relations au sein de l’entreprise (mais comme on a montré qu’il fallait une « symétrie des attentions », ce qui vaut pour les collaborateurs vaut aussi pour les clients).
Bref, t’as pas fini d’en boire du café, ma chère. Et du Nespresso, s’il te plaît.
02.02.2019 à 01:00
Culture numérique
La révolution digitale est venue insérer des connaissances et des informations dans tous les aspects de nos vies. Jusqu’aux machines, qu’elle est en train de rendre intelligentes. Si nous fabriquons le numérique, il nous fabrique aussi. Voilà pourquoi il est indispensable que nous nous forgions une culture numérique. Lire la suite
L’entrée du numérique dans nos sociétés est souvent comparée aux grandes ruptures technologiques des révolutions industrielles.
En réalité, c’est avec l’invention de l’imprimerie que la comparaison s’impose, car la révolution digitale est avant tout d’ordre cognitif. Elle est venue insérer des connaissances et des informations dans tous les aspects de nos vies. Jusqu’aux machines, qu’elle est en train de rendre intelligentes.
Si nous fabriquons le numérique, il nous fabrique aussi. Voilà pourquoi il est indispensable que nous nous forgions une culture numérique.
Cardon, Dominique. Culture numérique. SciencesPo les presses, 2019.
Lien vers le site de l’éditeur : http://www.pressesdesciencespo.fr/fr/book/?gcoi=27246100540390
01.02.2019 à 01:00
Technologies numériques : en finir avec le capitalisme de surveillance
Les hommes sont nés libres. Ils sont libres, par exemple, d’affronter l’urgence écologique.
Mais cela est d’autant plus difficile que de puissantes forces entravent leur capacité à exercer cette liberté. Pour mettre en œuvre des choix éthiques et constructifs, il faut un arrière-fond culturel et des institutions guidées par de hauts objectifs, que le capitalisme de surveillance s’emploie à freiner.
Les exemples proposés dans ce soixante-troisième dossier montrent les impacts écologiques et sociétaux du numérique et leur effrayante évolution, et en dévoilent les enjeux cachés : les internautes, croyant profiter de services gratuits, sont en réalités passés du statut de clients à celui de marchandise. Chaque empreinte digitale laissée est exploitée pour anticiper et stimuler les réactions neurobiologiques de chaque public dans le but de le rendre dépendant, de le pousser à la surconsommation et influencer tous ses choix, au point de mettre en péril la démocratie.
Les alternatives existantes y sont également présentées, grâce aussi à une riche interview avec Richard Stallman, président de la Free Sotfware Foundation et créateur de GNU, ainsi que les actions concrètes entreprises par les Artisans de la transition et LaRevueDurable dans cette direction.
Une interview de Michelle Zuffery, secrétaire permanente d’Uniterre, enrichit en outre ce numéro, faisant le lien avec le nouveau projet des Artisans de la transition dans le domaine de l’agroécologie : construire et animer un réseau d’acteurs de tous horizons pour faire avancer les choses.
Au sommaire de ce numéro figure également un minidossier sur la désobéissance civile, ces actions non violentes visant à attirer l’attention d’une majorité sur la problématique écologique. Un sujet très actuel à l’heure où certains citoyens estiment que la politique ne réagit pas suffisamment face à l’urgence climatique.
La Revue durable. Technologies numériques : en finir avec le capitalisme de surveillance. num. 63. 2019
Lien vers le site de l’éditeur : https://www.larevuedurable.com/fr/democratie-et-gouvernance/1237-n63-technologies-numeriques-en-finir-avec-le-capitalisme-de-surveillance.html
21.01.2019 à 01:00
The age of surveillance capitalism
In this masterwork of original thinking and research, Shoshana Zuboff provides startling insights into the phenomenon that she has named surveillance capitalism. The stakes could not be higher: a global architecture of behavior modification threatens human nature in the twenty-first century just as industrial capitalism disfigured the natural world in the twentieth.
Zuboff vividly brings to life the consequences as surveillance capitalism advances from Silicon Valley into every economic sector. Vast wealth and power are accumulated in ominous new “behavioral futures markets,” where predictions about our behavior are bought and sold, and the production of goods and services is subordinated to a new “means of behavioral modification.”
The threat has shifted from a totalitarian Big Brother state to a ubiquitous digital architecture: a “Big Other” operating in the interests of surveillance capital. Here is the crucible of an unprecedented form of power marked by extreme concentrations of knowledge and free from democratic oversight. Zuboff’s comprehensive and moving analysis lays bare the threats to twenty-first century society: a controlled “hive” of total connection that seduces with promises of total certainty for maximum profit–at the expense of democracy, freedom, and our human future.
With little resistance from law or society, surveillance capitalism is on the verge of dominating the social order and shaping the digital future – if we let it.
Zuboff, Shoshana. The age of surveillance capitalism. The fight for a human future at the new frontier of power. Public Affairs, 2019.
Lien vers le site de l’éditeur : https://www.publicaffairsbooks.com/titles/shoshana-zuboff/the-age-of-surveillance-capitalism/9781610395694/
14.01.2019 à 01:00
Cybersyn / techno-socialisme
Voici un extrait (découpé) tiré de mon projet d’ouvrage à paraître chez C&F Édition. Il porte sur le projet Cybersyn dans le Chili des années 1970-1973. Peut-on hacker le socialisme ? y’en a qui ont essayé…
Mise en garde
Entre 1970 et 1973, sous le gouvernement de Salvador Allende au Chili est né le projet Cybersyn. Ce fut une idée d’organisation cybernétique de gouvernement, une sorte de procédé semi-automatique d’organisation économique et politique… un outil surprenant et esthétiquement peu éloigné des épisodes de Star Trek. On l’a aussi accusé d’être une tentative de contrôle des individus, mais sa courte vie ne permet pas vraiment de l’affirmer.
Avant d’expliquer plus exactement ce qu’était ce projet (et nous irons progressivement), il faut prendre quelques précautions.
Cybersyn est un projet connu par toute personne qui s’intéresse à l’histoire de la cybernétique. En effet, il fut conçu par l’un des plus importants personnages de cette discipline, Stafford Beer. Dans son livre Cybernetic Revolutionaries1, Eden Medina retrace l’aventure de manière détaillée, documentée, et sur la base des témoignages des participants. L’historien des sciences Andrew Pickering consacre lui aussi une grande partie de son ouvrage The Cybernetic Brain à Stafford Beer.
Une autre personne s’y est récemment intéressé. Connu pour ses fines analyses du discours technophile dominant autour des big data, Evgeny Morozov publia un article sur Cybersyn dans The New Yorker en 2014. Il l’intitula : « The Planning Machine. Project Cybersyn and the origins of the Big Data nation »2. Le parti pris de Morozov est de montrer combien le projet Cybersyn inaugurait l’ère de la surveillance via les données et les capteurs qui jalonnent nos quotidiens dans le monde capitaliste d’aujourd’hui.
Cet article d’E. Morozov ne m’a pas paru très convainquant. C’est ce qui m’a incité à m’intéresser de plus près à cet épisode étonnant du projet Cybersyn qui, à bien des aspects, appartient aussi à l’histoire de l’informatique.
E. Morozov est allé un peu trop vite en besogne. Certes, Cybersyn peut tenir lieu d’illustration d’une politique victime du solutionnisme technologique (pour reprendre l’un des sujets chers à E. Morozov3). Mais d’un point de vue méthodologique, à part l’idée (revue et rabâchée) d’un « œil de Moscou » à la sauce orwellienne, il est non seulement anachronique mais aussi exagéré d’établir une corrélation ou même un simple parallèle entre un modèle de gouvernement cybernétique des années 1970 et l’état de l’économie de la surveillance d’aujourd’hui. La question des monopoles du web, de la vie privée, de la surveillance de masse par des États, et les big data, tout cela n’entre pas cette histoire.
Cybersyn est le fruit d’une période aujourd’hui bien révolue, celle où l’accumulation et le traitement des données par les institutions était vue comme la garantie d’une bonne gouvernance. On y croyait sérieusement. Et pas qu’au Chili, d’ailleurs : partout ! C’est la grande époque des grandes bases de données, pas seulement celle qui faisaient scandale, non… toutes celles qui, en réalité, donnaient corps au grand soir technocratique. Ces ambitions de contrôle ont rapidement fini par s’étioler au profit d’une science des organisations justifiant parfois d’elle-même son existence.
L’histoire
À son arrivée au pouvoir en novembre 1970, Salvador Allende doit faire face à un Chili qui subissait une inflation catastrophique. Il prend des mesures économiques qui le confrontent à la bourgeoisie et fragilise sa position face au Congrès. Il mène en particulier un grand programme de nationalisation de l’industrie et de planification économique. Ce faisant, la difficulté est double : trouver un moyen pour diriger ce panel industriel (or, très vite un manque de personnel qualifié se fait sentir), et garantir face à la récession l’approvisionnement de matières premières et de pièces détachées.
Il vint alors à l’idée d’un des hauts fonctionnaires de l’agence de la production et du développement (CORFO4), Fernando Flores, de contacter un éminent spécialiste en recherche opérationnelle, le britannique Stafford Beer. La demande était relativement simple dans la formulation du besoin : pouvait-on appliquer les principes du management scientifique à une échelle nationale de manière à rationaliser la décision et contourner les difficultés locales ? En d’autres termes, et pour être plus clair : si des pièces détachées manquent ici, si une baisse de production est constatée là, plutôt que d’attendre que les décideurs locaux puissent s’entendre, ne serait-il pas préférable de centraliser les informations en temps réel et passer des ordres de manière à optimiser la réactivité de la production ?
Commander et communiquer sont, depuis Norbert Wiener, l’alpha et l’oméga de la cybernétique. Entre les deux, les dispositifs techniques permettent l’automatisation, la transmission, l’apprentissage. Dès la rencontre entre Stafford Beer et Fernando Flores, il était évident qu’il était possible de construire un modèle de gouvernance cybernétique, appuyé par un système informatique adéquat, capable d’assurer le management de la production industrielle nationale. Le plan qu’ils élaborèrent ne devait cependant pas se contenter d’être une réponse à un besoin d’organisation de la productivité. Il devait inclure l’idéal socialiste de l’économie, c’est-à-dire briser-là les formes classiques de la planification.
Par « forme classique de la planification », on peut comprendre la manière dont circule habituellement l’information et l’ordre dans les institutions. Les unités de production remontent des informations par le biais de rapports et de remplissage d’indicateurs, ce qui crée une masse de données que les décideurs doivent ingérer et comprendre. À partir de ces informations, ils proposent alors des orientations économiques ou des activations de leviers (par exemple une réduction d’impôts dans un secteur pour permettre l’investissement) elles-mêmes soumises à des enjeux de pouvoir et du lobbying, en particulier si les décisions sont prises de manière incohérentes. Ce manque de cohérence était en partie résolu avec la nouvelle orientation du CORFO voulue par le gouvernement Allende. Il restait néanmoins à coordonner efficacement la production et surtout intégrer les opérateurs dans la gestion, à toutes les échelles décisionnaires, dans l’optique d’une réappropriation populaire des outils de production.
Stafford Beer, dans son livre Brain of the Firm, qu’il écrit simultanément au projet et publie en 1972, retrace son travail à partir duquel il donne une forme concrète à sa théorie des systèmes viables (Viable System Model, VSM). Les systèmes viables sont des systèmes adaptatifs et autonomes, capables de maintenir leur structure organisationnelle malgré un environnement changeant. L’inspiration est éminemment biologique5. Pour Beer, chaque composante du gouvernement Chilien est un des 5 sous-systèmes qui composent un système viable. La présidence est au système 5, censée maintenir, par la décision politique, l’équilibre entre les stratégies rationnelles du système 4 (que sont les organes institutionnels) et l’impact de la décision au niveau concret, devant le peuple. Au système 1 à 3, on trouve dans l’ordre : 1) les activités primaires, 2) les canaux d’information et 3) les règles, droits et responsabilités (le contrôle) qui jouent l’interface entre système 4 et système 1. Tous les travailleurs sont au système 1 et contribuent à la viabilité de tout le système, de 1 à 4. L’apport essentiel du projet dans la gestion de la production de tout le pays réside à la fois dans un système de communication efficace censé recenser tous les indicateurs de l’état de production et du travail (état des stocks, état des flux, et même l’absentéisme des travailleurs, etc.), dans la mise en place d’algorithmes censés traiter l’ensemble des données et fournir des indicateurs simplifiés pour faciliter la prise de décision. Enfin, il était envisagé par S. Beer une forme de récursivité travailleurs/citoyens-décideurs par le biais de référendum permanent (le projet Cyberfolk).
Le système de Beer repose sur un emboîtement des VSM (Viable System Model) et s’applique à tout le Chili. Chaque entreprise nationale est un VSM placé sous l’autorité du CORFO et en même temps des VSM à plus petite échelle représentent les secteurs de l’économie (comme l’acier, le textile, l’alimentaire, les ressources minières…), d’autres VSM sont les sous-secteurs économiques jusqu’au niveau le plus bas : l’usine et l’équipe de travail. Pour chaque VSM, le travailleur participe à la gestion par la consultation que lui permet le système 4.
Pour obtenir un tel système il fallait d’abord en faire la démonstration. C’est tout l’objet du projet Cybersyn, abréviation de « cybernetic synergy », dont l’objectif clairement formulé par Beer était le suivant :
Installer un système préliminaire d’information et de réglementation pour l’économie industrielle qui démontrera les principales fonctionnalités de la gestion cybernétique et commencera à faciliter la prise de décision d’ici le 1er mars 1972.
– Stafford Beer, Brain of the Firm, New York, John Wiley & Sons, 1981 (première édition 1972), page 251-252.
Pour ce faire, il fallait disposer rapidement d’un réseau, c’est-à-dire une infrastructure de communication sur laquelle reposerait tout le système, en communication directe avec deux ordinateurs centraux à Santiago. Un sous-projet nommé Cybernet fut mis en œuvre sans tarder. L’ensemble du système démontrait aussi qu’on pouvait réaliser un tel projet sans pour autant disposer des machines dernier cri, ce qui fut d’autant plus important que le coût total de l’opération fut assez modique si on le compare, par exemple, avec d’autres projets américains ou européens. Les deux ordinateurs centraux étaient déjà anciens (en service depuis plus de cinq ans), il s’agissait d’un IBM System 360/50 (créé en 1964) et d’un Burroughs 3500 (créé en 1966). Quant au réseau lui-même, il s’agissait de donner une seconde fonction au réseau existant, c’est à dire un réseau Telex, certes ancien mais efficace, puis implémenter des téléscripteurs dans les entreprises faisant partie du plan de nationalisation.
Avec Cybernet, un autre sous-projet nommé Cyberstride avait pour objectif de créer un logiciel qui a) rassemble et organise tous les indicateurs de production, b) détecte et signale les variations, applique les seuils d’alarme, c) rend possible les prévisions de production à partir des mesures précédentes. En somme c’est un système dynamique dont les variations devaient être rendues lisibles, ce qui fut envisagé avec le compilateur DYNAMO. Ce dernier, inventé par Jay W. Forrester au MIT, est un programme informatique qui produit sous forme de tableaux ou de graphiques les résultats des simulations qui jouent sur les variables d’un système dynamique (c’est un compilateur car il transforme les données du programme en un « langage » lisible par l’humain, des tableaux et des graphiques).
Enfin, pour compléter l’ensemble du dispositif, un simulateur permanent devait pouvoir être utilisé de manière à identifier les variables d’ajustement de la production et l’impact des changements à toutes les échelles du système. Ce fut le sous-projet Checo, un simulateur de l’économie chilienne.
La partie la plus impressionnante de Cybersyn était au système 5 une salle (op-room) qui permettait la rencontre des décideurs, équipée d’écrans affichant les systèmes viables avec plusieurs niveaux de récursivité (changez un paramètre analysez le retour du changement d’état du système), des indicateurs exprimant en termes quantitatifs différentes données (comme par exemple des taux d’approvisionnement), et une sortie DYNAMO. Mais pour l’essentiel des apports concrets à l’alimentation du modèle, tout se jouait aux systèmes 1 à 3, où parfois étaient même acheminés à dos de mulet les informations de production au télex le plus proche.
Un modèle de gouvernance ?
Modulo certains de ces aspects, disons artisanaux, le projet Cybersyn était cependant conçu de manière à éviter la verticalité de la décision à partir d’analyses hors-sol. Comme le mentionne E. Medina, à propos du rapport de S. Beer :
Son rapport critiquait les méthodes de planification conventionnelles du Chili, qui utilisaient des instantanés de l’économie à des moments discrets, inondaient les gestionnaires du gouvernement avec une mer de données impliquant une gestion du haut vers le bas. Au lieu de cela, il a proposé l’idée d’un processus itératif où les politiques descendent du gouvernement jusqu’aux usines et les besoins des usines montent. Il a positionné la gestion au milieu du système, où il a implémenté un homéostat6 qui couple les besoins des niveaux inférieurs avec les ressources allouées d’en haut. Les fonctionnaires pouvaient donc modifier et adapter les politiques gouvernementales pour répondre aux besoins des usines, à condition que ces changements n’aient pas d’effets négatifs importants sur d’autres secteurs de l’économie. Beer a écrit : « Ce système détruit les dogmes de la centralisation et de la décentralisation. Cette approche est organique ». L’approche itérative était également continue et adaptative, conformément à la vision de Beer en matière de contrôle cybernétique. De plus, elle utilisait la cybernétique comme référentiel pour la façon dont le gouvernement pourrait mettre en œuvre le socialisme démocratique proposé par Allende ; elle a donné à l’État le contrôle de la production tout en permettant une large participation.
– Eden Medina, Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile, Cambridge, Massachusetts, MIT Press, 2011, section « Technology for an Adaptive Economy ». Voir aussi Eden Medina, « Desiging freedom, regulating a nation: socialist cybernetics in Allende’s Chile ». In: Journal of Latin American Studies, 38, 2006, p. 571-606.
Ce que S. Beer cherchait aussi à démontrer, c’est tout l’intérêt de l’application des concepts de la recherche opérationnelle. Dans le livre qui l’a fait connaître auprès de ses aficionados chiliens, Decision and Control publié en 1966, il montre qu’un système opérationnel n’a pas à se surcharger d’informations. C’est pourquoi il faut bien distinguer un système en recherche opérationnelle et un centre de données : pour le premier les informations doivent être utilisées et disponibles de manière à produire une décision, dans le second c’est l’information qui est transformée en données pour produire d’autres données que l’on peut interroger, ce qui suppose d’avoir des modèles ou, par apprentissage, créer des modèles à partir de variables. S. Beer affirmait en effet :
Nos collecteurs de données modernes savent tout ce qu’il faut savoir. C’est empilé dans des caves sur des cartes perforées ; cela sort des ordinateurs sur bande magnétique ; c’est joliment tabulé sur du papier blanc à un rythme de 600 lignes par minute ; cela apparaît sur les bureaux des gestionnaires en de tels volumes qu’ils sont trop occupés pour les lire ; c’est publié par des ministères dans de gigantesques annuaires. Car c’est l’ère du « traitement automatique des données ». Pourtant, tout cela ne nous dit rien sur les raisons pour lesquelles les choses sont telles qu’elles sont. Il faut de la recherche opérationnelle pour le découvrir.
– Stafford Beer, Decision and Control : The Meaning of Operational Research and Management Cybernetics, New York, John Wiley & Sons, 1994 (première édition 1966), p. 70.
Cet allègement du système par rapport à la massification des données, est d’abord pour S. Beer une manière de démontrer aussi que le système a pour objectif de favoriser l’autonomie des sujets. Cybersyn est d’abord un immense réseau de capteurs des signaux de production dont la sensibilité est censée pallier la surcharge cognitive des employés pour leur permettre de se concentrer en premier lieu sur leur métiers et non plus sur les charges administratives, autorisations diverses ou prises en compte des externalités qui perturbent leur production : le système les capte et envoie des instructions.
C’était aussi la conception d’un autre responsable du projet, Hermann Schwember. Juste avant le coup d’État de Pinochet, ce dernier rendait compte en 1973 dans la revue Esprit7, des solutions envisagées au Chili pour concilier l’économie et la convivialité que définit Yvan Illich comme cette interrelation créative et autonome des individus entre eux et avec leur environnement. Alors que la production industrielle est d’essence destructive, cette convivialité peut être atteinte à la fois par l’intensification des communications entre les hommes (aussi à la source d’une prise de conscience planétaire) et la diminution de l’appropriation impérialiste. Pour H. Schwember, une société conviviale est « nécessairement socialiste » et seule capable de mener à un modèle post-industriel, c’est-à-dire dépasser les contraintes du salariat industriel, l’appropriation capitaliste, et surtout les dictatures bureaucratiques où n’existent pas « les mécanismes de correction, de participation et d’expression autonome provenant de la base populaire ».
Une fois que le projet fut rendu public, la principale critique des médias de l’opposition au Chili fut d’ordre économique. Accusé de laisser pour compte les petites entreprises au profit des grandes structures nationales, le projet était catalogué parmi les plus technocratiques. Certains journaux au Chili comme à l’étranger, ne tardèrent pas à faire le parallèle entre un pays « gouverné par un ordinateur » et le monde de Georges Orwell. Il reste que le projet Cybersyn fut catalogué comme un projet de surveillance, entendu comme un contrôle des individus, ce qu’il n’était pourtant pas.
Il était conçu pour implémenter un système idéologique dans un système technique de prise de décision. Ce techno-socialisme convenait parfaitement à Salavador Allende et sa vision d’un Chili émancipé. Mais au-delà de cette vision, la perception technocratique du modèle de Stafford Beer provenait en réalité d’une mauvaise presse de la cybernétique, qui assimilait les modèles cybernétiques appliqués aux organisations humaines à des mécanismes de contrôle qui transforment les hommes en automates. Cette vision était d’autant plus acceptée que les exemples connus de centres opérationnels se trouvent généralement en temps de guerre dans l’armée et son organisation hiérarchisée, du centre de décision vers les cellules opérationnelles. Or, dans le projet Cybersyn était parfaitement intégrée la capacité des groupes d’individus à corriger le modèle de manière créative à chaque instant. En d’autres termes, les décisions dans ce modèle étaient systématiquement soumises à la possibilité d’exercice d’un contre-pouvoir. Techniquement, tout le génie de S. Beer résidait dans son approche itérative du système.
Une leçon difficile
Évidemment, comme le mentionna plus tard Hermann Schwember8, tout n’allait pas pour le mieux. Par définition, le niveau de perfectionnement du système avait comme limite le plus haut niveau de perfectionnement possible de l’outil de production. Une usine qui ne pouvait pas être modernisée à cause du manque d’investissement dont souffrait cruellement le Chili, ne pouvait pas s’ajuster aux objectifs identifiés par le système.
Moins idéaliste, une autre raison peut aussi expliquer certains biais du projet Cybersyn : un modèle cybernétique est d’abord un modèle informationnel, or si on l’applique au fonctionnement d’usines, quelle que soit la provenance de l’information, cette dernière est toujours indépendante des conditions de production ou des réalités sociales. Sans un contrôle qualité, n’importe quelle information entrée par un agent est supposée être fiable ou du moins sincère. Si un modèle comme Cybersyn n’était pas construit pour avoir, au moins en partie, un rôle de contrôle, le système est à la merci des bonnes (ou mauvaises) volontés. Pour avoir la paix, le manager d’une usine est prêt à mentir sur ses indicateurs de production.
Le coup d’État de Pinochet mit brutalement fin à Cybersyn, si bien que d’autres critiques encore intervinrent à contre-temps. Elle sont résumées par Andrew Pickering9 en quatre points.
Le premier était que le projet, malgré toutes les bonnes intentions, était technocratique pour deux raisons : pour commencer il supposait que tous les Chiliens adhéraient au modèle et ensuite que la conception sur VSM de l’organisation productive chilienne est-elle même un modèle fixe et non dynamique (pas de possibilité que le modèle global se transforme excepté à l’intérieur de ses limites).
Le second point portait sur les signaux (les alarmes ou « signaux algédoniques ») censés porter à l’attention des décideurs des seuils à ne pas franchir : ces signaux pouvaient à tout moment, notamment en cas de changement de régime politique, devenir des éléments de surveillance pouvant se retourner contre le système 1 (les travailleurs).
Le troisième point est que Cybersyn n’a certes pas été conçu pour créer une chaîne de commandement et de contrôle verticale uniquement du haut vers le bas, mais il pouvait facilement le devenir. Et il fut effectivement utilisé dans cette intention lors d’un événement, une grève générale de la confédération des transports en 1972 (opposée à la nationalisation du secteur et soutenue par la droite politique) : le réseau Cybernet a alors été utilisé pour identifier et surveiller les nœuds de grèves, et trouver des solutions de contournement pour maintenir les flux. En ce sens le système a parfaitement joué son rôle, mais il a alors été transformé en un système de surveillance dans une lutte politique (et le conflit fut assez violent).
Un quatrième point porte à s’interroger sur les objectifs de Cybersyn et du VSM en général : se maintenir en vie. On peut effectivement se demander si, dans une certaine mesure, le modèle ne confond pas le moyen et la fin, un peu à l’image de ce qui se passait en France vers la fin des années 1970.
… et pour le savoir, il faudra attendre la publication de mon ouvrage (printemps 2019)… Teasing !
-
Eden Medina, Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile, Boston, MIT Press, 2011. ↩︎
-
Le même article traduit en français dans Vanity Fair en janvier 2015, fut intitulé « Big Brother. Cybersyn, une machine à gouverner le Chili ». Evgeny Morozov, « The Planning Machine. Project Cybersyn and the origins of the Big Data nation », The New Yorker, 13 octobre 2014. En ligne. Evgeny Morozov, « Big Brother. Cybersyn, une machine à gouverner le Chili », Vanity Fair France, 19, janvier 2015. ↩︎
-
Evgeny Morozov, Pour tout résoudre, cliquez ici, Paris, Éditions FYP, 2014. ↩︎
-
Production Development Corporation (CORFO) (en espagnol: Corporación de Fomento de la Producción de Chile). ↩︎
-
Une section de l’ouvrage d’Andrew Pickering est consacrée au VSM. Andrew Pickering, The Cybernetic Brain. Sketches of Another Future, Chicago, University of Chicago Press, 2010, p. 243 sq. ↩︎
-
L’homéostasie est la tendance d’un système à maintenir ses facteurs de modification autour de valeurs bénéfiques par un processus de régulation. Un homéostat est un dispositif permettant de mesurer ces valeurs et ce fonctionnement à l’aide d’indicateurs. ↩︎
-
Hermann Schwember (trad. Alain Labrousse), « Convivialité Et Socialisme », Esprit, 426 juillet-août 1973, p. 39-66 (voir p. 45). ↩︎
-
Hermann Schwember (1977) « Cybernetics in government: experience with new tools for management in Chile 1971-1973 ». In H. Bossel, Ed. Concepts and Tools of Computer Based Policy Analysis, Vol. 1., Birkhäuser - Springer Basel AG, Basel, p. 79-138. (pp. 136). ↩︎
-
Andrew Pickering, The Cybernetic Brain. Sketches of Another Future, Chicago, University of Chicago Press, 2010, pp. 265-268. ↩︎
15.11.2018 à 01:00
Définitions du capitalisme de surveillance
Notre quotidien est enregistré, mesuré, considéré comme une somme de procédures dont la surveillance consiste à transformer l’apparent chaos (et notre diversité) en ordre. Tous les acteurs économiques et institutionnels y ont un intérêt. Pour beaucoup, c’est d’un nouveau capitalisme qu’il s’agit : le capitalisme de surveillance. Mais peut-on lui donner une définition claire ? Je vais essayer…
Avec son récent ouvrage, Das Zeitalter Des ÜberwachungsKapitalismus1, Shoshana Zuboff nous livre une critique des plus intelligentes de ce qu’elle nomme le capitalisme de surveillance. Fruit d’un long travail dont les traces sont visibles depuis cinq ans (en particulier dans un article intitulé « Big Other… »2 et quelques sorties remarquées dans le Frankfurter Allgemeine Zeitung3), Shoshana Zuboff a intitulé son ouvrage en écho à son travail initial, en 1988, sur la mutation du travail en procédures et informations, In The Age Of The Smart Machine4.
L’œuvre de S. Zuboff ne s’inscrit pas exclusivement dans une analyse des modèles économiques. Pour cela il faut plutôt aller voir du côté de Nick Srnicek, qui se penche sur les changements des modèles capitalistes dans leurs rapports aux technologies5. Pour N. Srnicek, les technologies de l’information ne sont pas uniquement des leviers d’augmentation de productivité, mais elle conditionnent aussi une économie de plateformes rendue possible par l’essor des infrastructures numériques des années 1990, combinée à une baisse de rendement de l’industrie manufacturière. Avec l’éclatement de la bulle Internet des années 2000 puis la crise de 2008, des firmes monopolistiques sont apparues (les GAFAM) et sont devenues les figures incontournables de cette transformation du capitalisme.
S. Zuboff ne s’inscrit pas non plus (tout à fait) dans une approche du capitalisme de surveillance du point de vue de l’économie politique. C’est ce que font au contraire J. B. Foster et R. W. McChesney, initiateurs6 du concept de capitalisme de surveillance (voir billet précédent) qui montrent en quoi le capitalisme de surveillance est une résurgence hégémonique de l’esprit de la politique nord-américaine sur les trois axes : militaire (maintenir des états de guerre pour le contrôle des pays), financier (les clés de l’économie mondiale) et marketing (assurer la propagande). Cette approche macro-économico-historique est tout à fait intéressante mais elle a le tort de focaliser essentiellement sur des mécanismes institutionnels et sans doute pas assez sur les pratiques d’une économie de la surveillance qui n’est pas toujours à ce point dépendante du politique, bien au contraire7.
S. Zuboff, elle, s’intéresse aux pratiques et propose une conception systémique du capitalisme de surveillance à partir de ses manifestations économiques et sociales. Pour cela, elle propose un point de vue holistique et une définition qui est en même temps un programme d’analyse et un questionnement sur l’économie de nos jours. On trouve cette définition au début de son dernier ouvrage. En voici une traduction :
Überwachungskapitalismus, der – 1. Neue Marktform, die menschliche Erfahrung als kostenlosen Rohstoff für ihre versteckten kommerziellen Operationen der Extraktion, Vorhersage und des Verkaufs reklamiert; 2. eine parasitäre ökonomische Logik, bei der die Produktion von Gütern und Dienstleistungen einer neuen globalen Architektur zur Verhaltensmodifikation untergeordnet ist; 3. eine aus der Art geschlagene Form des Kapitalismus, die sich durch eine Konzentration von Reichtum, Wissen und Macht auszeichnet, die in der Menschheitsgeschichte beispiellos ist; 4. Fundament und Rahmen einer Überwachungsökonomie; 5. so bedeutend für die menschliche Natur im 21. Jh. wie der Industriekapitalismus des 19. und 20. Jhs. für die Natur an sich; 6. der Ursprung einer neuen instrumentären Macht, die Anspruch auf die Herrschaft über die Gesellschaft erhebt und die Marktdemokratie vor bestürzende Herausforderungen stellt; 7. zielt auf eine neue kollektive Ordnung auf der Basis totaler Gewissheit ab; 8. eine Enteignung kritischer Menschenrechte, die am besten als Putsch von oben zu verstehen ist – als Sturz der Volkssouveränität.
Surveillance Capitalism, n. – 1. A new economic order that claims human experience as free raw material for hidden commercial practices of extraction, prediction, and sales; 2. A parasitic economic logic in which the production of goods and services is subordinated to a new global architecture of behavioral modification; 3. A rogue mutation of capitalism marked by concentrations of wealth, knowledge, and power unprecedented in human history; 4. The foundational framework of a surveillance economy; 5. As significant a threat to human nature in the twenty-first century as industrial capitalism was to the natural world in the nineteenth and twentieth; 6. The origin of a new instrumentarian power that asserts dominance over society and presents startling challenges to market democracy; 7. A movement that aims to impose a new collective order based on total certainty; 8. An expropriation of critical human rights that is best understood as a coup from above: an overthrow of the people’s sovereignty.
Capitalisme de surveillance, le – 1. un nouvel ordre économique qui revendique le vécu humain comme matière première gratuite pour des pratiques commerciales occultes d’extraction, de prévision et de vente ; 2. une logique économique parasitaire dans laquelle la production de biens et de services est subordonnée à une nouvelle architecture globale de modification des comportements ; 3. un type de capitalisme malhonnête, sans précédent dans l’histoire humaine, caractérisé par une concentration des richesses, des connaissances et du pouvoir ; 4. le cadre fondateur d’une économie de surveillance ; 5. une menace aussi grave pour la nature humaine au XXIe siècle que le capitalisme industriel des XIXe et XXe siècles l’était pour le monde naturel ; 6. la source d’un nouveau pouvoir instrumental qui affirme sa domination sur la société et impose des défis déconcertants à la démocratie de marché ; 7. un mouvement qui vise à imposer un nouvel ordre collectif qui repose sur une certitude absolue ; 8. une spoliation des droits humains essentiels, que l’on peut comprendre au mieux comme un putsch venu d’en haut, un renversement de la souveraineté populaire.
Étant donné la fraîcheur des travaux de S. Zuboff et la nouveauté du concept de capitalisme de surveillance (2014), il est difficile de proposer une lecture critique qui ne soit pas biaisée, d’une manière ou d’une autre, par la dimension opératoire que l’on souhaite lui donner. L’utilise-t-on pour expliquer les modèles de l’économie des plateformes ? en quoi joue-t-il un rôle dans les politiques de régulation des États ? interfère-t’il avec le politique et comment ? Est-ce une manifestation d’une volonté de pouvoir (de la part de qui ?) ou une émergence plus ou moins spontanée issue de plusieurs circonstances ou idéologies ? etc.
Toutes ces questions doivent être posées et c’est aussi pourquoi j’ai entrepris un ouvrage dont l’ambition est de proposer des pistes de réflexion. La première est justement de se demander en quoi le capitalisme de surveillance est tangible (et si une approche matérialiste peut en venir à bout). J’en suis assez vite arrivé à la conclusion que si l’on souhaite en faire l’histoire, il faut partir d’une définition qui utilise les concepts auxquels nous sommes déjà habitués.
Mon projet est donc très différent de celui de S. Zuboff, qui va jusqu’à inventer deux figures : celle de Big Other (l’altérite à laquelle nous renvoient nos doubles numériques) et les « coup des gens », qui, par opposition à un « coup d’État », est sorte d’accaparement offensif de nos vies privées et de notre quotidien par les GAFAM.
Cependant, d’un point de vue purement intellectuel, je ne peux m’empêcher de faire deux remarques à propos de la définition de S. Zuboff. La première, c’est qu’elle est surtout un programme d’analyse et présume largement que les pratiques du capitalisme de surveillance sont la traduction d’intentions, de jeux de domination et de pouvoirs. La seconde, c’est que les différents points de définitions peuvent en fait correspondre à des constructions proposées par d’autres auteurs du mouvement des surveillance studies depuis les années 1970. Une liste apparaît dans un article de Gary T. Marx8, par exemple : la société disciplinaire, la société du dossier, la société du contrôle, le post-panoptisme, la dataveillance, la société transparente, l’informatisation ubiquitaire, l’uberveillance. Il s’agit d’autant d’approches différentes du capitalisme de surveillance. Dans cette mesure, on peut remercier S. Zuboff de faire l’éclatante démonstration, en une seule analyse, de ce que les surveillance studies avaient jusqu’à présent quelques difficultés à cerner, sans doute trop concentrées sur les rapports entre technique et société, d’un point de vue sociologique ou anthropologique. Mais S. Zuboff va-t-elle au bout de son projet, qui appelle une critique du capitalisme ? Rien n’est moins sûr.
Pour ma part, comme je compte faire une histoire, il me faut aussi satisfaire à l’exigence d’une définition. Or, mon problème est d’intégrer aussi bien l’historiographie que les témoignages (par exemple des rapports) ou des documents probants (comme des articles), sans pour autant y voir des manifestions de ce que, aujourd’hui, nous nommons le capitalisme de surveillance mais qui, sur une cinquantaine d’années, répond à bien d’autres noms. N’ayant pas le talent de S. Zuboff, je ne peux pas non plus entreprendre une analyse globale, voire holiste, en y intégrant les multiples dimensions historiques des sciences et des technologies.
Je préfère donc procéder en deux temps pour trouver une manière synthétique d’exprimer (sur la période 1960 à nos jours) ce qu’est le capitalisme de surveillance a) par ses pratiques et b) par ses mécanismes. C’est une définition qui me permet, dans cette archéologie que je propose, de procéder par étapes, de nommer ce que je cherche, comprendre la naissance d’une économie de la surveillance et la logique progressive, non linéaire, du capitalisme de surveillance.
Je pose ainsi que les pratiques de surveillance sont :
les procédés techniques les plus automatisés possible qui consistent à récolter et stocker, à partir des individus, de leurs comportements et de leurs environnements, des données individuelles ou collectives à des fins d’analyse, d’inférence, de quantification, de prévision et d’influence.
Et qu’il faut tâcher de situer le capitalisme de surveillance dans son parcours historique.
L’histoire du capitalisme de surveillance est celle des transformations sociales que l’informatisation a rendu possibles depuis les années 1960 à nos jours en créant des modèles économiques basés sur le traitement et la valorisation des données personnelles. La prégnance de ces modèles ajoutée à une croissance de l’industrie et des services informatiques9 a fini par créer un marché hégémonique de la surveillance. Cette hégémonie associée à une culture consumériste se traduit dans plusieurs contextes : l’influence des consommateurs par le marketing, l’automatisation de la décision, la réduction de la vie privée, la segmentation sociale, un affaiblissement des politiques, un assujettissement du droit, une tendance idéologique au solutionnisme technologique. Il fait entrer en crise les institutions et le contrat social.
Du point de vue de ses mécanismes, le capitalisme de surveillance mobilise les pratiques d’appropriation et de capitalisation des informations pour mettre en œuvre le régime disciplinaire de son développement industriel (surveillance des travailleurs) et l’ordonnancement de la consommation (surveillance et influence des consommateurs). Des bases de données d’hier aux big datas d’aujourd’hui, il permet la concentration de l’information, des capitaux financiers et des technologies par un petit nombre d’acteurs tout en procédant à l’expropriation mercantile de la vie privée du plus grand nombre d’individus et de leurs savoirs10.
Voilà pour ce qui me concerne. La suite se trouvera dans l’ouvrage à paraître. J’ajoute cependant que cette définition s’adresse aussi à certains (ils se reconnaîtront) qui me l’ont demandée à des fins pédagogiques (et sans doute lassés par mon style d’écriture qui rappelle souvent que les fontes d’imprimerie sont en plomb).
-
ZUBOFF, Shoshana. Das Zeitalter Des ÜberwachungsKapitalismus. Frankfurt: Campus Verlag, 2018. (À paraître en anglais : The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: Public Affairs, 2019). ↩︎
-
ZUBOFF, Shoshana. « Big Other: Surveillance Capitalism and the Prospects of an Information Civilization ». Journal of Information Technology 30 (2015): 75‑89. ↩︎
-
Voir surtout ZUBOFF, Shoshana. « The Secrets of Surveillance Capitalism ». Frankfurter Allgemeine Zeitung, mars 2016. ↩︎
-
Zuboff, Shoshana. In The Age Of The Smart Machine: The Future Of Work And Power. New York: Basic Books, 1988. ↩︎
-
SRNICEK, Nick. Platform Capitalism. Cambridge: Polity, 2016. Trad. Fr.: Capitalisme de plateforme. L’ hégémonie de l’économie numérique. Québec: Lux Éditeur, 2018. ↩︎
-
John Bellamy Foster and Robert W. McChesney, « Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age », Monthly Review, 66, Juillet 2014. ↩︎
-
Et c’est peut être aussi ce qui empêche S. Zuboff de produire une véritable critique du capitalisme. elle a en effet tendance à ne s’en tenir qu’à une analyse des méfaits des pratiques des « capitalistes de la surveillance », comme s’il fallait en réalité défendre un « bon » capitalisme contre de méchants voyous. Je pense au contraire qu’on ne peut pas faire l’économie d’une critique en règles des modèles capitalistes qui sont justement à la source des pratiques. ↩︎
-
MARX, Gary T. « Surveillance studies ». Dans : James Wright (éd.), International Encyclopedia of the Social and Behavioral Sciences, Amsterdam: Elsevier, 2015, p. 733‑41. ↩︎
-
Il s’agit aussi d’une corrélation entre une baisse de régime de l’industrie manufacturière (par exemple l’industrie automobile) et le déplacement des capitaux vers la surfinanciarisation de l’économie numérique. ↩︎
-
Nous pouvons ajouter, comme illustration du dernier point, que le capitalisme de surveillance exproprie l’individu de sa vie privée et de ses savoirs comme le capitalisme industriel a exproprié les travailleurs de leur maîtrise du temps en disciplinant au travail le salarié qui vivait, dans le monde rural, selon un tout autre rythme que celui des machines (les premières conquêtes sociales du monde ouvrier ont porté sur le temps de travail, sa rémunération, et les temps de repos). Voir à ce sujet Edward P. Thompson, Temps, discipline du travail et capitalisme industriel, Paris, La Fabrique, 2004. ↩︎
28.10.2018 à 02:00
Sortie VTT : Barembach - Champ du Feu - Serva
Voici une petite sortie VTT automnale du côté de la Vallée de la Bruche qui vous permettra de faire une sortie courte mais assez sportive.
Pour faciliter l’expérience, vous pouvez télécharger le topo-guide que je mets à votre disposition. Il ne remplace pas le GPX que vous pourrez récupérer via la carte ci-dessous. La distance est courte (35 km), le dénivelé est appréciable (1250 m D+) et les terrains sont de difficultés variées (deux points de prudence néanmoins sont signalés dans le topo).
En bref, voici le descriptif du parcours :
- Départ de Barembach, se garer près de l’église.
- Monter jusque Mullerplatz en suivant le balisage (profitez du sentier qui « coupe » le grand chemin forestier).
- Continuer vers le Champ du Messin, puis suivre le GR5.
- À la Vieille Métairie, prendre le chemin sur la droite près de la fontaine. Monter au Champ du feu.
- Amorcer la descente jusque la route, contourner le Centre de vacances « Les Sapins », pour reprendre le chemin.
- Un grand pré (Le Haut des Monts): aller tout droit pour pouvoir amorcer une grande descente jusqu’au Col de la Perheux. Prudence car le terrain n’est pas facile au début de la descente.
- Au Col de la Perheux, prendre les cercles jaunes en direction de la Serva. Une fois sur un sentier étroit, attention aux lacets avec fort dévers. Descendre vers Neuviler-la-Roche, et au croisement de la D130, prendre les triangles rouges.
- Quitter les triangles rouges pour monter la route forestière (sans balisage particulier) jusqu’aux Roches Blanches. Puis prendre le sentier (cercles rouges) jusque la Croix Walter.
- Descendre jusque Barembach.
12.10.2018 à 02:00
Archéologie du capitalisme de surveillance
Avec le temps, cela devait finalement arriver. Me voici embarqué dans l’écriture d’un ouvrage à paraître chez C&F Éditions au printemps prochain. Une archéologie du capitalisme de surveillance, rien que cela. Mais c’est garanti, je ne me prendrai pas pour un penseur post-moderne (ils avaient tort !).
De quoi cet ouvrage va-il parler? D’abord le titre est tout à fait provisoire, qu’on se le dise. C’était juste pour vous faire cliquer ici. Blague à part, voici un petit argumentaire qui, je l’espère pourra vous faire patienter les quelques mois qui nous séparent d’une publication…
Christophe Masutti, Archéologie du capitalisme de surveillance, Caen, C&F Éditions, 2019 (à paraître).
Argumentaire
L’expression « capitalisme de surveillance » est employée le plus souvent non comme un concept mais comme un dénominateur, c’est-à-dire de l’ordre de la perception des phénomènes, de ceux qui nous font tomber de nos chaises presque tous les jours lorsque nous apprenons à quels trafics sont mêlées nos données personnelles. Mais il n’a pas été défini pour cela : son ambition est surtout d’être un outil, une clé de lecture pour comprendre la configuration politique et sociale de l’économie de la surveillance. Il faut donc mettre à l’épreuve ce concept et voir dans quelle mesure il permet de comprendre si l’économie de la surveillance obéit ou non à une idéologie, au-delà des pratiques. Certes, il faut donner une définition du capitalisme de surveillance (idéologique, pratique, sociale, collective, culturelle, anthropologique ou politique), mais il faut surtout en comprendre l’avènement.
Je propose dans ce livre une approche historique qui commence par une lecture différente des révolutions informatiques depuis les années 1960. Comment vient la surveillance? comment devient-elle un levier économique ? Il faut contextualiser la critique du contrôle (en particulier par les philosophies post-modernes et les observateurs des années 1970) telle qu’elle s’est faite dans la continuité de la révolution informatique. On peut focaliser non pas sur l’évolution technologique mais sur le besoin d’information et de traitement de l’information, tout particulièrement à travers des exemples de projets publics et privés. L’informatisation est un mouvement de transformation des données en capital. Cet ouvrage sera parsemé d’études de cas et de beaucoup de citations troublantes, plus ou moins visionnaires, qui laissent penser que le capitalisme de surveillance, lui aussi, est germinal.
Qu’est-ce qui donne corps à la société de la surveillance ? c’est l’apparition de dispositifs institutionnels de vigilance et de régulation, poussés par un débat public, politique et juridique, sur fond de crainte de l’avènement de la société de 1984. C’est dans ce contexte qu’au sein de l’appareillage législatif germèrent les conditions des capacités de régulation des institutions. Néanmoins la valorisation des données, en tant que propriétés, capitaux et composantes stratégiques, fini par consacrer l’économie de la surveillance comme modèle unique. Le marketing, la modélisation des comportements, la valeur vie client : la surveillance devient une activité prédictive.
Le capitalisme de surveillance est-il une affaire culturelle ? On peut le concevoir comme une tendance en économie politique, ainsi que les premiers à avoir défini le capitalisme de surveillance proposent une lecture macro-politico-économique (John Bellamy Foster, Robert W. McChesney, 2014). On peut aussi se concentrer sur les pratiques des firmes comme Google et plus généralement sur les pratiques d’extraction et de concentration des big datas (Shoshana Zuboff, 2018). On peut aussi conclure à une forme de radicalité moderne des institutions dans l’acceptation sociale (collective ?) de ce capitalisme de surveillance (on se penchera notamment sur les travaux d'Anthony Giddens puis sur ceux de Bernard Stiegler). Que peut-on y opposer ? Quels choix ? À partir du constat extrêmement sombre que nous allons dresser dans cet ouvrage, peut-être que le temps est venu d’un mouvement réflexif et émancipateur.
03.08.2018 à 02:00
Algorithmes: la bombe à retardement
Qui choisit votre université ? Qui vous accorde un crédit, une assurance, et sélectionne vos professeurs ? Qui influence votre vote aux élections ? Ce sont des formules mathématiques. Ancienne analyste à Wall Street devenue une figure majeure de la lutte contre les dérives des algorithmes, Cathy O’Neil dévoile ces « armes de destruction mathématiques » qui se développent grâce à l’ultra-connexion et leur puissance de calcul exponentielle. Brillante mathématicienne, elle explique avec une simplicité percutante comment les algorithmes font le jeu du profit. Cet ouvrage fait le tour du monde depuis sa parution. Il explore des domaines aussi variés que l’emploi, l’éducation, la politique, nos habitudes de consommation. Nous ne pouvons plus ignorer les dérives croissantes d’une industrie des données qui favorise les inégalités et continue d’échapper à tout contrôle. Voulons-nous que ces formules mathématiques décident à notre place ? C’est un débat essentiel, au cœur de la démocratie.
O’Neil, Cathy. Algorithmes: la bombe à retardement, les Arènes, 2018.
Lien vers le site de l’éditeur : http://www.arenes.fr/livre/algorithmes-la-bombe-a-retardement/
31.07.2018 à 02:00
Cyberstructure
Les outils de communication ont d’emblée une dimension politique : ce sont les relations humaines, les idées, les échanges commerciaux ou les désirs qui s’y expriment. L’ouvrage de Stéphane Bortzmeyer montre les relations subtiles entre les décisions techniques concernant l’Internet et la réalisation — ou au contraire la mise en danger — des droits fondamentaux. Après une description précise du fonctionnement de l’Internet sous les aspects techniques, économiques et de la prise de décision, l’auteur évalue l’impact des choix informatiques sur l’espace politique du réseau. Un ouvrage pour appuyer une citoyenneté informée, adaptée aux techniques du XXIe siècle et en mesure de défendre les droits humains
Bortzmeyer, Stéphane. Cyberstructure: l’internet, un espace politique. C&F éditions, 2018.
Lien vers le site de l’éditeur : https://cyberstructure.fr/
24.06.2018 à 02:00
Capitalisme de surveillance ?
Dans une série d’article intitulée Les Léviathans, j’ai longuement présenté le concept de capitalisme de surveillance développé par Shoshana Zuboff. L’interprétation reste toujours prisonnière de l’objet, au moins en partie : en l’occurrence, il y a une chose que je n’ai pas précisé dans ces articles, c’est la provenance du concept.
Les premiers à avoir formulé et développé le capitalisme de surveillance sont John Bellamy Foster et Robert W. McChesney en juin 2014 dans un article paru dans la Monthly Review, dont le titre devrait toujours être donné in extenso : « Surveillance Capitalism Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age ».
Les lecteurs de Shoshana Zuboff noteront que cette dernière ne fait pas mention, dans ses articles, à la paternité du concept par Foster et McChesney. Du moins, elle n’a pas publié (à ma connaissance) une approche critique et comparative de son approche par rapport à celle de Foster et McChesney. La conséquence est que, au fil des affaires relatives aux usages déloyaux des données personnelles durant ces 3 ou 4 dernières années, le concept de capitalisme de surveillance a été sur-employé, parfois même galvaudé et transformé en un mot-valise. Pour celles et ceux qui ont cependant fait un effort d’analyse (tel Aral Balkan) le concept renvoie systématiquement aux travaux de Shoshana Zuboff.
Oserait-on accuser Zuboff de l’avoir usurpé ? pas tout à fait. On peut parler plutôt d’un emprunt. Le capitalisme de surveillance tel que le défini Zuboff implique bien d’autres éléments de réflexion. Quant à citer les auteurs qui les premiers ont énoncé le capitalisme de surveillance, oui, elle aurait pu le faire. Mais qu’est-ce que cela aurait impliqué ? L'éditorial de la Monthly Review de ce mois de juin 2018 apporte quelques éléments de réponse en confrontant l’approche de Foster-McChesnay et de Zuboff :
Zuboff a défini le capitalisme de surveillance de manière plus restrictive comme un système dans lequel la surveillance de la population est utilisée pour acquérir des informations qui peuvent ensuite être monétisées et vendues. L’objet de ses recherches était donc d’étudier les interrelations entre les entreprises et le comportement individuel dans ce nouveau système d’espionnage marchandisé. Mais une telle vision a effectivement dissocié le capitalisme de surveillance de l’analyse de classe, ainsi que de la structure politico-économique globale du capitalisme – comme si la surveillance pouvait être abstraite du capital monopolistique et financier dans son ensemble. De plus, l’approche de Zuboff a largement éludé la question de la relation symbiotique entre les sociétés militaires et privées – principalement dans les domaines du marketing, de la finance, de la haute technologie et de la défense – qui était au centre de l’analyse de Foster et McChesney.
Pour ce qui me concerne, les lecteurs des Léviathans (et j’espère un peu plus tard d’un ouvrage actuellement en gestation) pourront constater que j’extrapole assez largement la pensée de Zuboff, sans toutefois rejoindre l’analyse américano-centrée de Foster-McChesnay. Le point de basculement est somme toute assez pragmatique.
Le besoin de surveillance est un besoin viscéral de l’économie des biens et services (j’ai montré qu’il relève d’une histoire bien plus ancienne que le web 2.0 et remonte aux années 1950). La concentration des entreprises répond à un besoin d’optimisation des systèmes d’informations autant qu’au besoin de maîtriser le marché en le rendant malléable selon des stratégies bien définies, à commencer par les pratiques de marketing. Comment est-il devenu malléable ? grâce aux big datas et à l’usage prédictif du traitement des données. La concentration des capitaux est donc à la fois une conséquence de ce nouveau mode de fonctionnement capitaliste (qui enclenche parallèlement une autre approche du (néo-) libéralisme), et une stratégie calculée de recherche de maximisation des profits tirés des données conçues elles-mêmes comme un capital.
À mon humble avis, nonobstant l’approche concernant le complexe militaro-industriel de Foster-McChesney qui nous fait remonter à la Guerre du Vietnam tout en étant parfaitement explicatif des stratégies de surveillance des institutions gouvernementales (auxquelles finirent par se prêter les gouvernements d’autres pays du monde, comme en France ces dernières années), l’approche de Zuboff détache effectivement la question du capitalisme de surveillance de ses racines politiques pour se concentrer surtout sur les organisations et les comportements individuels soumis à une idéologie presque exclusivement économique. Ma part modeste à cette réflexion n’est pas d’entamer une histoire totale comme le feraient Foster et McChesney, mais d’aller directement au cœur du problème : la capitalisation de l’information comme nouvelle forme du capitalisme. C’est peut-être une approche (pseudo-) marxiste qu’il manque selon moi à Foster-McChesney pour mieux comprendre cette mondialisation du capitalisme de surveillance.
21.05.2018 à 02:00
Capitalisme de plateforme
Google et Facebook, Apple et Microsoft, Siemens et GE, Uber et Airbnb : les entreprises qui adoptent et perfectionnent le modèle d’affaires dominant aujourd’hui, celui des plateformes pair-à-pair du capitalisme numérique, s’enrichissent principalement par la collecte de données et le statut d’intermédiaire qu’il leur confère. Si elles prospèrent, ces compagnies peuvent créer leur propre marché, voire finir par contrôler une économie entière, un potentiel monopolistique inusité qui, bien qu’il s’inscrive dans la logique du capitalisme dit « classique », présente un réel danger aux yeux de quiconque s’applique à imaginer un futur postcapitaliste. Dans ce texte bref et d’une rare clarté, Nick Srnicek retrace la genèse de ce phénomène, analyse celui-ci de manière limpide et aborde la question de son impact sur l’avenir. Un livre essentiel pour comprendre comment les GAFA et autres géants du numérique transforment l’économie mondiale, et pour envisager des pistes d’action susceptibles d’en contrer les effets délétères.
Srnicek, Nick. Capitalisme de plateforme. L’hégémonie de l’économie numérique, Lux Éditeur, 2018.
Lien vers le site de l’éditeur : https://www.luxediteur.com/catalogue/capitalisme-de-plateforme/
01.05.2018 à 02:00
LibreOffice Writer, c'est stylé!
En ce début de printemps 2018, voici une traduction et adaptation d’un manuel sur LibreOffice Writer et (surtout) les styles ! LibreOffice Writer, c’est stylé! est une publication Framabook. Il s’agit d’un projet de longue date, que j’ai le plaisir de voir aboutir, enfin !
Halte aux manuels bourrés de procédures qui transforment les logiciels en cliquodromes. Pour changer, laissez-vous guider vers la compréhension des règles de mise en page et de la typographie, à travers l’usage des styles dans LibreOffice Writer. L’objectif est de vous aider à vous concentrer sur le contenu de vos documents, gagner en rapidité et en précision, tout en vous formant à l’automatisation de la mise en forme.
Cet ouvrage s’adresse aux utilisateurs débutants mais ayant déjà fréquenté un logiciel de traitement de texte. Quels choix de polices et d’interlignage devez-vous faire ? Comment créer des styles et les enchaîner correctement ? À quoi servent les styles conditionnels ? Paragraphes, listes, tableaux, titres, et hiérarchie des styles, toutes ces notions n’auront plus de secret pour vous. Voici un aperçu unique de LibreOffice Writer, de ses fonctionnalités importantes et de ses capacités.
Vous pouvez acheter, télécharger, consulter librement cet ouvrage sur Framabook.org.
20.04.2018 à 02:00
Justice digitale
Remplacement des avocats par des robots, disparition des notaires, résolution des conflits en ligne, justice prédictive, état civil tenu par la blockchain, généralisation des contrats en bitcoins échappant à tout contrôle (et à toute taxation) : le numérique n’en finit pas de bouleverser la justice en inquiétant les uns et en enthousiasmant les autres. Plutôt que de proposer un bilan de ces innovations, nécessairement prématuré, ce livre tente de situer l’épicentre anthropologique d’une déflagration provoquée par l’apparition d’une nouvelle écriture qu’il faut bien désigner comme une révolution graphique. La justice digitale alimente un nouveau mythe, celui d’organiser la coexistence des hommes sans tiers et sans loi par un seul jeu d’écritures, au risque d’oublier que l’homme est un animal politique.
Garapon, Antoine, et Jean Lassègue. Justice digitale. Révolution graphique et rupture anthropologique. PUF, 2018.
Lien vers le site de l’éditeur : https://www.puf.com/content/Justice_digitale
31.03.2018 à 02:00
Sur quoi reposent nos infrastructures numériques ?
Aujourd’hui, la quasi-totalité des logiciels couramment utilisés sont tributaires de code dit « open source », créé et maintenu par des communautés composées de développeurs et d’autres talents. Ce code peut être repris, modifié et utilisé par n’importe qui, entreprise ou particulier, pour créer ses propres logiciels. Partagé, ce code constitue ainsi l’infrastructure numérique de la société d’aujourd’hui… dont les fondations menacent cependant de céder sous la demande !
En effet, dans un monde régi par la technologie, qu’il s’agisse des entreprises du Fortune 500, du Gouvernement, des grandes entreprises de logiciel ou des startups, nous sommes en train d’accroître la charge de ceux qui produisent et entretiennent cette infrastructure partagée. Or, comme ces communautés sont assez discrètes, les utilisateurs ont mis longtemps à en prendre conscience.
Tout comme l’infrastructure matérielle, l’infrastructure numérique nécessite pourtant une maintenance et un entretien réguliers. Face à une demande sans précédent, si nous ne soutenons pas cette infrastructure, les conséquences seront nombreuses.
L’entretien de notre infrastructure numérique est une idée nouvelle pour beaucoup, et les problèmes que cela pose sont mal cernés. Dans cet ouvrage, Nadia Eghbal met au jour les défis uniques auxquels sont confrontées les infrastructures numériques et comment l’on peut œuvrer pour les relever.
Eghbal, Nadia. Sur quoi reposent nos infrastructures numériques ?, Lyon, Framasoft & Open Editions, 2017.
Lien vers le site de l’éditeur : https://framabook.org/sur-quoi-reposent-nos-infrastructures-numeriques/
31.03.2018 à 02:00
Utopie du logiciel libre
Né dans les années 1980 de la révolte de hackers contre la privatisation du code informatique, le mouvement du logiciel libre a peu à peu diffusé ses valeurs et ses pratiques à d’autres domaines, dessinant une véritable « utopie concrète ». Celle-ci a fait sienne plusieurs exigences : bricoler nos technologies au lieu d’en être les consommateurs sidérés, défendre la circulation de l’information contre l’extension des droits de propriété intellectuelle, lier travail et accomplissement personnel en minimisant les hiérarchies. De GNU/Linux à Wikipédia, de la licence GPL aux Creative Commons, des ordinateurs aux imprimantes 3D, ces aspirations se sont concrétisées dans des objets techniques, des outils juridiques et des formes de collaboration qui nourrissent aujourd’hui une nouvelle sphère des communs. Dans cette histoire du Libre, les hackers inspirent la pensée critique (d’André Gorz à la revue Multitudes) et les entrepreneurs open source côtoient les défenseurs des biens communs. De ce bouillonnement de pratiques, de luttes et de théories, l’esprit du Libre émerge comme un déjà là propre à encourager l’inventivité collective. Mais il est aussi un prisme pour comprendre comment, en quelques décennies, on est passé du capitalisme de Microsoft – la commercialisation de petites boîtes des biens informationnels protégés par des droits de propriété intellectuelle – au capitalisme numérique des Gafa (Google, Amazon, Facebook, Apple), fondé sur l’exploitation de nos données et la toute puissance des algorithmes.
Broca, Sébastien. Utopie du logiciel libre. Éditions le Passager clandestin, 2018.
Lien vers le site de l’éditeur : http://lepassagerclandestin.fr/catalogue/poche/utopie-du-logiciel-libre.html
31.03.2018 à 02:00
Le travail invisible des données
Ouvertes, massives, brutes… les données sont aujourd’hui au coeur de nombreux débats. Les optimistes y voient une ressource naturelle dont la récolte et la circulation sont en passe de révolutionner l’innovation et la démocratie, tandis que les pessimistes les dépeignent comme le carburant de mécanismes qui ne profiteront qu’aux puissants et renforceront les inégalités. Face aux enthousiasmes et aux affolements, face au vocabulaire de la transparence, de la fluidité et de l’automatisation qu’ils mobilisent, ce livre fait un pas de côté et défend la nécessité d’étudier les modalités concrètes de la production et de la circulation des données. Les données ne tombent en effet jamais du ciel. Elles n’affleurent pas non plus sous le sol des organisations. En amont de leurs traitements si prometteurs ou inquiétants, elles font l’objet d’un travail dont la nature, l’organisation et les processus mêmes qui mènent à son invisibilité restent à explorer. En articulant les apports de la sociologie des sciences et des techniques, de l’histoire, de l’anthropologie de l’écriture, de la sociologie du travail et des accounting studies, l’ouvrage compose un outillage conceptuel et méthodologique original pour interroger au plus près ce travail des données, qui est devenu central dans les entreprises et les administrations à partir de la fin du XIXe siècle.
Denis, Jérôme, et Delphine Gardey. Le travail invisible des données. Éléments pour une sociologie des infrastructures scripturales. Presses des Mines - Transvalor, 2018.
Lien vers le site de l’éditeur : https://www.pressesdesmines.com/produit/le-travail-invisible-des-donnees/
24.03.2018 à 01:00
Vie privée, informatique et marketing dans le monde d'avant Google
En 1969, Paul Baran affirmait: « Quelle belle opportunité pour l’ingénieur informaticien d’exercer une nouvelle forme de responsabilité sociale ». En effet, il y a presque 70 ans, les interrogations sociales au sujet du traitement informatique des données personnelles étaient déjà sur le devant de la scène.
Voici le résumé d’un assez long texte, écrit début mars 2018, que vous pouvez lire en version HTML ou récupérer en PDF sur HAL-SHS.
Il est notable que les monopoles de l’économie numérique d’aujourd’hui exploitent à grande échelle nos données personnelles et explorent nos vies privées. Cet article propose une mise au point historique sur la manière dont se sont constitués ces modèles : dès les années 1960, par la convergence entre l’industrie informatique, les méthodes de marketing (en particulier le marketing direct) et les applications en bases de données. Les pratiques de captation et d’exploitation des données personnelles ont en réalité toujours été sources de débats, de limitation et de mises en garde. Malgré cela, le contrôle social exercé par la segmentation sociale, elle-même imposée par le marketing, semble être une condition de l’avènement d’une forme d’économie de la consommation que de nombreux auteurs ont dénoncé. Peut-on penser autrement ce capitalisme de surveillance ?
05.02.2018 à 01:00
Club Vosgien et VTT : l'appropriation des communs
Chacun ses combats. Pour moi, c’est le logiciel libre et la culture libre, pour d’autres c’est la lutte contre les inégalités, la défense de la nature, la sauvegarde du patrimoine… Et pourtant nous agissons tous avec des méthodes communes : le partage et la coopération. Hélas ce n’est pas toujours le cas. Certains œuvrent pour une cause juste mais veulent s’approprier le résultat, au prétexte qu’ils seraient les dépositaires (même s’ils ne sont pas exclusifs) des moyens et, donc, de la fin. C’est le cas du Club Vosgien dont je voudrais ici toucher quelques mots à propos de sa capacité à partager et à collaborer.
La montagne est au Club
Le Club Vosgien, c’est d’abord une association alsacienne séculaire. Fondée en 1872, le Vogesenclub doit d’abord être salué avec le plus grand respect pour le travail de promotion des activités de pleine nature et le balisage des sentiers sans lequel nombre de promeneurs ne pourraient bénéficier des superbes parcours sur l’ensemble du massif, et au-delà.
Ceci étant dit, j’affirme que le Club Vosgien à une tendance particulièrement détestable à s’approprier le bien commun que représente le paysage montagneux et forestier.
S’approprier ? non, bien entendu, il ne s’agit pas de mettre des barrières et d’interdire quiconque de les franchir s’il n’est pas encarté au Club… Mais justement, le Club Vosgien, comprenez-vous, ce n’est pas l’Association des amoureux des sentiers des Vosges, ce n’est pas l’Association des randonneurs vosgiens, non. C’est un Club, à l’image du Club Alpin d’où il tire son nom d’ailleurs. Et un club, c’est plus qu’une association. Ce n’est pas uniquement le rassemblement de personnes ayant des intérêts communs. Un club est une société, c’est-à-dire un regroupement de personnes sociologiquement semblables : des activités communes, des pratiques sociales communes, etc. Dès lors, il n’y a qu’un pas facilement franchi entre la communauté de pratiques et le sentiment d’appartenance du territoire que l’on investit.
Voici un exemple. Au début du XXe siècle, le Club Vosgien s’est vu confier, par le Service des Eaux et Forêts le monopole du balisage des sentiers. L’explication est logique : fin XIXe siècle se développe dans les Vosges l’activité touristique. En 1875, par exemple à Gérardmer naît le premier office de tourisme, nommé Comité des promenades qui aménage des sentiers de randonnées dans la Vallées des Lacs et valorise son territoire. Sur le même modèle, les sociétés touristiques investissent le massif : il fallait harmoniser tout cela et c’est le Club Vosgien qui se vit confier ce rôle. Depuis ce jour, le Club Vosgien mène de front le balisage et l’entretien des sentiers.
Ainsi, fièrement annoncé sur la page d’accueil du site internet du Club Vosgien :
Les signes de balisage du Club Vosgien sont déposés à l’INPI et soumis à autorisation pour leur utilisation sur tous supports de communication papier ou web.
En clair, les signes de balisage du Club Vosgien sont déposés en tant que logo de marque (ce n’est pas un brevet au sens industriel du terme), et il est donc impossible d’en avoir l’usage sans une autorisation expresse du Club Vosgien. C’est le premier paradoxe : un balisage harmonisé est un gage de qualité des parcours du Massif, et si je souhaite cartographier un parcours, par exemple pour le VTT ou le trail, et partager ma carte, je n’ai le droit de le faire qu’avec l’autorisation du Club Vosgien. Un comble, quand on sait à quel point ce besoin est présent.
L’implication ? le Club Vosgien empêche ainsi le partage des parcours, ce qui aurait pourtant comme effet de valoriser encore davantage cet important travail de balisage du Club Vosgien. Si j’appartiens à une association sportive et que je souhaite créer un parcours en utilisant le balisage du Club Vosgien et partager ce parcours en imprimant plusieurs cartes ou sous format numérique, je n’ai pas le droit de le faire.
L’interprétation ? Randonner avec le Club Vosgien, c’est utiliser son balisage et les cartes qui vont avec : la bonne vieille carte IGN TOP 25 en papier ou son équivalent extrêmement onéreux sur GPS. Il ne s’agirait pas que n’importe qui vienne improviser un parcours VTT ou trail pour déranger les « vrais » randonneurs à crampons et sac à dos, n’est-ce pas ? Parce que si tout le monde pouvait si facilement se repérer dans la forêt, et pouvait partager en ligne des cartes en utilisant, au hasard les couches Outdoors d'Open Street Map et les indicateurs du Club Vosgien… hé bien qu’est-ce que cela changerait, au fond ? Rien. Si ce n’est que l’usage en serait d’autant plus valorisé. Mais voilà : le Club Vosgien ne veut pas. Parce que ce sont ses sentiers, c’est son balisage, le fruit de son travail, qui lui incombe à lui uniquement.
C’est l’ambiance. Et cela va même jusqu’à servir d’arguments contre l’usage des VTT, comme on va le voir plus loin.
Le cas du VTT
Les cyclistes, c’est le combat du moment pour le Club Vosgien… enfin pour être plus exact, quelques sections du Club Vosgien, minoritaires, mais dont le vacarme implique forcément l’image du Club Vosgien en général. En effet, en plus du balisage, l’entretien de ses parcours est capital pour que le balisage soit lui-même fiable. Et c’est là que le Club Vosgien a tendance à étendre sa préséance, à ceci près que cette fois on touche au territoire.
Dans les forêts vosgiennes, on trouve de tout :
- des quads avec des gros lards dessus,
- des motocyclistes, sportifs, mais à qui il faudrait expliquer deux trois choses,
- des files de 4x4 avec des chasseurs souvent seuls dedans (il faudrait leur expliquer ce que c’est que le co-voiturage),
- des 4x4 isolés, dont les trajectoires restent mystérieuses,
- des travailleurs forestiers parfois (parfois !) peu respectueux de la forêt (mais comme il manque de personnels aux Eaux et Forêts, il est difficile de faire respecter l’ordre et la loi),
- et des cyclistes.
La ligne de front actuelle qui défraye la chronique depuis au moins le printemps 2017, se situe dans le secteur de Masevaux (Haut-Rhin), mais ce n’est pas exclusif. Devinez quelle catégorie dans la liste ci-dessus fait l’objet de l’ire des membres du Club Vogien ? je vous le donne en mille : les vététistes.
Pour certains membres du Club Vosgien, visiblement, les vététistes représentent l’ennemi à abattre, voire même la principale calamité du paysage Vosgien. On pourrait croire que des combats autrement plus glorieux pourraient voir le jour, comme par exemple la biodiversité végétale, la gestion de la faune, la pollution. Non. Parce que vous comprenez, ça c’est des trucs d’écolos. Ces combats sont déjà investis et puis les écolos c’est à gauche…
Ce qui chiffonne ces gens, c’est que les sentiers avec des VTT dessus, c’est plus des sentiers de randonnées. Parce qu’un sentier, c’est forcément « de randonnée à pieds », hein ? pas fait pour rouler, jouer au ballon, ou même courir (quel traileur ne s’est pas ramassé un jour une remarque désobligeante par un randonneur peureux sur un chemin un peu étroit ?).
Interdire le VTT sur les sentiers du massif ? c’est un projet que certains membres du club Vosgien semblent caresser avec envie. Des municipalités, sans doute sous influence, avaient déjà tenté le coup, comme à Ottrott en 2015 avant une contestation en bonne et dûe forme par la Mountain Bike Foundation qui rappelle d’ailleurs quelques fondamentaux juridiques à propos du code forestier (un autre guide juridique est trouvable sur le site alsace-velo.fr).
Bref, voilà que le Club Vosgien de Masevaux a relancé une polémique en mai 2017, bénéficiant d’une tribune dans les Dernières Nouvelles d’Alsace : « La montagne n’est pas un stade ». L’accroche ? elle se résume en trois points :
- La dégradation des sentiers serait l’apanage exclusif des VTT… et de se lancer dans une problématique digne de l’oeuf ou de la poule à savoir si ce sont les freinages des vététistes qui aggravent l’érosion naturelle ou si c’est l’érosion naturelle qui cause l’instabilité du chemin et donc nécessite des freinages. Car dans le premier cas, il faudrait peut-être cesser de croire que les vététistes s’amusent à détériorer les chemins pour le plaisir et dans l’autre cas, les problèmes d’érosion ont bien souvent leur remède dans la gestion du couvert végétal. Est-ce pour autant que tous les sentiers devraient être interdits aux VTT ? Comment s’effectue donc cette généralisation entre quelques chemins érodés et tous les sentiers ? Elle ne peut s’expliquer autrement que par le souhait de ne plus voir de VTT sur les chemins parce qu’ils « dérangent » le Club Vosgien, parce qu’il s’agit d’un public différent.
- « le code forestier article n° 163-6, interdit la pratique du VTT sur des itinéraires de moins de deux mètres », c’est faux, comme le montre le code forestier lui-même (cf. les liens cités plus haut).
- On notera de même que le chantage est à l’appui : « Soit les communes nous suivent par des arrêtés de réglementation de circulation qui interdit la pratique du VTT sur les sentiers, soit on arrête de faire l’entretien basique (piochage, élagage, ratissage) et en cinq ans les sentiers seront morts ». Une citation bien paradoxale de la part du Club Vosgien, parce que la mort des sentiers signerait aussi la mort du Club…
Enfin, comme le démontrent de nombreuses photographies prises par les vététistes et les randonneurs, on ne compte plus sur le massif vosgien le nombre de sentiers littéralement saccagés par les travaux forestiers. À juste titre ou non, pour les besoins de l’exploitation forestière, le passage d’engins favorise inévitablement une forme d’érosion bien plus grave que le creusement d’une rigole de 20 mètres ici où là : c’est carrément de la gestion forestière raisonnée qu’il s’agit, et cela dépasse de loin les petites polémiques.
Et pourtant, le Club Vosgien a déjà dénoncé les travaux forestiers peu scrupuleux, notamment dans les pages des Dernières Nouvelles d’Alsace en mars 2017. L’enjeu est de taille et le combat mérite en effet d’être mené car il concerne de multiples acteurs… hélas, il est bien plus facile d’incriminer les VTT. Si bien qu’une seconde fois en ce début d’année 2018 le journal Les Dernières Nouvelles d’Alsace titrait « Les sentiers de la discorde ». L’article est à l’avenant, et, citant les interlocuteurs du Club Vosgien :
Nous ne sommes pas des conservateurs à tendance réactionnaire, l’avenir passe par une bonne cohabitation avec les pratiquants tout en intégrant le respect de la réglementation. Le VTT étant un véhicule sur le plan juridique, le vttiste doit pratiquer en dehors de nos sentiers étroits, inférieurs à un mètre.
Comprendre : « je ne suis pas réac… mais », ou bien ce qu’on appelle en réthorique une prétérition, qui permet de passer sous silence plusieurs éléments manquant à l’argumentation : ici, par exemple, la rigueur de l’argumentation juridique. Ce qui ne démonte pas la Mountain Bike Foundation, répondant du tac au tac :
« Le code de la route ne s’applique pas à 900 m d’altitude », affirme Jonathan Choulet, référent MBF Florival, par ailleurs fonctionnaire de police. « Le droit d’itinérance sur les sentiers relève du droit constitutionnel d’aller et venir. Quatre codes régissent la circulation de tous en milieu naturel, mais aucun, excepté le code de la route, ne définit le VTT comme un véhicule. (…) »
Solution 1 : le dialogue
Dialoguer avec le Club Vosgien n’est pas toujours une sinécure. Pourtant tout semblait se présenter sous les meilleurs auspices en été 2017, lors d’une rencontre entre la MBF et le président de la Fédération du Club Vosgien, qui n’avait jamais auparavant répondu aux lettres de la MBF et semblait découvrir ses activités.
Peu de temps après, suite à l’article du Club Vosgien section Masevaux, une seconde rencontre eu lieu, dans une intention de dialogue et de coopération. D’après le compte rendu figurant sur le site de la MBF, il y a vraisemblablement une claire différence de conception du terme « dialogue » entre les antennes locales (plus ou moins indépendantes, mais est-ce vraiment souhaitable ?) et la fédération du Club Vosgien. Voici un extrait significatif de cette rencontre entre les référents MBF du secteur Thur-Doller et la présidence du Club Vosgien de Masevaux :
Mais le responsable du C.V ne l’entend pas ainsi et quitte la salle en nous rappelant qu’au titre de la propriété intellectuelle, nous ne devrions même pas regarder « leur » balisage. Deux autres membres du C.V de Masevaux quittent également la salle sans daigner nous saluer.
Pourtant les bonnes volontés ne manquent pas, de part et d’autre. La MBF agit déjà dans le domaine de l’entretien de sentiers, de manière systématique, en Alsace et dans d’autres régions de France, et organise même des défis internationaux sur ce thème. Pour preuve cette session de coopération entre les vététistes et le Club Vosgien de la même section de Masevaux, une collaboration qui pourtant n’a pas satisfait tout le monde, selon Jean Koehl, vice-président du CV Masevaux :
On a accueilli des groupes MBF pour deux demi-journées de travail et une journée pleine. Ils en ont profité pour faire leur com’en faisant venir France 3…
C’est vraiment à se demander ce que reprochent réellement les membres du Club Vosgien aux vététistes. Il semblerait que, quelles que soit les offres de coopération, les éternels insatisfaits sont toujours les mêmes. Pourtant le dialogue est bel et bien la clé d’une bonne entente entre randonneurs et vététistes : la coopération dans l’entretien des sentiers et les code de conduite des vététistes (comme par exemple la limitation des parcours sauvages d’enduro).
Le dialogue c’est l’apprentissage de la diversité. Diversité des usages et diversité sociale. Les vététistes sont particulièrement au clair sur ce point en distinguant les pratiques entre le cross country (qui n’a pratiquement aucun impact sur l’érosion des sentiers et représente plus de 80% des pratiques), l’enduro et la descente (DH). Peut-être que le Club Vosgien pourrait faire aussi un effort de son côté en se questionnant sur son rapport au paysage commun et les notions de partage que cela implique.
Solution 2 : attractivité
Cette attitude de la part du Club Vosgien pourrait notamment jouer en défaveur de l’attractivité du Massif Vosgien. Comme exprimé dans les Dernières Nouvelles d’Alsace, les revendications du Club Vosgien se résument à demander la création de Bike Park pour y cantonner les VTT et de ce fait leur interdire les sentiers… Une revendication qui s’établirait en défaveur évidente de l’écrasante majorité des pratiquants sur le segment du cross country. Autant dire que si les communautés de communes contactées à ce sujet par le Club Vosgien valident ces intentions, c’est toute l’attractivité du VTT sur le Massif qui en serait affectée : adieu les descentes techniques et les petits frissons qui pourtant sont souvent accessibles aux débutants. On ira expliquer aussi aux touristes que pour monter à plus de 900 mètres d’altitude ils devront emprunter les autoroutes à grumiers…
En la matière, on ne peut que saluer la lettre du maire de Hohrod (68142) qui rappelle que l’équipement de randonnée est une liberté de choix :
Randonner est une liberté individuelle fondée sur le principe de la liberté de circuler, un droit fondamental et universel. Que l’on circule à pieds ou à vélo est sans importance, chacun est libre de choisir l’équipement nécessaire à sa randonnée (…)
et que par conséquent :
La réponse éthique est de ne privilégier aucune pratique et de les placer à égalité dans leur accueil et leur traitement, les principes d’équité et de non-discrimination alimentent avantageusement l’argumentation en faveur des activités de plein air.
La valorisation du massif passe donc non seulement par le partage mais aussi par le dialogue entre les pratiquants. Ce besoin de coopération n’est pas seulement vital pour le Massif Vosgien, il l’est aussi pour que le paysage et ses sentiers ne comptent pas parmi les trop nombreux secteurs où le partage et le respect n’ont plus cours.
Alors oui, le Club Vosgien doit partager la montagne, le balisage et les sentiers. Les vététistes de leur côté n’ont pas à rougir de l’aide qu’ils offrent (même en communiquant dessus), comme en témoigne l’opération de grande envergure Take Care Your Trails. Cette communauté est active et respectueuse de l’environnement, qui irait le lui reprocher ?
Heureusement, les interlocuteurs bienveillants de la MBF sont nombreux, tels les Parcs, les Offices de Tourisme, les élus… et bien souvent très attentifs aux contraintes et aux paradoxes dont la communauté des vététistes n’est pas exempte. Ainsi, par exemple, l’image du VTT pâti bien souvent des quelques incivilités rencontrées ici et là, ou des vidéos trash sur Youtube dont ne manquent pas de s’emparer les détracteurs du VTT pour généraliser et justifier leur hargne. Mais qu’importe. L’essentiel est d’atteindre la maturité nécessaire au dialogue et dépasser ces contradictions. En la matière, certaines sections du Club Vosgien devraient prendre exemple, justement, sur la MBF.
01.02.2018 à 01:00
The culture of surveillance
From 9/11 to the Snowden leaks, stories about surveillance increasingly dominate the headlines. But security and police agencies or internet and phone companies are not the only players. Surveillance is not only ‘done to us’ - it is something we do in everyday life. We submit to surveillance, believing that ‘we have nothing to hide.’ Or we try to protect our privacy or negotiate the terms under which others have access to our data. At the same time, we participate in surveillance in order to supervise children, monitor other road users, and safeguard our property. Social media allows us to keep tabs on others, including complete strangers, as well as on ourselves. This is the culture of surveillance. Watching has become a way of life.
This important new book explores the imaginaries and practices of everyday surveillance, at work, at play, in school, at home, in both ‘public’ and ‘private’ domains. Its main focus is not high-tech, organized surveillance operations but our varied, often emotional, mundane experiences of surveillance that range from the casual and careless to the focused and intentional.
Surveillance culture, David Lyon argues, is not detached from the surveillance state, society and economy. It is informed by them. He reveals how the culture of surveillance may help to domesticate and naturalize surveillance of unwelcome kinds, weighing which kinds of surveillance might be fostered for the common good and human flourishing.
Lyon, David. The culture of surveillance: Watching as a way of life. Polity Press, 2018.
Lien vers le site de l’éditeur : http://politybooks.com/bookdetail/?isbn=9780745671727
06.01.2018 à 01:00
Les nouveaux Léviathans IV. La surveillance qui vient
Je continue la série des Léviathans commencée en 2016 sur le Framablog. Pour ce nouveaux numéro, je propose de voir dans quelle mesure le modèle économique a développé son besoin vital de la captation des données relatives à la vie privée. De fait, nous vivons dans le même scénario dystopique depuis une cinquantaine d’années. Nous verrons comment les critiques de l’économie de la surveillance sont redondantes depuis tout ce temps et que, au-delà des craintes, le temps est à l’action d’urgence.
Petit extrait :
L’incertitude au sujet des dérives du capitalisme de surveillance n’existe pas. Personne ne peut affirmer aujourd’hui qu’avec l’avènement des big data dans les stratégies économiques, on pouvait ignorer que leur usage déloyal était non seulement possible mais aussi que c’est bien cette direction qui fut choisie d’emblée dans l’intérêt des monopoles et en vertu de la centralisation des informations et des capitaux. Depuis les années 1970, plusieurs concepts ont cherché à exprimer la même chose. Pour n’en citer que quelques-uns : computocracie (M. Warner et M. Stone, 1970), société du dossier (Arthur R. Miller, 1971), surveillance de masse (J. Rule, 1973), dataveillance (R. Clarke, 1988), capitalisme de surveillance (Zuboff, 2015)… tous cherchent à démontrer que la surveillance des comportements par l’usage des données personnelles implique en retour la recherche collective de points de rupture avec le modèle économique et de gouvernance qui s’impose de manière déloyale. Cette recherche peut s’exprimer par le besoin d’une régulation démocratiquement décidée et avec des outils juridiques. Elle peut s’exprimer aussi autrement, de manière violente ou pacifiste, militante et/ou contre-culturelle.
Tous les articles rassemblés en un fichier .epub
sur mon dépot Gitlab
La série d’articles sur le framablog :
28.09.2017 à 02:00
Petit tour sur les hautes chaumes
Profitons du soleil d’automne pour une sortie VTT sur les Hautes Chaumes de la région de Schirmeck / pays de Salm. Ce parcours n’est pas d’une grande difficulté technique mais nécessite à la fois de l’endurance et de la patience… (44 km / 1068 m D+)
En résumé
Au départ de Schirmeck, prenez la direction du joli petit village de Fréconrupt par le GR 532 La montée piquera un peu, pour commencer, avec quelques efforts à fournir en guise d’échauffement. Plusieurs grimpettes de ce style vont jalonner le parcours, alors… gardez des réserves !
On prendra ensuite le temps d’admirer les frondaisons sur le chemin qui mène à Salm puis l’ascension du relief du château de Salm et de la Chatte Pendue prendra un peu de temps. Repérez, au début, le « chemin médiéval » qui longe le flanc de la montagne. On coupera ensuite au niveau du replat entre les deux sommets pour rejoindre les Hautes Chaumes. À ce niveau, il faut emprunter le chemin des passeurs puis faire un petit détour jusquà la Haute Loge (un petit chemin très amusant en VTT), où on pourra admirer la superbe vue sur les monts Vosgiens (Climont, Champ du feu, Donon…).
Il est alors temps de poursuivre au long des chaumes pour rejoindre le Lac de la Meix. Attention, le parcours emprunte le chemin « piéton », qui est très technique à la descente et que je déconseille fortement en cas de temps humide ou forte fréquentation de marcheurs. Si vous n’êtes pas à l’aise avec ce genre de pilotage, prenez plutôt le chemin forestier en amont.
Depuis le Lac il faut alors remonter et rejoindre le Col de Prayé. La descente sera à la fois technique et rapide jusqu’à la route de l’Etang du Coucou. Le retour s’effectue enfin via Malplaquet-Fréconrupt.
L’ensemble est faisable en 4 heures (le temps d’admirer les vues), pour 44 km et 1068 m D+.
La carte et le tracé
18.06.2017 à 02:00
Champ du feu - les cuisses qui piquent
Une belle sortie d’entraînement à la montée en VTT vous attend au départ de Barr (67140) jusqu’au Champ du feu (1099 m). Voici le rapide descriptif et la carte correspondante.
Au départ de Barr, vous pouvez garer votre véhicule sur le parking de l’église protestante rue du Kirschberg. Le départ du parcours commence directmeent par la montée le long du cimetière en direction du chateau du Landsberg par le GR (rectangles rouges). On se dirige ensuite vers le carrefour de la Bloss (6 km) via le kiosque Jadelot pour totaliser 491 m D+. On amorce aussitôt une descente roulante jusque la Holzplatz (8,7 km).
Après avoir traversé la D854, on entamme alors une longue montée (rectangles rouges et blancs) très exigeante (400 m D+) avec des passages techniques jusqu’à Welschbruch (13,6 km). De là, on poursuit l’ascension jusqu’au Champ du Feu (22,19 km) en passant par la Rothlach (282 m D+).
Il est alors temps de prendre le chemin du retour. Celui-ci commence par une grande descente jusqu’au Hohwald (28 km) en passant par la cascade, puis un petit bout de route avant de longer cette dernière (en l’Andlau) jusqu’à Lilsbach. Pour rejoindre la vallée de Barr, il faut alors remonter jusqu’à Hungerplatz (130 m D+) pour redescendre via le château d’Andlau (croix rouges) jusqu’à l’entrée de Barr.
Le dénivelé total du parcours est de 1360 m D+ (les dénivelés cités ci-dessus ne sont pas exhaustifs) pour une distance de 42 km.
12.06.2017 à 02:00
Corporate Surveillance in Everyday Life
How thousands of companies monitor, analyze, and influence the lives of billions. Who are the main players in today’s digital tracking? What can they infer from our purchases, phone calls, web searches, and Facebook likes? How do online platforms, tech companies, and data brokers collect, trade, and make use of personal data?
In recent years, a wide range of companies has started to monitor, track and follow people in virtually every aspect of their lives. The behaviors, movements, social relationships, interests, weaknesses and most private moments of billions are now constantly recorded, evaluated and analyzed in real-time. The exploitation of personal information has become a multi-billion industry. Yet only the tip of the iceberg of today’s pervasive digital tracking is visible; much of it occurs in the background and remains opaque to most of us.
This report by Cracked Labs examines the actual practices and inner workings of this personal data industry. Based on years of research and a previous 2016 report, the investigation shines light on the hidden data flows between companies. It maps the structure and scope of today’s digital tracking and profiling ecosystems and explores relevant technologies, platforms and devices, as well as key recent developments.
Christl, Wolfie, et CrackedLab. Corporate Surveillance in Everyday Life. How Companies Collect, Combine, Analyze, Trade, and Use Personal Data on Billions. Cracked Labs, 2017.
Lien vers le site : http://crackedlabs.org/en/corporate-surveillance.
01.06.2017 à 02:00
Ghostwriter, un bon éditeur Markdown
Après plusieurs essais pour trouver l’éditeur Markdown qui convienne à mes besoins, je pense avoir trouvé avec Ghostwriter une réponse plutôt pertinente.
Ghostwriter mise avant tout sur la simplicité. C’est ce qu’on appelle un éditeur « distraction free ». Il pousse même le concept jusqu’à proposer trois mode d’édition :
- un mode normal,
- un mode « focus » qui permet de mettre en surbrillance la phrase (et non la ligne) que l’on est en train d’écrire (jusqu’à la ponctuation, en fait),
- un mode « Hemingway », qui désactive les touches
backspace
etdelete
pour se forcer à écrire comme avec une antique machine à écrire mécanique.
Mais cela, c’est du détail. Dans les fonctions plus opérationnelles, on note :
- une interface en panneaux, qui permet de passer le panneau principal où l’on écrit en mode plein écran, vraiment « distraction free »,
- la possibilité d’insérer des images en glisser-déposer directement dans l’interface,
- des fenêtres HUD (affichage tête haute, en anglais : Head-up display) qui permettent de sortir notamment l’affichage du sommaire du document et les statistiques.
- Parmi les statistiques, on note aussi quatre types d’estimation : la durée de lecture, le pourcentage de mots complexes, et de manière corrélée la facilité de lecture et le niveau (facile, université, très difficile…). Tiens en écrivant le terme « corrélé » ci-dessus, je suis passé à « difficile », j’espère que cela ira…
- enfin, un autre panneau permet d’afficher le rendu HTML du document.
Concernant le rendu, une fonction très appréciable est le choix des rendus en fonction des moteurs de transcription de la saveur Markdown utilisée. Ainsi le rendu intègre le choix d’un rendu à la sauce Pandoc, Sundow, Multimarkdown, etc. Une autre fonction est le choix de la CSS qui servira à la fois pour le rendu en temps réel mais aussi pour une éventuelle exportation en HTML.
À propos d’export, le choix est très large et on doit souligner la grande propreté des fichiers produits : html, html5, odt, xml, rtf, docx, pdf (LaTeX), pdf (ConTeXt), epub2, epub3, Groff, LaTeX… Pour ce qui me concerne, j’exporte très souvent en LaTeX, en choisissant le moteur Pandoc, et c’est vraiment efficace. Évidemment l’autre solution est d’enregistrer le .md et le convertir avec Pandoc en ligne de commande.
Le reste est à l’avenant : correction orthographique, interface en plusieurs langues, personnalisation assez poussée de l’apparence de l’interface (couleurs, transparence, image d’arrière plan). Ces sont autant de petits détails qui rendent l’utilisation de Ghostwriter fort appréciable.
Pour conclure, Ghostwriter répond à mes attentes, parce qu’il situe une bonne interface de rédaction à l’intersection entre l’éditeur de texte et les sorties souhaitées pour la finalisation (LaTeX et HTML, surtout pour ce qui me concerne).
Lien vers le site officiel de Ghostwriter : wereturtle.github.io/ghostwriter/
12.05.2017 à 02:00
Oui au chiffrement, non à la liberté
Dans cet article, nous allons voir comment la stratégie gouvernementale en matière de chiffrement suppose de limiter nos libertés numériques pour favoriser une économie de la norme à l’exclusion du logiciel libre. Telle est la feuille de route d’Emmanuel Macron.
Il y a quelque temps, j’ai écrit un article intitulé « Le contrat social fait 128 bits… ou plus ». J’y interrogeais les velléités gouvernementales à sacrifier un peu plus de nos libertés afin de pouvoir mieux encadrer les pratiques de chiffrement au nom de la lutte contre le terrorisme. Le ministre Manuel Valls, à l’époque, faisait mention de pratiques de « cryptologie légales », par opposition, donc, à des pratiques illégales. Ce à quoi toute personne moyennement intelligente pouvait lui faire remarquer que ce n’est pas le chiffrement qui devrait être réputé illégal, mais les informations, chiffrées ou non. L’idée de Valls était alors de prévenir de l’intention du gouvernement à encadrer une technologie qui lui échappe et qui permet aux citoyens de protéger leur vie privée. L’ennemi, pour qui conçoit l’État sous une telle forme archaïque, ce n’est pas la vie privée, c’est de ne pas pouvoir choisir ceux qui ont droit à une vie privée et ceux qui n’y ont pas droit. De là à la lutte de classe, on n’est pas loin, mais nous ne suivrons pas cette direction dans ce billet…
Le chiffrement, c’est bien plus que cela. C’est la capacité à user du secret des correspondances. Et la question qui se pose est de savoir si un gouvernement peut organiser une intrusion systématique dans toute correspondance, au nom de la sécurité des citoyens.
Le secret, c’est le pouvoir
C’est un choix cornélien. D’un côté le gouvernement qui, depuis Louis XI a fait sienne la doctrine qui nescit dissimulare, nescit regnare (qui ne sait dissimuler ne sait régner), principe érigé à l’état de science avec le Prince de Machiavel. Et de l’autre, puisque savoir c’est pouvoir, la possibilité pour un individu d’échanger en secret des informations avec d’autres. De tout temps ce fut un jeu entre l’autorité absolue de l’État et le pouvoir relatif des individus que de savoir comment doit s’exercer le secret de la correspondance.
Après qu’on eut littéralement massacré la Commune de Paris, les anarchistes les plus vengeurs furent visés par les fameuses Lois scélérates, dont l’une d’entre elles fit dire à Jean Jaurès qu’elle se défini par « l’effort du législateur pour aller chercher l’anarchie presque dans les secrets de la conscience humaine ». Après une chasse aux sorcières qui habitua peu à peu les Français à la pratique de la délation, le mouvement des anarchistes (pacifistes ou non) ont dû se résigner à entretenir des modes d’organisation exerçant le secret, presque aussitôt contrecarrés par l’État de guerre qui s’annonçait. Depuis la fin du XIXe siècle, l’histoire des Républiques successives (mais c’est aussi valable hors la France) n’a fait que brandir le chiffon rouge de la sécurité des citoyens pour bâtir des législations afin d’assurer au pouvoir le monopole du secret.
Et heureusement. Le secret d’État, c’est aussi un outil de sa permanence. Qu’on soit pour ou contre le principe de l’État, il n’en demeure pas moins que pour exercer la sécurité des individus, le Renseignement (avec un grand R) est un organe primordial. Le fait que nous puissions discuter du secret d’État et qu’il puisse être régulé par des instances auxquelles on prête plus ou moins de pouvoir, est un signe de démocratie.
Néanmoins, depuis la Loi Renseignement de 2015, force est de constater une certaine conception « leviathanesque » du secret d’État dans la Ve République. Il s’agit de la crainte qu’une solution de chiffrement puisse être étendue à tous les citoyens.
Quand c’est le chiffrement qui devient un risque
En réalité c’est déjà le cas, ce qui valu quelques ennuis à Philip Zimmermann, le créateur de PGP au début des années 1990. Aujourd’hui, tout le monde peut utiliser PGP, y compris avec des clés de plus de 128 bits. On peut dès lors s’étonner de la tribune signée, entre autre, par le procureur de Paris dans le New York Times en août 2015, intitulée « [When Phone Encryption Blocks Justice](https://www.nytimes.com/2015/08/12/opinion/apple-google-when-phone-encryption-blocks-justice.html?_r=1">When Phone Encryption Blocks Justice) ». Selon les auteurs, « Les nouvelles pratiques de chiffrement d’Apple et Google rendent plus difficile la protection de la population contre les crimes ». Or, en réalité, le fond de l’affaire n’est pas là. Comment en vouloir à des vendeurs de smartphone de faciliter le chiffrement des données personnelles alors que les solutions de chiffrement sont de toute façon disponibles ? Le travail de la justice ne serait donc facilité qu’à partir du moment où les criminels « oublieraient » simplement de chiffrer leurs données ? Un peu de sérieux…
La véritable intention de cette tribune, elle est exprimée en ces termes : « (…) les régulateurs et législateurs de nos pays doivent trouver un moyen approprié d’équilibrer le gain minime lié au chiffrement entier des systèmes et la nécessité pour les forces de l’ordre de résoudre les crimes et poursuivre les criminels ». Il faut en effet justifier par n’importe quel argument, même le moins crédible, une forme de dérégulation du Renseignement tout en accusant les pourvoyeurs de solutions de chiffrement d’augmenter les risques d’insécurité des citoyens. Le principal risque n’est plus le terrorisme ou le crime, qui devient une justification : le risque, c’est le chiffrement.
À partir de ces idées, les interventions d’élus et de hauts responsables se sont multipliées, sans crainte du ridicule faisant fi de tous les avis de la CNIL, comme de l’Observatoire des libertés numériques ou même du Conseil national du numérique. Las, ce débat ne date pas d’hier, comme Guillaume Poupard le rappelle en janvier 2015 : « Ce débat, nous l’avons eu il y a vingt ans. Nous avons conclu que chercher à interdire le chiffrement était à la fois passéiste et irréaliste. »
Si on ne peut interdire, il faut encadrer : les backdoors
Voyant qu’une opposition frontale à la pratique même du chiffrement ne mène à rien, en particulier parce que le chiffrement est un secteur économique à part entière, les discours se sont peu à peu infléchis vers une version édulcorée mais scélérate : imposer des backdoors obligatoires dans tout système de chiffrement autorisé. Ne pouvant interdire le chiffrement, il faut trouver le moyen de le contrôler. L’idée s’est insinuée petit à petit dans l’appareil d’État, jusqu’à commencer le travail d’une possible réforme.
C’est l’ANSSI (Agence nationale de la sécurité des systèmes d’information) qui réagit assez vertement, notamment dans une lettre diffusée par le journal Libération en août 20161, et signée de G. Poupard. Pour ce dernier, imposer des backdoors revient à affaiblir le niveau de sécurité général. On lit dans sa lettre :
« Il convient de noter que les technologies robustes de cryptographie, longtemps réservées à une communauté très restreinte, sont aujourd’hui largement diffusées et relativement aisées à mettre en œuvre. Le développement de logiciels non contrôlables, faciles à distribuer et offrant un niveau de sécurité très élevé est par conséquent à la portée de n’importe quelle organisation criminelle.
Imposer un affaiblissement généralisé des moyens cryptographiques serait attentatoire à la sécurité numérique et aux libertés de l’immense majorité des utilisateurs respectueux des règles tout en étant rapidement inefficace vis-à-vis de la minorité ciblée. »
Difficile d’exprimer combien G. Poupard a raison. Pourtant le débat resurgit en février 2017, cette fois sous l’angle de la coopération franco-allemande. C’est une lettre officielle publiée par Politico<2, signée des Ministères de l’Intérieur Français et Allemand, qui met en exergue la lutte contre le terrorisme et annonce que cette dernière…
…requiert de donner les moyens juridiques aux autorités européennes afin de tenir compte de la généralisation du chiffrement des communications par voie électronique lors d’enquêtes judiciaires et administratives. La Commission européenne doit veiller à ce que des travaux techniques et juridiques soient menés dès maintenant pour étudier la possibilité de définir de nouvelles obligations à la charge des prestataires de services de communication par voie électronique tout en garantissant la fiabilité de systèmes hautement sécurisés, et de proposer sur cette base une initiative législative en octobre 2017. »
En d’autres termes, c’est aux prestataires qu’il devrait revenir l’obligation de fournir aux utilisateurs des solutions de communication chiffrées tout en maintenant des ouvertures (forcément secrètes pour éviter qu’elles soient exploitées par des malveillants, donc des backdoors) capables de fournir en clair les informations aux autorités.
Il est très curieux de découvrir qu’en ce début d’année 2017, la Commission Européenne soit citée comme garante de cette coopération franco-allemande, alors même que son vice-président chargé du marché numérique unique Andrus Ansip déclarait un an plus tôt : « I am strongly against any backdoor to encrypted systems »3, opposant à cela les récentes avancées numériques pour lesquelles l’Estonie est connue comme particulièrement avant-gardiste.
La feuille de route du gouvernement Macron
Nous ne sommes pas au bout de nos surprises, puisqu’on apprend qu’en bon élève, notre Président E. Macron fraîchement élu, reprendra cette coopération franco-allemande. Interrogé à propos de la cybersécurité par le mathématicien Cédric Villani, il l’affirme en effet dans une vidéo publiée par Science et Avenir (source directe) :
C. Villani : « J’ai une question sur le domaine numérique, qui va être plus technique, c’est la question sur laquelle on est en train de plancher au Conseil Scientifique de la Commission Européenne, ça s’appelle la cybersécurité. C’est un sujet sur lequel on nous a demandé de plancher en tant que scientifiques, mais on s’est vite aperçu que c’est un sujet qui ne pouvait pas être traité juste sous l’angle scientifique parce que les questions politiques, économiques, étaient mêlées de façon, heu, indémêlable et que derrière il y avait des questions de souveraineté de l’Europe par rapport au reste du monde…
E. Macron : « le sujet de la cybersécurité est un des axes absolument essentiel et on est plutôt en retard aujourd’hui sur ce sujet quand on regarde… Le pays qui est le plus en pointe, c’est Israël qui a fait un travail absolument remarquable en construisant carrément une cité de la cybersécurité, qui a un rapport existentiel avec cet aspect… et les États-Unis… nous sommes en retard… il en dépend de notre capacité à nous protéger, de notre souveraineté numérique derrière, et notre capacité à protéger nos systèmes puisqu’on agrège tout dans ce domaine-là.
Je suis assez en ligne avec la stratégie qui avait été présentée en France par Le Drian, sur le plan militaire. Le sujet, c’est qu’il faut le désenclaver du plan militaire. C’est un sujet qui dépend du domaine militaire, mais qui doit également protéger tous les systèmes experts civils, parce que si on parle de cybersécurité et qu’on va au bout, les systèmes scientifiques, les systèmes de coopération universitaire, les systèmes de relation entre les ministères, doivent être couverts par ce sujet cybersécurité. Donc c’est beaucoup plus inclusif que la façon dont on l’aborde aujourd’hui qui est juste « les systèmes experts défenses » et qui est très sectoriel. La deuxième chose, c’est que je pense que c’est une stratégie qui est européenne, et qui est au moins franco-allemande. Pourquoi ? parce que, on le sait, il y a des sujets de standards, des sujets de normalisation qui sont assez techniques, et qui font que si on choisit une option technologique plutôt qu’une autre, en termes de chiffrement ou de spécifications, on se retrouve après avec des non-compatibilités, et on va se retrouver — on est les champions pour réussir cela — dans une bataille de chiffonniers entre la France et l’Allemagne. Si on veut avoir une vraie stratégie en la matière sur le plan européen, il faut d’abord une vraie stratégie franco-allemande, une vraie convergence normative, une vraie stratégie commune en franco-allemand, en termes, pour moi, de rapprochement des univers de recherche, de rapprochement des intérêts militaires, de rapprochement de nos experts en la matière. Pour moi c’est 1) un vrai sujet de priorité et 2) un vrai sujet d’organisation en interne et en externe. Quand je m’engage sur le 2% en Défense, j’y inclus le sujet cybersécurité qui est absolument critique. »
La position d’E. Macron entre donc dans la droite ligne de la satisfaction des députés en faveur d’une limitation du chiffrement dans les usages individuels, au profit a) d’une augmentation capacitaire du chiffrement pour les autorités de l’État et b) du renforcement des transactions stratégiques (bancaires, communicationnelles, coopérationnelles etc.). Cela ouvre à la fois des perspectives de marchés et tend à concilier, malgré les critiques et l’inefficacité, cette fameuse limitation par solution de backdoors interposée.
Pour que de telles solutions existent pour les individus, il va donc falloir se tourner vers des prestataires, seuls capables à la fois de créer des solutions innovantes et d’être autorisés à fournir au public des services de chiffrement « backdorisés ».
Pour cela, c’est vers la French Tech qu’il va falloir se tourner. Et cela tombe plutôt bien, puisque Mounir Mahjoubi, le directeur de la campagne numérique d’Emmanuel Macron et sans doute futur député, en faisait la promotion le 11 mai 2017 sur France Inter4, tout en plaidant pour que les « français créent une culture de la sécurité en ligne ».
Il faut donc bien comprendre que, bien que les individus aient tout intérêt à chiffrer leurs communications au moins depuis l’Affaire Snowden, l’objectif est de les encourager :
- pour asseoir notre autonomie numérique nationale et moins prêter le flanc aux risques sécuritaires,
- dans le cadre de solutions de chiffrement backdorisées,
- en poussant des start-up et autres entreprises de la French Tech à proposer qui des logiciels de chiffrement qui des messageries chiffrées de bout en bout, conformes aux normes mentionnées par E. Macron et dont la coopération franco-allemande dressera les premiers étalons.
Dans ce domaine, il va de soi que les solutions de chiffrement en cours aujourd’hui et basées sur des logiciels libres n’auront certainement plus aucun doit de cité. En effet, il est contradictoire de proposer un logiciel libre doté d’une backdoor : il serait aussitôt modifié pour supprimer cette dernière. Et, d’un autre côté, si des normes viennent à être établies, elles seront décidées à l’exclusion de toute tentative de normalisation basée sur des chiffrements libres existants comme PGP, GNUPG…
Si nous résumons
Il suffit de rassembler les idées :
- tout est en place aujourd’hui pour pousser une limitation de nos libertés numériques sous le recours fallacieux d’un encouragement au chiffrement mais doté de solutions obligatoires de portes dérobées,
- l’État assurerait ainsi son pouvoir de contrôle total en privant les individus de tout droit au secret absolu (ou quasi-absolu, parce qu’un bon chiffrement leur est aujourd’hui accessible),
- les solutions libres pourraient devenir interdites, ce qui annonce alors la fin de plus de vingt années de lutte pour que des solutions comme PGP puissent exister, quitte à imposer aux entreprises d’utiliser des nouvelles « normes » décidées de manière plus ou moins unilatérales par la France et l’Allemagne,
- cette stratégie, bien que profondément inutile au regard de la lutte contre le terrorisme et la sécurité des citoyens, sert les intérêts de certaines entreprises du numérique qui trouvent dans la politique de E. Macron une ouverture que le gouvernement précédent refusait de leur servir sur un plateau en tardant à développer davantage ce secteur.
Je me suis souvent exprimé à ce propos : pour moi, le chiffrement des communications des individus grâce au logiciel libre est une garantie de la liberté d’expression et du secret des correspondances. Aucun État ne devrait interdire ou dégrader de telles solutions technologiques à ses citoyens. Ce qui distingue un État civilisé et démocratique d’une dictature, c’est justement cette possibilité que les capacités de renseignement de l’État puissent non seulement être régulées de manière démocratique, mais aussi que le chiffrement, en tant qu’application des lois mathématiques, puisse être accessible à tous, sans discrimination et rendre possible l’exercice du secret par les citoyens. Problème : aujourd’hui, le chiffrement libre est remis en cause par la stratégie gouvernementale.
-
Voir aussi sur le site du Ministère de l’Intérieur. ↩︎
21.04.2017 à 02:00
The Red Web
After the Moscow protests in 2011-2012, Vladimir Putin became terrified of the internet as a dangerous means for political mobilization and uncensored public debate. Only four years later, the Kremlin used that same platform to disrupt the 2016 presidential election in the United States. How did this transformation happen?
The Red Web is a groundbreaking history of the Kremlin’s massive online-surveillance state that exposes just how easily the internet can become the means for repression, control, and geopolitical warfare. In this bold, updated edition, Andrei Soldatov and Irina Borogan offer a perspective from Moscow with new and previously unreported details of the 2016 hacking operation, telling the story of how Russia came to embrace the disruptive potential of the web and interfere with democracy around the world.
Soldatov, Andrei, et Irina Borogan. The Red Web. The Struggle Between Russia’s Digital Dictators and the New Online Revolutionaries. Public Affairs, 2017.
Lien vers le site de l’éditeur : https://www.publicaffairsbooks.com/titles/andrei-soldatov/the-red-web/9781610395748/
21.04.2017 à 02:00
La toile que nous voulons
Depuis son origine, et sous la pression d’un secteur économique désormais hégémonique, le web a évolué en un sens qui l’a profondément dénaturé, au point d’en faire un instrument d’hypercontrôle et d’imposition d’une gouvernance purement computationnelle de toutes choses. Privilégiant à outrance l’automatisation mise au service de modèles économiques devenus la plupart du temps ravageurs pour les structures sociales, cette évolution a affaibli toujours plus gravement les conditions d’une pratique réflexive, délibérative, outre les aspects révélés par Edward Snowden. Cet ouvrage présente les principaux aspects théoriques et pratiques d’une refondation indispensable du web, dans lequel et par lequel aujourd’hui nous vivons. L’automatisation du web ne peut être bénéfique que si elle permet d’organiser des plateformes contributives et des processus délibératifs, notamment à travers la conception d’un nouveau type de réseaux sociaux. Bernard Stiegler, Julian Assange, Paul Jorion, Dominique Cardon, Evgeny Morozov, François Bon,Thomas Bern, Bruno Teboul, Ariel Kyrou, Yuk Hui, Harry Halpin, Pierre Guéhénneux, David Berry, Christian Claude, Giuseppe Longo, balayent les aspects et les enjeux économiques, politiques, militaires et épistémologiques de cette rénovation nécessaire et avance des hypothèses pour l’élaboration d’un avenir meilleur.
Jorion, Paul, et Stiegler, Bernard et al. La toile que nous voulons. Le web néguentropique. Édité par Bernard Stiegler, FYP éditions, 2017.
Lien vers le site de l’éditeur : https://www.fypeditions.com/toile-voulons-bernard-stiegler-evgeny-morozov-julian-assange-dominique-cardon/
20.04.2017 à 02:00
L’appétit des géants
Il fallait un amoureux du web et des médias sociaux pour décrypter les enjeux culturels, relationnels et démocratiques de nos usages numériques. Olivier Ertzscheid met en lumière les effets d’échelle, l’émergence de géants aux appétits insatiables. En concentrant toutes nos activités numériques sur quelques plateformes, nous avons fait naître des acteurs mondiaux qui s’épanouissent sans contrôle. Nos échanges, nos relations, notre sociabilité vont nourrir des algorithmes pour classer, organiser et finalement décider pour nous de ce qu’il nous faut voir.
Quelle loyauté attendre des algorithmes qui se nourrissent de nos traces pour mieux alimenter l’influence publicitaire ou politique ? Comment construire des médias sociaux et un accès indépendant à l’information qui ne seraient pas soumis aux ambitions des grands acteurs économiques du web ? Pourquoi n’y a-t-il pas de bouton « sauver le monde » ?
Ertzscheid, Olivier. L’appétit des géants: pouvoir des algorithmes, ambitions des plateformes. C&F éditions, 2017.
Lien vers le site de l’éditeur : https://cfeditions.com/geants/
02.04.2017 à 02:00
Parution de Libertés numériques
Et voici le guide Libertés numériques. Guide des bonnes pratiques à l’usage des DuMo (coll. Framabook, version août 2017). Un inventaire des bonnes pratiques numériques à la portée de tous. Un ouvrage dans collection Framabook).
Nous utilisons nos terminaux, nos ordinateurs, nos téléphones portables comme nous l’avons appris, ou pas. Pourtant, pour bien des gens, ces machines restent des boîtes noires. C’est le cas des Dupuis-Morizeau, une famille imaginaire que nous citons souvent à Framasoft. Elle correspond, je crois, assez bien à une réalité : des personnes qui utilisent les réseaux et les outils numériques, souvent même avec une certaine efficacité, mais qui ne sont pas autonomes, dépendent des services des grands silos numériques du web, et sont démunis face à tout ce contexte anxiogène de la surveillance, des verrous numériques, des usages irrespectueux des données personnelles… C’est à eux que s’adresse cet ouvrage, dans l’intention à la fois de dresser un petit inventaire de pratiques numériques mais aussi d’expliquer les bonnes raisons de les mettre en œuvre, en particulier en utilisant des logiciels libres.
Pour une autre présentation de cet ouvrage, vous pouvez lire l’interview paru sur le Framablog où j’explique les tenants et aboutissants de ce projet.
Quelques liens :
- pour télécharger le guide Libertés numériques sur Framabook,
- acheter la version papier chez Lulu,
- lire le guide en ligne,
- participer à son amélioration sur son dépôt Git.
Grands utilisateurs d’outils et de services numériques, les Dupuis-Morizeau (DuMo) sont pourtant entourés de boîtes noires. Installer, configurer, sauvegarder, envoyer, souscrire, télécharger… autant d’actions que, comme les DuMo, nous ne maîtrisons pas toujours dans un environnement dont nous sommes au mieux les acteurs passifs, au pire les prisonniers.
Avec des exemples concrets, ce manuel accompagne l’utilisateur au quotidien. Il montre comment l’utilisation de logiciels libres est l’une des clés d’une informatique domestique maîtrisée. Quels logiciels choisir et pourquoi ? quelle confiance accorder aux services en réseau ? qu’est-ce que la confidentialité dans les communications ? Autant de sujets vulgarisés permettront au lecteur de faire bon usage de ses libertés numériques.
31.03.2017 à 02:00
Manifeste pour une véritable économie collaborative : Vers une société des communs
Partage de fichiers, distribution de musique, installation de logiciels, la technologie du peer-to-peer (P2P) permet différents types de coopération via un échange direct de données entre ordinateurs, sans passer par des serveurs centralisés. Mais ce genre d’utilisation a au fond une portée limitée, et si l’on adopte un point de vue plus large, le P2P peut être considéré comme un nouveau modèle de relations humaines. Dans cet ouvrage, Michel Bauwens et Vasilis Kostakis décrivent et expliquent l’émergence d’une dynamique du P2P fondée sur la protection et le développement des communs, et la replacent dans le cadre de l’évolution des différents modes de production. Cette nouvelle modalité de création et de distribution de la valeur, qui favorise les relations horizontales, crée les conditions pour une transition vers une nouvelle économie, respectueuse de la nature et des personnes, une véritable économie collaborative.
Bauwens, M., & Kostakis, V. (2017). Manifeste pour une véritable économie collaborative : Vers une société des communs (O. Petitjean, Trad.). Éditions Charles Léopold Mayer.
Lien vers le site de l’éditeur : http://www.eclm.fr/ouvrage-386.html
04.03.2017 à 01:00
Scott Spark 950 : prise en main
L’hiver ne doit pas être un obstacle pour rouler et tant pis si le terrain est gras. La sortie du jour avait pour thème : comment prendre en main un VTT tout juste sorti du carton ? En fait c’est très facile, pourvu que le vélo en question soit de bonne qualité.
L’engin en test
Oui, parce qu’à ce niveau-là, ce n’est ni un vélo ni un simple VTT mais un engin, bourré de technologies plus avancées les unes que les autres. Lorsque j’ai vu le monteur régler les suspensions pour mon gabarit, je me suis demandé si je n’aurais pas dû choisir maths-physique à la sortie du lycée. Heureusement, une fois réglées ces suspensions, normalement on ne devrait pas avoir à y bricoler sans arrêt.
Le test a porté assez simplement sur la base de ma pratique du cross-country : 40 km environ dans les Vosges pour 1000 m de dénivelé (ben oui, au-delà il y avait de la neige). Le VTT concerné : un Scott Spark 950.
Alors qu’est-ce qu’il y a dans le paquet ?
D’abord une transmission Shimano XT pour le dérailleur arrière et Deore pour l’avant. D’accord, c’est pas du full-XT mais franchement pour passer les deux plateaux avant, c’est largement suffisant (et Deore reste une référence).
Dans l’ensemble, la transmission est franchement au poil. Si comme moi vous sortez direct d’un VTT avec trois plateaux avant, l’apprentissage met environ… 5 minutes, le temps de trouver une montée pour essayer tout cela. Évidemment, sur ce VTT, je conseille de prendre grand soin de cette transmission : l’équipement convient parfaitement pour une pratique cross-country mais si on tire un peu long et selon le kilométrage m’est d’avis que la longévité est proportionnelle au soin avec lequel vous passez les vitesses.
Ensuite viennent les super gadgets de chez Scott.
Le système Twinlock, d’abord, qui permet en trois positions, de régler le débattements des suspensions avant et arrière : relâche totale pour la descente, mode traction (semi-blocage) pour les montées un peu techniques, et blocage total pour montée régulière ou la route (bêrk). Simple gadget ou vraiment utile ? la question n’est pas sérieuse : c’est l’une des clés de la polyvalence de ce VTT. Sans ce système, l’intérêt pour le cross-country serait bien moindre. Bien sûr, il faut adapter ses réglages en fonction du terrain sur lequel on évolue, mais comme la commande est située au guidon, c’est une simple formalité.
La commande de la tige télescopique au guidon. Là encore, l’intérêt est évident… la tige s’abaisse avec le poids du cycliste, histoire d’engager des descentes dans de bonnes conditions, puis remonte très vite une fois que l’on souhaite revenir à une position de pédalage. Petit bémol toutefois : comme on le voit sur la photo, la commande est située après la commande de transmission, et à moins d’avoir de grandes mains, il faut aller la chercher en lâchant la prise du guidon. C’est un problème de montage et non de conception ! Je vais rapidement corriger ce problème car il est important de pouvoir manipuler les différentes commandes au guidon sans lâcher la prise. C’est normalement étudié pour cela :) Cette commande doit en fait être située entre la poignée et le levier de frein (pour affirmer cela, j’ai demandé au service après vente de chez Scott qui a mis moins de deux heures pour me répondre par courriel, merci à eux.)
De manière générale, vous avez tout intérêt à penser à baisser la selle avant d’engager la descente, mais parfois les terrains s’enchaînent plus vite que prévu. Pour la reprise, le problème est moins difficile, sauf que généralement la main est déjà occupée à changer de vitesse. Bref, la commande de la tige au guidon, c’est génial, mais attention au montage.
Quant aux suspensions, rien à dire de particulier : fourche Fox 32 à l’avant (débattement de 100 pour le cross country) et amortisseur Fox Float à la l’arrière. Trois positions (cf. ci-dessus). Dans le domaine, Fox fait des petites merveilles.
La taille des roues est un choix… personnel. Le Spark 950 est dotée de roues en 29 pouces. Ceux qui ne jurent que par le 27.5 devront prendre le Spark 750.
Le 29 pouces et moi, c’est une longue histoire. Pour la faire courte, mon premier VTT était un Gary Fisher type « semi-descente » avec des 29 pouces, sans aucune suspension. Le fait d’avoir roulé avec cela vous fait comprendre la raison pour laquelle, si on pratique le cross-country, le 29 pouces me semble un excellent atout (mais pas le seul, j’en conviens). L’entraînement et l’inertie de grandes roues est un confort dont j’ai eu des difficultés à me passer avec mon précédent VTT qui, lui, est doté de 27,5 pouces. Passer de l’un à l’autre vous fait vraiment apprécier la différence.
Mais le bémol des 29 pouces, je l’ai rencontré aujourd’hui même : sur la neige, il y a quand même moins de répondant (trop de surface au contact). Certes, je pense que c’est aussi lié aux pneus fournis avec le Spark : des Maxxis Forecaster dont je ne suis pas un grand fan (on verra bien à l’usage). D’un autre côté, de la neige, il n’y en a pas toute l’année, hein ?
Conclusion
Ce VTT m’a été conseillé de toutes parts lorsque je recherchais le meilleur compromis pour ma pratique du VTT. Aucun regret. Le vélo correspond parfaitement à mes attentes et il n’y a pas de surprise. Du point de vue des performances, il est à l’image de la gamme Spark de chez Scott qui bénéficie maintenant de quelques années d’ajustements. C’est à l’usage qu’on verra ce que vaut vraiment le cadre, dans un alliage d’aluminium 6011 (avantage du nickel pour la corrosion, à envisager sur le long terme). Quant à l’entretien, il devrait être minimal.
Avec un bon réglage de départ, une étude posturale assurée par un spécialiste du magasin, ce Spark 950 est un bon investissement et s’adaptera à une pratique engagée ou non. Il se manie cependant avec discernement et nécessite tout de même un certain niveau de pratique pour en tirer tous les avantages. Je déconseillerais donc ce VTT pour un premier achat, mais une fois de bonne habitudes prises, il fera très certainement votre affaire, pour un budget qui ne grimpe pas pour autant vers les cadres carbone-super-chers :)
01.02.2017 à 01:00
Creditworthy
The first consumer credit bureaus appeared in the 1870s and quickly amassed huge archives of deeply personal information. Today, the three leading credit bureaus are among the most powerful institutions in modern life — yet we know almost nothing about them. Experian, Equifax, and TransUnion are multi-billion-dollar corporations that track our movements, spending behavior, and financial status. This data is used to predict our riskiness as borrowers and to judge our trustworthiness and value in a broad array of contexts, from insurance and marketing to employment and housing. In Creditworthy, the first comprehensive history of this crucial American institution, Josh Lauer explores the evolution of credit reporting from its nineteenth-century origins to the rise of the modern consumer data industry. By revealing the sophistication of early credit reporting networks, Creditworthy highlights the leading role that commercial surveillance has played — ahead of state surveillance systems — in monitoring the economic lives of Americans. Lauer charts how credit reporting grew from an industry that relied on personal knowledge of consumers to one that employs sophisticated algorithms to determine a person’s trustworthiness. Ultimately, Lauer argues that by converting individual reputations into brief written reports — and, later, credit ratings and credit scores — credit bureaus did something more profound: they invented the modern concept of financial identity. Creditworthy reminds us that creditworthiness is never just about economic “facts.” It is fundamentally concerned with — and determines — our social standing as an honest, reliable, profit-generating person."
Lauer, Josh. Creditworthy. A history of consumer surveillance and financial identity in America. Columbia University Press, 2017.
Lien vers le site de l’éditeur : https://cup.columbia.edu/book/creditworthy/9780231168083
16.11.2016 à 01:00
Du software au soft power
J’ai eu l’occasion de participer au livre dirigé par T. Nitot, Numérique : reprendre le contrôle (éd. Framabook), paru à l’occasion du Paris Open Source Summit 2016. J’interviens sur le sujet de l’autonomie numérique et les discours associés à cette problématique, aux côtés du grand Alain Damasio, qui nous a gratifié d’un texte magnifique. Je retranscris ici l’interview qui me concerne (pp. 99-107).
Couverture. Numérique : reprendre le contrôle (Framasoft/Framabook, nov. 2016)
— Comment décrire les problèmes politiques posés par la concentration des données ? Peut-on y remédier en promouvant la souveraineté et l’autonomie numérique ?
— La question est très large et appelle un développement. En fait, j’ai toujours eu un peu de mal avec ces trois notions qu’il faut définir.
La concentration des données, en soi, n’est qu’un moyen pour obtenir un résultat. C’est l’utilité de ce dernier, c’est-à-dire l’intention qu’il faut questionner. Concentrer, cela revient à collecter et rassembler des informations en un seul point. Ce n’est pas une pratique condamnable. L’Insee, pour prendre un exemple connu, a toujours pratiqué ce type de collecte à des fins d’analyse et je pense qu’on ne saurait remettre en question les avantages cognitifs et pratiques des données de l’Insee.
Dans le contexte qui nous occupe, nous parlons de big data. C’est un niveau bien supérieur à ce que pratique l’Insee depuis l’après-guerre, même avec des moyens de plus en plus modernes. Les big data proviennent de plusieurs sources et celles produites par des institutions privées ou publiques à des fins statistiques (des hard datas) n’en constituent qu’une petite partie1. La partie la plus spectaculaire des données que rassemblent des grandes multinationales provient en réalité de nous-mêmes, il s’agit des soft datas que nous laissons plus ou moins volontairement en fonction de nos comportements de consommateurs de biens et services, gratuits ou non : entrées de requêtes dans des moteurs de recherche, flux de données de géolocalisation en temps réel, comptage de clics, mesure de l’attention informationnelle, etc. Moins connues sont les métadonnées, c’est-à-dire la provenance des données, les durées, les mesures de trafic, les vitesses de connexion, les traces et historiques de géolocalisation, etc. Bref un ensemble d’informations que nous pensons souvent inutiles du point de vue individuel, négligeables du point de vue de la taille, mais qui, en grandes quantités, traduisent avec une exactitude impressionnante l’ensemble de nos comportements. Ces données sont multipliées du point de vue sémantique dans tout ce qui concerne l’Internet des objets, le quantified self et toutes les pratiques qui lient des services et des conditions d’exercice de ces services (je profite d’un bien à condition de donner en retour des informations très personnelles sur moi).
Toutes ces informations pourraient être rassemblées et traitées par une multitude d’entreprises qui, chacune, utiliserait ces informations pour améliorer les biens et services en question en passant des contrats clairs avec les utilisateurs. Un peu comme le contrat que je passe avec ma banque qui connaît énormément de choses sur mon comportement de consommateur. Il y aurait donc un contrat entre l’utilisateur et la firme : je te confie mes données et tu me fournis un service (si possible plus performant). Or, aujourd’hui, non seulement le contrat est la plupart du temps fallacieux mais en plus le nombre de firmes est finalement très faible. Pour ne prendre que l’exemple d'Alphabet Inc., ce conglomérat regroupe plusieurs entreprises, think tank et sous-traitants aux secteurs d’activités très différents et qui pourtant traitent tous de manière plus ou moins directe des données des individus utilisateurs des services, en particulier ceux de Google, dans une logique de monopole (publicitaire, en particulier).
Là où la concentration des données pose problème, c’est à la fois dans leur quantité et dans les secteurs où elles deviennent des facteurs permettant de profiler non plus les individus, mais la société en entier tant les secteurs d’activité concernés recomposent le social (dans le cas d’Alphabet Inc. : biotechnologie, médecine, jeux, communications en tout genre, économie, bourse, automobile, urbanisation, robotique, cartographie et espaces, biens culturels et même corruption). Ainsi le problème politique de la concentration des données, c’est justement l’idéologie dont les solutions technologiques de ces multinationales sont devenues les supports. Et cette idéologie, c’est en premier lieu celle de la substitution de l’État par des services, et en second lieu l’absence de toute forme de contrat de confiance. Par exemple, il n’y a plus besoin de confiance entre individus si nous faisons reposer uniquement la fiabilité de nos informations sur des algorithmes faisant foi/loi. Je ne dis pas que, par exemple, l’utilisation de services sécurisés par SSL est un problème, je dis que la tendance à vouloir remplacer notre espace de confiance entre citoyens par des solutions technologiques cause immanquablement une révision de la nature de nos relations sociales. Il en va ainsi de tous les contrat dits clauses de confidentialité et clauses d’utilisation que nous passons avec toutes sortes de services numériques, comme Facebook, et qui font régulièrement l’objet de questionnements quant à leur éthique : l’éthique est justement ce qui n’a plus à être pris en compte dès lors que l’on considère que la contrepartie de l’utilisation d’un service est l’abandon même de la confiance. Je donne toutes mes informations personnelles et mon intimité à une firme : qu’a-t-elle besoin d’attendre mon accord individuel si son objectif n’est pas de me profiler, moi, mais tout le monde, pour une « meilleure société » ?
Partant de ce constat, ce qu’on appelle « souveraineté numérique » correspond à l’idée qu’à l’échelle d’un pays, d’un État, il puisse exister suffisamment de ressources pour que les usages de services numériques puissent y être circonscrits au moins en droit, au mieux que les supports technologiques des services soient intégrés dans l’espace de confiance d’un État. À l’heure de la mondialisation des échanges boursiers et des firmes, cette vision est bien entendu celle d’une chimère. L’autonomie numérique ne peut donc être que celle des utilisateurs eux-mêmes. En refusant les contrats iniques, la diffusion et la concentration de leurs données, les citoyens peuvent chercher des solutions capables de créer des chaînes de confiance auxquelles ils peuvent participer en partageant les ressources, en coopérant à leur création ou tout simplement en utilisateurs éclairés.
Cette autonomie, aujourd’hui ne peut plus être garantie par l’un ou l’autre État. Depuis les révélations d’E. Snowden, celles de Wikileaks, l’édiction de diverses lois scélérates de surveillance généralisée et autres procès discutables, les gouvernements ont fait la preuve qu’il est devenu impossible qu’ils puissent créer une sphère de confiance suffisamment crédible pour que des citoyens puissent considérer que leurs données (leurs informations personnelles) y soient protégées. La seule solution repose sur un postulat : il doit être primordial pour un peuple de pouvoir disposer de solutions technologiques capables de garantir physiquement (mathématiquement) le secret et l’anonymat des citoyens, à n’importe quel prix, et reposant sur des solutions libres/open source. Nous avons atteint les limites du contrat social : avec des firmes comme les GAFAM, l’État n’est plus capable d’assurer la sécurité numérique des citoyens, c’est à eux de construire leur autonomie en la matière.
— Le capitalisme de surveillance, sur lequel vous avez écrit une longue analyse, est-il un obstacle à la souveraineté numérique des individus ?
— Ramené au rang de paradigme, le modèle de l’économie de cette première tranche du XXIe siècle, pas seulement celle des services numériques, repose sur la captation des données et leurs valeurs prédictives. L’économie libérale, celle que l’on trouve dans les livres aux origines du capitalisme moderne, composait avec l’idée d’une égalité entre les acteurs économiques et celle d’un équilibre général où tout échange trouve sa fin dans la satisfaction de chacun. Dans un article paru en 2015, intitulé « Big other : surveillance capitalism and the prospects of an information civilization », la chercheuse Shoshana Zuboff2 montre que la logique d’accumulation des données, l’automatisation de leur traitement et leur analyse en autant d’inférences et de prédictions, faussent la logique de l’équilibre général. Pour cela les firmes mettent en œuvre des pratiques d’extraction de données qui annihilent toute réciprocité du contrat avec les utilisateurs, jusqu’à créer un marché de la quotidienneté (nos données les plus intimes et à la fois les plus sociales). Ce sont nos comportements, notre expérience quotidienne, qui deviennent l’objet du marché et qui conditionne même la production des biens industriels (dont la vente dépend de nos comportements de consommateurs). Mieux : ce marché n’est plus soumis aux contraintes du hasard, du risque ou de l’imprédictibilité, comme le pensaient les chantres du libéralisme du XXe siècle : il est devenu malléable parce que ce sont nos comportements qui font l’objet d’une prédictibilité d’autant plus exacte que les big data puissent être analysées avec des méthodes de plus en plus fiables et à grande échelle. Selon S. Zuboff, cette nouvelle forme de capitalisme est nommée « capitalisme de surveillance ».
Reste l’explication du titre de l’article : « Big Other ». Dans son roman, G. Orwell nommait un état de surveillance tout puissant Big Brother. Pour S. Zuboff, les firmes aujourd’hui capables d’une surveillance / conformation du marché à l’échelle mondiale, n’ont pas pour objectif de remplacer l’État comme on le ferait avec un coup d’État. C’est un coup des gens qu’oppose S. Zuboff à cette idée, c’est-à-dire que c’est dans le marché, c’est-à-dire dans et par la société et notre soumission volontaire à la logique de l’accumulation de données, que naît cette altérité supérieure de l’économie de la surveillance, remplaçant l’idéal d’une démocratie libérale, un Big Other dont l’une des personnifications est Google (dans le texte de S. Zuboff). On pourrait dire aujourd’hui l’ensemble des GAFAM, Alphabet et compagnie.
— Les GAFAM ont aujourd’hui le quasi-monopole du stockage et de la gestion de nos données : quelles sont les implications politiques de la concentration des données dans les silos de quelques grands acteurs ? Je pense notamment à Apple qui refuse certaines applications jugées trop politiques dans l’App Store, ou à Facebook qui prend le rôle d’un service public avec son Safety Check).
— Il y a encore peu de temps, le problème que pouvait soulever la concentration des données, c’était celui de la remise en question de la sphère privée. C’est toujours le cas, mais nous assistions à un changement social en pensant seulement que nous avions encore le choix entre accepter ou non les contrats d’utilisation des services numériques des grandes firmes. Nous n’avions peur que de Big Brother. Or, nous n’en sommes plus là. Comme S. Zuboff le montre, le développement des méthodes d’analyse des big data est en progression constante, si bien que, dans les mains de firmes gigantesques avec autant de domaines d’application, nous avons besoin d’appréhender ce bouleversement avec des outils qui dépassent le seul stade de l’analyse de risque individuel ou collectif de la diffusion des données personnelles. Dans l’histoire économique mondiale, les firmes n’ont jamais été autant en mesure de modeler le marché à volonté grâce à la puissance de l’analyse des données à grande échelle. Non seulement les données sont déjà diffusées et utilisées, mais elles sont aussi extraites et accumulées sans aucune réaction de l’ordre de la décision publique.
C’est en cela que l’État échoue à protéger ses citoyens, et dans cette faille du contrat social les solutions de facilité s’engouffrent : encore récemment notre ministre français B. Cazeneuve surenchérissait dans la lutte anti-terroriste en appelant à une limitation drastique des messageries chiffrées à l’échelle internationale3, provoquant ainsi la colère des spécialistes4 qui rappellent l’utilité économique et sécuritaire du chiffrement dans tout système d’information. Pour que des décideurs publics soient à ce point pro-actifs dans le passage de marché avec les GAFAM (comme c’est le cas dans l’Éducation Nationale française) ou soient prêts à ce que nos communications transitent en clair à travers les services des mêmes GAFAM, c’est bien parce que l’établissement des firmes sur le marché est vécu comme un état de fait, immuable. Tout est fait pour qu’Internet ne soit plus qu’un marché avec quelques services identifiés et non plus un réseau ouvert, partagé et diversifié. La réduction de l’offre de services sur Internet est conçu par les décideurs publics comme un outil visant à faciliter la surveillance et justifier le manque de maîtrise des outils numériques dans la plupart des secteurs des services publics. De leur côté, les firmes jouent un double rôle : collaborer politiquement et asseoir toujours davantage leurs situations de monopoles.
— Comment sensibiliser le grand public à ces implications politiques ? Quel type de discours construire ?
En France, s’adresser au public ne peut se faire que de manière directe mais avec certains principes. Une méthode directe c’est-à-dire sans passer par un filtre institutionnel. Et pour cause : par les réformes successives de l’Éducation Nationale, l’État a échoué à former ses citoyens à l’autonomie numérique. Cela aurait pu fonctionner au milieu des années 1980, à la « grande époque » du Plan Informatique Pour Tous qui mettait l’accent sur la formation à la programmation. Aujourd’hui malgré de nombreux efforts, seule une petite partie des lycéens peuvent avoir accès à un véritable enseignement à la programmation informatique depuis 2013 tandis que la majorité n’auront d’autre choix que de pianoter laborieusement sur des outils Microsoft. Dans un contexte académique, former les jeunes à des concepts aussi complexes que les protocoles du réseau Internet, à un peu de langage de programmation, aux enjeux du profilage, de la confidentialité des systèmes d’information et surtout au droit et au cadre de la liberté d’expression, cela revient à marcher sur des œufs avec un éléphant sur le dos.
Les principes de la sensibilisation au grand public doivent être beaucoup plus simples : diffuser et démontrer que l’offre en logiciel libre est fiable, montrer que cette fiabilité repose à la fois sur la qualité des programmes et sur une chaîne de confiance entre l’hébergeur, le concepteur, l’utilisateur et même le fabricant des machines sur lesquelles on travaille. On ne touche pas les gens avec un discours mais en faisant une démonstration : montrer que des alternatives ne se contentent pas d’exister mais qu’elles respectent leurs utilisateurs sur la base du partage d’information, de connaissance et de code. C’est l’objectif de la campagne Degooglisons Internet de Framasoft, mais c’est bien davantage : pour faire cela, il faut des relais de proximité et ces relais constituent tout le tissu de l’économie sociale et solidaire (ESS), y compris des petites entreprises, qui permettront de relayer le modèle sur un mode d’éducation populaire^5^. Si longtemps, nous avons naïvement cru que la lutte contre un Internet déloyal devait se faire par le haut, enfermés que nous étions dans une tour d’ivoire digne des Cathares les plus radicaux, l’heure est venue de mobiliser les foules par un mouvement de fond. Pour répondre au capitalisme de surveillance qui modèle le marché, il faut fausser le marché.
— À quoi ressemblerait un monde ou le libre aurait échoué ? Où les GAFAM auraient gagné ? Ou les silos continueraient de grossir ?
Sommes-nous réellement dans cette dualité ? Je pense que le Libre (et tout ce qui en découle, c’est-à-dire au-delà de l’informatique) est une réaction à un monde où le partage n’existe pas. L’histoire du logiciel libre le montre bien : c’est en réaction à l’idée que le non-partage est source quasi-exclusive de profit que le logiciel libre s’est formalisé en droit, par une licence et un contrat de confiance. Ces principes ne peuvent pas échouer, tout au plus ils peuvent être muselés, voire condamnés, tyrannisés. Mais l’essence de l’homme, c’est le partage.
Nous avons beaucoup plus à craindre d’un accroissement des monopoles et du jeu des brevets, parce qu’en monopolisant les systèmes d’information planétaires, ce ne seront plus les hommes d’un pays particulièrement enclin à la dictature qui seront muselés, mais tous les hommes et femmes de tous les pays. Les monopoles, parce qu’ils composent avec les politiques, ne peuvent que limiter l’exercice de la liberté d’expression. En d’autres termes, l’erreur que nous avons tous commise dans les années 1990, lors des bulles Internet, ce fut de croire que nous pouvions communiquer à l’échelle mondiale en profitant d’une libéralisation des réseaux. Le jeu des monopoles fausse complètement cette utopie. Les GAFAM ont déjà gagné une partie, celle qui a débouché sur l’impuissance publique (quelle firme des GAFAM, totalisant des milliards de capitalisation boursière, serait censée avoir peur de quelques millions d’euros d’amende de la part de la Commission Européenne ?, soyons sérieux^6^). Si nous échouons à faire du Libre le support de nos libertés informatiques, numériques, culturelles… il nous faudra réinventer un Internet différent, hors contrôle, hors confiance, résolument anarchique. Ce n’est pas non plus une solution qu’il faut viser, mais ce serait la seule alternative.
-
Voir sur une typologie des données dans l’acception Big Data, le rapport d’Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016. ↩︎
-
Shoshana Zuboff, « Big other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, pp. 75-89. ↩︎
-
Voir cet article de Julien Lausson, « Cazeneuve en croisade contre le chiffrement, rappelé à l’ordre par la Cnil et le Cnnum », Numerama.com, 23/08/2016. ↩︎
-
Voir cette tribune signée par Isabelle Falque-Pierrotin, MounirMahjoubi et Gilles Babinet, « En s’attaquant au chiffrement contre le terrorisme, on se trompe de cible » journal Le Monde, 22/08/2016. ↩︎
07.11.2016 à 01:00
Surveillance://, par T. Nitot
Un récent essai de Tristan Nitot est intitulé Surveillance://. Les libertés au défi du numérique : comprendre et agir. Un livre pertinent, qui atteint ses objectifs. On ne cherchera donc que la petite bête sur quelques détails du point de vue du fond et de la méthode.
Surveillance:// de Tristan Nitot est un ouvrage contextuel. Il appartient à une désormais assez longue tradition d’essais « tout public » sur le fichage des populations, la protection de la vie privée, et la défense des libertés individuelles à l’ère du tout-numérique.
On peut citer pour mémoire en 1994 l’enquête de C-M. Vadrot et L. Gouverne, Tous fichés (1994) qui alertait sur l’usage des mémoires embarquées (en particulier les cartes à puces). Plus récemment, L’homme nu. La dictature invisible du numérique par M. Dugain et C. Labbé (2016) se livrait au déballage angoissant des hauts faits de la surveillance de masse à l’ère post-Snowden.
L’ouvrage Surveillance:// se démarque néanmoins par son projet pédagogique qui cherche à la fois à expliquer les concepts-clé des mécanismes de contrôle et les solutions pratiques pour s’en prémunir. Si bien que l’ouvrage se place aussi dans une autre tradition, celle qui met en perspective les risques informatiques. Il faut alors remonter plus loin dans le temps.
Déjà en juillet 1970, lors du Colloque de Cerisy-La-Salle « L’homme devant l’informatique », on s’interrogeait sur les nouvelles formes de pouvoir qu’apporterait l’informatique dans les processus de prise de décision publique. Un basculement a néanmoins eu lieu dans cette tradition réflexive. Alors que la Révolution Informatique questionnait le rapport que nous avons avec nos données informatisées, les années 1990 ont vu se modeler différents pouvoirs par l’utilisation des données personnelles ou collectives. Le rapport entre pouvoir et collection de données se questionnait surtout selon le prisme de la notion de contrôle (institutionnel), et s’envisageait essentiellement du point de vue des libertés individuelles. Les années 2000 et la consolidation des grands monopoles du web (les GAFAM) et la pléthore de services permettant de collecter des quantités inédites de données à l’échelle mondiale, ont amené une nouvelle forme de questionnement sous l’angle, cette fois, de la surveillance. La surveillance comme fin, et non comme moyen : si la collecte et l’analyse de données est un moyen pour prendre des décisions économiques (ciblage marketing), la surveillance est une activité qui cherche à se rendre socialement acceptable et conforme les comportements, jusqu’à modeler le marché (j’ai eu l’occasion d’en traiter différents aspects, en parlant du capitalisme de surveillance dans d’autres articles de ce blog.
Dans sa première partie, le livre de Tristan Nitot établit un état des lieux de la captation et la centralisation des données. Il se fait ainsi l’écho de multiples enquêtes et ouvrages traitant des « dangers de la surveillance », avec un focus plus important sur les firmes Google et Facebook, dont l’un des principaux attraits pour les gouvernements est de réduire le nombre d’interlocuteurs dans les requêtes de renseignements sur les utilisateurs. Ainsi, on comprend que l’affaire Snowden n’a pas seulement montré que les États surveillaient leurs citoyens en masse, mais aussi que l’apparition de grands silos centralisés de données tenus par quelques firmes facilitaient grandement la tâche des gouvernements souhaitant généraliser la surveillance.
Il faut néanmoins attendre la section 7 de cette première partie pour aborder un point central : « L’impact de la surveillance sur la société », qui sera décliné encore dans la seconde partie. On regrette, bien que le public visé soit assez large, que T. Nitot prenne d’emblée la décision d’aborder la question sous l’angle exclusif du contrôle institutionnel en reprenant la référence de Michel Foucault à Jeremy Bentham, le panoptique et la prison (cf. M. Foucault, Surveiller et punir, 1975). Les références subséquentes à Glenn Greenwald (journaliste ayant publié les révélations d’E. Snowden sur la NSA) et Bruce Schneier (une pointure en matière de chiffrement et sécurité informatique), en restent néanmoins à l’analyse sociologique de la surveillance comme instrument de contrôle des populations, soit par une forme institutionnalisée (l’État surveille), soit par l’effet panoptique (l’individu se contrôle lui-même parce qu’il se sent surveillé et conforme ses comportements).
L’un des enseignements qu’on tire néanmoins de la lecture de Bruce Schneier, c’est justement que la surveillance n’est pas un instrument de contrôle. Elle ne le devient que dans la mesure on l’on prête une intention à l’institution capable de contrôle et d’action (l’État, en l’occurrence, y compris par l’intention des firmes de manipuler des opinions selon les intérêts politiques du moment, comme T. Nitot le montre à propos de Facebook dans la seconde partie). Bruce Schneier a montré que la surveillance est d’abord un modèle économique (cf. « Surveillance is the Business Model of the Internet », 2014). Si l’on se concentre uniquement sur un questionnement utilitariste de la surveillance globale des masses par les firmes (et par les États en contrat avec ces firmes), les clés d’analyse se restreignent à l’individu, son rapport à la liberté et ses droits, l’exercice de la démocratie, bref, on se focalise sur le contrat social. Or, comme il y a une perte de confiance générale envers les États depuis l’affaire Snowden, la solution adoptée par beaucoup est libertaire, consiste à prôner le moins d’État pour plus de libertés… mais moins de protection contre les firmes ; dès lors, qui garantirait le contrat de confiance entre l’individu et la firme ? (question autrement posée : qui peut garantir l’exercice de la justice ?).
Ce sera mon seul point de désaccord avec T. Nitot : il est important de comprendre aujourd’hui que la surveillance comme modèle économique n’est un problème d’État qu’à la marge ! Quand le ministre B. Cazeneuve fait voter en catimini le fichage général de 60 millions de français le 30 octobre 2016, ce n’est pas un problème de surveillance qui est posé mais un problème constitutionnel (comment une démocratie peut-elle laisser de telles décisions se prendre de manière unilatérale ?). C’est tout le paradoxe des « dangers de la surveillance » : on ne peut plus appréhender le capitalisme de surveillance avec des concepts inhérents aux démocraties qui ont produit ce nouveau capitalisme, car il s’en échappe. Le capitalisme de surveillance conforme les individus sociaux, mais conforme aussi l’organisation socio-politico-économique et la production. Le changement est radical en ce début du XXIe siècle, l’analyse politique doit l’être aussi.
Là où je rejoins T. Nitot, c’est sur l’essentiel, après tout : pour appréhender cela à l’échelle gigantesque des GAFAM, on ne peut plus se contenter de pointer la surveillance d’État même si elle utilise de fait les acquis des GAFAM. C’est le modèle économique entier d’Internet qu’il faut revoir, d’autant plus que Monsieur Dupuis-Morizeau n’est qu’un simple utilisateur qui n’envisage ces questions que du point de vue individuel dans ses pratiques quotidiennes.
C’est justement cette surveillance de la quotidienneté qui est alors en question durant tout le reste de l’ouvrage, après avoir brillamment vulgarisé les mécanismes de la surveillance et expliqué sur quels plans se confrontent les modèles informatiques. Rien qu’après cette lecture, l’utilisateur moyen pourra situer aisément ses propres pratiques numériques. Si l’on peut reprocher à T. Nitot d’avoir légèrement raccourci les enjeux économiques et politiques de la surveillance, il n’en demeure pas moins que l’essentiel de son ouvrage atteint le but recherché : informer l’utilisateur sur les techniques de surveillance et les moyens pratiques de s’en prémunir tout en promouvant un monde numérique décentralisé. Le maître mot est la confiance. Comment renouer la confiance dans l’usage des réseaux alors que les firmes qui proposent les plus célèbres services ne respectent pas les utilisateurs et leurs intimités numériques ? Pour Tristan Nitot, l’essentiel d’un Internet respectueux des utilisateurs repose sur quelques principes évidents qu’il résume à la section 21 :
- utiliser des logiciels libres ;
- pratiquer l’auto-hébergement ;
- chiffrer ses communications ;
- trouver un modèle économique qui ne repose pas sur le marketing (et l’extraction / exploitation sauvages des données des utilisateurs).
Restent enfin les aspects pratiques de l’auto-défense numérique. Dans un tel ouvrage, qui prétend brosser un aperçu général de ces problématiques, la liste des solutions ne saurait être exhaustive. Néanmoins, T. Nitot nous démontre ici un excellent niveau d’expertise, acquis tant chez Mozilla que chez CozyCloud, en identifiant les éléments les plus significatifs de la protection numérique. Pour cela il faut évidemment faire quelques concessions : on ne change pas du jour au landemain des habitudes prises par des millions d’internautes. Ainsi, au risque de rendre cette partie de son ouvrage trop vite obsolète, T. Nitot va même jusqu’à expliquer comment paramétrer les services de Google (Twitter, Facebook) auxquels ont a souscrit pour pouvoir espérer ne pas y abandonner trop de données personnelles. « Entre deux maux, choisissons le moindre » : est-ce une bonne approche ? Ceci pourrait être discuté longuement, mais il faut avant tout confronter les pratiques.
Abandonner des services performants sous prétexte qu’ils ne respectent pas nos intimités numériques, cela revient à imposer un changement organisationnel et technologique motivé par un choix éthique ou moral. Si l’utilisateur individuel peut très bien effectuer le basculement sur cette seule base, il n’en va pas de même pour des organisations, ainsi par exemple des entreprises ou des associations qui utilisent des services gratuits mais qui ne tombent jamais ou presque jamais en panne, dont l’usage est ergonomique et bien pensé, etc. On regrette un peu que T. Nitot ne prend pas davantage de temps pour expliquer comment un service gratuit ou payant (le plus souvent à bas prix) et à la fois éthique permettrait de construire une économie de la confiance et par conséquent ouvrirait aux utilisateurs de nouvelles perspectives. La question est certes abordée çà et là, en mentionnant les alternatives proposées notamment par certains membres du collectif CHATONS, mais sans une réelle approche systémique (trop complexe pour être résumée en deux pages de toute façon).
Cette économie de la confiance représente aujourd’hui l’alternative crédible au capitalisme de surveillance, mais uniquement dans la mesure où les choix technologiques sont assumés et compris par les utilisateurs. Cette compréhension est bien ce à quoi s’attaque le livre Surveillance://, ce qui explique sans doute quelques choix facilitatifs au profit d’une approche épurée et concrète, facilement assimilable par un public désormais averti.
21.10.2016 à 02:00
Paul Magnette, l'Europe et le CETA
J’interviens peu sur ce blog à propos de politiques européennes, alors qu’on pourrait s’y attendre étant donné que j’y suis plongé régulièrement dans le cadre de mes fonctions professionnelles. Je suis néanmoins particulièrement touché par le discours récent de Paul Magnette, le 16 octobre 2016, devant le parlement Wallon.
Dans ce discours (vidéo en bas de ce billet) d’une durée approximative d’une vingtaine de minutes, Paul Magnette explique de manière claire et précise les raisons pour lesquelles la Wallonie refuse(ra), dans son état actuel, l’accord économique et commercial global (AECG), mieux connu sous son acronyme anglais Comprehensive Economic and Trade Agreement (CETA). Ce dernier, pour être adopté, doit être accepté par toutes les parties prenantes, c’est à dire les 10 provinces canadiennes et les 28 États-membres de l’UE. Or, pour que la Belgique fédérale puisse valider son accord, il faut auparavant que le gouvernement Wallon puisse donner le sien, au même titre que les autres régions Belges (région Flamande et région Bruxelloise).
Et voilà que la Wallonie refuse, ce qui implique l’impossibilité pour la Belgique de donner son accord. Pour en comprendre rapidement le contexte on peut lire l’article de Pierre Kohler et Servaas Storm paru dans le Moinde Diplomatique le 14 octobre 2016. Je ne m’étendrai pas davantage : il est clair que les grands accords commerciaux dont il est question depuis ces dernières années posent des problèmes de souveraineté des États, en particulier du côté européen, et que les modèles d’équilibres sociaux, sanitaires, environnementaux et normatifs de ce côté de l’Atlantique risquent de basculer dans une foire au moins-disant néo-libéral.
Ce n’est pourtant pas dans ce registre (uniquement) qu’il faut écouter le discours de Paul Magnette. Ce spécialiste de la construction européenne (titulaire d’un doctorat en science politique sur ce sujet) est à la fois un expert et un élu. C’est un européen convaincu mais surtout éclairé. Et en tant que tel, il confronte les grands principes de la construction européenne (en particulier tout l’intérêt du principe de subsidiarité) avec la contradiction politique des accords des autres pays européens (à tendance centralisatrice) vis-à-vis du CETA. Il cite d’ailleurs en passant les divergences entre les élus allemands et la Cour constitutionnelle allemande, ainsi que les hésitations de fond au sein du gouvernement des Pays-Bas. Et tout ceci sans oublier de souligner avec force et vigueur tout l’intérêt qu’il y a à écouter la société civile wallone (mutualités, syndicats, experts, universitaires…) qui s’est sérieusement penchée sur le CETA avec forcerapport, avis, et déclarations. Une approche dont devraient s’inspirer plus d’un élu en France.
En somme, le discours de Paul Magnette est un discours de démocratie. Et il est assez rare aujourd’hui d’entendre de tels discours dans le cadre d’un parlement en plein processus de décision (c’est-à-dire qu’il ne s’agit pas d’un discours électoral bourré de bonnes intentions). C’est sans doute aussi la raison pour laquelle, afin d’appuyer son discours, Paul Magnette cite deux auteurs, et pas des moindre : Albert Einstein et Emmanuel Kant (à partir de 11'55 dans la vidéo). Car en effet son discours a une double portée : générale, d’abord, puisque le processus d’adoption du CETA ne saurait logiquement pas convenir aux principes de souveraineté des États ; universelle, ensuite, puisque en vertu du principe de l'impératif catégorique kantien, qui, aux yeux de Paul Magnette, vaut aussi bien pour les individus que pour les États, on ne saurait espérer d’accord harmonieux avec les modalités discutables du CETA et, au-delà, de tous les accords censés définir aujourd’hui des processus de mondialisation économique.
03.08.2016 à 02:00
Surveillance://
Tous nos pas dans le cyberespace sont suivis, enregistrés, analysés, et nos profils se monnayent en permanence. Comment en est-on arrivé là ? Les évolutions techniques ont permis à plus de quatre milliards d’internautes de communiquer, de rechercher de l’information ou de se distraire. Dans le même temps, la concentration des acteurs et les intérêts commerciaux ont développé une industrie mondiale des traces. Les États se sont engouffrés dans cette logique et ont mis en œuvre partout dans le monde des outils de surveillance de masse. Le livre de Tristan Nitot porte un regard lucide et analytique sur la situation de surveillance ; il nous offre également des moyens de reprendre le contrôle de notre vie numérique. Comprendre et agir sont les deux faces de cet ouvrage, qui le rendent indispensable à celles et ceux qui veulent défendre les libertés dans un monde numérique.
Nitot, Tristan. Surveillance:// Les libertés au défi du numérique : comprendre et agir. C&F éditions, 2016.
Lien vers le site de l’éditeur : https://cfeditions.com/surveillance/
02.08.2016 à 02:00
Numérique : reprendre le contrôle
L’extraction et l’analyse des données massives représente l’Eldorado des modèles économiques d’Internet. Pour une grande partie, ces données proviennent de chacun d’entre nous. Profilage, surveillance, contrôle : en utilisant une foule de services et de produits, gratuits ou payants, nous dévoilons toujours un peu plus nos intimités numériques.
Aujourd’hui, pouvons-nous encore contrôler nos données ? Est-ce à l’État ou aux citoyens de construire et défendre leurs souverainetés numériques ? Le logiciel libre permet-il de nous rendre autonomes et d’utiliser des outils respectueux de nos données personnelles ? Les réponses à ces questions sont parfois contradictoires.
Dans cet ouvrage, Tristan NITOT et Nina CERCY donnent la parole à plusieurs acteurs impliqués aujourd’hui dans le paysage numérique. Leurs arguments sont forts, issus de plusieurs points de vue. Une préoccupation principale : la confiance.
Nitot, Tristan, et Nina Cercy. Numérique : reprendre le contrôle. Lyon, Framasoft, 2016.
Lien vers le site de l’éditeur : https://framabook.org/numerique-reprendre-le-controle/
17.06.2016 à 02:00
Cross-country, VTT, Trail : 8 logiciels libres
En matière de logiciel libres, les sportifs ont plutôt l’embarras du choix. C’est à se demander pourquoi, lorsqu’on veut récupérer des traces, on doive naviguer entre divers sites issus des constructeurs de montres GPS (pas toujours bien intentionnés). Et c’est sans compter la page ouèb du trail de Brouzouf-le-haut qui oblige les concurrents à se connecter sur Facebook et Google pour voir les caractéristiques du parcours. Ami traileur, biker, ou randonneur, toi le geek sportif, regarde plutôt cette petite sélection de logiciels libres, rien que pour toi.
Quels logiciels ?
J’en ai encore fait l’expérience avec le site internet Tracedetrail.fr. Certes, le site est plutôt bien fichu, avec la possibilité de partager ses traces en les accompagnant des différentes données (altitudes, cumuls de dénivelés au différents points du parcours, etc) mais il faut ouvrir un compte pour télécharger les traces ou récupérer des données, quant à confier systématiquement mes données à un tiers, c’est un principe : je n’aime pas.
En réalité ce type de site ne repose que sur un principe relativement simple : stocker et partager des fichiers GPS. Si on a sur sa machine, en local, des logiciels fiables pour les lire, il n’y a aucune raison d’ouvrir un compte chez Monsieur Dupont, si ce n’est que pour sacrifier à la mode du moment. De plus, on ne dispose pas toujours d’une connexion internet : en vacances au fond d’une vallée perdue pour s’adonner à la pratique du trail, il peut toujours être utile d’analyser ses parcours sans devoir les téléverser quelque part.
Les logiciels spécialisés dans les relevés GPS ont deux caractéristiques : les fonds de cartes proposés (à minima, la possibilité d’utiliser ses propres fonds de cartes), et la capacité d’analyser un maximum de données issues des fichiers (GPX, KML, etc) qu’on utilise, en particulier si les fichiers contiennnent des données autres que purement géographiques comme par exemple les donnnées d’un cardiofréquencemètre. À cela s’ajoutent des fonctionnalités supplémentaires appréciables :
- pouvoir se connecter à un dispositif GPS (selon les marques, en particulier Garmin), même si l’on peut d’abord chercher les fichiers sur le dispositif puis les utiliser avec le logiciel,
- stocker les informations, comparer les données avec des graphiques,
- éditer des traces existantes ou en créer de nouvelles pour préparer un parcours,
- ajouter des informations en fonction de l’activité (course à pied, cyclisme, trail, randonnée, etc.)
Des logiciels libres
Ce qui me motive dans le trail, c’est avant tout la sensation de grande liberté que procure cette discipline. Si l’on compare avec la course à pied classique ou le cross-country, les contraintes de distances et de temps sont largement repoussées, on se confronte à des terrains aux multiples caractéristiques, les épreuves mélangent le plus souvent les amateurs et les pros, et ce qui compte avant tout, c’est de pouvoir terminer un trail, et pas forcément « faire un temps ».
Je trouve que la pratique du trail est complètement opposée aux contraintes des logiciels privateurs ou de services distants qui imposent une rétention de données ou dont les conditions d’utilisation impliquent l’emploi des mes informations personnelles à des fins commerciales. Les assurances et même certaines mutuelles profitent déjà de la manne providentielles des dispositifs de santé connectés (cf. les machins-fit), et l’on présage déjà très bien les inégalités sociales que cela pourra créer à l’avenir. Hors de question, donc, d’utiliser des logiciels privateurs, ou des services tiers dont les intentions ne sont pas conformes à mon éthique.
L’utilisation de logiciels libres n’implique pas pour autant de devoir galérer des heures avec des interfaces difficiles. Les logiciels présentés ci-dessous sont certes très spécialisés, et nécessitent un minimum d’apprentissage. Cependant, chacun d’entre eux permet de visualiser rapidement un profil de trace : le travail des données n’est ensuite qu’une question d’habitude.
Tous ces logiciels proposent des versions pour les trois systèmes d’exloitation les plus courants : GNU/Linux, MacOs et MSWindows. Concernant GNU/Linux, la plupart sont disponibles dans les dépôts des principales distributions, à l’exception de MyTourbook et Turtlesport.
GPSbabel
Il serait difficile de commencer une liste de logiciels censés lire des fichiers contenant des données GPS sans mentionner GPSBabel. Ce n’est pas un logiciel indispensable, étant donné que, souvent, les logiciels sont capables de converser avec les dispositifs GPS courants, et que ces derniers fournissent des fichiers aux formats la plupart du temps lisibles. Cependant, pour assurer des conversions entre ces différents formats de fichiers, GPSBabel est d’une grande utilité.
Viking
Le logiciel Viking est avant tout un visualiseur de données GPS. Il permet de les afficher sur un fond de carte, les archiver et les classer. Viking fonctionne par calques : il suffit d’afficher la carte voulue (disponible soit en local soit en ligne, via, différents Web Map Services), puis ouvrir un fichier de trace GPS pour le voir affiché sur la carte. Il est aussi possible de réaliser un tracé avec mesure de distances grâce aux outils graphiques disponibles.
GPXviewer
Dans la même ligne que Viking, mais de manière encore plus simple, Gpxviewer permet d’afficher une trace GPX sur un fond de carte. Disponible dans la plupart des dépôts GNU/Linux, il s’agit d’un programme très simple, dont les équivalents ne manquent pas sur les autres systèmes d’exploitation.
QlandKarteGT
Bien que disponible dans les dépôts des distributions GNU/Linux, QlandKarteGT est en fait aujourd’hui obsolète, il est remplacé par son sucesseur Qmapshack (voir sur le site officiel). Néanmoins, les fonctionnalités sont déjà très poussées pour cette version d’un projet logiciel très dynamique. QlandKarteGT est un outil très polyvalent, et dispose même d’un rendu 3D des parcours sur carte. On peut noter la présence (au moins dans les dépôts) de QlandKarteGT-Garmin qui fourni des greffons pour communiquer avec différents dispositifs Garmin. Cependant, QlandKarteGT n’est pas limité à Garmin, bien sûr. Un autre atout de QlandKarteGT est de proposer d’emblée des fonds de cartes issus de nombreux Web Map Services) européens, et, parmi ceux-ci, les fonds IGN Topo 25. Les fonctionnalités de QlandKarteGT peuvent se limiter à l’import/export et la visualisation, mais elles peuvent être très poussées et se confondre avec un véritable outil de système d’information géographique.
Turtlesport
On ne présente plus Turtlesport, LE logiciel qu’il faut avoir si on fait du trail, de la course à pied, du vélo… En un coup d’oeil vous pouvez avoir un rapport d’activité des sessions d’entraînement, l’affichage de votre parcours sur un fond de carte (configurable), et le tout en personnalisant les données de l’athlète (taille, poid, équipement, vitesse, fréquence cardiaque, etc.). C’est sans doute dans cette liste le logiciel le plus polyvalent, capable de communiquer avec un grand nombre de dispositifs GPS/cardio, et disposant d’une interface agréable et facile à prendre en main (pour utiliser le fond de carte OpenTopoMap avec Turtlesport, voyez le petit tutoriel consacré sur ce blog).
Mytourbook
Moins connu, peut-être, que Turtlesport, MytourBook est prévu pour analyser, représenter, comparer, et documenter des traces GPS. Il est donc adapté à la randonnée, le VTT ou le trail. On peut ajouter des photos et les lier au parcours, visualiser les dénivelés et analyser les vitesses, récupérer des graphes, des analyses statistiques. Il s’agit d’un programme tournant avec java, mêlant les licences Eclipse et GPL (un peu de concession, parfois). Turtlesport et Mytourbook sont comparables, avec une mention spéciale pour le second concernant la visualisation graphique des différentes données des traces (il faut toutefois s’habituer à l’interface).
Framacarte et Umap
Enfin, il aurait été dommage de ne pas mentionner au moins deux possibilités de partager ses traces en ligne via des services non seulement libres mais aussi éthiques et décentralisateurs. Comme je l’ai dit précédemment, la meilleure façon de partager ses traces GPS est encore de partager les fichiers sans vouloir absolument les téléverser auprès de services tiers. Pourtant, vous pouvez avoir besoin de partager des traces en donnant directement à voir une carte, la rendre disponible sur votre site web ou tout simplement parce que vos correspondants ne disposent pas forcément d’un logiciel pour lire ce type de fichier.
Umap est un projet OpenStreetMap (le Wikipédia de la cartographie) qui vous permet d’éditer et partager des traces de manière très rapide, en quelques clics. Voyez ce petit tutoriel. Mais Umap est bien plus que cela ! C’est aussi la possibilité, pour vous, votre club, votre association, de disposer de votre instance Umap sur un serveur et partager vos traces en conservant vos données là où vous le voulez. En guise de démonstration, Framacarte est un service de Framasoft qui montre qu’il est possible d’installer une instance Umap et la proposer à qui vous voulez. Vous pouvez utiliser utiliser l’instance Umap d’OSM ou de Framasoft en toute sécurité pour vos données, bien sûr, mais n’oubliez pas qu’il est possible (et même souhaitable) de créer votre propre instance.
12.06.2016 à 02:00
Parcours VTT. Hahnenberg-Heidenkopf
Voici une belle randonnée VTT avec des passages techniques amusants, des sections boueuses et humides à souhait (même par temps sec) et de jolis point de vue. L’endurance est de mise, même si le parcours en soi ne recquiert pas de capacités de pilotage exceptionnelles. Les descentes sont très sûres, pas de mauvaises surprise : tout se joue dans les montées. Mollets en fromage blanc, s’abstenir !
Accessible en train, facilement, depuis Strasbourg, la gare de Heiligenberg possède un parking où vous pouvez aussi garer votre voiture. Le début du parcours longe la Bruche sur le fond de la vallée jusqu’à la montée vers le Hahnenberg. Le chemin est très boueux par endroits, surtout après les travaux forestiers. Au lieu-dit Hirschbaechel, la montée commence vers le Hahnenberg. Soyez attentifs au balisage : une fois sur un replat, on quitte le chemin forestier pour prendre une variante du balisage jaune : les premières difficultés surgiront, en particulier les dérapages de roue arrière sur racines, un vrai plaisir. Les derniers mètres sur le Hahnenberg sont impossibles en vélo : il faudra pousser. La descente est néanmoins très facile, sur un sentier régulier.
Une fois arrivé à Grendelbruch (après une descente façon kilomètre lancé), il faudra prendre la route pour monter rapidement au Schelmeck et rejoindre le col de Franzluhr. Il va faloir chercher à s’économiser, malgré la facilité de cette section car le reste du parcours promet quelques surprises. Une variante plus intéressante consisterait plutôt à rejoindre la D204 et passer par le Bruchberg (je ferai sans doute un billet avec un parcours mieux élaboré).
La descente depuis le col de Franzluhr jursqu’au Rossberg se fera sur le chemin forestier balisé en croix jaune. La variante, qui longe la première partie du chemin, est faisable en VTT mais avec prudence si vous débutez. Il faudra encore être bien attentif au moment de plonger vers la Magel : le sentier est étroit avec quelques trous inattendus. Assurez-vous d’avoir de bon freins avant d’entammer cette petite section de descente, la plus complexe du parcours.
La montée du chemin du Nikishof (aujourd’hui transformé en véritable autoroute pour travaux forestiers) fera appel à votre patience et votre endurance, mais pour un court moment : on quitte le chemin forestier pour reprendre un single (croix bleues) jusqu’au col du Jaegertaennel. Cette section montante étant néanmoins très roulante, il faudra engager des trajectoires réfléchies pour ne pas perdre trop d’énergie. On redescendra enfin vers la maison forestière Ochsenlaegger tambour battant. Profitez-en pour avaler un peu de sucre…
La dernière montée mémorable du parcours s’annonce, c’est celle du Heidenkopf. Amorcez-là avec patience et calmement et tout ira bien jusqu’en haut. Les lacets ne sont pas si nombreux. Votre vitesse dépendra de l’énergie dépensée depuis le début du parcours. La longue descente vers Mollkirch se fera en suivant le balisage blanc et rouge jusqu’à la D217 (là encore une variante consiste à prendre le GR jusque Laubenheim, mais ce billet n’est pas pour les plus confirmés des vététistes). On reprend les croix jaunes pour traverser la Magel (attention, section très humide!) puis on rejoint les rectangles bleus (GR 531) à Mollkirch jusqu’à la gare.
Caractéristiques du parcours : 35 km avec 1250 m D+.
12.05.2016 à 02:00
Parcours VTT. Le Schneeberg
Et voilà que j’inaugure par ce billet une nouvelle section VTT à ce blog. Pour cette fois, c’est au Schneeberg que je vous propose une petite virée sympathique pour 30 km (900m D+) avec une variété de chemins intéressante.
Le départ se fait sur le parking de l’école d’Oberhaslach, derrière la mairie, où l’on peut garer son véhicule. D’emblée, le GR 531 vous tend les bras : empruntez-le jusqu’au Carrefour Anlagen. D’une part cela permet d’éviter d’emprunter un chemin forestier long et laborieux et d’autre part c’est sur un petit chemin façon single que se fera l’essentiel de cette première étape, ni trop technique ni trop fatigante, bref de quoi se mettre en jambe.
C’est au Carrefour Anlagen, que commence vraiment l’ascension de l’essentiel des dénivelés. On rejoint le Col des Pandours pour enchaîner sur le GR 532 jusqu’à rejoindre les chemins forestiers Schlangenweg puis Kohlweg jusqu’au col de l’Eichkopf. Cette partie sur chemins larges est très roulante et mettra votre endurance à l’épreuve : plat, montées, descentes. Une petite remarque : à chaque patte d’oie, prenez toujours le chemin de droite (tout fini par se ressembler au bout d’un moment).
C’est sur l’Eichkopf que commence une belle partie technique jusqu’au Schneeberg. En montant le long de l’Urstein jusqu’au Col du Hoellenwasen on peut s’amuser à essayer de ne jamais poser pied à terre : la montée n’est pas dure, c’est le terrain qui est amusant… par temps sec. En cas d’humidité… il vaudrait mieux prendre un autre chemin. Au Col du Hoellenwasen, on pénètre dans une réserve biologique. Une descente très technique s’amorce dans laquelle il faut faire preuve d’une grande prudence : les racines créent des marches hautes qu’il vaut mieux passer en douceur et en retenant toute l’attention possible. On commence alors à remonter vers le Schneeberg en rejoignant la crête et le GR 53.
Pour la descente du Schneeberg, mon conseil est de ne pas suivre tout à fait les “croix rouges” jusqu’au refuge du Schneeberg. En effet, à deux endroits un portage de vélo sera nécessaire pour franchir les talus entre sentier et chemin forestiers. Je préconise de rester un petit peu sur le GR 53 puis embrayer sur le chemin forestier des Pandours jusqu’au Col du même nom. On rejoint ensuite le Carrefour Anlagen puis je propose d’aller visiter les ruines du château du Hohenstein avant de rejoindre la D 218 et le village d’Oberhaslach (ou bien poursuivre sur le chemin et rejoindre les croix jaunes pour arriver au dessus du parking de l’école).
Caractéristiques du parcours : 30 Km, 945 m D+.
12.05.2016 à 02:00
Le poids des cartables : de la maltraitance par négligence
Depuis de nombreuses années, le poids des cartables (surtout à l’école et collège) fait l’objet de questionnements, circulaires et préconisations. Il s’agit d’un problème de santé publique grave qui, à ce jour, ne semble pas faire l’objet de la préoccupation qu’il mérite dans la conscience du corps enseignant.
La question est même internationale. Elle a déjà fait l’objet de recommandations et de politiques publiques dores et déjà appliquées dans les pays. On relève cependant que l’American School Health Association a procédé à une comparaison de nombreuses études scientifiques. Ces dernières ne présentent pas de résultats harmonisés. Ainsi le poids maximal du cartable, toutes études confondues, est compris entre 5% et 20% de l’élève. Néanmoins, l’Institut allemand de normalisation (DIN) s’est depuis longtemps prononcé en faveur de 10% du poids de l’élève. Ce pourcentage a été repris officiellement par le Ministère Français de l’Éducation Nationale à l’occasion de la circulaire du Ministre Xavier Darcos en 2008 (cf. plus bas).
En septembre 2016, alors même que mon fils entrait au collège pour la première fois, le poids de son cartable était de 9 kg, soit 30% du poids du porteur ! Au fil des rencontres avec les enseignants, soit lors des réunions de parents d’élèves, soit lors des conseils de classe, je soumettais cette question, recevant une attention unanime de principe mais aucune volonté, de la part du corps enseignant, d’améliorer concrètement la situation. Pire : chaque enseignant, questionné séparément, insiste toujours sur l’importance d’amener chaque jour les livres et les cahiers relatifs à sa matière enseignée, sans prendre en compte les implications évidentes en termes de santé de l’enfant.
Tous les enfants sont concernés par cette question, mais surtout les demi-pensionnaires. Comme je vais le montrer, les solutions sont simples à mettre en œuvre mais changent aussi les pratiques des professeurs. J’affirme par conséquent que le poids du cartable et l’absence de volonté de la part des enseignants d’adapter leurs pratiques à cette question de santé publique, relève de la maltraitance par négligence.
Il y a d’abord le Ministère
Saisi depuis longtemps par les instances représentant les parents d’élèves, le Ministère de l’Éducation Nationale a déjà montré sa préoccupation face au constat d’alerte en santé publique que représente le poids des cartables chez les enfants. Ainsi, la Note Ministérielle du 17 octobre 1995 « poids des cartables » (BO num. 39 du 26 octobre 1995) mentionne :
(…) les membres de la communauté éducative doivent se sentir concernés par ce problème et ont un rôle à jouer, dans ce domaine, chacun en fonction de ses responsabilités.
Les enseignants peuvent veiller à limiter leurs demandes en matière de fournitures scolaires,(…)
une réduction du poids des cartables (qui ne devrait pas dépasser 10 % du poids moyen des élèves) (…)
Les rappels furent nombreux. La question soulevée à de multiples reprises tant au Parlement qu’au Sénat. On trouve en 2008, soit 13 ans plus tard, une circulaire officielle (2008-002 du 11-1-2008) et assez complète, signée du Ministre de l’Éducation Nationale Xavier Darcos, dont l’introduction commence par :
Le poids du cartable est une question de santé publique pour nos enfants : je souhaite que les établissements scolaires s’emparent de cette question, dès à présent, dans le cadre de la prévention du mal de dos en milieu scolaire.
On peut néanmoins regretter qu’en 2016, 21 ans plus tard, à l’occasion de la circulaire Ministérielle relative aux fournitures scolaires (2016-054 du 13-4-2016), il soit tout juste mentionné que « Les cahiers au format 24 x 32 cm jugés trop lourds ne figurent plus sur la liste indicative depuis 2014 », sans autre allusion à l’impact de cette liste déjà très importante sur le poids total du cartable !
En somme, lorsqu’il s’agit de porter haut cette question de santé publique, les élus et les ministres se mobilisent et font des déclarations. Mais lorsqu’il s’agit de gouverner effectivement le corps enseignant, et limiter concrètement le poids du cartable, aucun ordre n’est donné.
Quelles solutions ?
Régulièrement on voit quelques élus locaux plaider pour « les tablettes à l’école », ou mobiliser de l’argent public pour promouvoir des solutions technologiques coûteuses pour des questions essentiellement organisationnelles. Les solutions peuvent être beaucoup simples.
Les livres scolaires
Lors du choix et de l’achat d’une collection de manuels scolaires, nombreux sont les éditeurs qui proposent d’accompagner cet achat par une version électronique utilisable en classe. Ainsi, il est toujours possible, pour l’enseignant, de projeter les pages du manuel.
En classe, il s’agit concrètement d’allumer un ordinateur et un vidéo-projecteur. Si toutes les classes n’en sont pas pourvues, il reste néanmoins que les établissements proposent au moins des solutions équivalentes (comme un ordinateur et un vidéo projecteur portables).
Pour ce qui concerne le poids des livres scolaires, la question peut donc se régler à la fois facilement et pour un coût négligeable (même si, à l’échelle d’une académie, quelques rares établissements sont encore à équiper).
Ne pas opter pour cette solution, alors même que l’équipement suffisant est présent, relève donc de la négligence pure et simple, littéralement « sur le dos » de tous les enfants.
Les cahiers
Même si le fameux cahier aux dimensions 24 x 32 est déconseillé par la circulaire ministérielle, certains enseignants continuent de le réclamer dans la liste des fournitures scolaires. La raison : il s’agit de pouvoir y coller des feuilles au format A4, c’est-à-dire des supports de cours préparés par l’enseignant mais qui pourraient très bien, moyennant un minimum de cosmétique, passer dans un cahier de format plus petit.
Que dire des enseignants réclamant des classeurs rigides et autant de feuilles de réserve, en plus des cahiers ?
Toujours est-il que l’un principaux facteurs d’alourdissement du cartable repose sur l’utilisation de cahiers, quel que soit leurs formats : en longueur d’année, la plupart de ces cahiers obligent les élèves à transporter autant de feuilles inutilisées dans la journée (et même parfois sur l’année entière). Le cahier, en soi, est un instrument bien encombrant puisqu’il consiste à trimballer des pages qui, par définition, sont inutiles chaque jour : à quoi bon promener les cours du mois dernier ou de la séquence passée ?
Là encore, il existe au moins une solution dont le seul prix à payer réside dans la mobilisation de quelques heures d’apprentissage et une surveillance un peu plus étroite : le parapheur (ou du moins un seul classeur souple et fin muni d’intercalaires). En pratique, il s’agit d’apprendre aux élèves à classer par matière les éléments de cours dans un parapheur général durant la semaine, puis classer l’ensemble à la maison dans des classeurs séparés (ou même un seul gros classeur). On peut aussi imaginer une évaluation spécifique en fin de trimestre où l’élève ramène exceptionnellement son classeur de la maison (pour rappel, ce classeur est même censé peser moins lourd que tous les cahiers confondus transportés chaque jour par l’élève).
Ce type d’apprentissage organisationnel fait partie des apprentissages et compétences demandés à chaque élève au collège. Il n’y a donc aucune contre-indication à ce que cette pratique soit systématique, bien au contraire.
Les autres fournitures
Quant aux autres fournitures demandées par les enseignants, elles sont tantôt nécessaires (comme l’équipement de sport) tantôt exagérées ou même hors de propos. Il en va ainsi des tubes de gouaches demandés à chaque séance d’Art Plastique, des supports de partition (type porte-bloc) jamais utilisés, etc. Les anecdotes ne manquent pas.
Les fausses solutions
Quelques collèges (c’est le cas de celui de mon fils) proposent des casiers. Généralement en nombre modeste, ces casiers sont parfois réservés au élèves de sixième demi-pensionnaires. S’ils permettent effectivement de stocker le casque de vélo et autres affaires non-scolaires, l’usage des casiers est en réalité une fausse solution pour deux raisons :
- dans une journée de cours, l’élève n’a pas la possibilité d’effectuer de multiples allers-retours d’un bout à l’autre du collège pour récupérer les affaires dont il a besoin,
- le problème du poids des cartables se pose moins à l’intérieur du collège (où le cartable peut très bien être posé à terre) qu’à l’extérieur sur le chemin du collège, car c’est bien là que les risques associés se déclarent : risque en santé (scolioses, troubles musculo-squelettiques), mais aussi en sécurité (essayez, par exemple, de faire du vélo avec un sac pesant 30% de votre propre poids…).
Quant au partage des manuels entre élèves, l’idée commune que les enseignants suggèrent régulièrement comme s’il s’agissait de la trouvaille du siècle, il ne résout qu’une petite partie du problème et encore, il repose sur l’organisation générale des élèves entre eux, alors même que l’organisation des enseignants entre eux pourrait résoudre beaucoup plus de choses.
De la négligence
Pour conclure, j’insiste sur ce point : si depuis si longtemps le poids des cartables n’a pas baissé et compte-tenu de son impact connu de tous en termes de santé publique, ce n’est pas seulement parce que les pratiques des enseignants ne sont pas adaptées, c’est parce qu’il y a un refus systématique de la part des enseignants de changer leurs propres pratiques au détriment des élèves. C’est une forme de maltraitance avérée. Car en effet comment expliquer que seuls certains établissements parviennent à faire les efforts organisationnels nécessaires alors que la majorité mène une politique de laisser-faire particulièrement condamnable ?
Il est temps de mettre fin à cette maltraitance inadmissible, parfois ignorée des parents car il existe peu de prévention, et pour cause : comment un ministère pourrait-il informer les parents qu’un cartable ne doit pas dépasser 10% du poids de l’élève, alors même que les enseignants encouragent, par leurs pratiques, au transport de sacs de plus de 30% de ce poids ?
01.02.2016 à 01:00
Windows into the soul
We live in an age saturated with surveillance. Our personal and public lives are increasingly on display for governments, merchants, employers, hackers — and the merely curious — to see. In Windows into the Soul, Gary T. Marx, a central figure in the rapidly expanding field of surveillance studies, argues that surveillance itself is neither good nor bad, but that context and comportment make it so.
In this landmark book, Marx sums up a lifetime of work on issues of surveillance and social control by disentangling and parsing the empirical richness of watching and being watched. Using fictional narratives as well as the findings of social science, Marx draws on decades of studies of covert policing, computer profiling, location and work monitoring, drug testing, caller identification, and much more, Marx gives us a conceptual language to understand the new realities and his work clearly emphasizes the paradoxes, trade-offs, and confusion enveloping the field. Windows into the Soul shows how surveillance can penetrate our social and personal lives in profound, and sometimes harrowing, ways. Ultimately, Marx argues, recognizing complexity and asking the right questions is essential to bringing light and accountability to the darker, more iniquitous corners of our emerging surveillance society.
Marx, Gary T. Windows into the soul: surveillance and society in an age of high technology. University of Chicago Press. 2016.
Lien vers le site de l’éditeur : https://www.press.uchicago.edu/ucp/books/book/chicago/W/bo22228665.html
09.12.2015 à 01:00
Je n'ai pas voté non plus
Bizarre comme titre, n’est-ce pas ? En fait, c’est en écho à cet article du copain Gee, auteur de Grisebouille, qui a su exprimer de manière assez claire les raisons pour lesquelles il ne vote pas (plus). La démocratie représentative serait-elle morte ? Oui. Nous avons besoin d’un reboot de la démocratie et c’est chez Jean-Jacques Rousseau qu’il faut en trouver l’amorce.
Détournements de votes
Comme disait Coluche : « dire qu’il suffirait que les gens n’en n’achètent plus pour que cela ne se vende pas ». Je n’ai jamais trop aimé Coluche – ou plutôt son humour de bistrot dont se sont emparés la plupart des réacs aigris –, mais au moins il avait le sens de la formule. Il suffirait que plus personne n’aille voter pour que la classe politique actuelle s’en aille pour de bon. Imaginons un instant une grève du vote : tous les vieux dinosaures des partis qu’on voit depuis 40 ans verraient soudainement leur légitimité en prendre un coup. Quant aux plus jeunes, persuadés de faire partie d’une « élite » républicaine (autrement dit, une aristocratie politique), ils pourraient retourner sur les bancs d’école, histoire de bien comprendre qu’on ne s’implique pas dans la politique par carriérisme. Oui, mais voilà : de fait, nous sommes des millions à ne pas aller voter. Et plutôt que de se remettre en cause, les politiques multiplient les interventions en se targuant de vouloir « barrer la route au FN » tout en assurant, comme c’est le cas à chaque élection depuis que je suis né, que « le message a été entendu ».
Mais quel message ? Pourquoi les gens s’abstiennent de voter, et pourquoi certains votent pour un parti fasciste ? Parce que contrairement à ce qu’on m’a toujours dit, le vote n’est pas un choix démocratique. C’est un levier qui légitimise l’exercice du pouvoir par certains. Ainsi, depuis que je vote, je n’ai jamais pu dire que mon vote a servi des causes que je défends :
- quand il m’a fallu voter Chirac pour « barrer la route à Le Pen », en 2002 ;
- quand j’ai voté « non » au référendum de 2005 sur le traité européen Rome II (parce que c’est d’une autre Europe dont je rêve), remplacé 4 ans plus tard par son clone, le Traité de Lisbonne, cette fois sans demander l’avis aux citoyens ;
- quand j’ai voté blanc en 2007 devant les choix consternants qui nous étaient livrés, entre une grande nunuche sans programme et un petit nerveux aux idées brunes ;
- quand j’ai voté blanc en 2012 en ayant absolument aucune illusion sur les mensonges de F. Hollande.
La démocratie représentative a vécu
Quel est mon constat, au-delà de la simple déception ? le même que Gee : la démocratie représentative a vécu. Et je coupe court tout de suite aux détracteurs qui viendront me dire que « des gens sont morts pour que nous ayons le droit de voter ». Non : ils ne sont pas morts pour le droit de vote, ils sont morts pour avoir le droit de participer à la vie politique. Ils ne sont pas morts pour que j’aie le droit de désigner un représentant qui, fondé de pouvoir, fera ce qu’il veut pendant son mandat. Ils sont morts pour que la démocratie s’exerce.
Oui, ma bonne dame, et c’est pas pareil du tout. Et pourtant on nous l’apprend depuis tout petit. Lorsqu’à l’école on n’est pas content des décisions du délégué de classe, on s’empresse de nous dire de fermer notre gueule. C’est vraiment cela, la démocratie ? Tiens, voyons ce qu’en disait ce bon vieux Jean-Jacques Rousseau, qu’il serait peut-être temps de relire parce que au pays des Lumières, certains n’ont pas le courant à tous les étages :
L’attiédissement de l’amour de la patrie, l’activité de l’intérêt privé, l’immensité des états, les conquêtes, l’abus du gouvernement, ont fait imaginer la voie des députés ou représentants du peuple dans les assemblées de la nation. C’est ce qu’en certain pays on ose appeler le tiers état. Ainsi l’intérêt particulier de deux ordres est mis au premier et second rang; l’intérêt public n’est qu’au troisième.
La souveraineté ne peut être représentée, par la même raison qu’elle peut être aliénée; elle consiste essentiellement dans la volonté générale, et la volonté ne se représente point : elle est la même, ou elle est autre; il n’y a point de milieu. Les députés du peuple ne sont donc ni ne peuvent être ses représentants, ils ne sont que ses commissaires; ils ne peuvent rien conclure définitivement. Toute loi que le peuple en personne n’a pas ratifiée est nulle; ce n’est point une loi. Le peuple Anglais pense être libre, il se trompe fort; il ne l’est que durant l’élection des membres du parlement: sitôt qu’ils sont élus, il est esclave, il n’est rien. Dans les courts moments de sa liberté, l’usage qu’il en fait mérite bien qu’il la perde. […]
Quoi qu’il en soit, à l’instant qu’un peuple se donne des représentants, il n’est plus libre; il n’est plus.
— Du contrat social ou Principes du droit politique (1762), Chapitre 3.15 – Des députés ou représentants
Un peu d'explication de texte
Au premier paragraphe Rousseau montre que le principe de représentativité est d’abord une affaire de l’Ancien Régime et son administration. Ce qu’on désigne par « tiers état », ce sont les députés, provinciaux pour la plupart, censés être représentatifs des classes sociales (bougeois, commerçants, artisans, etc.) mais qui valident le modèle hiérarchique des trois ordres (noblesse, clergé, bourgeoisie). Lors de la Révolution française, qui interviendra 27 ans après l’ouvrage de ce visionnaire de Rousseau, le principe de souveraineté du peuple sera remis en cause par Sieyès qui, justement, désignera le tiers état comme un élément de la constitution. Sieyès reprendra l’ancien ordre hiérarchique pour montrer que le tiers état, comme les deux autres ordres, doit être représenté de manière proportionelle à sa population. C’était plutôt bien vu, mais en réalité, la représentatitvité de ce tiers état est tellement diversifiée (cela va du paysan au riche industriel) que c’est la haute bourgeoisie, riche et cultivée, qui finira par s’octroyer cette représentativité, pour s’assurer exactement ce que dénonce Rousseau, à savoir la sauvegarde de leurs intérêts privés, face à une noblesse déclinante et une masse « prolétarienne »1 qu’il faut absolument écarter du pouvoir. Rousseau note bien, sous l’Ancien Régime, que c’est l’intérêt public (comprendre : du peuple) qui est mis au troisième rang parce que justement les représentants du peuple ne sont là que pour limiter les intérêts des deux autres ordres, ainsi confortés dans le pouvoir. La Révolution ne changera finalement la donne qu’au regard des intérêts d’une bourgeoisie de plus en plus riche face à la noblesse déclinante, c’est tout.
Rousseau est catégorique, sans appel. Dans le second paragraphe, il répond même à Montesquieu qui, dans l'Esprit des Lois (Livre XI, 1748) se montrait admiratif de la Constitution Anglaise et écrivait pour sa part :
Comme, dans un état libre, tout homme qui est censé avoir une âme libre doit être gouverné par lui-même, il faudrait que le peuple en corps eût la puissance législative. Mais comme cela est impossible dans les grands états, et est sujet à beaucoup d’inconvénients dans les petits, il faut que le peuple fasse par ses représentants tout ce qu’il ne peut faire par lui-même. (…) Le grand avantage des représentants, c’est qu’ils sont capables de discuter les affaires. Le peuple n’y est point du tout propre; ce qui forme un des grands inconvénients de la démocratie.
Mais ce qui distingue notre Rousseau, c’est justement la conception des rôles. La conclusion de Rousseau est terrible, je la redonne ici, rien que pour le plaisir :
(…) Quoi qu’il en soit, à l’instant qu’un peuple se donne des représentants, il n’est plus libre; il n’est plus.
La démocratie ne s’exerce pas tant parce qu’il est possible de rendre la représentativité plus ou moins légitime (de toute façon une impasse pour Rousseau), mais parce qu’il est possible d’y voir s’exercer la volonté générale et, en tant que telle, elle ne peut se déléguer. Donc oui, le peuple (la société civile, dirait-on aujourd’hui) est capable de gouverner, c’est à dire exercer et instruire la volonté générale, au lieu de laisser faire des représentants qui aliènent cette volonté durant leurs mandats.
Ces mots de Rousseau il y a plus de 250 ans, je les ai entendu lors même de la série de renoncements aux engagements du clan de F. Hollande promulgués lors des élections. Pendant toute la durée du mandat, il allait faloir supporter, impuissants, les féodalités financières dont le point d’orgue fut atteint en insultant le peuple grec qui avait eu le culot, en juillet 2015, de réfuser par référendum les pires tentatives de réformes technocratiques pour remédier à un endettement historiquement organisé contre lui. Pour la plupart des électeurs, le fait d’aller voter n’était plus conçu comme l’exercice de la démocratie mais comme le seul moment de liberté avant de s’enchaîner aux grilles infranchissables qu’une classe politique dresse entre elle et le peuple.
Oui, n’en déplaise à ce pédant de Montesquieu qui pensait que le peuple est trop con pour faire de la politique, et tous les coincés du bocal pour qui la politique serait un métier, la société civile est capable à la fois d’expertise, d’expérience et de gouvernement. C’est la raison pour laquelle, sans doute, on a abruti les foules en étouffant leur activisme civique au profit du vote conçu comme une fin en soi, l’acte unique censé être la preuve d’une démocratie vivante. Rien n’est plus faux. Ce n’est pas parce qu’un peuple organise des élections qu’il est sur le chemin de la démocratie. Certains sont présidents à vie, suivez mon regard y compris dans certains fiefs électoraux de notre France.
D’autres modèles existent déjà
Si l’on regarde honnêtement l’histoire de France, en en particulier de la Cinquième République, les exemples sont nombreux où les moyens de formation du peuple à la démocratie ont été étouffés dans l’oeuf. C’est par exemple toute la tragédie de l’éducation populaire, sujet sur lequel je vous laisse la lecture de l’article de Franck Lepage dans Le Monde Diplomatique, De l’éducation populaire à la domestication par la « culture ».
La société n’est pas avare de modèles dits « alternatifs », en réalité, des expériences bien souvent probantes de modèles d’organisation politique qui démontrent les limites de la représentation. Tous ces modèles ont ceci de commun qu’ils remettent explicitement en cause le fonctionnement actuel, et sont bien plus exigeants en matière de probité et d’équité. Démocratie directe, démocratie participative, auto-gestion des entreprises ou des collectifs, partage de connaissances, collaborations techniques, j’en passe et des meilleures. Dans le milieu associatif où j’évolue à mes heures pas perdues pour tout le monde, les solutions collaboratives ne manquent pas non plus. Prendre des décisions stratégiques à plusieurs milliers, y compris sous la forme de référendums permanents, tout cela est rendu possible dans le concept de démocratie liquide, y compris des bases logicielles (plate-formes web, la plupart du temps). La société peut aujourd’hui être conçue comme un gigantesque processeur, une machine à décision ultra rapide, capable de rassembler toutes les voix, en particulier sur des bases de technologies de communication ouvertes. On se réfèrera sur ce point à cet article de Dominik Schiener (trad. fr. sur le Framablog).
Évidemment, l’aristocratie électoraliste n’est pas prête à accepter une remise en cause radicale de ses prérogatives. Les exemples, parfois tragiques, des Zones à Défendre et du militantisme écologique, sont plus qu’éloquents, à tel point que, profitant des libéralités d’un état d’urgence anti-terrorisme, on en vient à faire taire les voix trop bruyantes en plein sommet mondial pour le Climat.
Mais bien plus que les fausses excuses du terrorisme, ce qui caractérise la classe politique, c’est sa crainte de voir le peuple se débarrasser d’elle. Si la démocratie représentative est un modèle qui ne fonctionne plus, le pouvoir n’a plus qu’une seule échapatoire : la violence d’état, qui oppose la classe politique et le peuple (qui se défini alors en opposition à l’aristocratie). Si l’on considère que la représentativité est la seule légitimation de l’ordre public, alors la seule réponse à toute volonté de changement de système, c’est d’imposer un vieux modèle contre un nouveau. C’est selon moi tout le principe des lois scélérates votées récemment (comme la Loi relative au Renseignement…) et dont on voit s’accélérer les tendances, tout spécialement à l’encontre des moyens de communication qui permettent aux citoyens de se faire entendre, d’organiser et planifier l’alternance démocratique.
Après ces dénis de démocratie, les leçons sur le droit de vote sont plus que jamais malvenues. Alors, oui, voilà pourquoi je n’irai pas voter non plus dimanche prochain, et pourquoi je m’emploierai à ma mesure, à l’avènement de solutions vraiment démocratiques.
-
Oui, ici je fais un anachronisme en utilisant ce terme, mais on comprend bien que la paysannerie était exclue de fait, alors même qu’elle représentait alors la grande majorité du peuple. Plus tard, avec la révolution industrielle, ce furent justement les prolétaires qui furent exclus, la voix du peuple étant largement confisquée par les classes bourgeoises capitalistes. Et oui, là, j’ai une lecture marxiste, mais elle en vaut bien une autre. ↩︎
27.11.2015 à 01:00
Sortie trail au Taennchel
C’est déjà vendredi et demain c’est reparti pour un autre tour de trail dans la brume fraîche et humide des Vosges alsaciennes. Il me fallait néanmoins témoigner de ce parcours au Taennchel effectué récemment car il présente de nombreux avantages techniques.
Au dessus de Ribeauvillé, surveillé par ses trois châteaux, on voit poindre le massif du Taennchel, un endroit magnifique avec des rochers aux étranges formes : Rocher des Titans, Rocher des Géants, Rocher des Reptiles… Si l’on sait se laisser bercer par l’atmosphère des lieux, on ne revient pas effrontément d’une visite au Taennchel. La particularité géomorphologique du massif est de présenter une longue crête d’environ 6 kilomètres de la forme d’un « U » entourant le hameau de la Grande Verrerie. Sous la partie Est du massif, on peut aussi admirer le village de Thannenkirsch et, au delà et en face, le château du Haut Koenigsbourg. Quelle que soit la face par laquelle vous abordez ce massif, il faudra compter sur un dénivelé important en peu de kilomètres, ce qui permet d’avoir quelques perspectives intéressantes en matière de technique de montée et de descente sur des sentiers aux morphologies très différentes. Ce massif est d’ailleurs le terrain de jeu de l'Association Sportive Ribeauvillé Athléroute qui organise annuellement les Courses du Taennchel, dont un trail court.
Avec les collègues de l'ASCPA, la sortie du samedi matin nous a conduit en cette contrée. En partant de Ribeauvillé (on peut se garer au niveau du lyçée au nord de la ville), le parcours fait environ 20 km. Il commence et se termine par la montée / descente vers les châteaux St Ulrich et Ribeaupierre (310 m D+). Lors du retour, cette descente est très rocheuse par endroits, presque alpine. La plus grande prudence est de mise surtout avec la fatigue d’une fin de parcours et en particulier sur sol humide. Cependant, c’est un excellent entraînement à renouveler par exemple plusieurs fois sur une boucle plus courte.
Après le sentier des châteaux et un replat aux pieds du Taennchel sur chemin large, c’est vers la Grande Verrerie que l’on se dirige par un sentier en descente régulière et pierreux par endroits, pour remonter en face vers la crête du Taennchel en passant par le Schelmenkopf (380 m D+). C’est le second « coup de cul » à sérieux à supporter sur ce parcours : tout le reste de la crête du Taennchel alterne entre faux plat montant et descendant, ce qui laisse largement le temps d’admirer les lieux (lorsque la météo s’y prête). Une fois dépassé le Rocher des Géants, une longue descente sur sentier régulier s’amorçe jusqu’à l’Abri du Taennchel. Rien de spécialement technique mais attention toutefois aux animaux sauvages : un chevreuil a carrément faille me renverser en passant à 1 m de moi (tous deux lancés en pleine course) ! Magnifique souvenir mais très impressionnant sur le moment.
Les photographies çi-dessous montreront qu’en choisissant ce parcours en plein mois de novembre, ce n’est pas forcément la meilleure saison pour faire un trail touristique. Disons que nous ne nous sommes pas trop attardés à des endroits qui nous auraient incités à ralentir le rythme avec une météo plus clémente.
Comme d’habitude, ci-dessous, voici la trace du parcours :
18.11.2015 à 01:00
Alimenter mon dépôt Gitlab
Framasoft a ouvert un service Gitlab très facile d’utilisation. Pour qui ne serait pas encore à l’aise avec Git, voici un petit tutoriel rapide pour alimenter son propre dépôt.
Créer un nouveau dépôt
Un fois son compte créé et configuré (tout se fait en ligne), on peut créer un nouveau dépôt. Ce dernier doit être alimenté en premier par un fichier readme.md
c’est à dire un fichier écrit en Markdown. Il est censé décrire le projet, et communiquer régulièrement les principaux changements.
On peut préparer ce fichier readme.md
localement en prévision des premières manipulations (ci-dessous).
Générer sa clé SSH
Toutes les connexions sur votre compte Gitlab se feront de préférence de manière chiffrée et authentifiée avec une clé SSH. L’idée est simple : il faut générer une clé SSH, la stocker localement et la recopier dans les paramètres SSH de son compte Gitlab. On peut ajouter autant de clé SSH que l’on souhaite.
Pour générer et stocker une clé SSH
Entrer la commande suivante :
ssh-keygen -t rsa -C "xxxxxxxx"
(remplacer xxxxxxxx par son adresse courriel renseignée dans Gitlab)
La création d’un mot de passe n’est pas obligatoire, mais elle est préférable en tant que sécurité supplémentaire.
Une fois la clé créée, il faut la placer dans son dossier ~\.ssh
et la recopier sur son compte Gitlab.
Installer et configurer Git
Après avoir installé Git (sudo apt-get install git
), il faut le configurer comme suit :
git config --global user.name "nomutilisateur"
git config --global user.email "adressecourriel"
Premier dépôt
Une fois le dépôt créé via l’interface de Gitlab, on peut travailler localement.
Commencer par cloner le dépôt en local :
git clone git@git.framasoft.org:nomutilisateur/nomdudepot.git
Se rendre dans le dossier du dépôt :
cd nomdudepot
Coller dans ce dossier le readme préparé auparavant (cf. ci-dessus).
Puis ajouter ce fichier dans la file des fichiers que nous allons remonter dans le dépôt :
git add README.md
Annoncer un commit en écrivant un message explicatif :
git commit -m "ajout du fichier readme"
Pousser le tout sur le dépôt :
git push -u origin master
Précéder de la même manière pour tous les autres fichiers. Si l’on souhaite ajouter d’un coup plusieurs fichiers on peut écrire git add fichier1 fichier2 fichier3
etc.
Évidemment il ne s’agit ici que de remonter dans la file principale du projet.
Problème en https
Si l’on veut pousser des gros fichiers en https, on peut tomber sur une erreur de type
error: RPC failed; result=22, HTTP code = 411
fatal: The remote end hung up unexpectedly
C’est en fait parce que la configuration par défaut de Git en http limite à 1Mo la taille maximale des fichiers qu’on peut pousser. Il faut donc configurer Git pour accepter une taille plus importante en entrant une commande idoine :
git config http.postBuffer nombredebytes
où nombredebytes est la taille maximale des fichiers qu’on veut envoyer.
On peut configurer Git de manière globale, ainsi :
git config --global http.postBuffer 524288000
07.09.2015 à 02:00
Trail du Haut Koenigsbourg 2015
J’attendais avec une certaine impatience ce second rendez-vous à Kintzheim pour le trail court du Haut Koenigsbourg. L’engouement ressenti lors de la session de l’année dernière allait-il être encore au rendez-vous ? Et surtout, il faut bien reconnaître que, un an plus tard avec des entraînements réguliers, j’espérais bien diminuer significativement le chrono précédent.
La course
Le nombre de participants n’en fini pas de croître pour ce trail ! De 1664 coureurs en 2014, on est passé à 1900 pour cette session 2015. En voyant les objectifs d’inscrits, j’avais un peu peur que l’équipe d’organisation se laisse dépasser… que nenni ! Ils ont assuré, les bougres. Non seulement l’organisation fut de nouveau exemplaire mais ce n’est plus le seul château du Haut Koenigsbourg qui fut traversé (par le chemin de ronde s’il vous plaît) mais c’est aussi celui de Kintzheim que les coureurs ont pu admirer en fin de parcours.
Dans la fraîcheur matinale et dans les senteurs très caractéristiques à l’approche des vendanges, la ville de Kintzheim avait connu une nuit plutôt agitée, avec les départs des trails de 84 km et 55 km, respectivement à 2:00 et 7:00 du matin. C’est le trail court (25 km) qui, fort de ses 900 participants, contribua sans doute au réveil définitif. Un quart d’heure de retard sur l’horaire prévue s’explique par le succès de l’épreuve. Sur le bitume, les semelles chauffent, on a peur de se refroidir (il fait un peu frais quand même), on se presse, on échange quelques banalités, puis c’est avec un certain soulagement que le départ est finalement donné.
La traversée de la ville n’est pas si rapide, ce qui laisse le temps de se mettre en jambe. On longe la vigne en direction de Châtenois, un point de vue remarquable au soleil levant ferait presque ralentir la cadence pour admirer les belles couleurs d’un paysage typiquement alsacien.
J’aperçois alors Céline, une sympathique coureuse de Kintzheim placée à côté de moi dans la foule du départ et avec qui j’avais échangé quelques mots. Son rythme est régulier, elle connaît le terrain… je me décide à la suivre. Sans le savoir elle me servira de lièvre dans les 5 premiers kilomètres, décisifs sur ce parcours. Si elle passe par ce blog, je lui adresse (de nouveaux) mes chaleureuses salutations ! Nous nous retrouverons au château du Haut Koenigsbourg, kilomètre 16, pour terminer la course presque ensemble.
Sur ce trail, outre les longues montées, il y a deux endroits à appréhender : le premier sentier qui monte au Hahnenberg, où le dépassement est très difficile, et la montée continue aux pieds du Haut Koenigsbourg. J’arrive au premier single avec le net avantage de ne pas être dans le gros du peloton, contrairement à l’année passée. Si bien que la montée se négocie finalement bien avec un rythme agréable. La première descente est très rapide, heureusement, les coureurs sont très espacés et j’en profite pour faire quelques pointes.
Puis tout s’enchaîne sur un rythme plutôt ronflant. Il faut dire – et c’est le principal grief du parcours – que les chemins sont très larges et presque sans aucun obstacle, ce qui instaure une sorte de monotonie. On s’y laisse facilement prendre au risque de ralentir l’allure, ou du moins ne pas adopter celle que l’on aurait dû avoir, dans les limites de ses capacités. Regarder sa vitesse en temps réel sur sa montre est un réflexe qu’il faut parfois savoir prendre. Bref, je n’hésite pas à accélérer un peu en me disant que je pourrai récupérer plus tard, quitte à marcher un peu plus que prévu dans la grande montée.
Ce fut une bonne stratégie, finalement, car c’est lors de cette montée que j’ai du réaliser le meilleur temps par rapport à l’année dernière, tout en modérant l’effort. Je récolte les fruits de mon entraînement estival dans les Alpes. Passé le dernier obstacle de la descente du Haut Koenigsbourg, assez technique par endroits, le reste du parcours s’est déroulé de manière assez rapide. Le grand replat entre les deux montagnes doit se négocier sur la vitesse, sans quoi on y perd vite tous les avantages glanés auparavant.
Le dernier kilomètre, cette année, nous faisait passer au château de Kintzheim. L’intérêt touristique est indéniable, mais l’autre avantage est de nous épargner la longue descente betonnée du parcours précédent. Grâce en soit rendue aux organisateurs : bien que le parcours soit légèrement plus long, c’est bien plus confortable comme cela.
De manière générale, le Trail du Haut koenigsbourg, dans sa version 25 km, est un parcours très rapide. Le premier arrivé est à 1:49 et les derniers à presque 4 heures. Pour ma part, je me situe dans la première moitié (2:46), ce qui fait tout de même 20 minutes de moins que ma performance de 2014, avec 1 km de plus ! Une différence franchement inattendue, mais qui révèle, outre l’entraînement, toute l’importance de faire les bons choix au fil de la course.
Résultats
Classement :
- 32e dans la catégorie Vétérans 1 (sur 51)
- 398e au classement général (sur 839)
- Temps : 2:46:27
- Team : Framasoft
20.08.2015 à 02:00
L'Aiguille Rouge, Névache
Les Alpes, c’est vaste. Si vous cherchez un endroit propice à la randonnée en famille et particulièrement bien situé, je conseille la petite vallée de la Clarée à quelques kilomètres de Briançon, juste à côté de la frontière italienne. Le petit village de Névache est très accueillant et s’organise l’été autour des activités pédestres, lieu de rendez-vous de nombreux randonneurs. On peut notamment saluer le système des navettes qui permettent de ne plus se soucier de sa voiture et emmènent les randonneurs au bout de la vallée, de manière à amorcer de multiples circuits aux paysages admirables.
Entraînement à la vitesse ascensionnelle
Pour le trail, la vallée offre beaucoup d’opportunités et les moyens de se créer des boucles sympathiques avec plusieurs pics, crêtes et lacs facilement accessibles. Le conseil est évidemment de partir de très bonne heure le matin. Inutile de préciser que le soleil a tendance à plomber en journée et que les variantes du GR 5 autour de la vallée se peuplent relativement vite à partir de 9h00.
Pour la quatrième fois que je séjourne dans cette vallée, ce fut une première pour l’entraînement au trail, habitué que je suis aux chemins des Vosges. Alternant entre randonnée et repos estival, je me suis réservé 2 à 2,5 heures de course un jour sur deux, au départ du hameau de Roubion, commune de Névache. Un rythme tout à fait ronflant mais néanmoins régulier qui m’a permit de travailler sérieusement ma technique de montée sans me fatiguer outre mesure (c’est les vacances, après tout).
Le circuit de l’Aiguille Rouge, que je présente ci-dessous, est à la fois touristique et technique. Premièrement, le fait de monter sur une aiguille n’est selon moi pas vraiment intéressant du point de vue de l’entraînement au trail : le paysage est magnifique mais les derniers mètres de dénivelés en montée comme en descente se font avant tout dans le calme en faisant bien attention où l’on pose ses pieds. Néanmoins, on cumule ainsi quelques 1000 m D+ en un minimum de kilomètres, là où, dans les Vosges, il faudrait systématiquement allonger le parcours d’au moins 5 kilomètres pour obtenir le même dénivelé positif. C’est l’avantage de la haute montagne ; par ailleurs, n’importe quel parcours peut se faire sur des très jolis sentiers en évitant les larges et longs chemins forestiers parfois interminables des Vosges. Deuxièmement, ce parcours concentre en un seul coup tous les paysages que l’on trouve dans le briançonnais : si vous n’êtes que rapidement de passage dans le coin, sachez que ce circuit peut se faire en famille pour une randonnée de niveau facile (le sommet de l’Aiguille Rouge est accessible pour des enfants à partir de 12 ans, mais attention à la fréquentation : il peut y avoir beaucoup de monde en journée).
Le parcours
Tout le parcours peut se faire sans carte : les chemins sont très bien indiqués (c’est le cas partout dans la région) et la navigation peut se faire à vue dans ce cas précis. Si, à un moment donné, vous apercevez des pancartes écrites en italien, c’est que vous êtes descendu du mauvais côté !
Au départ du hameau de Roubion, il faut emprunter le GR en direction du col des Thures. On profite ainsi de la fraîcheur (ou de l’abri, en cas de pluie) de la forêt de mélèzes sur toute la combe que l’on remonte à côté du ruisseau (ou torrent, selon la météo !). Cette fraîcheur sera particulièrement appréciable car le chemin monte de manière très régulière, d’abord faiblement puis de plus en plus rapidement sans toutefois offrir de raidillon obligeant à casser le rythme. Il est dès lors possible de moduler sa vitesse pour ne pas avoir à marcher. C’est la partie la plus intéressante du point de vue de l’endurance et, techniquement, elle offre deux à trois petits replats qui permettent de reprendre son souffle.
Arrivé à la fin de cette première partie d’environ 3.5 km, beaucoup de sueur a déjà coulé mais on a encore de la réserve pour amorcer la prairie du magnifique vallon des Thures qui s’offre alors, avec la cabane du berger des Thures et sa fontaine. Sur un peu moins de 2 km on longe l’Aiguille Rouge à droite pour arriver au lac Chavillon à travers le pré. On ne manquera pas de regarder attentivement à droite, à mi-côte de l’Aiguille Rouge, le chemin qui part du lac, c’est lui qu’il faut alors emprunter pour amorcer la montée de l’Aiguille, sans toutefois le confondre avec quelques traces qui longent la crête, plus en amont : elle mènent au même endroit mais sont beaucoup moins confortables pour le trail.
Arrivé à peu près en amont de la cabane du berger, on rejoint le chemin « normal » qui monte à l’Aiguille en provenance du col de l’Échelle au niveau de la courbe de dénivelé des 2340 m. Il suffit ensuite de poursuivre jusqu’au sommet où seuls les derniers mètres se négocient avec prudence.
En haut, il est temps de stopper sa montre et apprécier le paysage, avec, respectivement :
- Au Nord-nord-Ouest, le majestueux Mont Thabor,
- Au Nord, les trois pointes italiennes Balthazard, Melchior et Gaspard,
- Au Nord-Est, une vue sur les pistes de ski alpin de Bardonecchia
- À l’Est, en bas, le col de l’Échelle,
- Au Sud-Est, la vallée de la Clarée vers Plampinet,
- Au Sud, en bas, le hameau de Roubion.
La descente se fera dans le prolongement vers le col de l’Échelle jusqu’à croiser le GR (une pancarte rustique en bois indique la direction des Granges de la Vallée Étroite, qu’il faut suivre jusqu’au-dessus du Roubion). La descente vers le Roubion se fait par le chemin auparavant emprunté à ceci près que, environ 300 m après avoir franchi le ruisseau, un petit sentier (ouvrez l’œil) vers la droite permet, en quittant le GR, d’aller dans la combe du Roubion pour rejoindre le circuit dit des « balcons de Névache ». C’est une variante que l’on peut emprunter jusque Névache Ville Haute (à environ 4 km par ce chemin) ou couper à quelques endroits (indiqués) pour rejoindre le hameau de Sallé ou Névache Ville Basse. Le parcours ci-dessous coupe au plus court pour rejoindre le Roubion, ce qui porte ce tracé à 14,5 km pour environ 1000 m D+.
24.07.2015 à 02:00
Un aperçu de Pandoc
Dans un billet précédent, je parlais des avantages du Markdown dans les processus de conversion vers des formats de sortie comme HTML et LaTeX. Il se trouve que Massimiliano Dominici, passé maître dans l’usage de Pandoc, a publié en 2013 un article remarquable focalisant justement sur les fonctionnalités de Pandoc du point de vue des objectifs de publication HTML et LaTeX (PDF).
Présentation
Avec l’autorisation de l’auteur, je propose une traduction française de cet article qui ne manquera pas d’intéresser ceux qui hésitent encore à franchir le pas de la ligne de commande avec Pandoc ou tout simplement ceux qui ne connaissent pas encore ce logiciel.
Cet article de Massimiliano Dominici est paru sous le titre « An overview of Pandoc », TUGboat 35:1, 2014, pp. 44-50. Originellement publié sous « Una panoramica su Pandoc », ArsTEXnica 15, avril 2013, pp. 31-38. Traduction de l’anglais par Christophe Masutti, avec l’aimable autorisation de l’auteur. Licence du document : CC By-Sa.
Vous trouverez sur ce dépôt GIT les sources qui ont servi à la composition et à la compilation du document, en utilisant Pandoc’s Markdown. Il est possible de télécharger directement la version PDF. Le fichier README.md
contient les lignes de commandes destinées aux sorties voulues.
Comment compiler ce document ?
Pour une sortie LaTeX, avec le template LaTeX (ne pas oublier d’installer pandoc-citeproc
) :
$pandoc --listings --bibliography=biblio.bib --biblatex metadata.yaml --number-sections -s --template=modele.latex --toc source.markdown -o sortie.tex
Pour la sortie PDF :
$pdflatex sortie.tex
$biber sortie
$pdflatex sortie.tex
Pour la sortie HTML :
$pandoc -s -S --toc --template=modele.html -H style.css --number-sections --bibliography=biblio.bib metadata.yaml source.markdown -o sortie.html
30.06.2015 à 02:00
Partie carrée avec Pandoc, Markdown, HTML et LaTeX
Pour ceux qui en douteraient encore, les blagues graveleuses à propos de LaTeX n’ont pas cours ici. Il s’agit dans ce billet de proposer une mini chaîne éditoriale qui vous permettra de composer rapidement des documents en plusieurs formats tout en les écrivant avec le minimum de contraintes. Qu’il s’agisse de n’importe quel logiciel de traitement de texte ou d’un simple éditeur dans lequel on formate directement le document source, on passe bien trop de temps à cliquer ou entrer des commandes, toujours au détriment du contenu. Avoir une solution automatisée ne résoudra jamais toutes les situations, mais notre objectif est de tâcher de séparer le plus possible l’entrée de contenu et la mise en page. Pour cela nous allons utiliser deux outils, à savoir le formatage Markdown et le logiciel de conversion Pandoc.
Prérequis
Pour accomplir toutes les opérations mentionnées ci-dessous, quelques conditions doivent être réunies :
- Pour la plus grande partie de ce billet, il faut avoir compris (juste « compris ») ce qu’est un langage de balisage comme le HTML ou le LaTeX, et savoir se servir d’un terminal (entrer des lignes de commandes, au demeurant fort simples à comprendre) ;
- Avoir Pandoc installé sur sa machine ;
- Avoir un bon éditeur de texte, si possible capable d’afficher une coloration syntaxique propre au Markdown (voir capture d’écran) ;
- Pour obtenir un document LaTeX et produire un PDF, il faut avoir une distribution LaTeX installée, comme TeXlive.
Objectifs
À quel genre de situation sommes-nous censés faire face ?
Vous souhaitez rédiger rapidement un document, cependant, avec votre logiciel de traitement de texte, vous supportez de moins en moins d’avoir à cliquer sans cesse pour formater des styles de titres et de paragraphes et vous aimeriez pouvoir rédiger avec une interface d’éditeur de texte la moins chargée possible.
Il vous est peut-être arrivé de rédiger un document en LaTeX et, malgré les filtres disponibles, avoir toutes les peines du monde à le transformer en HTML parce qu’en fin de compte vous souhaitiez l’afficher en tant que page web ou réaliser un e-pub.
Vous avez essayé plusieurs systèmes de conversion automatisés, mais jamais vous n’avez fini par obtenir de document proprement formaté.
D’autres situations ont pu se produire et vous allez certainement trouver des failles à la méthode proposée ici. En revanche, en plus de la méthode, je propose un principe auquel on pense pas toujours : si vous voulez transformer un document, rédigez-le d’abord au format le plus simple. C’est depuis cette source qu’il faut tenter les conversions et éviter de le faire depuis un format complexe. Quoi que vous fassiez, pour être parfait, votre document final devra sans doute faire l’objet de retouches, mais elles seront un moindre mal car la majeure partie du document sera alors traitée proprement.
Qu’est-ce que j’entends par « proprement » ? C’est vraiment un conseil d’hygiène : certaines solutions de formatage ou de conversion utilisent des solutions plus ou moins adaptées à la complexité du code de départ. Cela se traduit souvent par l’adjonction de styles prédéfinis par le logiciel de conversion. Ainsi, si vous transformez un document LaTeX en HTML, la malléabilité du document final laissera toujours à désirer, en particulier si vous voulez adapter votre propre feuille de style, à moins de la définir auparavant ce qui nécessite en retour beaucoup d’efforts. Faire les choses simplement dès le départ vous permettra de complexifier par la suite à votre propre initiative, mais en aucun cas vous ne serez contraints d’adapter votre projet au format : c’est l’inverse qui doit se produire.
Les objectifs seront successivement :
- de produire un document au format Markdown adapté à Pandoc,
- le transformer en utilisant Pandoc, de manière à produire un document au format .odt (ou .docx), un document au format HTML,
- et un document .pdf (re)formaté LaTeX et compilé avec pdfTeX ou Xe(La)TeX.
Créer un document au format Markdown
Le format Markdown est tellement simple qu’il n’y a pas besoin de créer des macros pour pouvoir l’utiliser. En d’autres termes, tout ce dont vous avez besoin pour écrire dans ce format est d’un éditeur de texte et d’un peu de mémoire. Si, en plus, vous utilisez votre éditeur en plein écran, sans autre affichage que votre curseur pour entrer des caractères, vous pourrez vous concentrer pleinement sur votre contenu et écrire sans vous soucier d’autre chose.
L’entrée des éléments de formatage en Markdown s’effectue au long de la frappe. Ainsi, pour un titre de niveau 1, vous n’avez qu’à entrer un croisillon (# Titre 1
) en début de ligne ; pour un titre de niveau 2, deux croisillons feront l’affaire (## Titre 2
) ; pour mettre en valeur une partie de votre texte, par exemple en italique, il suffit d’entrer le caractère tiret bas (_italique_
) ou une astérisque (*italique*
) au début et à la fin de la partie ; etc.
Pour reconnaître votre document en markdown, vous pouvez lui ajouter l’extension .markdown
, ou .md
, par exemple.
Par ailleurs, il existe certains éditeurs de texte qui vous proposent d’afficher directement le rendu HTML de votre document. Ils utilisent parfois une double fenêtre. Voici trois éditeurs sympathiques : Ghostwriter, ReText, StackEdit (fonctionne dans votre navigateur). Ces éditeurs proposent aussi des filtres d’export vers odt
, HTML
et PDF
.
La liste des commandes de formatage Markdown est très courte. Vous trouverez sur le site de son créateur, John Gruber, les éléments de syntaxe utilisables dans ce format. En revanche, comme nous allons le voir, Pandoc propose quelques fonctionnalités spécifiques, aussi il sera préférable de se référer à cette partie du manuel de Pandoc. En réalité, il suffit de quelques minutes de pratique pour en maîtriser l’essentiel. La seule difficulté du Markdown, c’est qu’il n’est pas (encore) standardisé, si bien que tout le monde s’accorde à reconnaître l’essentiel mais de petites variations peuvent apparaître ici et là.
Dans notre cas, il y a une manière d’utiliser le Markdown à la sauce Pandoc. En voici quelques exemples :
Les notes de bas de page
Le Markdown est si simple que des éléments pourtant essentiels à la rédaction en sont absents. C’est le cas de la gestion des notes de bas de page. Pandoc permet de gérer cela de manière très simple : il suffit d’entrer le numéro de la note à l’endroit de l’appel de note, puis, en fin de texte, rédiger la note en y faisant référence.
Ceci est un appel de note[^1]. (en fin de texte) [^1]: Ceci est le contenu de la note de bas de page.
La question des notes de bas de page est loin d’être triviale. Si vous devez convertir votre document à la fois en HTML et en LaTeX vous constaterez bien vite que les méthodes dont ces deux langages balisés gèrent les notes de bas de page n’ont quasiment rien à voir entre elles, si bien que convertir de l’un à l’autre un document contenant des notes de bas de page est souvent un vrai casse-tête, tout particulièrement si vous avez beaucoup de notes.
Les métadonnées
Les informations du document comme le titre, la date et l’auteur, pourront être entrées en début de document en les introduisant simplement avec le signe %
.
% Titre % Auteur % Date
Là encore, c’est une fonctionnalité qui est proposée : vous verrez que, lorsque nous utiliseront un modèle de conversion, nous pourrons utiliser ces données rendues exploitables par Pandoc.
La table des matières
Pour créer une table des matières… hé bien, non, il n’y a rien à faire ! Il suffira, lors de la conversion, de demander gentiment à Pandoc de se charger de créer une table des matières selon le format de sortie désiré.
Autres aspects du Pandoc’s Markdown
Vous trouverez dans le manuel toutes les possibilités d’interprétation du Markdown par Pandoc, par exemple pour faire des tableaux, insérer des mathématiques, faire des listes spéciales, etc. Sachez toutefois que si vous voulez que votre document reste interprétable par d’autres convertisseurs que Pandoc, il faudra aussi faire un effort de simplification. L’autre solution est que, quoiqu’il arrive, selon le format de conversion visé, vous pouvez insérer directement des éléments de code dans votre document Markdown. Ainsi, si vous voulez transformer vers LaTeX, vous pouvez insérer directement du code LaTeX qui sera interprété tout à fait normalement. Idem pour le HTML. Et même mieux : vous pouvez insérer du code HTML dans du Markdown et interpréter le tout vers LaTeX !
À propos de Pandoc
Dans la suite de ce billet, je vais vous montrer comment utiliser certaines commandes de Pandoc. Mais les possibilités de ce dernier sont très vastes. Il est possible, par exemple, de lui faire traiter de la bibliographie en travaillant avec LaTeX et BibLaTeX, ou encore rédiger un script qui permettra d’automatiser certaines tâches avec Pandoc. Faisons simple pour commencer : Pandoc propose des options, utilisons-les.
Par ailleurs, Pandoc permet de transformer de multiples formats. Nous nous focaliserons ici sur le Markdown, mais sachez que les applications de Pandoc excèdent largement ce cadre.
Comment utiliser Pandoc ?
Pandoc s’utilise en ligne de commande. Non, attendez ! ne partez pas tout de suite. D’accord, il s’agit d’ouvrir un terminal mais il ne s’agit pas non plus d’incanter des formules réservées à un caste de moines guerriers initiés. Il faut passer outre vos appréhensions et vous allez voir, c’est vraiment simple.
Première chose à faire : ouvrir un terminal et vous rendre dans le dossier où vous avez stocké votre document en Markdown. Dans les commandes que je citerai plus bas, tout se passera dans ce dossier : la production de sortie sera enregistré à cet emplacement (mais vous pouvez toujours en choisir un autre, il suffit pour cela de spécifier à chaque fois le chemin).
Les commandes se rédigent toujours de manière logique. On « dit à la machine », quelque chose comme « Tu vas utiliser Pandoc sur ce document au format Bidule pour produire ce nouveau document au format Machin, en utilisant telle et telle option ». Les options sont toujours introduites avec un double tiret (--
) ou leur diminutif par un tiret simple (-
).
Voici un exemple simple que je commente :
pandoc mondocument.md -o masortie.html
Pandoc est lancé, il traitera un document au format markdown pour produire (-o
, ou bien -output
) un autre document au format HTML. À chaque fois j’aurais pu préciser un chemin différent pour chaque document, ainsi pour traiter un document d’un dossier à l’autre, on peut écrire :
pandoc chemin/redaction/mondocument.md -o chemin/production/masortie.html
Cerise sur le gâteau, si vous avez plusieurs document markdown que vous désirez convertir pour produire un document unique dans un autre format, il suffit de les entrer dans l’ordre :
pandoc doc1.md doc2.md doc3.md -o docfinal.odt
Ceci est d’autant plus pratique si vous rédigez un livre, par exemple, avec un fichier par chapitre.
Passons à la pratique
Vous avez donc rédigé un document au format Markdown. Qu’allez-vous en faire ?
Tel quel
Vous pouvez tout simplement utiliser votre document tel quel. Le markdown, c’est d’abord du texte. Par ailleurs, ce format a été conçu spécifiquement au départ pour envoyer des courriels en mode texte sans avoir à perdre du temps dans une mise en page dont le résultat est différent selon le paramétrage du client de courriel du destinataire.
De plus, vos documents en Markdown seront lisibles par tout éditeur de texte dans l’avenir. Vous pouvez être certain de leur pérennité. Si vous ouvrez vos documents Markdown avec un éditeur permettant le rendu HTML, vous avez en plus de cela une mise en page toute prête si l’aspect « texte » ne vous convient pas.
Vers un logiciel de traitement de texte
Si vous avez besoin d’éditer votre document avec un logiciel de traitement de texte comme LibreOffice Writer ou MSWord, en particulier si vous avez des modèles de mise en page à y appliquer, la syntaxe de la transformation est la plus simple :
pandoc source.md -o produitfinal.odt
ou bien
pandoc source.md -o produitfinal.doc
Le document produit sera mis en page avec les styles par défaut de votre logiciel de traitement de texte, il suffit ensuite d’y appliquer vos propres styles si besoin.
Vers le HTML
S’agissant d’un langage balisé, la conversion vers le HTML permet d’intégrer des exigences de mise en page directement au moment de le traiter avec Pandoc. Ainsi, vous pouvez préparer une feuille de style .css
en vue de l’intégrer (ou pas) directement dans le document de sortie, ce dernier pouvant de même obéir à un modèle (template) préparé à l’avance.
pandoc -s -S --toc --template=modele.html -H monstyle.css --number-section source.md -o produitfinal.html
Cette ligne de commande permet de faire ces opérations (vous pouvez ôter celles qui nous intéressent pas) :
- Produire un document « standalone » (
-s
ou--standalone
), c’est-à-dire qu’il intégrera toutes les informations pour qu’il s’affiche dans le navigateur sans faire appel à d’autres fichiers. - Le document aura une typographie acceptable, grâce à l’option
-S
(ou--smart
). Pandoc convertira par exemple les doubles tirets (--
) par des demi-cadratins ou les triples tirets (---
) par des cadratins - Il intégrera une table des matières au début, grâce à l’option
--toc
(ou--table-of-contents
), notez que la profondeur de la TOC peut se régler avec l’option--toc-depth=nombre
. - l’option
--number-section
permet de numéroter les sections, sous-sections, etc. - Le template est défini à l’avance, on le renseigne dans la ligne de commande avec
--template=fichier
. - Dans son en-tête (header,
-H
ou en version longue--include-in-header=fichier
), il intégrera la feuille de style que vous avez créée à cet effet, et que l’on renseigne en donnant le nom du fichier (mais on pourrait aussi bien intégrer le renvoi à la feuille de style dans le template lui-même ; ici vous avez la possibilité de choisir parmi plusieurs feuilles de style si besoin).
Le document final affichera, en plus du titre, de la date et de l’auteur, une table des matières et toutes les informations de mise en page que vous avez intégrées à votre document Markdown.
Vous noterez la gestion des notes de bas de page, par exemple, et la manière dont la table des matières s’affiche. Si vous aviez dû entrer toutes les références internes de la page, cela vous aurait certainement pris beaucoup plus de temps.
Vers LaTeX (pdf)
C’est vers ce format qu’on s’amuse le plus, à mon humble avis. Toutes les options sont applicables mais nous pouvons aller beaucoup plus loin. En effet, nous cherchons à automatiser la création du format de sortie le plus courant de LaTeX, à savoir un beau document PDF. Tout l’intérêt de la démarche consiste donc à créer un style comme nous l’avons fait pour le rendu HTML, mais beaucoup plus fin puisque nous pourrons paramétrer une mise en page destinée à l’impression. Il s’agira d’un document LaTeX contenant quelques éléments conditionnels, les packages que vous souhaitez utiliser et la configuration de ceux-ci. En somme, c’est de toute l’en-tête du document que nous avons besoin. Si bien qu’une fois celle-ci définie, il vous restera à l’avenir à rédiger vos documents en Markdown sans passer par LaTeX (ou alors pour quelques retouches si besoin), tout en utilisant les options de Pandoc. Ce qui produit finalement un double outil très puissant.
Dans l’exemple donné, il s’agit de créer un document au format A4, présenté comme un rapport avec un en-tête, etc. Mais ce n’est qu’un exemple : à vous de modifier le modèle pour le conformer à vos besoins.
Par défaut, c’est-à-dire si vous ne spécifiez aucun style, la sortie PDF se fera sous la simple classe [article]
sans style particulier. Et n’oubliez pas : nous cherchons à produire directement un PDF en utilisant le moteur LaTeX, rien ne vous empêche de transformer votre document en LaTeX pour le travailler ensuite.
Pour notre exemple, la syntaxe est la suivante :
pandoc source.md -o produitfinal.pdf --toc --template=monstyle.latex --number-section
- l’option
--toc
permet l’insertion d’une table des matières - l’option
--number-section
permet de numéroter les sections, sous-sections, etc. - l’option
--template=xxx
permet de spécifier le style, c’est-à-dire l’en-tête du document LaTeX qui sera compilé pour produire le pdf final, cet en-tête se rédige dans un document LaTeX auquel on fait appel lors de la compilation.
Mais enfin, comment se construisent ces templates pour Pandoc?
Il s’agit en réalité de modèles de composition qui intègrent toute une série de variables. Par exemple, pour la date à intégrer dans un document LaTeX, on peut utiliser $if(date)$\date{$date$}$endif
, c’est à dire « si la date est renseignée (dans les métadonnées), alors tu utilises cette valeur dans la commande indiquée ».
On peut construire ses propres modèles, dans la mesure où les valeurs peuvent être utilisées de cette manière. Mieux encore, certaines données peuvent aussi être entrées dans un fichier en YAML, mais cela fera l’un des objets d’un futur billet.
Pour commencer à bâtir des modèles, vous pouvez vous reporter à cette partie de la documentation et surtout regarder comment sont bâtis les templates par défaut de Pandoc, de manière à vous en inspirer.
La bibliographie (et production finale)
La bibliographie peut être traitée différemment selon votre format de sortie. Quoiqu’il en soit, pour commencer, vous devez produire un fichier de bibliographie au format bibtex (.bib
).
Dans les commandes pandoc vous devrez renseigner ce fichier avec
--bibliography=nomdufichier.bib
Et dans votre document Markdown, vous passez les références ainsi, avec leurs identifiants :
Comme le dit Dupont [@dupont1950, p. 15]. Si nous marchons nous ne dormons pas [@Martin1985; @Dupont1950].
Si vous produisez un document LaTeX, le mieux sera d’utiliser l’option --biblatex
ce qui aura pour effet de générer la commande biblatex pour traiter la bibliographie. Par exemple :
pandoc --bibliography=nomdufichier.bib --latex-engine=xelatex mondoc.md -o sortie.tex
Mais l’objet de cet article est de vous aider à produire des documents de manière automatisée. Voici comment procéder pour produire un document PDF ou HTML disposant d’une bibliographie (et donc d’une liste bibliographique).
Il faut pour cela utiliser l’interpréteur citeproc
(à installer en plus de pandoc) et un fichier CSL (Citation Style Language). Le premier permet d’interpréter les fichiers CSL qui sont en fait des styles de bibliographie. Vous pouvez trouver un répertoire de ces fichiers CSL (prêts à l’emploi ou que vous pouvez modifier) dans le dépôt Zotero, un logiciel de gestion bibliographique.
Une fois votre fichier CSL prêt, vous pouvez produire :
pandoc --filter pandoc-citeproc --bibliography=mabiblio.bib --csl=monstylebiblio.csl -s --toc --number-section --template template.html --css template.css masource.md -o sortie.html
Ce qui permettra de produire un document HTML (standalone), avec une table des matières, des sections numérotées, basé sur un modèle HTML et un fichier de style CSS, une bibliographie traitée dans le texte et présente à la fin selon le fichier de style bibliographique choisi.
Astuce : pour introduire la bibliographie, laissez à la fin de votre document markdown un titre comme # Bibliographie
.
pandoc --filter pandoc-citeproc --bibliography=mabiblio.bib --csl=monstylebiblio.csl -s --latex-engine=xelatex --toc --number-section -colorlinks masource.md -o sortie.pdf
Ce qui permettra de produire un document PDF, traité par XeLaTeX, avec une table des matières, des sections numérotées, des liens colorés, une bibliographie traitée dans le texte et présente à la fin selon le fichier de style bibliographique choisi.
Production finale
Si vous n’avez pas de bibliographie à gérer, vous pouvez vous lancer dans la production de documents différents à partir d’un seul fichier Markdown.
Produisez un fichier .ODT (ou Docx) puis appliquez vos styles avec LibreOffice (ou MSWord). C’est la solution la plus simple : en fait pandoc produit des styles que vous pouvez modifier ou carrément écraser avec un modèle (LibreOffice ou Word) par la suite.
pandoc masource.md -o sortie.odt
Produisez un fichier .tex prêt à l’emploi.
pandoc masource.md -o sortie.tex
Produisez un document HTML avec un modèle et un fichier de style, une table des matières, des sections numérotées.
pandoc -s --toc --number-section --template template.html --css template.css masource.md -o sortie.html
Produisez un beau PDF (travaillé avec LaTeX), avec un modèle préparé à l’avance (et dans lequel vous aurez pris le temps d’inclure les mackages à utiliser, et tout ce que vous voulez dans l’en-tête) :
pandoc -s --latex-engine=xelatex --template template.latex --toc --number-section -colorlinks masource.md -o sortie.pdf
En somme, il peut être particulièrement utile de vous préparer à l’avance quelques modèles (en partant des modèles par défaut de pandoc), même sans forcément y intégrer toutes les options. Selon les types de documents que vous produisez, vous pourrez les générer très vite.
Pour ce qui concerne les sorties destinées à un format comme ODT ou Docx, le mieux est encore de préparer un modèle qui écrasera les styles du fichier de sortie.
Conclusion
Même sans connaître toutes les possibilités offertes par Pandoc, vous voici désormais en mesure de produire un document censé être travaillé sous différents formats. Ceci est particulièrement utile si vous êtes censé récupérer des documents en provenance de différentes sources pour les mettre en page et les diffuser : il est plus facile de demander à vos contributeurs de rédiger en Markdown voire de rédiger un texte sans style quitte à ce que vous les repassiez vous-même en Markdown. De cette manière il vous sera ensuite très facile de publier différentes versions de ces textes adaptées aux mode de diffusions : pour le web, une version HTML, pour l’impression, une version PDF (LaTeX), etc.
Bien entendu, travailler à un bas niveau de mise en page, comme le veut l’usage du Markdown, nécessite de faire des choix, en particulier savoir à l’avance vers quel(s) format(s) vous voulez convertir vos documents. Si vous êtes amené à intégrer des éléments de HTML ou de LaTeX dans vos documents Markdown, faites-le en connaissance de cause.
En revanche les options de Pandoc étant nombreuses, et une fois affinées avec des fichiers de style, vos documents seront non seulement rapides à produire mais ils bénéficieront de multiples manières de les compiler pour des résultats différents.
De manière générale, le Markdown permet d’écrire très vite des contenus avec un minimum de commandes. À certains aspects, c’est sans doute le seul format qui permet d’écrire au kilomètre, avec un minimum d’informations de mise en page, ce qui permet de se concentrer exclusivement sur le contenu. Pandoc et l’art de créer des styles feront le reste.
24.06.2015 à 02:00
Révolutions informatiques : algorithmes et pouvoirs
Il y a 45 ans, avec l’arrivée en masse de l’informatique et du micro-ordinateur dans les entreprises, les foyers français, et à peu près tous les secteurs de l'économie, la notion de « Révolution Informatique » occupait le thème d’un des célèbres colloques de Cerisy-la-Salle du 10 au 20 juillet 1970.
Les actes de ce colloque, aujourd’hui indisponibles, méritent toutefois d'être lus aujourd’hui à bien des titres. Tout particulièrement à l’heure où notre gouvernement est en passe de voter un texte de surveillance de masse de nos outils de communication. En effet, en automatisant les tâches de surveillance par des algorithmes, ce qui revient à surveiller tout le monde pour faire un tri ensuite, il se développe actuellement une sorte d’accomplissement d’un pouvoir techniciste au prix d’une dépossession du peuple des instruments de la circulation de l’information, au fondement de la démocratie. Or, c’est étonnement un axe de lecture tout à fait intéressant des actes du colloque de ce mois de juillet 1970…
Deux textes en particulier méritent un détour. Le premier explique la notion d’algorithme. Un peu ardu à certains endroits, son auteur Jacques Riguet est néanmoins fort synthétique, et montre qu’en réalité ce qu’on appelle un algorithme est loin de mériter un traitement aussi désinvolte que celui que lui réservent nos responsables politiques du moment, puisqu’il s’agit de définir de l’imprécis par un choix d'éléments précis. Surveiller la population par des algorithmes suppose donc de manière systématique de l’imprécision et par conséquent nécessite d’expliquer précisément la classe des éléments choisis en fonction du but poursuivi. Si l’objectif est trop large, les algorithmes ne peuvent être précis : la Loi Renseignement ne peut donc pas concilier les deux, cqfd.
Le second texte est de la plume de Louis Pouzin, connu comme l’un des pionniers des recherches sur le temps partagé (voir sa fiche Wikipédia) aux sources de notre Internet d’aujourd’hui. Son texte porte sur les aspects technocratiques de l’informatique utilisée comme instrument décisionnaire. Loin de relayer des craintes infondées et anti-progressistes, ils soulève néanmoins quelques questions fort pertinentes sur le rapport qu’entretien le pouvoir avec le traitement informatique de l’information. Car en effet, déjà l’Internet balbutiant montrait qu’il pouvait être un extraordinaire outil de partage de l’information et par conséquent un outil majeur du dialogue démocratique. Si la génération des hommes politiques d’alors n'était pas encore prête à amortir cette révolution informatique naissante, il était tout à fait pertinent de s’interroger un peu sur l’avenir. Et ce n’est pas innocemment que l’auteur conclu en ces termes : « L’invocation de l’ordinateur est un camouflage commode pour l’accomplissement de politiques occultes. »
Je livre donc ces deux textes ci-dessous. J’espère que les responsables des publications du Centre Culturel International de Cerisy ne m’en voudront pas d’outrepasser ici le droit de citation pour aller un peu plus loin : le livre n'étant plus édité, je donne en quelque sorte une seconde vie à ces deux textes :
- La notion d'algorithme (Jacques Riguet)
- Intervention de L. Pouzin
Titre : Révolutions informatiques
Direction : François Le Lionnais
Éditeur : Union Générale d'Éditions
Collection : 10/18
Année de publication : 1972
Année du colloque : 1970
Table des matières
Section : Naissance et développement de l’informatique
Dimanche 12 juillet 1970 (après-midi), intervention de Jacques Riguet, Professeur à l’Université de Limoges (pp. 89-97)
La notion d'algorithme
Le mot « algorithme » a une signification voisine de celle des mots « recette », « procédé », « méthode », « technique », « routine ».
La notion d’algorithme est une notion intuitive, donc essentiellement imprécise, tout comme l’est, par exemple, la notion de courbe en géométrie. Un thème fondamental de la recherche mathématique consiste à tenter de donner des définitions précises d’un concept imprécis, le succès de la tentative étant de plus en plus assuré au fur et à mesure que l’on parvient à prouver que les définitions proposées sont équivalentes. Un exemple célèbre de ce thème de recherche nous est fourni par le résultat obtenu par Hahn et Mazur-Kiewicz en 1914 : la notion d’espace métrique compact connexe localement connexe et la notion d’image par une application continue d’un segment dans un espace séparé sont équivalentes et constituent donc une définition précise de la notion intuitive de courbe.
Nous verrons plus loin que les logiciens contemporains sont parvenus à démontrer l'équivalence de diverses notions précises susceptibles de recouvrir la notion intuitive d’algorithme. Mais, pour le moment, il nous faut proposer une définition de celle-ci. La voici :
On appelle algorithme une méthode générale pour la résolution d'une classe de problèmes, fixée en tous ses détails par des règles dépourvues de sens, de façon à ce qu'on puisse l'appliquer sans avoir à la comprendre.
Il convient de donner de suite un exemple :
L’algorithme d’Euclide pour la recherche du P.G.C.D. La classe de problèmes auxquels il s’applique est définie ainsi : étant donné deux entiers positifs m et n, trouver leur plus grand commun diviseur (c’est-à-dire le plus grand entier positif qui divise à la fois m et n).
- Diviser m par n. Soit r le reste (on a 0≤r<n) ;
- Si r=0, l'algorithme est terminé, la réponse est n ;
- Si r≠0 remplacer m par n, n par r et opérer comme en 1.
Voir ci-dessous l’exemple d’application de l’algorithme aux nombres m=165 et n=616
Déjà les arabes, sous l’influence des hindous, avaient développé des algorithmes.
Le mot « algorithme » lui-même est dérivé du nom de l’auteur d’un texte arabe : Abu Ja’far Mohammed ibn Mûsâ al-Khowârizmî (vers 825) (c’est-à-dire père de Ja’far, Mohammed, fils de Moïse, natif de Khowârîzm) (Khowârîzm est aujourd’hui la petite ville de Khiva en U.R.S.S.). Le mot algèbre lui-même est dérivé du titre de son livre « Kitab al jabr w’almuqabala » (Règles de restauration et de réduction) bien que le livre ne soit pas très algébrique.
Vers 1300, l’espagnol Raymond Lulle reprend les méthodes introduites par les arabes pour l'édification de son « Ars magna » qui devait être une méthode générale pour découvrir « toutes les vérités » à partir de combinaisons. Et c’est comme contribution à l'ars magna que Cardan publiera quelques deux cents ans plus tard ses formules et algorithmes algébriques. La « méthode » de Descartes a essentiellement pour but de permettre la résolution des problèmes de géométrie grâce à leur traduction algébrique et au traitement algorithmique de cette traduction (Descartes pensait manifestement que tous les problèmes algébriques pouvaient être traités algorithmiquement, ce qui s’est révélé faux par la suite). Leibniz a rêvé d’une « caractéristique universelle » permettant de résoudre tous les problèmes. Il est encore plus manifeste chez lui que chez Lulle que celle-ci doit être mise en œuvre par une machine. Il est l’un des premiers à construire une machine à calculer.
Reprenons maintenant la définition de la notion d’algorithme que nous avons posée au début et précisons-en quelques points.
- Un algorithme étant apte à la résolution d'une classe de problèmes, son énoncé doit comporter une description plus ou moins symbolique des données caractérisant cette classe (nous dirons que c'est son entrée ou sa source) et également une description plus ou moins symbolique des solutions de ces problèmes (nous dirons que c'est sa sortie ou son but). Par exemple, l'algorithme d'Euclide a pour source l'ensemble des couples d'entiers positifs non nuls (en écriture de base 10 par exemple) et pour but l'ensemble des entiers positifs non nuls.
- Un algorithme doit être fixé en tous ses détails. En particulier :
- les instructions doivent être d'une précision absolue. Une recette de cuisine bien qu'ayant une entrée (les « matières premières » : œufs, beurre, farine, etc.) et une sortie (gâteau d'anniversaire, etc.) ne peut être considérée comme un algorithme si elle comporte des instructions telles que « ajouter une pincée de sel » ;
- l'ordre d'application des règles doit être donné sans ambiguïté. Un organigramme constitué de boîtes d'instructions et d'aiguillages en rendra encore mieux compte que le langage ordinaire.
- Un algorithme doit être effectif : cela signifie que chacune de ses règles est suffisamment simple pour pouvoir être effectuée en un temps fini par un homme peut-être stupide et dépourvu de toute imagination mais parfaitement obéissant, muni d'un crayon (inusable) et d'un papier (indéfiniment prolongeable) et qui opère de façon purement mécanique sans réfléchir et sans se soucier du sens que pourraient avoir ces règles1.
On remarquera qu’en quelque sorte 3. implique 2. : si le conducteur de l’algorithme est dépourvu d’imagination, il sera incapable de suppléer au manque de précision ou à la défaillance d’une instruction.
On remarquera aussi que le conducteur de l’algorithme est censé effectuer ses calculs pas à pas, de manière discrète et déterministe sans avoir recours à des méthodes continues ou analogiques ou stochastiques.
Un algorithme ayant une source (classe de problèmes) et un but (énoncé de la solution) définit par là même une fonction que l’on dit calculable par l’algorithme. Par exemple, la fonction f définie par : « quels que soient les entiers positifs non nuls x,y:f(x,y)=P.G.C.D. de x et de y » est une fonction calculable par l’algorithme d’Euclide.
Il est très facile de se rendre compte que, si une fonction est calculable par un algorithme, il en existe d’autres grâce auxquels elle est également calculable. Et c’est un problème important que d’avoir des critères permettant de choisir, parmi ceux-ci, ceux qui réalisent les meilleures performances du point de vue économie de temps ou du point de vue d’autres critères tels que : facilité d’adaptation aux ordinateurs, simplicité, élégance… Il y a là un domaine nouveau à explorer : celui de l’optimalisation des algorithmes.
Il est moins facile de se rendre compte qu’il existe des fonctions qui ne sont pas calculables par un algorithme. Et c'était même là le sentiment erroné des mathématiciens des siècles précédents. Même la découverte de démonstration d’impossibilité de résolution de certains problèmes (par exemple : construction géométrique à l’aide de la règle et du compas, résolubilité des équations algébriques par radicaux) n’influença guère les mathématiciens dans cette croyance, car il s’agissait de la non résolubilité de problèmes grâce à des moyens déterminés mais non d’une impossibilité générale. La démonstration de l’existence de fonctions qui ne sont pas calculables par un algorithme suppose que l’on a défini de façon précise le concept d’algorithme puisqu’une telle démonstration fait appel à la classe de tous les algorithmes. En fait, le problème de la définition précise de la notion d’algorithme est lié étroitement à celui de la définition précise de fonction calculable : une fonction est calculable s’il existe un algorithme permettant de calculer f(n) quel que soit l’entier n. Réciproquement, la méthode d’arithmétisation de Gödel des mots d’une syntaxe permet de déduire le concept d’algorithme de celui de fonction calculable.
Et, historiquement, les recherches de définitions précises ont porté d’abord sur la notion de fonction calculable avec Skolem en 1923. L’idée de départ est de tenter de définir une fonction calculable comme une fonction qui puisse être obtenue à partir de fonctions très simples et manifestement calculables par un processus récursif, c’est-à-dire un processus où la valeur prise par la fonction, lorsqu’on donne à la variable la valeur n+1, est reliée à la valeur de cette même fonction lorsqu’on donne à la variable la valeur n. Précisons cela : désignons par ℱn l’ensemble des applications de ℕn dans ℕ, où ℕ désigne l’ensemble des entiers naturels, par ℱ l’union de tous les ℱn, par s et σ les deux éléments de ℱ1 définis par s(n)=n+1, σ(n)=0 et par Pn,1,…,Pn, n les éléments de ℱn définis par Pn,k(m1,…mn)=mk. Soient f1,…,fk∈ℱm et g∈ℱk. Nous désignerons par g(f1⇑…⇑fk) l'élément de ℱm défini par g(f1⇑…⇑fk) (x)= g(f1(x),…,fk(x)) pour tout x∈ℕm.
Enfin, soient f∈ℱm et g∈ℱm+2. Nous désignerons par frekg l'élément de ℱm+1 défini par :
frekg(0,x)=f(x)
frekg(n+1,x)=g(n,frekg(n,x),x)
pour tout x∈ℕm.
Nous désignerons par 𝒫 et nous appellerons ensemble des fonctions primitives récursives le plus petit sous-ensemble de ℱ contenant s,σ,Pn,1…Pn,m pour tout n et stable par composition et par récursion. Plus précisément, si 𝒫n=𝒫∩ℱn, 𝒫 est le plus petit sous-ensemble de ℱ satisfaisant aux trois conditions :
- s,σ∈𝒫1, pour tout n∈ℕ,Pn,1…,Pm,n∈𝒫n ;
- f1,…,fk∈𝒫m,g∈𝒫k→g(f1⇑…⇑fk)∈𝒫m ;
- f∈𝒫m,g∈𝒫m+2→frekg∈𝒫m+1.
Nous avons construit ainsi un ensemble 𝒫 de fonctions méritant d'être appelées calculables.
Mais, dès 1928, Ackermann donne un exemple très simple de fonction méritant d'être appelée calculable et n’appartenant pas à 𝒫. Il s’agit de la fonction f∈ℱ2 définie par :
f(0,n)=n+1 ;
f(n+1,0)=f(n,1) ;
f(n+1,m+1)=f(n,f(n+1,m)).
C’est Gödel qui va parvenir, en 1934, en utilisant un projet de Herbrand à « agrandir suffisamment 𝒫 » pour parvenir enfin à une définition satisfaisante de la notion de calculabilité. Ce 𝒫 agrandi que nous désignerons par R et que l’on appelle ensemble des fonctions récursives générales se définit en permettant la génération de fonctions nouvelles non seulement par composition et par récursion mais aussi par minimalisation. Voici quelles sont des définitions précises : soit f∈ℱm+1. On désignera par μ(f) et on appellera minimalisation de f l’application de D dans ℕ définie par :
μ(f)(x)=min(n∈ℕ/f(n,x)=0) pour tout x∈D, D désignant le sous-ensemble de ℕm constitué par les x∈ℕm pour lesquels il existe un n∈ℕ tel que f(n,x)=0.
Il est facile de montrer que la fonction de Ackermann appartient à R.
En 1936, Church et Kleene introduisent la notion de λ-définissabilité. Church et Rosser démontrent peu après qu’elle est équivalente à la notion de fonction récursive et Church formule alors sa célèbre thèse : toutes les fonctions réputées intuitivement calculables ou, selon ses propres termes, « effectivement calculables » sont λ-définissables ou, ce qui est équivalent, récursives générales.
Il s’agit bien d’une thèse et non d’un théorème puisque son énoncé propose d’identifier un concept intuitif imprécis à un concept précis. Elle ne peut être démontrée mais peut être étayée par de nouvelles démonstrations d'équivalence.
Le premier pas décisif dans le renforcement de la thèse est accompli par Turing, en 1936, qui introduit une notion de machine qui est le résultat d’une analyse des opérations élémentaires qu’accomplit le conducteur d’algorithmes, peut-être stupide, mais fort obéissant dont nous avons déjà parlé. Presqu’en même temps, et indépendamment, Post décrit, en 1937,une machine analogue. La thèse que Turing énonce alors : toutes les fonctions réputées intuitivement calculables sont celles calculables par la « machine de Turing », apparaît équivalente à celle de Church puisque Turing lui-même démontre l'équivalence de son concept de calculabilité avec la λ-définissabilité. Le concept de machine de Turing est important car il a permis de définir exactement le concept d’algorithme sans passer par la gödelisation et a permis d'étendre à toute une série de problèmes (en particulier au problème des mots en théorie des groupes et au problème de la décidabilité des prédicats) la démonstration de l’impossibilité de résoudre le problème de Thue pour les demi-groupes qui avait été donnée par Post et Markov en 1947.
C’est Markov en 1951 qui donne une première définition du concept d’algorithme sans passer par la gödelisation. La thèse qu’il formule alors : tout algorithme au sens intuitif du terme peut s'écrire sous forme d’algorithme de Markov, est renforcée par Detlovsk qui démontre, en 1958, l’identité de l’ensemble des fonctions récursives et des fonctions calculables par un algorithme de Markov.
Markov est parvenu à sa notion d’algorithme en s’apercevant que les démonstrations, les calculs, les transformations logiques consistent essentiellement à transformer certains mots en d’autres suivant diverses règles. C’est dire que sa formulation vient s’inscrire tout naturellement dans le cadre très général formulé par Post en 1943 et qu’on désigne maintenant sous le nom de « calcul de Post ».
- Les régions limitées par des traits pointillés sont censées représenter des concepts intuitifs plus ou moins vagues.
- Les régions limitées par des traits fermes sont censées représenter des concepts précis.
- Les traits doubles pointillés sont censés représenter des équivalences intuitives des « thèses ».
- Les traits doubles pleins sont censés représenter des équivalences précises, prouvées par des démonstrations mathématiques.
C’est également comme un cas très particulier de calcul de Post qu’apparaissent les grammaires de Chomsky en 1955. Elles fournissent un modèle fondamental pour l'étude non seulement des langues naturelles mais aussi des langages de programmation que d’autres conférenciers auront maintes fois l’occasion de définir et de développer dans leurs exposés.
1. Il est clair qu’il vaut mieux, pour la bonne conduite de l’algorithme, qu’un tel homme ne sache faire que cela et qu’un mathématicien aura quelque peine à oublier la signification des calculs qu’il effectue pour tenir convenablement un tel rôle pendant longtemps : le paysage le séduit trop. Ulysse se bouchait les oreilles pour ne pas entendre le chant des Sirènes !
Section : Informatique et technocratie
Dimanche 19 juillet 1970 (matin), intervention de Louis Pouzin, Délégation générale à l’informatique (pp. 429-435)
Intervention de Louis Pouzin
Peut-on être pour la technocratie ? Bien qu’il soit de bon ton d'être contre, n’est-ce pas un simple préjugé, d’autant plus mal fondé que l’on pourrait bien soi-même appartenir à une variété de technocrates retranchés dans l’informatique. Afin d’y voir plus clair, il paraît souhaitable de s’interroger sur ce que l’on entend par « technocrate ».
- La technocratie est-elle une forme d'existence contrôlée par des machines ? C'est un état de fait beaucoup plus fréquent que l'on ne se plaît à le reconnaître. La vie moderne est truffée de situations où le confort et la sécurité des personnes dépendent du bon fonctionnement de machines : air conditionné, ascenseurs, avions, etc., pour s'en tenir seulement à la lettre A. Les vols lunaires reposent totalement sur le bon fonctionnement d'un matériel extrêmement complexe. Mais alors on parle plutôt de science ou de technique, non de technocratie.
- La technocratie est-elle une forme de gouvernement par des techniciens ? En fait, il ne semble pas tellement que nous soyons gouvernés par des techniciens. L'inventaire des personnages ou institutions détenteurs de pouvoir ne révèle pas demodification radicale depuis plus d'un demi-siècle. On y retrouve traditionnellement les représentants du peuple, les chefs d'entreprise, les banquiers, les ministres, la police, l'église, les partis politiques, les syndicats… Rien de très nouveau.
- La technocratie est-elle une forme occulte de gouvernement par des techniciens derrière une façade de pouvoirs traditionnels ? Tous les pouvoirs ont toujours été plus ou moins assistés de conseillers divers, dont des techniciens. Il ne semble pas que le technicien ou le savant actuel soit beaucoup plus écouté ou respecté que son homologue des générations antérieures.
- Où trouve-t-on alors cette association de technique et de pouvoir ?
Peut-être pourrait-on déceler des traces du virus dans ces vocables nouveaux à effet certain tels que : techniques de la décision, préparation scientifique des décisions. Ce ne serait sans doute que colorations nouvelles plaquées sur des procédés anciens si le contexte n’impliquait le plus souvent l’utilisation d’ordinateurs. En d’autres termes, il y aurait là un phénomène nouveau dû à l'écrasante supériorité de la machine dans le domaine du traitement de l’information. Il semblerait, aux dires de certains, que l’on pourrait maintenant évaluer les conséquences des décisions de façon scientifique, quantifiée, objective, dénuée de tout facteur affectif, en compilant une masse suffisante d’information qu’aucun individu ne pourrait synthétiser par ses seuls moyens humains. Nous serions enfin bientôt débarrassés de ces décisions subjectives prises hâtivement sous la pression des circonstances. Mais pourquoi y aurait-il encore besoin de gens pour prendre ces décisions ? Si une machine est capable de produire le bilan quantitatif d’une alternative en traitant des masses considérables de données, on ne voit pas très bien ce qui empêcherait de pousser l’opération un pas plus avant et de produire la meilleure des alternatives. Si maintenant on prend une décision différente, c’est sans doute que la meilleure alternative était inapplicable, donc mal évaluée.
Est-ce là une attitude légitime de suspicion vis-à—vis du traitement mécanique de l’information ? Sert-il vraiment à quelque chose ? Ou bien ne jouons-nous pas la tragi-comédie de prendre des décisions dictées par des machines ?
De tout temps, les décisions ont été fondées notamment sur des « informations ». Tous les pouvoirs sécrètent des réseaux d’information, officiels ou non. Avec le temps et la conquête des libertés individuelles, les sociétés humaines ont développé des formes de pouvoir construites sur une collecte ouverte et organisée de l’information. C’est ce qu’on appelle une démocratie. Les opinions de chacun, recueillies au niveau le plus élémentaire, sont concentrées pour aboutir à une expression commune d’opinion générale. Sans être nécessairement partagée par tout le monde, elle devrait être au pire la moins mal partagée.
Il existe d’autres formes moins officielles de collecte d’information : les renseignements généraux, les services spéciaux, les études de marché, les sociétés de crédit, les gangs. Ces organisations collectent et traitent des informations par leurs moyens propres, afin de pouvoir prendre des décisions conformes à leurs intérêts particuliers. Une des techniques élémentaires du renseignement consiste à entourer de mystère ce que l’on sait réellement. La collecte d’information a donc le plus souvent lieu par des voies indirectes. Le processus n’est pas consultatif en ce sens que l’on n'éclaire pas 1e public sur les véritables facteurs que l’on désire connaître. Ceux-ci sont dissimulés soit par l’utilisation de moyens confidentiels, soit par des formes de collecte anonymes et peu explicatives. À quoi ou à qui servent, par exemple, les fiches de débarquement « obligatoires » que doit remplir tout passager français venant d’un aéroport étranger ? Le processus est également dénué d’aspect délibératif. Le public, n'étant pas informé de la véritable information recherchée, est encore moins convié à débattre du sujet.
On pourrait imaginer que tous ces réseaux d’information, occultes ou transparents, n’ont pour but que de rassembler le maximum d'éléments à partir desquels seraient évaluées des décisions judicieuses dans un environnement déterminé. Il n’est pas interdit de penser que cela se produise en effet. Mais il est différentes natures de décisions. Peut-on par exemple placer sur le même plan les mesures de dépannage d’un atelier après un incident technique, la fermeture d’une agence régionale d’une grande société, la fixation du taux d’intérêt de la Banque de France ou l’entrée de la Grande-Bretagne dans le marché commun ? La fermeture d’une agence régionale peut être la conséquence d’une opération de concentration de moyens. Elle peut aussi mettre en émoi des notables, des clients, des politiciens. Il est nécessaire de peser tous ces éléments avant d’en décider. Mais l’opération de concentration n’en est pas moins poursuivie, avec l’objectif de fermer un certain nombre d’agences. Les facteurs essentiels seraient très différents si l’agence était le seul établissement de la société.
Dans la pratique, les décisions sont prises à plusieurs niveaux, que l’on peut qualifier de stratégiques et tactiques. On pourrait dire aussi décision de pouvoir et de gestion, ou bien de politique et de logistique. Une décision prise à un niveau de pouvoir élevé ne peut être appliquée que par transformation en une cascade de décisions intermédiaires prises ultérieurement par un grand nombre de personnes. Traditionnellement, l’impossibilité pratique d'évaluer tous les facteurs pesant sur une décision de haut niveau conduit le plus souvent à décider d’abord, tenter d’appliquer ensuite. Si un réseau d’information est utile pour aider à prendre une décision de haut niveau, il est tout aussi apte à faciliter la prise des décisions subséquentes, qui sont les plus nombreuses, et d’autant plus ressenties par le public qu’elles atteignent un stade final d’application. Comme il existe souvent une multitude de voies pour aboutir à des objectifs généraux, les décisions intermédiaires ont surtout pour but de choisir des voies de moindre résistance. Un réseau d’information est alors un outil inséparable du pouvoir pour aboutir à la réalisation de ses objectifs.
L’information collectée et traitée par les seuls moyens humains est personnalisée. Les traits d’observation et de jugement des individus influent sur les résultats. La masse d’information est de plus limitée. En face de cela, un ordinateur peut absorber une quantité quasi-illimitée d’informations brutes. Il serait donc l’outil idéal pour remédier aux défauts inhérents aux moyens d’information humains, tant par sa puissance de synthèse que par son objectivité.
En réalité, une masse d’informations brutes est inutilisable, quelle que soit la manière d’additionner des faits élémentaires, car ils n’ont pas la même signification du point de vue de ce que l’on recherche. Pour obtenir des résultats utilisables, il faut traiter l’information, autrement dit utiliser des procédés d’analyse et de réduction des données qui les transforment selon des lois choisies avec plus ou moins de bonheur. Il peut apparaître à ce stade des distorsions involontaires ou non, conséquences d’erreurs techniques ou de coups de pouce délibérés. Il est courant de lire des résultats d'études donnant une pléthore de chiffres en apparence cohérente (la somme des pourcentages est 100) et qui ont la réputation de sortir des ordinateurs. On n’indique jamais de quelle manière ces résultats ont été obtenus. Ce serait d’ailleurs impraticable, car le traitement effectué peut être d’une telle complexité que sa compréhension est réservée aux seuls spécialistes.
L’ordinateur producteur d’information est communément crédité de cette neutralité qui fait tomber les passions et clôt les discussions. Or, le seul élément neutre se réduit à l’ordinateur. Les informations brutes ne sont pas neutres. Aussi nombreuses soient-elles, elles sont choisies parmi d’autres que l’on ne retient pas. Le traitement n’est pas neutre, c’est un programme qui reflète une méthode de certains experts. Les résultats ne sont pas neutres, car il est bien rare que l’on publie tout ce qu’il est possible d’obtenir. Mais l’ordinateur impavide sert de paravent commode. Il n’est plus possible de contester l’information dont personne n’est responsable. Tout au plus admet-on quelquefois une « erreur » d’ordinateur, autre paravent commode pour désigner une erreur humaine. Puisque les informations sont supposées neutres, cette qualité se transfère aussi aux décisions qui en découlent logiquement, disons fatalement. Il est humain d'être en désaccord avec des décisions prises par d’autres, et au besoin de s’en prendre aux auteurs. Si un pouvoir est jugé par trop contraignant, certaines personnes peuvent tenter de s’en saisir en en chassant d’autres. Prendre ou conserver le pouvoir sont des occupations qui impliquent nommément des individus. Faire passer l’ordinateur pour le véritable instrument de décision a pour effet de dépersonnaliser le pouvoir. C’est sans doute pour ceux qui le détiennent un moyen adroit de le conserver, car on ne voit pas très bien comment prendre un pouvoir qui n’est visiblement exercé par personne.
L’ordinateur paravent n’est pas seulement utile aux mains de ceux qui détiennent le pouvoir face à ceux qui ne l’ont pas. Habituellement, le pouvoir est en réalité un ensemble de clans, organismes, directions,… entre lesquels apparaissent des désaccords et des rivalités pour des positions plus dominantes. La connaissance des techniques informatiques est encore assez précaire dans les milieux dirigeants, dont la moyenne d'âge fait remonter la formation à une autre époque. Moyennant une présentation quelque peu différente, un homme de pouvoir est aussi neutralisé par des produits d’ordinateur qu’un homme sans pouvoir. À toutes fins utiles, il est prudent de s’entourer des meilleurs augures avant de prendre une décision comportant des risques. En cas d’ennui, la référence à l’ordinateur peut apporter des justifications ou échappatoires supplémentaires.
En résumé, l’informatique apporte de nouveaux instruments de pouvoir que nous ne savons pas encore bien utiliser ou neutraliser. Il se caractérisent par une présentation scientifique des informations et des décisions. La technicité et la dépersonnalisation apparentes des mécanismes utilisés les rend assez peu vulnérables à la contestation individuelle. La distinction entre les méthodes rigoureuses et les amalgames pseudo-scientifiques est encore assez peu perceptible dans la société actuelle, et le mythe de l’ordinateur se cultive aussi bien dans les milieux de pouvoir qu'à l’extérieur. L’invocation de l’ordinateur est un camouflage commode pour l’accomplissement de politiques occultes.
Sous la présidence de Mme Claudine Marenco, hormis les conférenciers, sont intervenus dans la discussion R. Cohen, F. Le Lionnais, R. Mesrine, J. Urvoy, J. Weinbach.
22.06.2015 à 02:00
TVL 2015 : attention, ça glisse !
Le Trail de la Vallée des Lacs est sans doute l’un des plus fun des trails du massif des Vosges, tant par son parcours que par les aléas climatiques qui caractérisent si bien nos vallées. Je ne pouvais repousser à une date ultérieure ma participation à ce trail. Pour cette première fois, je n’ai pas été déçu, ni par l’organisation ni par le parcours.
Descriptif
Ce fut un week-end assez particulier que ces 20 et 21 juin 2015. Le premier jour, dédié aux grands parcours des 55 et 85 km fut très difficile pour les coureurs, avec du vent et des pluies glaciales sur les crêtes vosgiennes. En les voyant redescendre, et même si la perspective de la ligne d’arrivée dessinait sur leurs visages un soulagement méritoire, on remarquait les stigmates que la course n’avait pas manqué d’imprimer sur les corps fatigués. Ce n’est pas tant la longueur ou les dénivelés qui sont les plus durs sur ce trail, mais bel et bien le terrain et le climat.
Le trail court du lendemain, avec ses 29 km (27 annoncés) et ses 1300 m D+ n’offrait qu’une petite partie des difficultés de la veille. Sous le portail du départ, avec la pluie et la fraîcheur revigorante du matin, tout le monde savait à quoi s’en tenir : des pistes glissantes et une boue bien grasse savamment préparées par les coureurs de la veille, ce qui ne devait pas aller en s’améliorant, surtout en fin de peloton. Ceux qui comme moi, avaient déjà reconnu le tracé, savaient aussi quels endroits plus techniques devaient retenir toute l’attention du traileur pour ne pas risquer la blessure.
L’organisation fut exemplaire : profitant chaque fois de l’expérience des sessions ultérieures, le balisage et les indications des bénévoles (forts courageux pour attendre des heures sous la pluie) furent largement appréciés. Aucune place à l’erreur.
Le départ fut donc donné avec les mises en garde de rigueur et la foule (plus de 500 coureurs) se mit en mouvement. Dans l’ensemble, le démarrage fut plutôt serein pour une mise en jambe profitable. Dès le premier single, le bouchonnage fut prévisible, avec presque aucune possibilité de dépassement. La situation devra se renouveler deux autres fois, dans les descentes vers le lac de Longemer, à la fois à cause du ravinage et de l’instabilité des sentiers. S’il fallait prendre de l’avance, c’est sur la première montée des pistes de la Mauselaine qu’il fallait le faire : un chemin bien large au dénivelé assez régulier permettait de prendre un rythme de croisière confortable.
Les montées les plus difficiles du parcours se situaient sur sa première moitié et juste un peu après le ravitaillement de mi-parcours. Des raidillons pas franchement longs mais assez éprouvants pour les jambes en particulier avec un terrain glissant. La difficulté principale de la seconde moitié du parcours tenait selon moi au terrain des chemins, avec à certains endroits des mares de boues qui mettent à l’épreuve nos capacités de saut en longueur. Au bout d’un moment, tout le monde abandonne l’idée de se salir le moins possible : on est là pour cela, après tout. Cependant, les rotules en prennent pour leur grade à chaque fois que, sous la boue, une pierre ou une racine fait perdre l’équilibre.
Les 5 derniers kilomètres ne furent toutefois pas aussi difficiles que prévu. Quelques rayons de soleil firent leur apparition à notre grande joie. Arrivés au camp de base, beaucoup de coureur ne résistèrent pas bien longtemps avant de plonger les jambes dans le lac pour ôter le plus gros des souvenirs forestiers incrustés sur les mollets… Vivement l’année prochaine !
Résultats et tracé
- Les résultats du trail sont consultables à cette adresse.
- Mon temps : 4:11:16
- Classement : Scratch 306/546 (90 V1H / 130 VEM)
Contrairement à ma reconnaissance du parcours, cette fois, le tracé est bel et bien exact. Vous pouvez aussi télécharger le fichier GPX (sur cette carte, cliquez sur « légende » puis « visualiser les données »).
30.05.2015 à 02:00
Entraînement trail, 6 châteaux
La sortie trail du jour m’a embarqué autour du Mont Sainte Odile, un des hauts lieux de l’identité alsacienne. Un parcours à éviter absolument le dimanche si vous ne voulez pas gêner les randonneurs. Côté repérage, la multitude de chemins balisés du Club Vogien a ceci de paradoxal qu’à la vitesse de course à pied, on en perd un peu le fil, donc carte obligatoire. Ce parcours me semble idéal si vous êtes de passage dans la région et si vous voulez visiter un maximum d’endroit en peu de temps. C’est parti, au rythme d’un car de touristes japonais frénétiques !
Description
L’objectif du jour était simple : cumuler un dénivelé positif d’au moins 1000 m tout en prenant plaisir à rallier différents points remarquables autour du Mont Sainte Odile. L’intérêt d’aligner sur un même parcours des monuments ou des rochers particuliers, c’est de rompre la monotonie. Ce fut plutôt réussi. Sans vouloir crâner, je pense que s’il y a un trail du côté de Barr, c’est ce parcours-là qu’il faudrait faire pour un trail court.
C’est donc à Barr qu’on est invité à laisser sa voiture, le cas échéant. Un emplacement intéressant est sur le parking de l’église St Martin, ce qui permet d’amorcer directement sur le GR 5 à la droite du cimetière. Pour lire la suite de ce billet, prenez une carte IGN, surtout si vous n’êtes pas un(e) habitué(e) des lieux.
Données du parcours : 28 km, 1285 m D+.
Le parcours en général est assez régulier et rapide. Les difficultés sont étalées tout au long du chemin. La première montée vers le Mont Ste Odile, est assez surprenante. On emprunte le GR pour rejoindre le château du Landsberg puis on est finalement assez vite rendu sur la Bloss puis le Maennelstein. Ensuite entre les replats et les descentes, on couvre très rapidement la distance jusqu’au Monastère, puis les ruines du Hagelschloss et le site du Dreistein (en réalité, à cet endroit, il y a trois châteaux, mais je n’en compte qu’un pour cette balade :) ). Jusqu’au Dreistein, honnêtement, je n’ai pas vu le temps passer. Par contre, la descente du Dreistein et la montée qui suit juste après pour rejoindre la maison forestière du Willerhof nécessite une petite préparation psychologique : le Saegmuehlrain marque la division du parcours en deux grandes parties : la première plutôt régulière et la seconde qui nécessite de bien jauger l’énergie disponible selon la difficulté.
Cette seconde partie est inaugurée par le château du Birkenfels puis, en passant par la Breitmatt, un très joli point de vue sur le rocher du Kienberg. Pour la faire courte, l’ascension du Kienberg (par la face sud) m’a fait apprécier mes bâtons ! Ensuite vient la grande descente, sur plusieurs kilomètres, jusque la Holtzplatz (fond de vallée). Méfiez-vous : repérez bien la nomenclature du Club Vosgien sinon il est très facile de se tromper et se retrouver directement à Barr. Ce serait dommage, puisque les deux derniers châteaux n’attendent que vous à condition d’accomplir la dernière montée NTM (Nique Tes Mollets, un groupe célèbre qui m’a trotté dans la tête tout le temps de cette montée). Cette montée débouche sur Hungerplatz, ce qui marque la fin des négociations de dénivelés, puisqu’entre le château du Spesbourg et celui d’Andlau, c’est une descente qui ne se terminera finalement qu’à Barr. La toute fin du parcours, au sortir de la forêt, surplombe les vignes côté sud.
Je récapitule rapidement les étapes du parcours :
- chateau du Landsberg,
- point de vue du Maennelstein,
- monastère de Ste Odile,
- chateau du Hagelschloss,
- château(x) du Dreistein,
- château du Birkenfels (en passant par Willerhof),
- Rocher du Kienberg,
- Carrefour du Luttenbach puis Holtzplatz et Hungerplatz,
- Chateau du Spesbourg,
- chateau d’Andlau,
- Les Trois Chênes puis retour à Barr par les vignes
Carte et profil altimétrique
La carte ci-dessous et son fichier GPX ne sont là qu’à titre indicatif. Cette précision est importante car à deux reprises, j’ai bricolé ma montre GPS et oublié de la remettre en route (!). Il y a donc deux lignes droites qui faussent un peu le parcours, mais à ces deux endroits, il suffit de suivre le sentier (suivre le sentier du Mur Païen, et le chemin forestier sur la commune de Barr).
24.05.2015 à 02:00
Loi Renseignement. Totalitarisme ou désespérance
Le projet de loi Renseignement, après avoir été voté avec une écrasante majorité à l’Assemblée nationale passe actuellement par les grilles du Sénat et se retrouvera cet été devant le Conseil constitutionnel à la demande d’une soixantaine de députés. Ceux qui ont suivi les débats et constaté l’extraordinaire ténacité des initiateurs de ce projet de loi, ne peuvent qu’être horrifiés de la manière dont furent imposés les arguments et le texte de la loi dans un dialogue de sourds. Ce dernier confrontait non pas les idées politiques entre élus représentants du peuple et sa diversité, mais entre la société civile et la classe politique conçus comme des Atrée et Thyeste que rien ne peut plus concilier. La dialectique entre sécurité et liberté dans le domaine de la surveillance des communications est un sujet qui laissait supposer qu’un tel texte devait faire l’objet d’analyse et d’expertise autrement plus poussées, en prenant le temps, loin des passions suscitées par le terrorisme. Une telle loi laisse-t-elle désormais planer l’ombre du totalitarisme en réponse à la peur et aux tensions mondialisées ? Sommes-nous subrepticement en train d’abandonner nos idéaux démocratiques et républicains ?
Dangers de la loi Renseignement
Je n’ai jamais aimé les mots en « isme ». Ils ont tendance à classer tout et n’importe quoi dans des catégories le plus souvent inappropriées au sujet de la discussion. Le totalitarisme se défini comme un système politique qui impose par le contrôle systématique l’adhésion à une idéologie incarnée par un parti unique censé représenter la communauté. Il n’y a pas d’idéologie unique derrière le projet de loi Renseignement, il y a plutôt une convergence de volontés diverses, allant de la logique ultra-sécuritaire à la défense d’intérêts de classe, ou personnels ou encore lobbyistes (on pourrait aussi qualifier cette loi d'anti-zadiste, par exemple). Donc passer du projet de loi Renseignement à la prédiction d’un totalitarisme qui vient, même déguisé, est une démarche inappropriée qui tend à voiler les problématiques en jeu. Néanmoins je voudrais ici m’interroger et explorer diverses voies et, en mobilisant mes maigres connaissances des auteurs classiques, tracer les contours d’une situation bien désavantageuse pour la démocratie.
Et la dictature ? Là, par contre, on se rapproche davantage de la réalité des faits. La dictature se défini d’abord comme un régime politique, donc avec des institutions qui peuvent la précéder et lui survivre, avec la concentration de tous les pouvoirs sur une personne ou un groupe bien identifié. À l’époque Romaine, la dictature était conçue comme un remède possible à une période de crise, c’est à dire une exception légale à la règle républicaine (une magistrature exceptionnelle). Là où les institutions sont supposées assez fortes pour pouvoir se permettre ce genre d’exception temporaire, une dictature peut théoriquement résoudre une situation de trouble à condition d’un retour à la norme que l’on espère rapide. Là où les institutions sont faibles, la dictature peut perdurer indéfiniment. Elle peut bien évidemment se doubler d’un système totalitaire, fondé sur une idéologie plus ou moins claire.
Voilà pour les définitions. Disons pour simplifier à l’extrême que le totalitarisme est d’abord idéologique là où la dictature est d’abord juridique. Pour revenir à nos moutons à propos de la loi Renseignement, il nous faut maintenant analyser les raisons pour lesquelles une telle loi nous rapproche dangereusement des plus mauvais souvenirs de l’histoire des régimes politiques. Car il s’agit d’une loi qui, du moins dans ses premières moutures, a la prétention d’organiser une surveillance de masse de nos communications, pour défendre des intérêts volontairement englobants et généralistes (comme les « intérêts économique majeurs »), une loi justifiée par la « lutte contre le terrorisme » et qui a finalement pour conséquence de restreindre à grande échelle le droit à la vie privée, la liberté d’expression et en général les libertés individuelles.
À titre d’illustration par anticipation des répercutions de cette loi utilisée par une idéologie totalitaire, on peut se pencher sur une tentative d’amendement relatée par Marc Rees, rédacteur en chef de Next Inpact :
Enfin, il y a le superbe amendement Apprentis chimistes (COM-193), signé par trois sénateurs UDI, MM. Guerriau, Kern et Longeot, qui proposent d’autoriser l’espionnage non seulement dans le domaine du terrorisme ou industriel mais également à « d’autres valeurs essentielles à la République », à savoir les intérêts « sanitaires, énergétiques, scolaires, administratifs, culturels, cultuels, sportifs ». Heureusement, ses auteurs l’ont finalement supprimé après quelques coups de téléphones bien sentis. Ouf !
Cette tentative a en effet de quoi inquiéter. Il serait exagéré de la monter en épingle pour dénoncer tout le projet de loi, néanmoins, pourquoi avoir retiré cet amendement si, après tout, ils est censé être le fruit d’une intense et mûre réflexion (hum !) de la part de ces élus de la République ? N’aurait-il pas dû être discuté au Sénat, quitte à exposer les véritables intentions populistes de certains, et faire l’objet éventuellement d’une motion tout à fait officielle ?
(Màj du 27/05/2015 : ) On pourrait tout aussi bien s’inquiéter de cette autre tentative d’amendement au projet de loi sur le Dialogue Social et l’Emploi, selon laquelle il s’agissait de faire surveiller les communications et les données de millions de chômeurs, sans contrôle judiciaire, dans le cadre de la lutte contre la fraude aux allocations. Un amendement qui, lui aussi, a été retiré une fois pointé du doigt par les journalistes.
En réalité, certains amendements proposés par les élus agissent comme des révélateurs d’un mécanisme malsain et latent, qui n’attendrait finalement qu’une occasion pour se montrer au grand jour. Les générations nées après guerre en France ont tendance à croire que la Déclaration des droits de l’homme et du citoyen et la Constitution de la République ont créé un mode de gouvernance normal et éternel que rien ne saurait remettre en question. D’où une confiance généralement aveugle envers les bonnes intentions des élus. Or, visiblement, il n’en est rien, et certains élus forment une classe dont l’objectif est de remettre systématiquement en cause les principes qui ont fait d’eux des représentants du peuple. C’est là qu’une part de ce qui constitue le totalitarisme entre en jeu. Une sorte de « côté obscur de la Force » finalement toujours présent dans n’importe quelle démocratie : le fait que les idéologies totalitaires soient le fruit d’un mouvement. C’est ce qu’avait très justement analysé Hannah Arendt dans son approche des Origines du totalitarisme : la réaction classique face à la faute totalitaire, c’est de vouloir identifier des responsables, des porteurs de croix ; or, ce qui caractérise vraiment cette faute, c’est la dilution des responsabilités à tous les niveaux y compris dans le peuple. Les fautes sont en effet partagées : d’un côté un mouvement latent, une peste qui couve et qui doit faire l’objet d’une vigilance permanente et, de l’autre, l’irresponsabilité, l’abandon des idéaux, et une majorité écrasante de citoyens qui ne se sentent plus concernés (d’aucun pourront argumenter avec raison qu’une part de cet abandon est aussi le fruit des vicissitudes des partis et des promesses électorales non tenues).
Et là, nous touchons à la principale cause de la prétendue non-réception des enjeux de la loi Renseignement auprès du grand public, malgré tous les efforts des associations et autres groupements les plus concernés, de La Quadrature du Net au Syndicat des avocats de France en passant par la Ligue des droits de l’Homme et Reporters Sans Frontières.
L’acceptation
La surdité du grand public peut s’expliquer selon plusieurs points de vue.
Complexité et dénigrement
Le fait que, de manière générale et pas seulement pour ce qui touche aux libertés numériques, il est toujours plus difficile d’expliquer en masse des idées complexes que des idées simples, en particulier lorsqu’il s’agit de réagir à la volonté de l’État. La cause de cette difficulté a déjà été expliquée par La Boétie dans son Discours de la servitude volontaire : c’est parce que le peuple a oublié sa liberté qu’il se soumet à l’absolutisme. Dans le cas qui nous concerne, les promoteurs de la loi Renseignement ont eu beau jeu de dénigrer les représentants pertinents de la société civile (mentionnés ci-dessus) qui leur opposaient de solides arguments techniques et juridiques, en les qualifiant de « geeks » séditieux (rappelant trop bien les « 5 gus dans un garage » de la loi Hadopi) et de colporteurs de fantasmes. Ils savaient parfaitement que les discours techniques et juridiques qu’ils avaient eux-mêmes des difficultés à comprendre, ne seraient pas entendus par le grand public non seulement à cause de leur complexité mais aussi et surtout parce qu’un travail de soumission de la population à la peur du terrorisme a été effectué en profondeur auparavant. On peut donc reconnaître que le discrédit systématique des détracteurs a été efficace non seulement auprès du grand public (passage télévision, radios nationales, etc.) mais aussi auprès des députés qui hésitaient encore malgré les invectives de leurs partis respectifs.
Unité, sécurité
Le fameux « esprit du 11 janvier » répété ad nauseam en guise de contre-argument à toute contradiction du parti majoritaire de l’Assemblée a aussi entretenu un discours de servitude : toute manifestation qui ne serait pas le fruit d’une communion générale et compassionnelle du peuple envers les dangers qui guettent la démocratie — dangers que seul le gouvernement serait à même de définir —, est comprise comme une atteinte aux intérêts de l’État et par conséquent peut même tomber sous le coup de la loi Renseignement. C’est là l’effet pervers de la dialectique faussée entre sécurité et liberté : en déplaçant l’enjeu sur le thème de la défense des citoyens au nom de la sécurité, le seul discours qui était alors acceptable devenait celui d’un choix artificiel entre le risque terroriste et la grande braderie des libertés. Tel fut en tout cas l’objet de certains sondages qui posaient la question « Êtes-vous prêts à restreindre un peu de votre liberté pour plus de sécurité ? ». L’impact de ces sondages fut dévastateur puisqu’une idée communément partagée en démocratie consiste à être persuadé que les élus du peuple ne feraient jamais rien qui puisse restreindre outre-mesure les libertés. Et nous revoici chez La Boétie.
Internet, c’est Google
Du côté des élus, il ne faudrait tout de même pas croire qu’un bloc monolithique a été formé en faveur de la loi. Une petite cinquantaine de députés a tout de même voté contre le projet. Mais parmi les élus il y a aussi une grande part des individus soumis comme tout le monde à la logique de la centralisation des données et aux mutations de la vie privée qu’implique l’économie numérique noyautée par les GAFAM (Google, Apple, Facebook, Amazon et Microsoft). Contrairement à l’analogie commune, il ne s’agit pas d’un Big Brother à la manière d’Orwell, mais plutôt, pour reprendre l’expression d’Alain Damasio, d’un Big Mother. Le Big Brother d’Orwell reflète la soumission des esprits à un contrôle totalitaire, alors qu’on ne peut qu’accepter de confier ses données privées à Big Mother en échange du bien-être qu’octroient tous ses services et son amour incommensurable. Par conséquent, si d’un côté les individus sont prêts à sacrifier leur anonymat et leur vie privée en échange des biens et services mercantiles, que ne le seraient-ils pas en échange de la sécurité de l’État ? C’est en tout cas l’approche régulière de beaucoup de nos députés qui, par un extraordinaire manque de compétence et d’analyse sont convaincus qu’Internet n’est autre qu’une somme de services proposés par les GAFAM et nullement l’outil aujourd’hui majeur de la liberté d’expression, de la créativité et du partage des connaissances et des techniques. Eux-mêmes sont donc soumis à Big Mother et, aveuglés par leur stupidité (qui, comme le disait Kant, n’est pas un mal mais un vice sans remède), n’en voient pas les dangers. Leur soumission doit alors s’imposer de la même manière à tous dans une sorte de résignation et d’indifférence générale.
Enfin, c’est aussi du côté de l’architecture d’Internet et de ses écosystèmes qu’il faut aussi effectuer un travail introspectif. C’est ce qu’a fait Eben Moglen lors d’une conférence intitulée « Pourquoi la liberté de pensée exige des médias libres ? ». L’Internet que nous voulons construire doit absolument intégrer la notion d’anonymat comme paramètre par défaut, contre les tentatives de contrôle. Tristan Nitot a sur ce point tout à fait raison lorsqu’il explique, à l’instar de Michel Foucault dans Surveiller et punir, la logique panoptique à laquelle nous devons désormais faire face : sans anonymat et avec une surveillance de masse (même potentielle, c’est la caractéristique panoptique) de nos données contrôlées par l’État, nous ne sommes plus capables de penser.
Déni démocratique
Alors quoi ? Le réquisitoire semble sans appel. Pour reprendre encore les mots de Hannah Arendt qui désigne l’origine du totalitarisme comme le fruit d’une « faillite du jugement et la démission de la conscience morale », tous les ingrédients semblent être réunis : incompétence des élus, simplification des débats et sophismes outranciers, dénigrement des experts et déni de démocratie (on passe la loi en procédure d’urgence pour couper court aux débats). Pourtant les consciences sont alertes : les associations ont effectué de belles tentatives d’explication aux élus (par mail et par téléphone) de manière organisée et argumentée. Et pourtant cette participation Ô combien civique des citoyens au débat public a été qualifié de « pressions » par le premier ministre lui-même. Il était alors certainement oublieux des représentants de consortiums industriels, pharmaceutiques et agro-économiques qui hantent les alcôves des bâtiments officiels et qui, eux, ont des moyens bien plus conséquents pour exercer leurs pressions et modeler les lois. Le simple fait de qualifier de « pressions » l’implication des citoyens, et parmi eux les plus experts en matière de technologies numériques et de réseaux, montre à quel point un fossé de plus en plus grand s’est ouvert entre élus et citoyens. Poncif. Tout le monde en avait déjà conscience. Mais ce qui est beaucoup plus curieux, c’est que ce fossé s’est aussi creusé entre les élus eux-mêmes. En effet, à chaque proposition d’amendement qui n’allait pas dans le sens des promoteurs du projet de loi, les mots du ministre de l’Intérieur furent tantôt sévères tantôt désobligeants, prétendant que les protagonistes n’avaient pas lu le texte ou se laissaient berner par des fantasmes. Accusations graves sur les bancs des députés, mais les réactions furent négligeables. Que dire en effet, lorsque toute contradiction est à ce point refusée ?
Le philosophe Paul Ricœur affirmait qu’on reconnaît une démocratie à partir du moment où elle peut intégrer ses propres contradictions. L’outil principal des dialogues contradictoires est justement la liberté d’expression sur la place publique. Or, si tout dialogue est refusé, que peut-on attendre d’autre d’une loi qui vise à restreindre la liberté d’expression au nom de la sécurité ? Le comportement du ministre de l’Intérieur n’était donc pas surprenant.
Vision simpliste de l’État
Il semble qu’à défaut de penchant totalitaire, nous ayons affaire à une forme de démagogie réactionnaire combinée à un abandon des responsabilités. Il serait trop simple, en effet, de faire appel au néologisme de démocrature, repris ici et là. La démocrature, en effet, est une démocratie tronquée : elle présente tout l’appareillage législatif d’une démocratie mais en pratique la classe politique ne ferait que promouvoir les intérêts de quelques uns. Concernant la loi Renseignement, on ne peut pas réduire la tentative de surveillance de masse à la défense d’intérêts particuliers (même si pour d’autres lois, on peut en effet se poser la question) : le projet de loi n’obéit ici qu’à trois principes :
- Donner un nouveau cadre à la lutte anti-terroriste (un mobile qui n’a jamais été remis en question par les détracteurs de la loi), et élargir cette lutte à d’autres « intérêts de l’État »,
- Organiser une surveillance de masse en prétendant que la sécurité (dont on n’évalue jamais le niveau d’efficacité) doit être assurée au prix d’une liberté d’expression limitée, c’est à dire un discours réactionnaire et paternaliste justifié par la croyance en l’insécurité permanente (« c’était mieux avant », « les temps ont changé, il faut s’adapter », « la récréation est terminée », etc.),
- L’abandon des responsabilités : les gouvernants s’en réfèrent à l’expertise (forcément biaisée) pour justifier les décisions, ce qui a pour effet de déresponsabiliser leur discours et de circonscrire toujours plus le rôle de l’État à la maintenance de l’ordre (la crise économique aidant, toute mesure de gouvernance est imposée par d’autres États auprès desquels il faut chercher modèle ; la sécurité est donc l’un des rares créneaux où nous pouvons agir par nous-mêmes).
Le Conseil de l’Europe fait la leçon
À l’approche de l’examen du projet de loi par le Sénat, le Commissaire aux Droits de l’Homme du Conseil de l’Europe s’est fendu d’une lettre claire et concise adressée aux membres du Sénat français. En substance, Nils Muižnieks rappelle que les droits de l’homme « ont subit les répercussions des mesures prises par divers états afin de lutter contre le terrorisme ». Il ajoute à l’intention expresse du Sénat français :
(…) Le rapport adopté par l’Assemblée parlementaire du Conseil de l’Europe le 21 avril dernier a ainsi mis en évidence les menaces que la surveillance de masse fait peser sur le droit au respect de la vie privée et familiale, le secret des sources journalistiques ou encore le secret professionnel des avocats.
À cet égard, le projet de loi relatif au renseignement suscite de nombreuses inquiétudes (…).
En premier lieu le champ d’application extrêmement vaste de ce projet de loi, qui dépasse largement la lutte contre le terrorisme, est insuffisamment clairement circonscrit et risque de viser des activités dont la nature ne justifie pas le recours aux moyens de surveillance prévus par ce texte. Ces moyens sont, en effet, particulièrement intrusifs (…)
La délivrance d’un simple avis par la Commission nationale de contrôle des techniques de renseignement, la possibilité d’y déroger en cas d’urgence ainsi que l’absence d’intervention de l’autorité judiciaire dans le processus décisionnel visant à la mise en œuvre des mesures de surveillance confèrent à l’exécutif une marge de manœuvre insuffisamment contrebalancée.
Quelle gifle ! En d’autres temps, nous nous serions rendus sur le pré en échangeant des politesses et des coups de sabres. Comment se fait-il qu’une aussi haute institution que le Sénat français fasse à ce point l’objet d’un tel rappel à l’ordre ? Tout ce se passe exactement comme si les idéaux de la Déclaration universelle des droits de l’homme et du citoyen, dont la France s’enorgueillit tellement, étaient dévoyés par nos élus. Serait-ce donc aussi has been que de s’assurer que les droits de l’homme soient respectés par les lois, alors même que notre Déclaration est le fruit de près d’un siècle de travail des philosophes les plus illustres des xviie xviiie siècles ? À moins que justement il s’agisse d’une conception de l’État pré-révolutionnaire, comme s’il n’y avait plus d’autre action possible que de sauvegarder un pouvoir qui s’étiole, en particulier face à la mondialisation des rapports économiques, belliqueux, ou technologiques. Une sorte de gesticulation motivée par la peur de l’impuissance et un retour à une conception hobbesienne de l’État.
Retour du Léviathan
Thomas Hobbes fut l’un des premiers à avoir théorisé le rôle de l’État. Ce dernier agit comme le mythique Léviathan, unique et absolu, détenteur du pouvoir ultime avec lequel les individus passent un contrat (social) en échangeant leur liberté naturelle, source de conflit et de chaos, contre l’ordre et la sécurité. Pourquoi une telle vision apocalyptique d’un monde sans État puissant ? Tout simplement parce que Hobbes pensait à la violente guerre civile dont l’Angleterre se remettait à peine. C’est la peur qui a guidé la plume de Hobbes, tout comme la peur de perdre leur autorité (donc celle de l’État) dicte le discours des promoteurs de la loi Renseignement. Dans ce contexte, il est donc très important peur eux de réduire au maximum le rôle de la loi Renseignement à la sauvegarde de l’ordre établi, comme une surcouche aux autres lois existantes. Ainsi furent déclinés les intérêts de l’État autres que la protection des citoyens contre le terrorisme, lui-même vu (érigé ?) comme un embryon de guerre civile. Le résultat est que les intérêts ainsi défendus au détriment des libertés sont bien trop englobants, et ne laissent plus de place aux contradictions démocratiques, ce que souligne justement le Commissaire au droits de l’Homme du Conseil de l’Europe.
Mais Hobbes n’a fait qu’initier une discussion qui s’est étalée sur plus d’un siècle. Quelques années après la parution du Leviathan, ce furent Jean-Jacques Rousseau et John Locke (pour ne citer qu’eux) qui eurent l’intelligence de s’intéresser à la connaissance et à la raison dont sont loin d’être dénués les individus. Si donc l’individu est doté de raison et de connaissance, et donc de jugement, l’État ne règne pas en maître sur des individus écervelés prêts à s’étriper pour une pomme tombée de l’arbre. Oui, les hommes sont capables d’auto-gouvernance et, en termes modernes, on traduit cela par la capacité de la société civile à à se faire entendre. La société civile est non seulement capable d’expertise mais les institutions démocratiques sont ainsi faites qu’il ressort même de l’obligation du citoyen de faire valoir ce droit à exercer ce civisme. La manière dont fut votée la loi Renseignement à l’Assemblée nationale a montré que nos élus n’en sont restés qu’à Hobbes, dans une surdité totale face aux arguments de ceux qui, pourtant, sont les mieux placés pour juger de la recevabilité ou non d’une telle loi. Retour aux classiques, au moins jusque 1789.
Conclusion
Pour le dire simplement, le discours paternaliste ambiant doublé d’une conception étriquée du rapport entre liberté et sécurité, est forcément source d’un schisme qui ne tardera pas à éclater entre le gouvernement et la société civile. Cette prédiction n’est pas forcément un bon signe dans la mesure où l’abandon et l’irresponsabilité des élus a provoqué autant de frustrations de tous ordres dans une société en crise. En d’autres termes le schisme en question risque de ne pas être révolutionnaire (et pacifique) mais conflictuel. Le processus de la loi Renseignement cristallise une partie des grands maux qui sclérosent la vie politique française. Les effets seront dévastateurs pour la démocratie. Parmi les détracteurs de ce projet de loi figurent ce qu’on appelle des leader d’opinion. Ceux-ci auront bien raison de souligner la manière dont l’État français considère les libertés et en particulier parce qu’une partie non négligeable de la liberté d’expression et la puissance fédératives des idées (démocratiques ou non) se concrétisent aujourd’hui par la voie numérique. L’Europe serait-elle une dernière niche où, malgré les lobbies, le dialogue démocratique reste possible ? Les voix y sont en tout cas entendues, comme l’ont déjà montré, bien qu’au prix d’énormes efforts, les mobilisations contre Acta et les atteintes à la neutralité d’Internet, et encore en ce moment même à propos de la réforme du droit d’auteur. L’avenir peut nous réserver de belle surprises. Concluons en tout cas sur cette note positive, à défaut d’un grand désarroi.
26.04.2015 à 02:00
Entraînement trail, Oberhaslach-Schneeberg
Dans ma recherche de parcours d’entraînement trail situés à une distance raisonable de Strasbourg et présentant néanmoins des dénivelés intéressants, j’ai testé ce tracé hier, par un temps quelque peu changeant mais qui n’a pas empêché le plaisir des yeux. Le tout pour 20 km de distance et environ 900 m D+.
Je vous propose donc cette petite virée du côté de Oberhaslach, une commune qui par ailleurs accueille le Trail de la Hasel dont la prochaine et troisième édition est prévue le 27 juin 2015. Cela dit, le parcours n’est pas du tout celui que je compte vous présenter ici.
Description
Depuis Strasbourg, se rendre à Oberhaslach est très simple. Il suffit de prendre l’autoroute direction Molsheim puis Schirmeck. Une fois sur la D1420, bifurquer vers Niederhaslach/Nideck par la D392 puis la D218, Dans le centre de Oberhaslach, prendre à droite juste avant la mairie et monter quelques 200 mètres en suivant l’indication du parking (voir plan ci-dessous). Il s’agit du parking de l’école du village où vous aurez l’embarras du choix pour vous garer. Notez au passage la présence de la fontaine près de la mairie, au cas où un coup de brosse devrait s’imposer pour vos chaussures au retour.
Pour le résumer simplement, le parcours consiste à longer la Hasel pour une mise en jambe agréable, puis monter au Nideck (par le Hirschfels), rejoindre le Schneeberg, puis retour par le Col des Pandours, le Petit et le Grand Ringenfels. La carte, le profil et les photos figurent en bas de ce billet.
En guise de préparation, pour une course de printemps, on pourra prévoir un coupe-vent pour contrer les effets du Schneeberg (culminant à 966 m). La totalité du parcours est plutôt à l’abri de la forêt. Il offre plusieurs points de vue et, en tout, le Hirschfels, le Nideck, le Schneeberg, les vestiges Gallo-Romains du Petit Ringelfels et les ruines du château du Grand Ringelfels.
Commentaires sur les sections
Le parcours peut se diviser en 5 sections :
- Après avoir quitté les rues bitumeuses d’Oberhaslach, on longe la Hasel avec un dénivelé très faible (quelques 50 m D+). Ce qui a pour effet de provoquer un échauffement dont on se félicitera dès la première montée.
- Au Café du Nideck, le parcours commence par une montée assez longue, pour moitié sur chemin forestier large qui se transformera ensuite en sentier ombragé. Mon conseil, sur cette section, est de vous dépenser le moins possible malgré les effets d’un sentier a priori facile par moments. La montée principale n’est pas celle-là !
- C’est la montée vers le Schneeberg, depuis la maison forestière du Nideck, qui fera sentir son dénivelé le plus important. Le sentier est fort agréable, pierreux par moments et relativement régulier.
- La descente du Schneeberg au Carrefours Anlagen (en passant par le Col des Pandours) débute sur sentier étroit mais est composé en majorité de chemin forestier large. Il ne présente aucune difficulté technique sauf un peu de longueur largement compensée par la section suivante.
- Les deux Ringelfels sont des petits sommets offrant les mêmes difficultés techniques de part et d’autre. Il s’agit d’un endroit très intéressant pour un entraînement à la descente. Ces dernières sont en effet assez raides, l’une pierreuse et l’autre moins, mais avec un rythme soutenu. La prudence est de mise ! Les deux montées n’ont rien de particulier, à ceci près qu’elles constituent d’excellents indicateurs sur votre capacité à doser vos efforts sur les sections précédentes (ha, ha, ha !).
Le balisage
Le parcours peut se faire presque sans carte (mais je conseille de vous y référer de temps en temps). Ceci grâce au balisage du Club Vosgien.
- On rejoint les rectangles rouges du GR53 dès le centre d’Oberhaslach (au niveau du gymnase, à la sortie du village, prendre à gauche et monter dans le petit quartier pour rejoindre le chemin qui longe la Hasel). Jusqu’au Schneeberg, vous ne quitterez presque pas le GR53 sauf au niveau du Nideck.
- Un éboulement est signalé aux chutes du Nideck dès le début du chemin au Café du Nideck. Dès lors, le GR effectue une déviation, dûment balisée, en passant par le Hirschfels. Aucune déception, ce détour ne rallonge guère en distance et des roches intéressantes jalonnent le chemin.
- Au Nideck, vous serez tenté de suivre le GR53. N’en faites rien. En effet, celui-ci vous mènerait sur la route (D218) et vous seriez obligé d’arpenter le bitume jusque la Maison Forestière du Nideck. Au lieu de cela, empruntez les cercles bleus, jusqu’à la maison forestière, puis rattrapez le GR53 pour monter au Schneeberg. Attention à rester attentif au balisage : dans une petite pépinière sombre, le chemin bifurque brusquement à votre droite.
- Au Schneeberg, redescendez vers le col des Pandours en suivant les croix rouges. Vous croiserez un refuge, et c’est devant sa porte que vous devrez passer pour trouver les indications et reprendre le chemin (sans quoi on est assez facilement tenté de poursuivre tout droit vers un très beau point de vue, mais non prévu). De même peu après le refuge, le chemin se sépare en une patte d’oie serrée : avec votre élan, n’allez pas embrasser un épicéa, mais contentez-vous de suivre les croix rouges.
- Au Col des Pandours, empruntez ensuite les rectangles jaunes et blancs jusqu’au Carrefour Anlagen. Légèrement sur votre droite, vous trouverez les cercles bleus qui vous mèneront sur les deux Ringelfels (la montée démarre aussitôt).
- Après le château du Grand Ringelfels, poursuivez sur les cercles bleus jusqu’à croiser un chemin forestier. Vous devrez alors emprunter les disques jaunes sur votre gauche en contrebas du chemin. Vous les suivrez jusqu’au village.
Conclusion
Il s’agit d’un parcours, comme d’habitude, assez touristique, mais qui permet de s’entraîner efficacement à la montée sur des sentiers. En général, le parcours compte moins de 30% de chemin forestier large et très peu de bitume (maximum 500 mètres), ce qui est plutôt appréciable dans les Vosges.
Carte, profil et photos
Voir en plein écran | Cliquer sur « Plus » à gauche puis l’icône d’export pour télécharger le fichier du tracé (gpx, kml, geojson).
21.04.2015 à 02:00
The Politics of Micro-Decisions
Be it in the case of opening a website, sending an email, or high-frequency trading, bits and bytes of information have to cross numerous nodes at which micro-decisions are made. These decisions concern the most efficient path through the network, the processing speed, or the priority of incoming data packets. Despite their multifaceted nature, micro-decisions are a dimension of control and surveillance in the twenty-first century that has received little critical attention. They represent the smallest unit and the technical precondition of a contemporary network politics - and of our potential opposition to it. The current debates regarding net neutrality and Edward Snowden’s revelation of NSA surveillance are only the tip of the iceberg. What is at stake is nothing less than the future of the Internet as we know it.
Sprenger, Florian. The Politics of Micro-Decisions. Edward Snowden, Net Neutrality, and the Architectures of the Internet. Meson Press, 2015.
Lien vers le site de l’éditeur : https://meson.press/books/the-politics-of-micro-decisions/
Disponible aussi ici : https://mediarep.org/handle/doc/1124
20.04.2015 à 02:00
Digital Platforms, Imperialism and Political Culture
In the networked twenty-first century, digital platforms have significantly influenced capital accumulation and digital culture. Platforms, such as social network sites (e.g. Facebook), search engines (e.g. Google), and smartphones (e.g. iPhone), are increasingly crucial because they function as major digital media intermediaries. Emerging companies in non-Western countries have created unique platforms, controlling their own national markets and competing with Western-based platform empires in the global markets. The reality though is that only a handful of Western countries, primarily the U.S., have dominated the global platform markets, resulting in capital accumulation in the hands of a few mega platform owners. This book contributes to the platform imperialism discourse by mapping out several core areas of platform imperialism, such as intellectual property, the global digital divide, and free labor, focusing on the role of the nation-state alongside transnational capital.
Jin, Dal Yong. Digital Platforms, Imperialism and Political Culture. Routledge, 2015.
Lien vers le site de l’éditeur : https://www.routledge.com/Digital-Platforms-Imperialism-and-Political-Culture/Jin-Curran/p/book/9781138859562
13.04.2015 à 02:00
Trail de printemps... vosgien
On le sent qui arrive ce fameux printemps, mais ce n’est pas toujours évident. J’avais déjà rangé mes mitaines et mes collants doublés, ressorti ma casquette fétiche et mes shorts. Et puis voilà, dans un dernier élan de témérité, je me suis lancé dans un dernier trail hivernal en ce début de mois d’avril. En bon vosgien qui se respecte, néanmoins, la méfiance l’a emporté. Voyant qu’il restait tout de même pas mal de neige sur les pistes de ski gérômoises, je m’attendais à progresser contre le climat hostile et rude. Ils étaient tous là au rendez-vous, ces fidèles amis : la neige sur laquelle on s’enfonce une foulée sur 3, la pluie froide et intermittente, le granit glissant, la boue provoquée par l’eau des fontes… Un dernier petit plaisir pour un nouveau parcours autour de Gérardmer avec trois points de vue différents.
Description
C’est un parcours d’une durée de 2h45 (moins si la météo est clémente) avec 945m D+ autour de la Perle des Vosges. En partie, ce parcours recouvre certains tracés de la station de trail mais le principal avantage, à mes yeux, est qu’il constitue un terrain d’entraînement figurant les principales difficultés du parcours du trail court de la Vallée des lacs (qui aura lieu en juin). Comme ce tracé était encore enneigé, le circuit n’étant pas ouvert, il fallait trouver une solution alternative. Par ailleurs, cela fait un parcours de rechange pour éviter de voir toujours le même paysage.
Les deux principaux avantages touristiques du parcours :
- Circuit autour de Gérardmer avec les points remarquables suivants : Le lac de Gérardmer, la Roche du Rain, les pistes de ski alpin (la Mauselaine, la Chaume Francis, le Poli), le Saut des Cuves, la Roches des Bruyeres, la ferme de Vologne, la Gorge des Roitelets, Kichompré (hameau), Chapelle de la Trinité, Miselle, Les Xettes, le Lac de Gérardmer.
- À chaque sommet, les points de vue porteront invariablement sur la vallée de Gérardmer avec vues Ouest, Nord et Est.
Les difficultés du parcours :
- Deux raides montées en sentier “single”, mais relativement courtes,
- Des montées et descentes assez longues en chemins forestiers larges mais pierreux,
- Une descente très fun mais délicate dans une gorge,
- Pour boucler en 20km, la fin est bitumeuse (sur 2km de descente) mais il est possible de faire une variante forestière en rallongeant un peu.
En quelques mots, le début du parcours reprend le tracé du trail de la Vallée des Lacs, mais s’en sépare du côté de Saint Jacques pour bifurquer sur les pistes du Poli. On remarquera au passage que la première montée du célèbre trail vosgien est particulièrement amusante mais un peu décevante car elle s’achève sur du bitume jusque la Mauselaine. On accusera au passage la bitumisation effrénée du site à des fins de locations touristiques. On admirera alors la vue de Gérardmer depuis les pistes de ski, en particulier celle du Tetras. La descente du Poli jusqu’au Saut des Cuves n’a rien d’exceptionnel mais la montée vers la Roche des Bruyères est un beau sentier pierreux et vraiment montagnard. La Roche présente une vue de toute la longueur de la vallée de Gérardmer jusqu’au lac. On pourra alors apprécier sur la droite, le prochain sommet à atteindre et, à gauche, un aperçu du parcours déjà accompli. La descente s’achèvera par les gorges du Roitelet, un petit ruisseau nerveux qui se jette ensuite dans la Vologne encore naissante à ce niveau. Le petit hameau de Kichompré et sa tranquillité reposeront un peu les jambes pour remonter ensuite assez sèchement jusque la Trinité puis Miselle. Le retour se fait dans la clarté d’un coteau ensoleillé (enfin… selon la météo).
## Quelques photos
Précision : ces photos ont été prises rapidement :)
08.04.2015 à 02:00
Scratch pour les kids
Vous avez certainement entendu parler de Scratch. Peut-être même, avec un peu de chance, un enseignant de l’école primaire ou du collège de vos enfants en a fait la promotion voire a organisé une séance d’initiation en salle informatique. Bon… ce serait dans le meilleur des mondes. Si l’Éducation Nationale se mettait vraiment à exploiter les solutions libres et efficaces d’apprentissage de l’informatique, on le saurait. Quoique cela c’est déjà produit ! Souvenez-vous du LOGO.
OK, ce n’était pas vraiment libre, mais cela provenait tout droit des années 1960, avant l’apparition des licences libres. J’y ai eu droit dans les années 1980, et cela a contribué énormément (fondamentalement) à ma connaissance des machines et la compréhension de la logique informatique. Depuis presque 10 ans, pourtant, un petit nouveau a fait son apparition, c’est Scratch. Et à utiliser avec les enfants, c’est un vrai bonheur ! Voici quelques réflexions à propos de Scratch et sur la récente parution de Scratch pour les Kids (en français), chez Eyrolles.
- Titre : Scratch pour les Kids
- V.O. : Super Scratch Programming Adventure, 2nd Edition
- Auteur : The LEAD Project
- Editeur : Eyrolles
- Date : 2015
- Nb. de pages : 160
- ISBN : 978-2-212-14111-5
Si vous voulez tester Scratch rapidement et en ligne, sans avoir besoin d’installer un programme sur votre machine, il suffit de vous rendre sur le site scratch.mit.edu (j’ai une préférence personnelle pour l’alternative Snap!). Vous pourrez disposer de l’interface et faire partie ainsi des millions d’utilisateurs qui s’échangent leurs projets. Vous aurez aussi droit à la toute dernière version de Scratch, même s’il est assez facile d’installer localement le programme, en particulier si vous devez l’utiliser sans connexion Internet (je préconise personnellement l’installation en local, qui donne l’opportunité aussi d’appréhender la question de la sauvegarde et de la gestion de fichiers).
Scratch, c’est quoi ? Il n’est pas très utile ici de développer une présentation en détail. Le site officiel est déjà très complet à ce propos. En gros, Scratch est dérivé de manière assez lointaine (mais évidente) du LOGO via un logiciel nommé Squeak. Il s’agit d’interpréter graphiquement du code pour faciliter son approche, ce qui permet de manipuler de manière très visuelle des blocs de code de manière à créer des projets-programmes. Aux yeux d’un enfant, le résultat est toujours immédiat : il peut voir ses scripts en action, même de manière indépendante les uns des autres, et s’amuser à contruire tout un projet, le partager, l’améliorer, etc. Par exemple, au Québec, où Scratch est largement utilisé dans le monde éducatif, vous pouvez trouver le site Squeaky MST qui a l’avantage de proposer des bouts de codes bien pratiques adaptés à différentes situations ainsi que des présentations et des tutoriels.
L’interface, quant à elle, est attrayante. Une fenêtre montre toujours le projet en action et l’outil principal est la souris qui permet de déplacer les blocs de scripts. Pour un adulte, la prise en main n’en est que plus rapide. Au bout de quelques essais, on en vient vite à comprendre le fonctionnement général. Mais une question se pose : n’est-on pas vite limité par nos propres connaissances de l’informatique en général ?
Il faut jouer carte sur table : soit vous laissez l’enfant s’amuser et s’approprier Scratch tout seul, soit vous l’aidez et montez des projets avec lui, et de manière pédagogique vous élevez progressivement le niveau d’exigence. Si vous préferez la première solution, c’est que peut-être vous même n’êtes pas à l’aise avec l’informatique. Ce n’est pas un reproche, mais je vous rends attentif au fait que, si pour vous il s’agit d’une question de choix (alors que c’est faux) vos enfants, eux, ne se posent pas la question d’avoir ou non le choix : les machines sont et seront leur quotidien.
Avant d’être assis devant un ordinateur en longueur de journée, comme c’est peut-être votre cas si vous faites un travail de bureau, par exemple, si vous aviez eu la possibilité d’apprendre l’informatique à l’école (et je parle d’informatique, pas de l’actuel B2i qui n’est qu’une forme d’utilisation superficielle de quelques logiciels), je suis certain que votre utilisation quotidienne d’une machine serait profondément différente. À l’école, je n’ai pas appris ce qu’est un protocole de communication, ni comment réaliser un site web, ni installer un système d’exploitation, etc. Rien de tout cela. J’ai juste appris à entrer quelques commandes avec le LOGO, le BASIC et, au collège, programmer des règles de calculs avec le Pascal. L’apprentissage de la programmation informatique (non, on ne dit pas « coder ») permet de rendre autonome, d’avoir de bons réflexes, essentiellement basés sur le partage de connaissances, la recherche de solutions et, j’en suis convaincu, sert à tous les niveaux et tous les types d’apprentissages.
Bref, si vous voulez vraiment bien accompagner votre enfant dans l’apprentissage de Scratch (et plus tard vers d’autres langages), il y a quand même un minimum de pré-requis, que vous vous pouvez acquérir en un minimum de temps, simplement en vous renseignant. L’essentiel est d’être à l’aise car si vous ne l’êtes pas, vous atteindrez vite les limites de tolérance de votre enfant, en particulier si à chaque étape que vous n’aurez pas anticipée, vous êtes obligé de vous arrêter, paniquer, perdre patience, et finir par laisser tomber. Ce serait dommage, non ?
Heureusement, Scratch ne fait pas partie de ces langages où, pour comprendre une fonction et l’utiliser, il faut en plus savoir comment elle sera interprétée par la machine. Non : on utilise des blocs, on les assemble, on peut y ajouter quelques variables, et on voit le résultat. C’est tout. Mais par où commencer ? Si a priori Scratch semble être un joyeux cliquodrome facile d’accès, sans un guide pour vous orienter, la frustration fini par être au rendez-vous. C’est là qu’intervient un magnifique petit ouvrage parfaitement adapté à une utilisation conjointe adulte/enfant : Scratch pour les Kids.
La présentation du livre a été pensée de manière très pédagogique. Il est divisé en 10 chapitres, appelés « niveaux », introduit par une petite bande dessinée. Chaque chapitre reprend les acquis précédents pour aller toujours plus loin dans l’apprentissage de Scratch. Si l’on peut appréhender, au départ, les longues phases de saisie, tout a néanmoins été fait pour que chaque script soit expliqué, partie après partie. C’est là qu’intervient un autre avantage de Scratch : chaque petit script est « jouable » indépendamment du reste du programme. L’enfant ne se lasse pas et l’adulte non plus ! Dès le niveau 2, c’est un jeu très visuel qui est créé. Il peut se lancer immédiatement mais la cerise, c’est que l’enfant a tout de suite envie d’y apporter des améliorations… comme il se trouve assez vite coinçé par manque de pratique, il va naturellement poursuivre le chapitre suivant.
Pour le mode d’emploi, l’ouvrage est déclaré « dès 8 ans ». Il est vrai que c’est à partir de cet âge, et même un peu avant, qu’on peut commencer à travailler avec le LOGO. Néanmoins, le bon maniement de la souris, l’autonomie face à la gestion des fichiers, le fait de rechercher la meilleure méthode pour organiser ses scripts, etc. tout cela m’oblige à dire qu’attendre 9 ans ne me paraît pas exagéré. Dans tous les cas, avant 12 ans, la meilleure solution est de travailler à deux, l’adulte et l’enfant. L’adulte pour expliquer certains termes, et aider l’enfant à créer ses scripts. L’enfant aux commandes, lisant l’ouvrage et appliquant les méthodes des différents niveaux. De même, faire deux niveaux d’un coup serait présumer de la concentration de l’enfant : mieux vaut bien comprendre un niveau et le laisser improviser sur la base des connaissances nouvellement apprises que d’enchaîner aussitôt au niveau supérieur. Pour finir, il sera ensuite temps de passer à la programmation proprement dite, en commençant par Python pour les kids, par exemple…
Pour utiliser Scratch, vous avez plusieurs solutions :
- Utiliser la version en ligne sur Scratch.mit.edu ou bien Snap!,
- Installer la version offline de la dernière version de Scratch (pour GNU/Linux, MacOS et Windows). Cela nécessite l’installation de Adobe AIR (dommage, ce n’est pas libre),
- Si vous êtes sous une distribution GNU/Linux, Scratch est sans doute dans vos dépôts. Attention, toutefois : la version de Scratch utilisée dans l’ouvrage est la version 2. Il y a de grandes chances que vos dépôts proposent une version différente.
Enfin, si vous optez pour l’installation en local, vous pouvez rapatrier les projets mentionnés dans l’ouvrage simplement en les téléchargeant depuis le site. Il suffit de se rendre sur la page du livre et télécharger les Compléments (env. 15 Mo). Il s’agit d’un fichier compressé contenant deux dossiers : le premier avec les fichiers des exemples du livre et les scripts, le second avec les exemples « nus », c’est à dire les images, les lutins, etc. et sans les scripts.
06.04.2015 à 02:00
Liberté, sécurité, Benjamin Franklin
« Ceux qui sont prêts à sacrifier une liberté essentielle, pour acquérir une petite sécurité temporaire, ne méritent ni la liberté ni la sécurité ». Cette citation attribuée à Benjamin Franklin résonne comme un slogan partout où la question des libertés individuelles et le droit à la vie privée sont menacés par des politiques publiques ou de nouvelles dispositions juridiques.
Après l’affaire E. Snowden, et aujourd’hui en France l’actuel projet de Loi Renseignement qui fait craindre un nouveau Patriot Act à la française, de nombreuses voix s’élèvent pour la défense de la justice et contre la surveillance de masse. On fait alors appel à de grandes figures de la défense des droits civils, parmi lesquelles Benjamin Franklin, un des Pères de la Constitution américaine et signataire de la Déclaration d’Indépendance. À la face des décideurs que l’on pense bien inspirés du modèle démocratique qui vit naître les pratiques honteuses de la NSA, retourner une citation chargée de l’histoire même de la naissance de cette grande démocratie américaine, revêt une couleur bien jubilatoire. « Tel est pris qui croyait prendre », aurait dit La Fontaine, mais pour qui exactement ? D’où vient cette citation ? et dans quel contexte a-t-elle été écrite ? Vous allez voir, c’est assez surprenant.
En fait, lors d’un débat, en particulier par écrit, je ne supporte pas de citer sans connaître la source d’une citation et m’assurer que je ne me fourvoye pas dans quelque impasse dont j’aurais toutes les difficultés à sortir. Je ne suis pas le seul, tous les Wikipédiens sont dans ce cas-là, ainsi que les chercheurs, toutes les professions obéissant à des règles de déontologie et de probité, et — oserai-je le dire ? — tout le monde, quoi, sauf les menteurs. Il ne s’agit pas tant de « ramener sa science » que d’être sûr de ce qu’on avance sous peine de se voir aussitôt discrédité. Cette citation de B. Franklin a de nombreux attraits mais elle m’a toujours étonné de la part d’un homme politique de son envergure, peu enclin à sortir des jugements à l’emporte-pièce tels qu’on en rencontre trop fréquemment chez nos policitiens français dont le niveau intellectuel est pourtant bien éloigné des monuments politiques révolutionnaires du xviiie siècle.
La citation elle-même, mentionnée sur la Statue de la Liberté, est souvent citée de manière transformée. Par exemple on trouve parfois une forme largement discutable du style : « un peuple qui serait prêt à sacrifier sa liberté pour obtenir la sécurité, ne mérite ni l’un ni l’autre ». Il est donc important de retrouver le texte original. Il existe une édition électronique des écrits de Benjamin Franklin, en accès gratuit (il faut toutefois accepter une licence), et on peut trouver le texte de 1755 : « Pennsylvania Assembly: Reply to the Governor. November 11, 1755 », in: Votes and Proceedings of the House of Representatives, 1755-1756 (Philadelphia, 1756), pp. 19-21. La citation en anglais est la suivante : « Those who would give up essential Liberty, to purchase a little temporary Safety, deserve neither Liberty nor Safety. »
Néanmoins, à la lecture du document, et sans connaître au moins quelques éléments clés de l’histoire de la Pennsylvanie, il est assez difficile de comprendre le sens de cette phrase située dans l’avant-dernier paragraphe. Toujours est-il que la lecture générale du texte semble nous amener sur un tout autre domaine que celui des considérations actuelles qui nous font citer B. Franklin à tour de bras. Même si, au fond, la problématique reste la même (liberté vs. sécurité), un commentaire s’avère nécessaire. Et ce commentaire, je l’ai trouvé chez B. Wittes, un chercheur de la Harvard Law School, dont je reproduis le propos ci-dessous, avec son aimable autorisation. Il s’agit d’un court texte qui renvoie à un article plus conséquent, cité en note. Je dois aussi remercier Valentin qui m’a soufflé cette référence dans un commentaire précédent sur ce blog.
Ce que Benjamin Franklin a vraiment dit
Par Benjamin Wittes, Lawfare, le 15 juillet 2011
Source : Lawfareblog
En faisant des recherches pour un article que je suis en train d’écrire à propos de la relation entre liberté et sécurité1, il y a un fait historique intéressant que j’ai creusé : cette célèbre citation de Benjamin Franklin, selon laquelle « ceux qui sont prêts à sacrifier une liberté essentielle, pour acquérir une petite sécurité temporaire, ne méritent ni la liberté ni la sécurité », ne signifie pas ce qu’elle semble vouloir dire. Pas du tout.
J’ai commencé à travailler sur cette citation car je m’attaque au problème de fond à propos de l’idée que la liberté et la sécurité participent d’une forme d'« équilibre » entre l’une et l’autre — et la citation est particulièrement illustrative de la thèse de l’équilibre. En effet, ces mots de B. Franklin sont peut-être les plus célèbres jamais écrits à ce propos. Une version est gravée sur la Statue de la Liberté. Ils sont cités à l’envi par ceux qui pensent que ces deux valeurs coexistent l’une et l’autre dans un état d’équilibre précaire, toujours changeant, et que les questions de sécurité menacent toujours de perturber. Tout étudiant en Histoire américaine les connaît. Et tout amoureux de la liberté les a entendu et sait qu’ils se rapportent à cette grande vérité à propos de la constitution d’un gouvernement civilisé — c’est-à-dire que nous autorisons un gouvernement à nous protéger dans un marché diabolique dont nous sortirons perdants sur le long terme.
Cependant, très peu sont ceux qui, citant ces mots, ont une idée de leur provenance ou de ce que B. Franklin a vraiment voulu exprimer lorsqu’ils les écrivit. Ce n’est pas du tout surprenant, car ils sont bien plus souvent cités qu’expliqués, et le contexte dans lequel on les trouve est une bataille politique qui suscite peu l’intérêt des lecteurs d’aujourd’hui. La plupart des biographes de B. Franklin ne les citent pas du tout, et aucun des textes que j’ai trouvé ne tente sérieusement de les expliquer au regard de leur contexte. Résultat : pour aller au fond de ce qu’ils signifiaient pour B. Franklin, on doit fouiller les sources des années 1750, avec une littérature biographique secondaire qui ne donne qu’un cadre à la discussion. Je suis toujours en train de paufiner les détails, mais ce que je peux dire avec certitude à ce stade, c’est que B. Franklin n’affirmait rien de ce que pensons lorsque nous citons ses mots.
Ils apparaissent originellement dans une lettre de 1755 que B. Franklin est censé avoir écrit au nom de l’Assemblée de Pennsylvanie à l’intention du gouverneur colonial durant la Guerre de Conquête. La lettre était une salve dans la lutte de pouvoir entre le gouverneur et l’Assemblée à propos du financement de la sécurité à la frontière, alors que l’Assemblée souhaitait taxer les terres de la famille Penn, qui gouvernait la Pennsylvanie de loin, de manière à lever des fonds pour la défense contre les attaques des Français et des Indiens. À la demande de la famille, le gouverneur émit son veto contre les actions de l’Assemblée. Donc pour commencer, B. Franklin n’écrivait pas dans la situation d’un sujet à qui il serait demandé de céder sa liberté à un gouvernement, mais en sa qualité de législateur à qui il est demandé de renoncer à son pouvoir de taxer des terres théoriquement sous sa juridiction. En d’autres termes, la « liberté essentielle » à laquelle se réfère B. Franklin n’est pas ce à quoi nous nous référons aujourd’hui à propos des libertés civiles mais, plutôt, au droit de l’auto-gouvernance d’un corps législatif dans l’intérêt de la sécurité collective.
De plus, l'« [obtention] d’une petite sécurité temporaire » que récrimine B. Franklin n’est pas la cession d’un pouvoir à un gouvernement Leviathan en échange de quelque promesse de protection envers une menace extérieure ; car dans la lettre de B. Franklin, le mot « acquérir » ne semble pas être une métaphore. En insistant pour assujettir les terres Penn aux impôts, l’Assemblée était accusée par le gouverneur de bloquer l’affectation des fonds pour la défense de la frontière — ce qui justifiait ainsi son intervention. Par ailleurs, la famille Penn offrit plus tard de l’argent pour la défense de la frontière aussi longtemps que l’Assemblée voulait reconnaître qu’elle n’avait pas le pouvoir de taxer ses terres. B. Franklin a donc contesté le choix qui s’imposait au corps législatif, entre d’un côté être capable de rassembler des fonds pour défendre la frontière et, de l’autre, conserver son droit à l’auto-gouvernance — et il critiqua le gouverneur d’avoir suggéré qu’on devait être prêt à renoncer au second pour obtenir le premier.
En somme, B. Franklin n’évoquait pas la tension entre le pouvoir du gouvernement et la liberté individuelle. Il faisait plutôt référence à l’auto-gouvernance efficace au service de la sécurité en tant que liberté même, réfractaire à la marchandisation. Nonobstant la manière dont la citation est arrivée jusqu’à nous, B. Franklin conçevait sur le même plan les droits à la liberté et à la sécurité de la Pennsylvanie.
04.04.2015 à 02:00
Nos imprimantes nous espionnent-elles?
En 2008, l'Electronic Frontier Foundation faisait une annonce pour le moins étonnante : les imprimantes nous espionnent ! Pour cette organisation internationale de défense de la liberté d’expression sur Internet, puissance incontournable de l’analyse et des actions juridiques relevant des libertés individuelles dans le contexte de notre monde numérisé, la question ne se limitait pas à ce que pouvaient ou non divulguer les imprimantes. En 2015, après les affaires Snowden (international) et en plein dans notre débat franco-français sur le projet de loi Renseignement, une nouvelle information a tendance à passer inaperçue : tous les fabricants majeurs d’imprimantes ont passé des accords secrets avec les gouvernements. Voici un petit retour in French sur l’action de l’EFF et cette révélation.
C’est déjà une affaire vieille de 10 ans. En 2005, déjà, alertée par des suspicions de pratiques de stéganographie cachée par les fabricants de certaines imprimantes couleur laser, l’EFF avait cracké le code des imprimantes Xerox Docucolor et publié la méthode. Pour l’EFF, même si on pouvait comprendre que ce genre de pratique s’inscrivait légitimement dans le cadre de la lutte contre la contrefaçon de monnaie, il s’agissait surtout de se demander quel pouvait être l’usage de ces informations, leur accès par des services gouvernementaux et les éventuels recours des citoyens. Si, en effet, vous imprimez un document et souhaitez le diffuser ou pour le compte de quelqu’un d’autre dont vous ignorez l’usage qu’il fera du document, le fait que l’on puisse vous identifier comme l’imprimeur est une violation caractérisée de la vie privée. Imaginez par exemple que l’on puise vous identifier comme étant celui qui a imprimé le tract d’appel à manifestation qui vient d’être affiché à la cantine ?
Voici, ci-dessous, une traduction des éléments majeurs de l’annonce de l’EFF en 2008 et des actions envisagées.
Et si, à chaque fois que vous imprimez un document, ce dernier comprenait un code secret permettant d’identifier votre imprimante — et potentiellement la personne qui l’utilise. On se croirait dans un épisode d’Alias, non ?
Malheureusement, ce scénario n’a rien d’une fiction. Dans sa soi-disante lutte contre la contrefaçon, le gouvernement américain a réussi à persuader certains fabricants d’imprimantes laser couleur d’encoder chaque page avec des informations d’identification. Cela signifie que sans que vous le sachiez ou sans votre consentement, vos actions privées peuvent devenir publiques. Un outil de communication quotidien peut devenir un outil de surveillance gouvernementale. Le pire, c’est qu’il n’y a pas de loi pour en prévenir les abus.
L'ACLU (American Civil Liberties Union) a récemment publié un rapport révélant que le FBI a récolté plus de 1100 pages sur l’organisation depuis 2001 ainsi que des documents concernant d’autres groupes non-violents dont Greenpeace et United for Peace and Justice. Dans le climat politique actuel, il n’est pas difficile d’imaginer que le gouvernement use de la possibilité de déterminer qui a pu imprimer ces documents, à des fins bien différentes que celle de la lutte contre la contrefaçon.
Pourtant, il n’y a aucune loi qui empêche les Services Secrets d’utiliser les codes des imprimantes pour tracer secrètement l’origine de documents n’ayant aucun rapport avec la monnaie ; seule la politique de confidentialité du fabricant de votre imprimante vous protège (si toutefois elle existe). Et aucune loi ne défini quels type de documents les Services Secrets ou toute autre agence gouvernementale nationale ou étrangère sont autorisés à demander pour l’identification, sans mentionner comment un tel outil de police scientifique pourrait être développé et implémenté dans les imprimantes.
En l’absence de loi sur les livres, il n’y a rien pour arrêter les violations de la vie privée que cette technologie permet. Pour cette raison, l’EFF rassemble les informations sur ce que révèlent les imprimantes et comment elles le font —une prospective nécessaire à toute contestation judiciaire ultérieure ou à une nouvelle législation visant à protéger la vie privée. Et nous pourrions avoir besoin de votre aide.
(…) Par ailleurs, afin de documenter ce que les imprimantes révèlent, l’EFF a déposé une demande relevant de la Freedom of Information Act (FOIA) et nous vous tiendrons au courant de ce que nous découvrirons. En attendant, nous vous invitons à passer le mot (…)
Peu de temps après, l’EFF publia une liste régulièrement mise à jour, recensant les imprimantes qui, d’après des tests, renvoyaient ou non des codes de traçabilité (en jaune) sur leurs sorties papier. Un nombre important de fabricants et d’imprimantes y sont mentionnés : cherchez bien, vous y trouverez peut-être votre matériel.
Et voici qu’en ce début de l’année 2015, les réponses à la demande FOIA sont révélées par l’EFF. Sur cette même page, un warning nous apprend :
(Ajouté en 2015) Plusieurs documents que nous avons préalablement reçu suite à notre requête FOIA suggèrent que tous les fabricants majeurs d’imprimantes laser couleur ont conclu un accord secret avec les gouvernements pour assurer une traçabilité permettant la recherche criminalistique. Bien que nous ne sachions pas encore si cela est correct, ou comment les générations suivantes de technologies traçantes pourront fonctionner, il est probablement plus sûr de supposer que toutes les imprimantes modernes laser couleur comprennent un moyen de traçabilité qui associe les documents avec leurs numéros de série.(…)
Pour conclure : dans le contexte actuel de mise en place de systèmes de surveillance généralisée, la traçabilité des documents imprimés prend une mesure que seule la lutte contre la contrefaçon ne suffit pas à justifier. Ne jetez pas encore vos vieilles machines à écrire et le papier carbone, il se peut que nous en ayons encore besoin ! Quant aux faits avérés par l’EFF, je dois dire que je suis davantage affolé par leurs implications que par le danger (bien réel, cependant) pour la liberté d’expression qu’ils représentent (eux aussi). D’une part, en effet, la liberté d’expression est bien plus menacée par des projets de lois qui cachent à peine les intentions des pouvoirs politiques en place. D’autre part, je m’interroge de plus en plus sur une société qui, découvrant peu à peu l’ampleur des atteintes à la vie privée que les démocraties organisent, commence à se figurer que les modèles démocratiques en place renient non seulement leurs principes mais dévoient aussi la confiance déjà chancelante que les citoyens leur accordent. Quelles sociétés et quels régimes politiques pourraient s’en accommoder encore longtemps ?
21.01.2015 à 01:00
La société automatique 1
Le 19 juillet 2014, le journal Le Soir révélait à Bruxelles que selon des estimations américaines, britanniques et belges, la France, la Belgique, le Royaume-Uni, l’Italie, la Pologne et les États-Unis pourraient perdre entre 43 et 50 % de leurs emplois dans les dix à quinze prochaines années. Trois mois plus tard, le Journal du dimanche soutenait que trois millions d’emplois seraient condamnés à disparaître en France au cours des dix prochaines années.
L’automatisation intégrée est le principal résultat de ce que l’on appelle « l’économie des data ». Organisant des boucles de rétroactions à la vitesse de la lumière (à travers les réseaux sociaux, objets communicants, puces RFID, capteurs, actionneurs, calcul intensif sur données massives appelées big data, smart cities et robots en tout genre) entre consommation, marketing, production, logistique et distribution, la réticulation généralisée conduit à une régression drastique de l’emploi dans tous les secteurs – de l’avocat au chauffeur routier, du médecin au manutentionnaire – et dans tous les pays.
Pourquoi le rapport remis en juin 2014 au président de la République française par Jean Pisani-Ferry occulte-t-il ces prévisions ? Pourquoi le gouvernement n’ouvre-t-il pas un débat sur l’avenir de la France et de l’Europe dans ce nouveau contexte ? L’automatisation intégrale et généralisée fut anticipée de longue date – notamment par Karl Marx en 1857, par John Maynard Keynes en 1930, par Norbert Wiener et Georges Friedmann en 1950, et par Georges Elgozy en 1967. Tous ces penseurs y voyaient la nécessité d’un changement économique, politique et culturel radical.
Le temps de ce changement est venu, et le présent ouvrage est consacré à en analyser les fondements, à en décrire les enjeux et à préconiser des mesures à la hauteur d’une situation exceptionnelle à tous égards – où il se pourrait que commence véritablement le temps du travail.
Stiegler, Bernard. La société automatique 1. L’avenir du travail. Fayard, 2015.
Lien vers le site de l’éditeur : https://www.fayard.fr/sciences-humaines/la-societe-automatique-9782213685656
08.01.2015 à 01:00
Demain, tous en garde à vue?
Cet article a été publié (et remanié) sur le célèbre Framablog à cette adresse.
Sale temps
Hier, c’était mon anniversaire, j’ai 40 ans. Hé bien, des jours comme ça, je m’en serais passé.
Hier, c’était la barbarie : c’est Cabu, Charb, Wolinksi, Tignous, Honoré, et d’autres acteurs de Charlie Hebdo (sans oublier les policiers) qui ont été lâchement assassinés dans les locaux du journal par deux gros cons, des beaufs, des salauds. Ils s’en sont pris à des dessinateurs qui ont largement contribué à la formation de ma propre pensée critique à travers la lecture régulière du journal. Des copains, nos copains.
Ce matin, j’ai la tête en vrac. J’ai à l’esprit ces mots de Ricoeur qui définissait la démocratie par le degré de maturation d’une société capable de faire face à ses propres contradictions et les intégrer dans son fonctionnement. Au centre, la liberté d’expression, outil principal de l’exercice de la démocratie. À travers nos copains assassinés, c’est cette liberté qui est en jeu aujourd’hui. Ils exerçaient cette liberté par le crayon et le papier. L’arme absolue.
Charlie Hebdo n’a pas vocation à incarner de grands symboles, au contraire, les dénoncer et faire tomber les tabous est leur principale activité. C’est justement parce que la mort de dessinateurs est aujourd’hui devenue un symbole qu’il va falloir s’en méfier, car dans cette brèche s’engouffrent les tentatives protectionnistes et liberticides.
La liberté est insupportable pour les pseudos-religieux sectaires — et pour tout dire, une grosse bande de connards — qui tentent de la faire taire à grands coups de Kalachnikov et de bombes sournoises. La liberté est insupportable pour les fachos et autres réacs qui ne manqueront pas de s’engouffrer dans le piège grossier du repli et de la haine. La liberté est insupportable pour celui qui a peur.
Nous vivons depuis des années sous le régime des plans vigipirate, des discours sécuritaires et du politiquement correct. Sous couvert de lutte contre le terrorisme, la surveillance généralisée de nos moyens de communication s’est taillé une belle part de nos libertés, sans oublier les entreprises qui font leur beurre en vendant aux États (et pas toujours les plus démocratiques) des « solutions » clé en main. Des lois liberticides au nom de l’antiterrorisme sont votées sans réel examen approfondi par le Conseil Constitutionnel. En guise de contre-pouvoir, on nous refourgue généralement des administrations fantoches aux pouvoirs ridicules, des « Conseils » et des « Hauts Comités » de mes deux. Mais le vrai contre-pouvoir, ce sont les copains de Charlie Hebdo et tous leurs semblables, journalistes ou caricaturistes, qui l’exercent, ou plutôt qui le formalisent pour nous, à travers leurs dessins et leurs textes. Le contre-pouvoir, c’est nous tous tant que nous n’oublions pas de penser et d’exprimer nos contradictions. Et pour maintenir la démocratie, nous devons disposer intégralement de nos moyens de communication dont il revient à l’État de garantir la neutralité.
Demain, nous risquons de nous retrouver tous en garde à vue et pas seulement à cause des terroristes. C’est là tout le paradoxe. La terreur est aussi bien instrumentalisée par les assassins que par certains membres de la classe politique, et pas seulement à droite. Tous sont prêts à réprimer notre liberté pour maintenir leurs intérêts électoraux, ou d’autres intérêts financiers. Leur contrainte, c’est l’obligation du choix : il faudrait choisir entre la liberté et la dictature, entre la liberté et la peur, entre la liberté et l’esclavage, avec à chaque fois un peu de nos libertés qui s’envolent.
Non ! Assez ! Stop ! je suis pour la liberté mais sans concession. Une liberté obligatoire, une liberté que l’on assène sans contrepartie. Je suis un radical du papier, un ayatollah de la liberté d’expression, un taliban des communications ouvertes, un nazi des protocoles informatiques libres, un facho de la révélation snowdenienne ! Du moins je voudrais l’être, nous devrions tous l’être. Et sans avoir peur.
Je suis né il y a 40 ans, et cela fait presque autant de temps que se sont développés autour de moi des supports de communication qui sont autant de moyens d’exercices de la liberté d’expression. Comme beaucoup, j’oublie souvent que rien n’est acquis éternellement, que nos libertés sont le fruit de luttes permanentes contre ceux qui voudraient nous en priver. La boucherie Charlie nous l’a cruellement rappelé hier.
15.11.2014 à 01:00
Entraînement trail : Rocher de Mutzig
Qui a dit que le mois de novembre ne se prêtait pas aux longues promenades dans notre belle forêt vosgienne ? Évidemment, on n’y rencontre pas beaucoup de monde : c’est l’occasion de prendre des sentiers habituellement fréquentés par les randonneurs et mesurer leur potentiel en entraînement trail ! Le parcours présenté ici est une découverte de la forêt alsacienne du côté de Lutzelhouse (vallée de la Bruche) à une trentaine de kilomètres de Strasbourg.
Description
La plupart des randonnées au départ de Lutzelhouse impliquent de rouler jusqu’aux parkings déjà fort avancés dans la forêt. En effet, les points remarquables (le Jardin des fées, le Rocher de Mutzig, la Porte de Pierre) sont accessibles pour les randonneurs sur des parcours assez longs, que tout le monde n’est pas prêt à assumer, en particulier en famille. En trail, cependant, la question des distances est toute différente. Nous partons donc depuis le village de Lutzelhouse.
Allez garer votre véhicule sur le parking de l’école (et du cimetière) de Lutzelhouse : vous y trouverez une fontaine qui sera fort utile à votre retour, pour nettoyer vos chaussures… Le départ et l’arrivée se situeront ici.
L’essentiel du parcours se concentre sur les deux montagnes dominant le village : le Langenberg et le Katzenberg. Voici les étapes et les points remarquables (voir les photos en fin de billet) :
- Les Deux Chênes
- Kappelbronn (en passant par le séquoïa)
- L’Enceinte du jardin des fées (ancien fort celtique)
- Col du Narion
- Rocher de Mutzig
- La Porte de Pierre
- Col du Wildberg
- Schmeerbuchs
- Waltersbach (village disparu)
- La Grotte du Loup
- Les deux Chênes (retour)
Il s’agit d’un massif très fréquenté par la section alsacienne du Club Vosgien. Le travail remarquable du Club Vosgien dans le balisage et l’entretien des parcours de randonnées trouve ici sa pleine mesure. Une pléthore d’indicateurs, directement visibles sur une carte IGN Top25, donnent une idée des solutions possibles pour atteindre ses objectifs. En trail, se repérer sur les balises du Club Vosgien est assez facile. Sur ce parcours, il faudra toutefois porter son attention aux différents changements de tracé et ne pas suivre inconsidérément les mêmes balises.
Description du parcours
Le parcours fait environ 21 km pour 850m D+. Il est de niveau technique moyen-supérieur pour une durée moyenne de 2h45 (moins ou beaucoup moins selon le niveau, bien entendu). L’idée générale fut d’éviter les grands chemins (routes forestières quasi inévitables à cet endroit) et préférer les « single ». Plusieurs variantes sont possibles, selon votre humeur et votre forme du moment.
Le départ s’effectue à alt. 273 m. Un échauffement sérieux est recquis au départ de manière à affronter la première montée assez raide. Après le 1er kilomètre, la montée s’adoucit de manière durable jusqu’au Kappelbronn (504 m alt.). Le principal passage technique vous attend au lieu bien-nommé « La Grande Côte », et vous mènera jusqu’au Jardin des Fées. Ensuite, jusqu’au Rocher de Mutzig (alt. 1010 m), la montée est continuelle et se termine par un raidillon. La descente est ensuite amorcée, d’abord sur sentiers (dont les bords sont parfois instables, donc prudence) puis sur chemin large en fin de parcours.
Dans l’ordre, voici les signes suivis (nomenclature du Club Vosgien) :
(Le tracé du parcours est par ici)
- Triangle rouge + Rectangle rouge barré de blanc
- Anneau rouge + Rectangle rouge barré de blanc
- Anneau vert
- Anneau jaune
- Rectangle rouge + anneau rouge
- Coix droite jaune
- Triangle rouge + rectangle jaune
- Triangle rouge
- Triangle rouge + Rectangle rouge barré de blanc
03.11.2014 à 01:00
Utiliser OpenTopoMap avec Turtlesport
Petit truc : voici la manière d’utiliser les fonds de carte OpenTopoMap avec Turtlesport.
Il suffit pour cela de se rendre dans Aide > Préférences > Carte / Fournisseur
. À cet endroit, il est possible d’indiquer le fond de carte que l’on souhaite utiliser. Pour OpenTopoMap, il faut entrer l’adresse suivante :
http://a.tile.opentopomap.org/#zoom#/#x#/#y#.png
Pour le zoom, le minimum est à 1 et le maximum à 17.
(Merci @Turtlesport qui m’a confié la bonne adresse)
20.10.2014 à 02:00
Manipuler des fichiers PDF
La manipulation de fichiers PDF sous GNU/Linux fut longtemps un problème a priori insurmontable. Même sous les autres systèmes d’exploitation, l’achat de logiciels de la marque Adobe était nécessaire. Certes, ces derniers logiciels fort complets permettent bien d’autres choses, propres en particulier dans le monde du graphisme et de l’édition, pourtant il importe de se pencher sur certains besoins : annoter des PDF, voire procéder à de menues modifications, extraire un certain nombre de pages d’un long PDF pour les communiquer ensuite, fusionner plusieurs PDFs, etc.
Xournal
Xournal est un logiciel de prise de note basé sur le même modèle que Gournal, NoteLab ou Jarnal.
Ces logiciels (dont il existe des versions pour GNU/Linux, Mac et MSWindows) sont normalement destinés à être utilisés via une tablette graphique ou un écran tactile, afin d’imiter la pratique de prise de note sur un bloc papier.
Xournal a ceci de particulier qu’il demeure tout à fait fonctionnel sans dispositif tactile. L’organisation des pages de notes est très simple à l’utilisation et la prise en main est rapide.
Comme les autres logiciels cités plus haut, un avantage de Xournal est la possibilité d’ouvrir des fichiers PDF, les annoter, insérer du texte, surligner, et exporter le fichier ainsi édité (en fait il s’agit d’un calque que vous pouvez soit garder comme calque, soit exporter un nouveau PDF intégrant le calque sur le PDF original).
Vous rêviez de pouvoir éditer un PDF? Que votre voeu soit exaucé! Xournal est conçu pour une interface utilisant GTK, ce qui permet une excellente intégration au bureau Gnome. Dans le fichier de configuration, vous pourrez de même modifier quelques réglages usuels, selon les particularités de votre matériel ou vos envies. Une liste des options du fichier de configuration est disponible dans le manuel de Xournal (section “Configuration File”).
Couper, extraire, fusionner : PdfTk et PdfMod
Pour les autres tâches, obéissant à la logique Unix selon laquelle un logiciel se destine à une tâche (“write programs that do one thing and do it well”), deux logiciels méritent toute notre attention : pdftk et Pdf Mod.
Pdftk fait partie de ces programmes très efficaces mais dont l’utilisation rebute souvent le néophyte mal à l’aise avec la ligne de commande. Pourtant les commandes de pdftk sont extrêmement simples : concaténation, extraction, et sortie de nouveau pdf sont les actions les plus couramment demandées mais pdftk est capable de bien des choses (la page de la documentation Ubuntu consacrée à pdftk est assez éloquente sur ce point).
Un second programme est sans doute plus abordable puisqu’il utilise une interface graphique. Pdf Mod permet l’extraction et l’import d’éléments dans un fichier pdf en n’utilisant que la souris. Élaboré en un en temps record par Gabriel Burt, contributeur de talent aux logiciels plus connus tels que Banshee et F-Spot, nul doute que les futures amélioration de Pdf Mod répondront à la majorité des besoins des utilisateurs.
- Xournal (Site officiel)
- pdftk (Site officiel)
- Doc. Ubuntu(pdftk)
- Exemples d’utilisation de pdftk
- PdfMod (site officiel)
- Blog de Gabriel Burt
- Article Pdf Mod sur Silicon.fr
06.10.2014 à 02:00
Station de trail de Gérardmer - Parcours 5
Le réseau des stations de trail est une initiative conjointe de la société Raidlight et d’acteurs territoriaux (voir l'historique). Depuis le printemps 2014, Gérardmer dispose de sa station de Trail et fait désormais partie du réseau. Au moins deux événements réguliers et célèbres se déroulent sur la station : l'Ultra-montée du Tetras et le Trail de la Vallée des Lacs. Mais la station propose plusieurs parcours et ateliers qui présentent un grand intérêt pour les coureurs, de passage ou habitant des environs, et permettent de découvrir la région de Gérardmer d’une manière originale…
Description
Se rendre à la station de trail est très simple. Arrivé à Gérardmer, suivez simplement les indications des pistes de ski alpin de la Mauselaine. Allez tout au bout du parking, c’est là que se situe le départ
Si toutefois vous souhaitez profiter des dispositifs de la station de trail (casier, douche, salle de repos) pour une somme modique (5 euros la journée), il vous faudra passer à l’Office du tourisme au préalable. Tout est expliqué sur le site de la sation.
Par ailleurs, cet article de Fredéric Flèche montre très bien, avec des photos, la configuration des lieux.
Une fois à la Mauselaine, rendez-vous au niveau des caisses de la station de ski, poursuivez le chemin en direction du télésiège sur une centaine de mètres. Vous trouverez un mur en béton sur lequel sont affichés les différents parcours et ateliers.
La signalétique est simple : vous choisissez votre parcours et vous suivez son numéro inscrit sur les balises. Plusieurs parcours empruntent parfois les mêmes balises, ce qui explique que celles-ci puissent être composées de plusieurs chiffres (par exemple 57 pour les parcours 5 et 7). Un code couleur (niveau de difficulté) est aussi disponible. Le mieux est de choisir votre parcours depuis chez vous sur le site de la station : vous pourrez ainsi consulter la météo (parfois fort capricieuse en ces lieux) et regarder de plus près le profil altimétrique.
Nous allons nous pencher plus précisément sur l’un des parcours de la station la Boucle des Écarts, le numéro 5.
Le parcours 5
Les parcours de la station n’ont pas seulement été élaborés en fonction des aspects techniques des entraînements. Ils ont aussi été imaginés par des amoureux de la Vallée des Lacs, soucieux de procurer au traileur les meilleurs souvenirs.
Au programme : des points de vues enchanteurs, une végétation changeante et des lieux parfois même trop peu connus des habitants.
Si le soleil est au rendez-vous, bien que discret dans les sous-bois, votre course sera d’autant plus agréable.
Avant tout, il faut expliquer pourquoi la Boucle des Écarts porte ce nom. Un écart, dans les Hautes Vosges, est une petite prairie isolée sur les hauteurs d’une vallée, souvent dotée d’une ou plusieurs fermes. Au fil du parcours, vous allez donc croiser des lieux forts anciens. La plupart du temps, en l’absence d’élevage, vous ne verrez que des épicéas. Mais à l’époque, tous ces endroits étaient fortement défrichés et servaient de pâturages.
Dans l’ordre du parcours, les noms des principaux écarts sont les suivants : La Mauselaine (avant d’être une station de ski), la Rayée, le Grand Étang, Les Bas Rupts, La Poussière, la Basse du Rôle, l’Urson, la Grande Mougeon, Le Phény, Mérelle (étang), Ramberchamp, Le Costet.
Passons au vif du sujet. Le parcours est dans l’ensemble un bon entraînement aux montées, bien que celles-ci soient assez courtes. La distance est de 16 km pour 762m+, ce qui ne demande pas un haut niveau technique.
La morphologie du terrain comporte du sentier (50%, dont deux passages pierreux en descente), du chemin forestier (35%) du bitume (15% surtout en ville). Les bâtons ne sont pas du tout nécessaires. Sur l’ensemble du parcours le balisage est très clair et les balises ne manquent pas (même si on peut toujours améliorer l’existant déjà de très bonne qualité). Par ailleurs, l’état du parcours est normalement indiqué sur le site de la station de Trail qui insiste bien sur ce point : se renseigner avant de partir !
Si vous partez depuis le mur des parcours, à la Mauselaine, redescendez quelques foulées en direction du parking : le parcours débute par l’ascension d’une piste de ski (là où se situent les petits téleskis)…
Retournez-vous de temps en temps pour admirer le point de vue sur Gérardmer. Sur la totalité du parcours on peut recenser quelques montées et descentes remarquables (plus ou moins techniques).
Je vous conseille d’imprimer le topo disponible sur le site de la station, avec le profil altimétrique. Il y quatre passages qui selon moi méritent d’être mentionnés :
- La première montée, sur une piste de ski herbeuse et parfumée… Cette manière de débuter un parcours n’est pas forcément ultra-confortable, alors on y va doucement car la montée est assez longue. Cette partie du parcours est néanmoins originale, et aucune pierre ne vient vous gâcher la foulée.
- La montée depuis le Col du Haut de la côte (km 4 à 6): il s’agit d’un chemin forestier très roulant en faux-plat qui se termine par une côte raide à travers les épicéas. Là, il faut savoir monter sans précipitation, mais cette difficulté reste assez courte.
- La descente depuis Mérelle jusqu’au lac de Gérardmer (km 11 à 12): un sentier assez pierreux sur lequel il faut absolument rester attentif aux promeneurs. Attention par temps de pluie aux pierres glissantes.
- La dernière montée, depuis les rues de Gérardmer jusqu’à la Mauselaine en passant par la Roche du Rain et le Costet (km 14 à 16): sachez garder un peu d’énergie sous la semelle car il est facile de se laisser aller à quelques accélérations en fin de parcours et se retrouver à sec lorsqu’il faut dépenser encore de l’énergie jusqu’à l’arrivée.
Lorsque vous arrivez au pied de la Tour de Mérelle, et si vous ne connaissez pas cet endroit, je vous conseille fortement d’appuyer sur la touche STOP de votre chrono et de gravir la centaine de marches de la tour : une splendide vue sur la vallée de Gérardmer vous y attend! S’il n’y a aucun visiteur, ne vous arrêtez pas et considérez cette ascension comme une partie du parcours, cela ajoutera un peu de dénivelé (mais ne descendez pas les marches en courant, c’est trop dangereux).
Enfin, vous aurez noté que le parcours passe sur les bords du lac de Gérardmer puis dans le centre ville… Suivant l’heure de la journée, vous risquez de vous retrouver à slalomer entre les passants, ce qui peut ne pas être agréable, surtout en fin de parcours.
Le bord du lac, en particulier au niveau de la passerelle du complexe nautique, figure parmi les endroits les plus fréquentés en saison et les week-end: enfants en vélo, poussettes, sorties familiales, etc. Essayez donc plutôt de passer derrière le complexe nautique pour rejoindre directement la D486, même si cela vous oblige à arpenter du bitume.
Vous pouvez aussi éviter les trottoirs du centre ville de la manière suivante : si vous passez par la D486, vous tomberez sur un rond-point. Prenez à droite (Rue du 29e BCP), montez et prenez la deuxième rue à gauche (Rue Haute) : vous évitez le centre ville et arriverez derrière la mairie. Vous pouvez alors rattraper le parcours à cet endroit.
Le tracé en lien ci-dessous n’est pas le parcours normal : pour moi, le début se situe à Gérardmer. Mais vous pouvez voir comment j’évite le centre ville.
01.10.2014 à 02:00
Trail : créez et partagez votre parcours en 5 minutes avec OpenStreetMap
Se livrer à son sport favori avec des outils libres, ce n’est pas toujours évident. L’un des obstacles à franchir est de travailler avec des fonds de cartes libres et pouvoir en faire à peu près ce qu’on en veut.
Ce petit tutoriel rapide à propos de Umap va sûrement vous être utile! Vous venez de faire votre parcours (ou vous en projetez un) et vous brûlez d’envie de partager le tracé avec vos amis? Il existe pour cela plusieurs solutions :
- Vous disposez d’un appareil qui se charge pour vous de téléverser votre tracé et une flopée de données personnelles sur un site de partage. Là, tant pis pour vous et la confidentialité de vos données, c’est un choix.
- Vous prenez une carte, vous scannez et dessinez ensuite le parcours par dessus… un peu laborieux, non?
- Vous téleversez votre tracé sur un site qui offre des fonds de carte et un éditeur prêts à l’emploi. Généralement un fond de carte IGN (issu de Géoportail) est accessible. C’est là aussi un choix, mais votre carte ne sera toujours pas libre.
- Vous travaillez avec Umap.
C’est quoi Umap ? Il s’agit d’une application en ligne utilisant plusieurs fonds de cartes issus du projet OpenStreetMap. Comme il s’agit de cartographie libre vous pouvez alors en disposer à votre guise pour afficher vos parcours sur votre site ou partout ailleurs sans contrevenir à des questions de copyright. Vous pouvez même choisir la licence sous laquelle votre tracé pourra être partagé. Étape par étape, voici comment faire pour obtenir le tracé ci-dessous, c’est à dire permettre à d’autres de visualiser une zone de carte sur laquelle on a tracé quelque chose.
Étape 1
- Rendez-vous à l’adresse umap.openstreetmap.fr et ouvrez un compte (soit sur OpenStreetMap, ou en vous connectant avec vos comptes Github ou même Twitter si vous en avez).
- Cliquez sur “créez une carte”.
L’interface est relativement simple mais son aspect dépouillé (au profit de la cartographie) peut paraître déroutant.
En gros, à gauche vous disposez des outils vous permettant d’interagir avec le site et l’interface. À droite, vous disposez des outils d’édition. Ce sont ces derniers que nous allons voir de près.
L’idée générale est de partager un ou plusieurs calques sur un fond de carte. En termes clairs : je dessine quelque chose sur un calque et je partage ce calque pour l’afficher avec le fond de carte de mon choix. Les trois premiers boutons sont très faciles a) insérer un marqueur, b) tracer une ligne ou une c) forme. Pour chaque éléments que je dessine, qu’il s’agisse de ligne, de forme ou de parcours, je pourrai lui assigner des propriétés : un nom, un descriptif, des couleurs et d’autres propriétés (épaisseur de trait, interactivité, etc.) Ensuite, dans l’ordre d’apparition des boutons : d) importer des données, e) modifier les propriétés de la carte, f) changer le fond de carte, g) centrer la carte sur la zone que l’on est en train de travailler, h) gérer les permissions (possibilité de rendre l’accès privé).
Étape 2
- Importez vos données (outil d) soit depuis votre machine (bouton “parcourir”) soit depuis une url. Choisissez le format utilisé (par exemple GPX) et cliquez sur Importer.
- Sitôt importé, le tracé se dessine sur la carte qui se centre automatiquement sur la zone concernée.
- En double-cliquant sur le tracé du parcours, chaque point pourra être édité.
Étape 3
- Allez ensuite dans les paramètres (bouton e).
- Donnez un nom à votre carte et un descriptif.
Étape 4
- Ajoutez un ou plusieurs marqueurs pour définir des points remarquables de votre parcours : le départ, l’arrivée, un point de vue, etc.
- À chaque marqueur vous pourrez définir son nom (s’affichera au survol de la souris), un descriptif. Dans les propriétés avancées, vous pouvez définir sa couleur, sa forme. Dans les coordonnées, vous pouvez affiner si besoin en modifiant la latitude et la longitude.
Étape 5
Revenez aux paramètres de la carte (bouton e), puis:
- dans les Options d’Interface, cochez les boutons dont vous laisserez l’usage à vos lecteurs. Les paramètres par défaut peuvent suffire dans un premier temps.
- Les propriétés par défaut vous permettent de valoriser les éléments de votre carte en particulier le tracé. Choisissez par exemple une couleur bien tranchée (un rose fushia!)
- Dans notre exemple, nous avons choisi une opacité de 0.5 points et une épaisseur de 8 points.
- Bien d’autres options sont disponibles, vous pourrez y revenir plus tard.
Étape 6
- Cliquez sur enregistrer le zoom et le centre actuel (bouton g). Cela permettra à vos lecteurs d’accéder directement à la zone sur laquelle vous travaillez.
- Dans la partie crédit : renseignez les crédits que donnez à votre carte. Ici, nous plaçons la carte sous licence libre CC-By-SA.
Étape 7
- Cliquez sur le bouton f pour afficher les différents fonds de carte disponibles.
- Si vous courrez en ville, le fond de carte par défaut (OSM-Fr) devrait être suffisant. Si par contre vous courrez en nature (montagne, campagne, etc), et pour obtenir un affichage plus proche de ce que vous connaissez habituellement, choisissez le fond Open Topo Map
- Cliquez sur Enregistrer, en haut à droite.
Étape 8
- Allez sur les outils de gauche et cliquez sur le bouton exporter et partager la carte.
- Vous avez alors votre disposition le code l’iframe que vous pourrez coller sur votre site web ou ailleurs. Les options d’export vous permettent de régler la hauteur, la largeur et autres options que vous laissez à l’usage de vos lecteurs (à savoir: le lien “plein écran” permettra au lecteur d’afficher la carte ne grand sur le site Umap).
- L’autre solution étant tout simplement de copier l’url de votre carte (dans la barre de votre navigateur) et de l’envoyer à vos correspondants.
26.09.2014 à 02:00
Internet, pour un contre ordre social
Les bouleversement des modèles socio-économiques induits par Internet nécessitent aujourd’hui une mobilisation des compétences et des expertises libristes pour maintenir les libertés des utilisateurs. Il est urgent de se positionner sur une offre de solutions libres, démocratiques, éthiques et solidaires.
Voici un article paru initialement dans Linux Pratique num. 85 Septembre/Octobre 2014, et repris sur le Framablog le 5 septembre 2014.
Téléchargements :
26.09.2014 à 02:00
Faut-il libérer aussi le droit d'auteur ?
Qui conteste aujourd’hui à un auteur le droit de tirer les bénéfices de la vente de son œuvre ? Personne. Pourtant, que ce soit dans le domaine de la musique, du cinéma ou de la littérature, le discours des éditeurs tend à soutenir le contraire, à savoir que les actes de piratage vont avant tout à l’encontre des auteurs et l’accès libre aux ressources culturelles signifierait avant tout la mort de l’Auteur. Mais de quoi s’agit-il exactement ? Le nœud du problème, au delà de l’acte de piratage qui demeure un vol, c’est la question de la cession exclusive du droit de diffusion et de vente. Ces derniers temps, des éléments très concrets illustrent parfaitement les limites de la propriété d’une œuvre et le danger des monopoles de la culture. Pour ces derniers, un auteur vivant ou mort, collectif ou individuel, ce n’est plus qu’une question de rentabilité.
Sans droit d’auteur ?
Récemment publié en français, le livre de J. Smiers et M. van Schijndel intitulé Un monde sans copyright… et sans monopole a au moins le mérite de poser les jalons d’une réflexion de fond sur les modèles économiques de la culture. Il dénonce avec force les monopoles culturels et la conception de l’œuvre comme une propriété qu’un auteur cède en totalité ou en partie à un tiers, l’éditeur de bien culturel, lui même en position dominante sur le marché. Les méfaits de cette situation sont clairement énoncés : inégalités de revenus entre les auteurs (sans rapport avec la qualité de leur œuvre), exercice de monopole et priva(tisa)tion des droits (notamment par rapport aux pays les plus défavorisés, voir ce que sont les ADPIC).
Le copyright est une notion anglo-saxonne et le droit du copyright est utilisé dans beaucoup de pays, signataires de la Convention de Berne mais qui ne font pas la distinction radicale entre le droit moral, par nature inaliénable, et les droits patrimoniaux de l’œuvre. En France, quelle que soit l’œuvre et sa diffusion, un auteur conserve quoi qu’il arrive un droit moral sur elle, qui la protège de toute atteinte à son intégrité et à celle de son créateur. Dans le monde de l’édition livresque, la plupart du temps, un auteur signe un contrat avec une maison d’édition, et cède une partie - conséquente - de son droit patrimonial (la diffusion, la vente et le bénéfice) en échange ou non d’une rémunération basée, par exemple, sur le nombre de vente des exemplaires de son ouvrage. Comme il s’agit de droit patrimoniaux, les héritiers de l’auteur peuvent en disposer (dans certains pays, ils peuvent les vendre une fois pour toute), modulo certaines dispositions que le législateur a cru bon de définir, comme la durée maximum de l’usage de ces droits, au delà de laquelle l’œuvre est déclarée comme appartenant au domaine public. Pour un synthèse claire et complète de ces enjeux, voir Option Libre, de Benjamin Jean.
J. Smiers et M. van Schijndel proposent la possibilité d’une alternative, non pas tellement à l’exercice du droit d’auteur, mais à l’usage qui est fait de la notion de propriété d’une œuvre, une propriété “transférable” et source à la fois de richesse, de pauvreté et d’inégalité d’accès à la culture. Faut-il pour autant nier le fait que l’exercice du droit d’auteur est avant tout un moyen de protection de l’œuvre et de son auteur? Si les conclusions de Smiers et van Schijndel tendent à la polémique, il n’en demeure pas moins que certains événements récents donnent sérieusement à réfléchir.
La mésaventure de François Bon
François Bon est un écrivain, lauréat de nombreux prix littéraires (le dernier, en 2004, pour le livre remarquable intitulé Daewoo) . Il a notamment mis en œuvre, en 1997, le site remue.net, l’un des premiers sites web francophones dédiés à la littérature. Il a de même fondé le site publie.net, un site consacré à l’édition de textes numériques. Fort de ses capacités littéraires, François Bon a consacré beaucoup de temps à une nouvelle traduction du célèbre livre d’Ernest Hemingway Le vieil homme et la mer. L’unique traduction francophone de J. Dutourd, actuellement publiée par les Éditions Gallimard, laisse en effet à désirer à plus d’un point. Si F. bon a jugé qu’il pouvait en proposer une, c’est que, au Canada, une œuvre est déclarée comme appartenant au domaine public 50 ans après la mort de l’auteur, et Hemingway est mort en 1961. Ainsi, en ce mois de février 2012, via le site publie.net, François Bon proposait sa traduction dans une édition numérique. Très peu de temps après, les Éditions Gallimard faisaient savoir qu’ils étaient les seuls à pouvoir proposer une traduction française de l’ouvrage, ordonnaient l’arrêt de toute distribution du travail de F. Bon, et menaçaient de demander des dommages et intérêts pour les 22 exemplaires numériques déjà vendus à 2,99 euros pièce.
Comme le résume Eric Loret, sur Ecrans.fr :
Qui a raison ? François Bon savait que le texte du Vieil Homme et la Mer était dans le domaine public au Canada. Il croyait qu’il en était de même aux Etats-Unis, ce qui aurait rendu la plainte de Gallimard obsolète, le copyright ne pouvant être plus long en France que celui du pays d’origine de l’auteur. Hélas, comme l’a expliqué Cécile Dehesdin sur Slate.fr, les droits du Vieil Homme auraient pu tomber en 1980, soit vingt-huit ans après sa publication, si la dernière épouse de Hemingway n’avait eu la bonne mauvaise idée de les prolonger, soit jusqu’en 2047) Mais comme le copyright français, c’est soixante-dix ans après la mort de l’auteur, même si les droits courent encore dans son pays d’origine, la libération du texte de « Papa » serait plutôt vers 2032. En revanche, François Bon peut vendre sa traduction en ligne au Canada, à condition que le site marchand empêche les Français de se procurer le livre litigieux.
Gallimard, qui ne veut pas endosser le rôle du méchant, a fini par déclarer que « si on suit strictement la règle, nous sommes en effet les seuls à pouvoir publier une traduction de cette œuvre. Mais, vis-à-vis de la succession Hemingway, […] nous sommes tenus contractuellement de faire respecter ces droits. François Bon n’avait probablement pas connaissance de ces accords contractualisés. »
On comprend ici non seulement que le texte sera dans le domaine public en France en 2032 (à moins qu’une extension du temps d’exploitation ne soit votée d’ici là), mais aussi que Gallimard, propriétaire des droits d’édition du livre dans sa version française élaborée par Dutourd, est aussi dépositaire de tout droit d’une œuvre dérivée de The Old Man and the Sea sur le territoire français.
Que peut-on tirer de cette histoire? Certes, les héritiers d’Hemingway ont sûrement toutes les bonnes raisons du monde pour avoir négocié (et continuer de le faire) avec Gallimard les conditions de l’usage de l’œuvre originale en France. Et Gallimard a très certainement toute l’expérience juridique pour exercer ce monopole… même si la traduction n’est peut-être pas à la hauteur de l’œuvre originale. Mais tout est une question de point de vue : peu de gens, en dehors de chez Gallimard, justement, sont à même de pouvoir juger de la pertinence de la traduction de Dutourd, et encore moins d’élus sont donc censés proposer une traduction créative et plus en phase avec l’intention originelle de l’auteur… (quand on pense au nombre de traductions différentes de Platon, d’Aristote ou de Kant, toutes comparables et permettant aux lecteurs d’approfondir leurs connaissances de ces auteurs, cela laisse rêveur…).
Des lois américaines
Mais laissons-là l’ironie. Si l’on se penche sur les récents avancements juridiques outre-Atlantique, on s’aperçoit assez vite que se multiplient les freins au domaine public et à la diffusion des connaissances. Les raisons de ces limitations et de ce lobbying sont bien évidemment économiques.
Vers la fin de l’année 2010, j’avais publié sur le Framablog un texte intitulé « Pour libérer les sciences ». Ce texte avait pour objectif de synthétiser les problèmes liés à la centralisation de l’information scientifique et au monopole des éditeurs de revues, ceci dans le but d’abonder dans le sens d’un accès véritablement ouvert à l’information scientifique et promouvoir un modèle privilégiant la diffusion des sciences qui doit, à mon sens, passer par l’adoption des licences libres. J’étais loin de me douter alors que la tension était à ce point palpable dans le monde anglo-saxon.
Récemment, en janvier 2012, T. Gowers (médaille Fields en mathématiques) a lancé un appel au boycott scientifique contre Elsevier (éditeur de plus de 2000 revues) en mettant en cause les tarifs prohibitifs pratiqués par cette firme. Je ne signerai pas cette pétition car, à mon avis, focaliser uniquement sur les coûts masque totalement le principal problème : le fait que les connaissances soient soumises à un monopole d’éditeur et que ce monopole est lui-même accrédité par les scientifiques eux-mêmes qui cèdent leurs droits d’auteur à des revues sans que le public, qui pourtant a financé les recherches en question, ne puisse profiter de ces connaissances gratuitement comme un juste retour sur investissement. Je ne parle pas non plus des effets de ce monopole à la fois tarifaire et intellectuel contre les pays qui, eux, n’ont pas la chance de pouvoir accéder à ces revues faute d’en avoir les moyens financiers suffisants pour leurs universités.
Néanmoins, toujours aux États-unis, ce sont bien les éditeurs de revues scientifiques (Springer et Elsevier en tête) qui ont manœuvré pour soumettre en décembre 2011 à la Chambre des Représentants un projet de loi intitulé le Public Research Works Act (PRA). S’il est promulgué (mais en 2008 et 2009 déjà deux tentatives de cet ordre ont eu lieu), ce texte comportera des clauses visant à interdire l’accès libre (open access) aux informations scientifiques résultant de recherches pourtant menées sur les fonds publics. Tout l’intérêt de cette loi serait donc de centraliser l’information scientifique de manière exclusive dans les revues scientifiques qui verraient donc leur monopole de fait renforcé par un monopole de droit. Un chercheur n’aurait donc plus la possibilité de diffuser son texte par d’autres canaux que celui de la revue, et si possible, l’une de celles détenues par les grands groupes. Cela dit, tout n’est pas perdu dans les couloirs où les lobbies s’affrontent : une autre proposition de loi, la Federal Research Public Access Act of 2012 a été déposée en février 2012. Elle fait suite à d’autres tentatives (sans doute répondant aux tentatives précédentes des gros éditeurs), et entre pleinement en désaccord avec la PRA en proposant qu’au contraire les résultats publiables des recherches financées sur les fonds fédéraux soient systématiquement en accès libre.
Bien sûr, nous ne parlons pas ici de littérature (quoi que les livres scientifiques soient bien souvent dotés de bonnes feuilles à rendre jaloux certains lettreux). Ce qui est en question, c’est la notion de bien commun. La particularité des bien culturels, qu’ils soient scientifiques ou artistiques, c’est que tous sans exception ont une part de l’humanité qui devrait revenir sans restriction aucune au public. L’exercice des monopoles culturels repose uniquement sur le talon d’Achille de l’exclusivité de la diffusion ou de l’extorsion de la propriété intellectuelle d’un auteur (en faisant croire que l’auteur n’a de compte à rendre ni à lui même ni au public, même si ce dernier a financé ses recherches ou si la culture de l’auteur est elle même issue d’une culture plus large qui le dépasse à titre individuel). Qu’apporte réellement un éditeur si ce n’est un savoir faire dans la fabrication d’un ouvrage et dans sa diffusion, bref un support ? Pourquoi ce support serait-il censé donner une quelconque légitimité à la privation de l’œuvre, en décidant qui a le droit de la lire et qui n’en a pas le droit, ou en privant l’auteur lui-même de sa propre volonté de diffusion ? En somme : comment pourrions nous dénier toute notion de bien commun culturel au profit exclusif du capital financier ?
Oui, il faut pirater
Dans certains cas, le piratage me semble être la seule solution envisageable. De fait, cette pratique est beaucoup plus courante et ancienne qu’on se l’imagine (souvenez vous du slogan « le photocopillage tue le livre », affiché au dessus des photocopieuses françaises à la demande des « syndicats » du livre… qui pourtant semblent se porter très bien aujourd’hui). Pour reprendre le cas des scientifiques, c’est même une pratique jugée normale. Un chercheur publie un article dans une revue à grand tirage pour plusieurs raisons : 1) parce que le système du publish or perish l’y oblige, 2) parce qu’il est fier (et a bien raison de l’être) d’avoir mené ses recherches, 3) parce qu’il veut que la communauté scientifique et plus généralement le public ait connaissance de ses recherches et 4) parce que, une fois publiées, ses recherches seront discutées et participeront à l’avancement des sciences. Les deux dernières raisons ne peuvent souffrir aucune espèce de restriction. Or, l’article ou le livre, avant même d’être publié, a déjà fait l’objet d’une circulation à l’intérieur de la communauté scientifique (le chercheur a besoin de l’avis de ses collègues), et même après la publication, l’auteur accède volontiers (en raison de l’impératif supérieur de l’intérêt de la Recherche) aux demandes de ses collègues qui voudraient se procurer un exemplaire ou, une fois que la revue est parue et presque oubliée, l’auteur diffuse son texte a qui veut le lire, et ses collègues font de même. J’ai moi-même un nombre assez impressionnant de textes scientifiques parus dans des revues et que je distribue ou qui m’ont été distribués, tout simplement parce que ces textes sont d’abord des outils de travail. Dans la mesure où l’auteur signe un contrat d’exclusivité avec la revue, cette situation ne devrait pas exister : c’est bel et bien du piratage généralisé et même institué en pratique. Je dirais même, pour en finir avec cet exemple, qu’il s’agit là de bien commun et qu’une œuvre intellectuelle (de l’esprit) ne devrait jamais être soumise à quelle exclusivité que ce soit, au même titre que les logiciels libres (qui irait breveter un algorithme : iriez vous breveter « 2+2=4 » ?… ha si, Microsoft l’a fait, et n’est pas le seul), et au contraire des brevets végétaux, par exemple.
Pour le reste, ce sont les États eux-mêmes qui, influencés par les multinationales de l’industrie culturelle, sont amenés à réguler les conditions de versement dans le domaine public en dépit du bon sens. Cela constitue en réalité un véritable appel au piratage, car dans ce jeu, personne n’est dupe : c’est uniquement pour satisfaire les intérêts lucratifs des acteurs des marchés culturels. Durant ces dernières décennies, dans à peu près tous les pays signataires de la Convention de Berne, la durée de protection du droit d’auteur n’a cessée d’augmenter, reculant d’autant plus le moment où une œuvre est déclarée comme faisant partie du domaine public. Si la Convention de Berne obligeait les signataires à adopter les mesures nécessaires pour une protection minimale de 50 ans, elle empêchait nullement l’adoption d’une durée plus longue, si bien que, dès lors que la durée de protection n’est pas harmonisée, les pays ayant le plus d’intérêts économiques entraînaient mécaniquement les autres à adopter des durées plus longues. Ainsi le Copyright Term Extension Act voté aux États Unis en 1998 et soutenu notamment et médiatiquement par la Walt Disney Company, allongeait de 20 ans la durée de protection, en la passant à 70 ans. Quelques années après, en avril 2009, le Parlement Européen décida d’emboîter le pas aux États-Unis, cette fois dans le domaine du disque et des artistes-interprètes. La décision du Parlement fut cependant retardée par une majorité de pays s’opposant à cette décision pourtant remise chaque année au vote. C’est en 2011 qu’elle fut finalement entérinée.
Jusqu’à aujourd’hui, les augmentations successives de la durée de protection n’ont fait qu’aggraver les effets de l’Uruguay Round Agreements Act (URAA), adopté en 1996, et qui a des répercutions directes et complètement absurdes sur le statut des œuvres étrangères aux États-Unis. Comme il est fort bien résumé sur le blog de Wikimedia France :
Avec l’URAA, les États-Unis ont protégé des œuvres étrangères « pour la durée de protection restante dont l’œuvre aurait bénéficié si elle n’était jamais passée dans le domaine public aux États-Unis ». Or, la loi des États-Unis donne aux œuvres publiées entre 1924 et 1978 une protection de 95 ans après la date de publication. Cela provoque des situations absurdes : les États-Unis ne reconnaissant pas la « règle du terme le plus court », ces œuvres ont beau entrer dans le domaine public dans leur pays d’origine, elles restent protégées aux États-Unis.
… Ce qui ne va pas sans poser problème pour la Wikimedia Foundation et, donc, l’encyclopédie Wikipédia, qui héberge de nombreuses œuvres et reproductions d’œuvres du domaine public dans certains pays alors même que les serveurs sont sur le sol américain.
Le domaine public, qui jusqu’à présent était considéré comme le panthéon juridique des biens culturels, est donc fortement remis en cause. L’exemple du rôle joué par Gallimard, dans l’épisode que nous avons mentionné plus haut, montre aussi que la législation américaine en la matière a des impacts cruciaux au niveau international. Les lobbies mondiaux des industries culturelles vont jusqu’à imposer aux États de se doter d’un appareillage juridique et technique afin de surveiller les usages des outils de communication, principaux vecteurs modernes de la diffusion des œuvres. Tels sont les principes de SOPA (aux États-Unis) et ACTA (en Europe).
Dans un article récent, Jérémie Nestel dénonce ces mésusages du droit d’auteur et pointe du doigt la mort annoncée du domaine public. La question qu’il pose est aussi le titre de son article : « Pourquoi investir sur des auteurs vivants quand les morts sont aussi rentables ». Car, au delà de tous les exemples où le droit d’auteur est dévoyé au service des intérêts financiers par le truchement de lois toutes aussi absurdes les unes que les autres, il y a la question de l’encouragement à la création, bientôt relégué au second plan. Les monopoles de la cultures semblent davantage se mobiliser pour la protections de leurs intérêts qu’en faveur de la création culturelle.
Son affirmation sera aussi la conclusion de cette partie :
À ceux qui arguent que le piratage nuit à l’économie de la culture, « nous » répondrons que c’est l’allongement toujours plus excessif des droits d’auteurs.
On peut effectivement se demander si le piratage de certaines œuvres ne revient pas, tout simplement, à leur faire prendre le chemin du domaine public, à contre-pied des abus des monopoles culturels. Une œuvre de salut public, en quelque sorte.
Tout le monde s’octroie des droits
Les œuvres d’auteurs disparus ne sont pas les seules à se trouver au centre des intérêts marchands. Il y a aussi les œuvres livresques disparues, toujours placées sous le régime de la protection du droit d’auteur, mais jugées trop peu rentables pour être publiées. Là aussi, on pourrait se demander pourquoi, dans la mesure où ces œuvres ne trouvent pas suffisamment de lecteurs et/ou d’investissements pour être publiées par les maisons d’édition, les auteurs eux mêmes ne pourraient pas les placer sous licence libre, ou, à tout le moins, profiter simplement des offres d’impression à la demande. Mais dans certains cas, c’est impossible car les maisons d’édition ont acquis les droits de diffusion pour une longue durée, ou parce que les auteurs ont disparus et que les œuvres se trouvent orphelines sans toutefois appartenir au domaine public.
En novembre 2011, le Sénat Français a proposé une loi visant à permettre l’exploitation numérique des livres indisponibles au XXe siècle. Pour l’AFUL, dont le communiqué sonnait manifestement très juste, cette loi n’a pour autre effet que de « bloquer la politique européenne d’ouverture de la culture et des savoirs et à faire subventionner les éditeurs par les collectivités territoriales et par l’État ». Pour preuve, en ce mois de février 2012, la BNF annonce en trompettes qu’après avoir construit leur base de donnée, elle aura le privilège de numériser plus de 500.000 œuvres ne figurant pas dans le domaine public mais seulement indisponibles à la vente. Quant aux auteurs, ils pourront faire prévaloir leur droit de retrait du processus de numérisation mais à aucun moment on ne leur demandera la permission a priori. Nombre d’entre eux, pourtant, pourraient très bien refuser ou préférer voir leurs œuvres diffusées sous format numérique de manière gratuite ou profiter de cet épuisement de ventes pour les placer sous licence libre. Néanmoins, cette préemption de la BNF — organisme public — sur le droit d’auteur ne s’arrête pas à de telles considérations : le processus de numérisation se fera sur une partie des fonds récoltés par le Grand Emprunt, et une fois cet investissement effectué sur des fonds publics par un organisme public, les bénéfices tirés de la vente de ces livres numériques seront partagés, via une gestion collective paritaire, entre les éditeurs et les auteurs (voir le communiqué de presse). Oui vous lisez bien : une rémunération des auteurs (normal) ET une rémunération des éditeurs, ceux-là même qui ont organisé la rareté des œuvres et cessé leurs publications faute de satisfaire aux exigences de rentabilité ! L’État français va donc numériser et publier des œuvres à la place des éditeurs pour ensuite les rémunérer sous prétexte qu’ils en détiennent encore les droits. C’est une magnifique entourloupe rendue possible à la fois par les opportunités que laissent les contrats de cession exclusive de droit et par la cupidité (où les intérêts bien compris de certains fonctionnaires).
Il y a quelques temps, en juillet 2011, Hachette et Google avaient signé un accord de partenariat portant sur les mêmes principes: Google numérise et diffuse, les intérêts de l’éditeur et du diffuseur sont partagés. Au moins, le partenariat restait privé, même si on peut se poser la question de la durée de leur protection une fois les œuvres dans les mains d’un acteur américain. Or, la BNF qui a si longtemps fustigé les principes de Google, participe aujourd’hui exactement aux mêmes travers et, au lieu de favoriser la diffusion ouverte d’œuvres et rémunérer exclusivement les auteurs, assure tout le travail à la place des éditeurs, sur les deniers publics, et va en plus leur reverser des dividendes. Le citoyen français payera donc deux fois. Il ne reste plus qu’à attendre l’arrivée d’une taxe sur les FAI et les contenus téléchargeables pour un jour payer une troisième fois. Ne parlons pas des procédés de type DRM qui vont être imposés aux lecteurs, utilisant une pléthore de logiciels privateurs et de formats incompatibles.
La guerre des formats et de la circulation des biens culturels ne fait que commencer.
09.09.2014 à 02:00
THK: premier trail à ambiance médiévale
Le trail du Haut Koenigsbourg ! Il était temps que je cesse enfin de faire l’ours solitaire au fond des bois pour courir une épreuve organisée. Il y en aura peu, car décidément j’aime bien être seul, mais pour cette première, un petit récit de course s’impose, d’autant plus que l’organisation fut extraordinaire…
Nous étions 500 et par un prompt renfort… !
07h00 du matin le 07 septembre 2014, arrivée à Kintzheim, petite bourgade alsacienne charmante tout juste sortie du brouillard matinal.
J’arrive pile au top départ de la version 54km du Trail du Haut Koenigsbourg, juste à temps pour taper la claque aux courageux qui s’élancent dans la fraîcheur des vignes. Une heure après, ce sera mon tour, le temps d’un petit échauffement et quelques étirements dans le quartier qui se réveille doucement.
Pour sa 4e année, le trail du Haut Koenisgbourg offrait pas moins de 4 épreuves dans la même matinée : 12km (350m+), 24km (850m+), 54km (2020m+) et 84km (3284m+).
Si on lit un peu les témoignages ici et là sur les réseaux sociaux, l’organisation fut exemplaire et c’est peu dire. L’accueil et la gestion d’un total de 1664 coureurs (non, ce n’est pas le trail du Haut Kronenbourg, relisez bien) ne fut pas une mince affaire, mais ajoutez-y, en vrac :
- un balisage ultra clair, avec de jolies pancartes parfaitement visibles
- un parcours littéralement enchanteur, avec des points de vue variés
- un passage aménagé dans le château du Haut Koenigsbourg, si!
- et en prime des ménestrels avec de la musique médiévale, et des châtelains pour nous encourager,
- un énorme camion-douche, des ravitaillements sympas et complets, et pour couronner le tout, une chaude ambiance au départ comme à l’arrivée.
Voilà pour poser le cadre de cette course. Autant dire qu’on ne peut pas regretter de s’être inscrit. Du coup, la barre est placée très haut pour ce premier trail : ca va être dur de s’inscrire à d’autres courses!
C’est parti, ca s’accroche derrière
07h40 : Antoine me rejoint. Le collègue n’en est pas à son premier trail, loin de là. Il est à l’aise, lui… Moi, un peu intimidé par tout ce monde, je ne sais pas trop où me placer. Devant, n’y pensons même pas. Tout derrière? pourquoi pas… ou bien dans le gros de la troupe…
Peu importe, en définitive, car les 4 premiers kilomètres devraient servir à étirer au maximum le cortège, enfin, presque…
08h00 : le départ des 24km est donné par Môssieur l’maire de Kintzheim en personne. Quelques 800 coureurs s’élancent en direction des vignes. Diantre! ca part vite! Ha zut, ma montre qui ne capte pas le satellite… bidouillage…
« – tu captes, toi? – non, pas de réception! – ha si, ca vient. Hé mais c’est quoi ce cardio de malade? Elle délire c’te montre. »
En fait, le cardio se stabilisera en milieu de course. Il faut dire que c’est mon principal repère (quand d’autres regardent plutôt leur vitesse): donc soit on est vraiment parti très vite, soit le cardio déconnait, plutôt un peu des deux… Je n’en saurai pas plus. Ca monte dans les vignes, terrain bitume/béton pour commencer. On se réchauffe néanmoins au soleil rasant, dans une lumière typiquement alsacienne, juste au dessus des vignes encore un peu brumeuses, avant d’entrer dans la forêt du Hahnenberg.
Premier passage single après le premier ravitaillement… ca bouchonne… et un peu de déception…. J’avais fait le parcours en solo le 22 août, et à cet endroit, on peut courir… enfin, trottiner, quoi. Tant pis, c’est sympa, on monte au Hahnenberg file indienne, youkaïdi, youkaïda.
- Je perds complètement Antoine de vue
- il me dira plus tard avoir tapé une grosse accélération pour doubler plusieurs coureurs. Moi, je n’ai pas osé de crainte de devoir bousculer, et puis je discutais du parcours avec mes collègues de devant…
Arrivé à ce premier sommet, la course commence vraiment. Pas le temps d’admirer le paysage (et pourtant une très belle vue sur la plaine d’Alsace) : je décide de descendre aussi vite que possible. Finalement, je n’aurai pas gagné énormément de temps : la descente n’est pas longue et on se retrouve ensuite sur un chemin assez roulant.
Mon dossard fait des siennes, il joue au Sopalin avec la sueur : mauvaise qualité (beaucoup de coureurs sont dans le même cas, cela arrive). Je le remets, il se re-déchire… Tant pis, je le sortirai au besoin… direction mon slip.
A partir du parking de la Montagne des Singes (km 9), je commence seulement à prendre mon rythme de croisière. Le passage dans le sous-bois moussu est un enchantement. Un ravitaillement marrant au Refuge Pain d’Epices (on nous distribue… du pain d’épices, donc) et on commence l’ascension vers le château du Haut Koenigsbourg.
C’est sans doute la partie la plus pénible du parcours : un long chemin forestier ascendant, du genre où tu marches plus vite que tu ne cours, mais pas systématiquement…
Et là arrive la récompense (km 18)! le sommet ? non! le château : d’abord une châtelaine m’invite à emprunter une poterne le long du mur d’enceinte…. des escaliers (fabriqués exprès pour nous?) puis on se met à courir sur le chemin de ronde du château.
« Attention la tête! » Hé oui, les médiévaux étaient en moyenne plus petit que nous autres… enfin, pour ce qui me concerne avec mon 1,68m je n’étais pas vraiment concerné. Et là, j’ai pensé aux grands coureurs de devant, qui avaient franchi la ligne d’arrivée depuis longtemps… Après tout, un trail, c’est technique, et il faut courir aussi avec la tête. Ici, au sens propre comme au sens figuré.
Après le château, la descente vers Kintzheim. Enfin, une descente… qui comprend tout de même une assez longue partie sur un replat entre les deux sommets. C’est la particularité des Vosges. Donc rythme de croisière, on pense à autre chose. Je vois pas mal de gens avec des sales crampes en train de faire des étirements… je décide de ne pas forcer. De toute façon, l’arrivée n’est pas loin…
Arrivée et conclusion
10 minutes avant l’arrivée. Avant une dernière pente bétonnée (où je préfère marcher quelques mètres), je me retrouve un peu seul, j’en profite pour faire le point sur le temps de parcours : je mettrai finalement le même temps qu’en solo: 3h05. Compte-tenu du fait que les 8 premiers kilomètres ont été plutôt laborieux, j’ai plutôt bien couru dans l’ensemble, ce qui me laisse une belle marge de progression pour le prochain trail.
Évidemment, j’ai pris un rythme plutôt ronflant : le plus difficile aura été de courir en groupe et composer avec le rythme des autres dans les passages étroits. Beaucoup de temps peut être gagné si l’on est seul, par conséquent, il faut être un peu plus stratégique sans toutefois se précipiter.
Enfin l’arrivée! Je retrouve mon collègue qui m’a précédé d’une dizaine de minutes. Bah! il a fait la photo, merci !
17.07.2014 à 02:00
Questions de sécurité démocratique
Le jour même de la série d’assassinats terroristes à Charlie Hebdo et Porte de Vincennes en ce mois de janvier 2015, plusieurs politiciens ont proposé, au nom de la sécurité collective, de revoir l’équilibre entre les libertés individuelles et la sécurité. Sur ce blog, j’ai eu l’occasion, le lendemain des faits, de signaler le paradoxe qu’il y avait à former, au nom de la liberté d’expression, une union politique autour des questions de sécurité collective dans une guerre contre le terrorisme. Dès lors il me semble important de se pencher sur les discours politiques qui ont et qui vont scander la vie publique cette année 2015.
Dans tous les cas où la sécurité publique est abordée de manière politique, le choix est imposé entre une définition de la démocratie et l’équilibre entre les droits individuels et la sécurité. Or, de tous les concepts, celui de sécurité est au mieux défini de manière floue (ce qui n’empêche pas la bienveillance, lorsque par exemple la santé ou la défense des salariés sont reconnues comme des formes de sécurité) et au pire complètement dévoyé pour servir des intérêts divergents.
Les études de cas ne manquent pas autour de la notion de sécurité démocratique, telle cette étude de C. Da Agra intitulée « De la sécurité démocratique à la démocratie de sécurité : le cas Portugais » (dans Déviance et Société, 25, 2001), ou encore cette étude sur le cas colombien. L’Unesco défend l’idée que la question de la sécurité démocratique devrait être conçue « comme une matrice au sein de laquelle les questions relevant de la sécurité pourraient être abordées de façon permanente par l’ensemble des acteurs de la société » (voir ici), de manière à éviter d’être accaparée par quelques uns et les conflits d’intérêts. Telle est la problématique soulevée par cet article sur le cas colombien, justement.
L’annonce d’une conférence qui se tiendra prochainement à l’Université de Strasbourg (voir le programme) m’a fait connaître une partie des travaux de Liora Lazarus, professeure de droit à l’Université d’Oxford. Cette dernière travaille depuis longtemps sur les questions relatives au droit et à la sécurité. Un texte de sa part, rédigé en 2010 et publié en 20121, intitulé « The Right to Security – Securing Rights or Securitising Rights » (Le droit à la sécurité – sécuriser les droits ou sécuritariser les droits) m’a semblé tout particulièrement visionnaire, lorsqu’on le lit à la lumière des récents événements terroristes sur le sol français.
Je ne résiste pas à vous livrer ici la traduction personnelle (et donc perfectible) d’une section de son article, intitulée Rhetorical expressions of the right to security (les expressions rhétoriques du droit à la sécurité).
Rhetorical expressions of the right to security
Les lecteurs ne seront pas surpris d’apprendre que le droit à la sécurité est souvent mentionné dans les discussions relatives à la « guerre contre le terrorisme ». On recourt au droit pour justifier les mesures coercitives anti-terroristes, tant à l’intérieur qu’à l’extérieur des États-Unis, ou même pour justifier l’invasion militaire ou les réponses en Afghanistan2, au Kosovo3, au Pakistan4, et dans le cas de la Colombie, en Équateur5. Il y a beaucoup d’exemples, mais deux d’entre eux démontrent particulièrement bien ce point. Lors de l’exposé de la politique anti-terroriste de l’Union Européenne, Franco Frattini déclara : « Notre objectif politique reste à trouver le juste équilibre entre le droit fondamental à la sécurité des citoyens, qui est en premier lieu le droit à la vie, et les autres droits des individus, y compris le droit à la vie privée et les droits procéduraux »6. De même au Royaume-Uni, à propos de politique anti-terroriste en 2006, John Ried, ancien ministre de l’Intérieur, déclara : « Dans la mesure où nous sommes confrontés à une menace d’assassinat de masse, nous devons accepter que les droits individuels dont nous jouissons devront s’équilibrer avec le droit collectif à la sécurité, à la protection de la vie et de l’intégrité physique que nos citoyens exigent. »7
Les hommes politiques ne sont pas les seuls à tenir ce langage. Les citoyens aussi articulent le droit à la sécurité par rapport à la « guerre contre la terreur ». Comme l’écrit Emily Cochrane dans le Carstairs Courier en Alberta :
« Le Canadian Charter of Rights and Freedoms…, déclare le droit à la sécurité des personnes. Lorsque des membres d’une organisation terroriste Taliban firent s’écraser des avions dans une attaque stratégique contre l’Amérique le 9/11, en tuant 2,973 personnes, ceux qui ont soutenu ces actions et ceux qui les ont abrité, ont perdu leur droit à la sécurité tout comme ils ont causé la perte de la vie de tant d’autres personnes. Le peuple des États-Unis a un droit à la sécurité – de vivre sans peur, et le seul moyen d’y parvenir était de neutraliser la menace à la source. »8
Ces références nous apprennent deux choses importantes : premièrement que le droit à la sécurité est mentionné pour renforcer la rhétorique politique dans une situation de conflit militaire et de guerre contre le terrorisme, d’une manière subtile et importante. Ce processus de légitimation (et peut-être de désinfection) par référence au discours sur les droits est ce que nous pourrions appeler une « conformation de la sécurité au droit » (righting security). Le cadrage du droit sur la sécurité permet aux politiques de faire passer leurs actions coercitives comme le corrélat nécessaire d’un droit. En d’autres termes, la recherche de la sécurité n’est pas seulement un choix politique en vertu d’un bien public, c’est l’accomplissement d’un devoir imposé à l’État par le droit fondamental de chaque individu à la sécurité.
De manière toute aussi cruciale, présenter de telles actions de l’État comme ayant été motivées par notre droit fondamental est au cœur de la rhétorique du « rééquilibrage » entre la sécurité et les droits de l’homme. Cette langue du rééquilibrage oppose de manière générale le droit à la sécurité de la majorité aux droits des minorités qui pourraient être violés.
L'« altérité » intrinsèque dans ce rééquilibrage rhétorique est bien illustré par l’ancien Procureur général Lord Goldsmith, qui a fait valoir qu’il est difficile de trouver un « calcul utilitaire simple pour trouver l’équilibre entre le droit à la sécurité du plus grand nombre et les droits de quelques uns »9. Néanmoins, les politiques sont en désaccord quant à l’importance du droit à la sécurité, et donc savoir où situer l’équilibre entre la sécurité et les droits de la défense qui lui sont rivaux. Alors que John Reid croit que « le droit à la sécurité, à la protection de la vie et de la liberté, est et doit être le droit fondamental sur lequel tous les autres doivent s’appuyer »10, Sir Menzies Campbell11 note que tandis que le public « a un droit à la sécurité », il « a aussi un droit à la sécurité contre la puissance de l’État »12. Pourtant, une telle définition de la sécurité comme un droit de la défense contre l’intervention d’État est, dans la rhétorique politique, moins couramment utilisée que la dimension positive du droit issue des devoirs coercitifs de l’État.
Ces idées divergentes à propos du droit à la sécurité, et son poids dans la balance entre sécurité et liberté, joue directement sur la manière dont les gouvernements renforcent les pouvoirs de police et évaluent l’activité militaire devant une menace sécuritaire. Il y a très peu de clarté ou de conseil sur la manière d’équilibrer le droit à la sécurité là où il est invoqué pour légitimer la force de l’État aussi bien dans le contexte national qu’international. Cette situation est problématique parce que la portée du droit à la sécurité, son poids par rapport à d’autres droits, ses limites admissibles, et les devoirs corrélatifs qu’il impose à l’État, sont toutes des questions auxquelles il faut répondre avant de savoir comment les « équilibres » pourraient être atteints.
-
Voir Liora Lazarus, « The Right to Security – Securing Rights or Securitising Rights », dans : Rob Dickinson et al., Examining Critical Perspectives On Human Rights, Cambridge : Cambridge Univ. Press, 2012, p. 87-106. ↩︎
-
E. Cochrane, Troops deserve our support, Carstairs Courier (Alberta), 6 November 2007. ↩︎
-
The Vancouver Sun, "Yeltsin’s final fling: The Russian leader, often portrayed in the West as a boorish drunk, had substance that belied his unvarnished style", 27 January 2001: "The Kosovo conflict demonstrated the worst political tendencies and double standards of modern Europe. It was claimed, for example, that human rights were more important than the rights of a single state. But when you violate the rights of a state, you automatically and egregiously violate the rights of its citizens, including their rights to security". ↩︎
-
The Press Trust of India, "Pak should give firm assurance against abetting terrorism", 30 December 2001: "Stating that terrorism had crossed the lakshman rekha (the limit of patience) with the December 13 attack on Indian Parliament, Advani said, no sovereign nation which is conscious of its right to security can sit silent. It has to think as to what steps need to be taken to check this menace."" (Quoting India’s Federal Home Minister L. Advani in a programme on national broadcaster, Doordarshan). ↩︎
-
BBC Worldwide Monitoring, "Colombia defends its incursion into Ecuador" 23 March 2008: Communique issued by the Presidency of the Republic in Bogota on 22 March. "The Colombian Government hereby expresses:. 1/ Its full observance of the decisions adopted by the OAS. 2/ Reminds the world that the camp of alias Raul Reyes was a site of terrorists who acted. ↩︎
-
European Commissioner responsible for Justice, Freedom and Security "EU counter-terrorism strategy" European Parliament, 5 September 2007, Speech/07/505. ↩︎
-
J. Reid, "Rights, security must be balanced", Associated Press Online, 16 August 2006. ↩︎
-
Cochrane, Troops deserve our support. ↩︎
-
Full text of speech reported by BBC News “Lord Goldsmith’s speech in Full” 25 June 2004, available at news.bbc.co.uk (accessed 14 September 2010). ↩︎
-
- Full text of speech reported by BBC News “Reid urges human rights shake-up”, 12 May 2007, available at news.bbc.co.uk (accessed 14 September 2010).
-
(NdT.:) député au parlement du Royaume-Uni, voir notice Wikipedia. ↩︎
-
Speech made in the House of Commons debates into extending the limits of pre-charge detention, 25 July 2007, HC Deb., vol. 463, col. 851. Ironically, this framing of security as a defensive right against state action was part of the rationale behind the Second Amendment of the US Constitution which allowed for an armed citizenry to defend against abuses by undemocratic government (L. Emery, "The Constitutional right to keep and bear arms" 28(5) Harvard Law Review (1915) 473, 476). ↩︎
17.07.2014 à 02:00
Entraînement trail, autour de Gérardmer
Au cas où parmi les lecteurs de ce blog certains ne sauraient pas où aller courir, je compte proposer quelques parcours de trail que j’ai testé au moins deux ou trois fois. Aujourd’hui, une cuvée personnelle sur les hauteurs de Gérardmer. Vous aurez de même l’occasion de croiser les pistes de la station de trail gérômoise, dont j’aurai l’occasion de parler ultérieurement. Ce parcours a une vocation à la fois touristique et sportive. Il est adapté au traileurs débutants qui, sans forcer dans les montées où les passages peuvent être techniques, pourront assez facilement arriver au bout. Il vous mènera vers les « écarts » gérômois. Vous admirerez quelques anciennes fermes remarquables ainsi que des points de vues originaux et peu fréquentés.
Commentaires
-
- **Km 0 - 2,5—** Le parcours débute doucement en guise d'échauffement. Depuis le Square Briffaut, on longe la rive du lac de Gérardmer, en passant par le sentier du Tour du Lac. Toutefois, attention aux promeneurs au km 2 : le passage est rocheux et étroit. Si cette solution ne vous tente pas, il est possible de passer par la route, légèrement en amont.
- **Km 2,5 - 3,5—** Montée de la Cascade de Mérelle. Sur un chemin romantique (assez humide et glissant par moment) on remonte le ruisseau de Mérelle, jusque sa cascade. Au delà de cette dernière, il est possible de reprendre la course progressivement pour enchaîner jusqu'au sommet. Cette section est assez technique : sol rocailleux et humide.
- **Km 3,5 - 6—** Une section typique des hauts gérômois avec trois écarts remarquables : Frémont, Le Pré Chaussotte, Noirupt. Le chemin monte progressivement jusqu'au premier sommet du parcours. Aucune difficulté de terrain, chemin large.
- **km 6 - 9,5—** Descente jusqu'au Col de Sapois, puis jonction jusqu'au Col du Haut de la Côte. Une section très rapide au début, si on pousse un peu le rythme de la descente, il sera possible ensuite de récupérer doucement sur le chemin de l'Urson. Pas de difficulté, on peut en profiter pour se nourrir un peu.
- **km 9,5 - 12,7—** L’endurance est la clé de cette section longue et progressive. On emprunte les pistes de ski nordique de Gérardmer jusqu'au lieu-dit les Hautes Vannes. Garder de l'énergie sous la semelle pour enchaîner la section suivante.
- **km 12,7 - 13,9—** La montée vous mènera jusqu'au chalet-refuge de la Croix Claudé. Le chemin est tantôt rocailleux, herbeux et humide. Les plus aguerris pourront courir, au moins par moment, mais attention à la longueur... et le parcours n'est pas fini...
- **km 13,9 - 15,6—** La crête la plus sympathique du parcours puisque, en cas de beau temps et à partir de la Roche des Bioqués, on pourra admirer la superbe vue sur la vallée du Chajoux, l'une des deux vallées de la commune de La Bresse. Le sentier est terreux et rocailleux, et se termine en pente douce jusqu'à la reprise vers le sommet de Grouvelin
- **km 15,6 - 17,3—** Montée puis descente du sommet de Grouvelin vers la ferme de Grouvelin. N'hésitez pas à marquer un arrêt au sommet, à la table d'orientation (1137m)!
- **km 17,3 - 21,3—** Sur chemin large, descente vers la Mauselaine à travers les piste de ski alpin de Gérardmer. Vue sur la vallée de Gérardmer... Attention aux cuisses!
- **km 17,3 - 22—** Après un peu de bitume (inévitable), descente assez technique par la Roche du Rain. Attention aux promeneurs en sens inverse (ou aux traileurs qui terminent l'un des parcours de la station de Trail!). Sentier rocailleux et terreux.
- **km 22 - fin—** Retour dans la ville de Gérardmer, en évitant le centre, jusqu'au Square Briffaut.
- Longueur : 23,56 km
- Denivelé positif cumulé : 998 m
- Denivelé négatif cumulé : 991 m
- Altitude maxi : 1129 m
- Altitude mini : 659 m
- Voir la carte du parcours
Infos
14.07.2014 à 02:00
Faire du sport librement avec Turtle Sport
Après avoir cherché un cardio-fréquencemètre + GPS fiable et qui ne nécessite pas de connexion à un réseau social quelconque, il faut aussi avoir un bon logiciel capable de lire les traces et utiliser les informations récoltées durant la course. Sous GNU/Linux, un logiciel qui fait parler de lui, c’est Turtle Sport.
Qu’est-ce que Turtlesport ?
Turtlesport est un logiciel sous licence GNU LGPL. Il n’est pas exclusivement réservé à GNU/Linux et tourne aussi bien sous MSWindows que sous MACOS. Un logiciel sympathique, donc, puisque, en profitant d’une communauté élargie, il est traduit en 9 langues.
Pour reprendre son descriptif, Turtle Sport est « un logiciel pour communiquer avec les produits Garmin fitness (forerunner and edge) ». En réalité, il est capable de lire des formats de fichiers comme .fit
, .gpx
, .tcx
, .xml
. etc. Donc, si vous avez un dispositif capable de produire de tels fichiers et que vous pouvez les récupérer, il suffit ensuite de les importer. Turtlesport peut néanmoins communiquer avec les dispositifs Garmin de manière assez efficace, d’autant plus que les distributions GNU/Linux sont capables de le faire même nativement. Pour ce qui me concerne, je connecte ma montre Garmin Forerunner et Turtle Sport me liste les courses effectuées.
Le reste est à l’avenant : on navigue entre les courses par exemple sur le mode d’un agenda, et après avoir entré vos données personnelles (fréquence cardiaque max, taille, poids, etc) vous pouvez commencer à travailler les aspects statistiques et les performances. Les fonds de cartes, quant à eux sont au choix : de Google Map à OpenStreetMap…
Enfin, si vous désirez partager votre course avec un de vos correspondants, il est possible de la lui envoyer par courriel par exemple sous la forme d’un fichier GPX (exporté) ou d’un lien Googlemap en un clic directement depuis Turtle Sport. Cela présente aussi l’avantage de disposer du fichier GPX qui, lui, est lisible sur de nombreux sites dédiés au partage de tracés : ainsi vous choisissez ce que vous voulez partager sur Internet…
23.05.2014 à 02:00
Vosges opération libre
Vosges Opération Libre : voilà, c’est fini… et c’était formidable ! En commençant ce projet, je n’aurais jamais parié sur autant d’enthousiasme de la part des participants et des visiteurs !
Le week-end des 17 et 18 mai 2014, près de 200 visiteurs sont venus se joindre aux membres du collectif d’associations et de SSLL qui présentaient à Gérardmer un panel très complet du Libre, de ses enjeux et de ses applications dans les domaines de la culture, de la technique et des données ouvertes. Profitant au mieux du cadre ensoleillé de la Villa Monplaisir et de l’Espace Lac, les visiteurs ont pu assister à des conférences de premier ordre, adaptées au Grand Public, et consulter sur leurs stands plusieurs associations et SSLL, et même participer à des ateliers thématiques. Le partage et la collaboration furent à l’honneur, qu’il s’agisse des données cartographiques, de la connaissance, et jusque dans les domaines les plus techniques de l’impression 3D, de la scannerisation, des réseaux…
Le public aura de même apprécié le grand dynamisme contagieux qui règne dans le Libre. Le symptôme est une prédiction: attendez-vous dans les prochaines saisons à d’autres événements fortement liés à cette première session introductive! Pari gagné !
31.03.2014 à 02:00
La renaissance des communs
De nombreux domaines de notre patrimoine commun sont actuellement en état de siège : l’eau, la terre, les forêts, les pêcheries, les organismes vivants, mais aussi les œuvres créatives, l’information, les espaces publics, les cultures indigènes… Pour proposer une réponse aux multiples crises, économiques, sociales et environnementales, que connaît la notre société actuelle, David Bollier invite à revenir sur cette notion de « communs », un ensemble de pratiques sociales collectives que la modernité industrielle a fait progressivement disparaître. Aujourd’hui, les communs doivent être appréhendés non comme des ressources dont tout le monde aurait la libre jouissance, mais comme un système de coopération et de gouvernance permettant de préserver et de créer des formes de richesse partagée. L’auteur montre comment ils peuvent remédier à nos maux économiques en. Car Cette approche, mettant en avant une théorie plus riche de la valeur que l’économie conventionnelle, implique de nouveaux modèles de production, des formes plus ouvertes et responsables de participation des citoyens ainsi qu’une culture d’innovation sociale. C’est ce dont témoignent les actions et initiatives des différents mouvements des « commoneurs » à travers le monde, déterminés à construire des alternatives vivantes et fonctionnelles à l’étau des grandes technocraties publiques et privées.
Cet ouvrage devrait permettre d’éclairer et de promouvoir l’enjeu des communs aussi bien auprès des universitaires et des élus que des militants associatifs et autres citoyens engagés.
Bollier, David. La renaissance des communs: pour une société de coopération et de partage. Traduit par Olivier Petitjean, C. L. Mayer, 2014.
Lien vers le site de l’éditeur: http://www.eclm.fr/ouvrage-364.html
02.02.2014 à 01:00
Pour tout résoudre, cliquez ici !
Pour tout résoudre cliquez ici ! dénonce le discours employé par les entreprises et les chantres de la Silicon Valley qui veulent nous faire croire que grâce à l’Internet et aux nouvelles technologies tous les aspects de notre vie seront améliorés et la plupart des problèmes du monde disparaîtront.
Evgeny Morozov démontre qu’il n’y a pas une « application » comme réponse simple et immédiate à tous les enjeux sociétaux ni même à nos problèmes individuels. Il met en lumière deux concepts-clés, le solutionnisme et « l’Internet-centrisme », qui permettent de comprendre les schémas de pensée à l’œuvre derrière la révolution numérique.
Cet ouvrage porte un regard neuf et salutaire sur le numérique et sur nos usages. Il nous met en garde contre la croyance en un miracle technique et en un un monde à l’efficacité sans faille où chacun serait contraint de revêtir la camisole de force numérique de la Silicon Valley.
Morozov, Evgeny. Pour tout résoudre, cliquez ici ! L’aberration du solutionnisme technologique. Traduit par Marie-Caroline Braud, Fyp, 2014.
Lien vers le site de l’éditeur : http://www.fypeditions.com/resoudre-laberration-du-solutionnisme-technologique-evgeny-morozov/
01.02.2014 à 01:00
Digital disconnect
Celebrants and skeptics alike have produced valuable analyses of the Internet’s effect on us and our world, oscillating between utopian bliss and dystopian hell. But according to Robert W. McChesney, arguments on both sides fail to address the relationship between economic power and the digital world.
McChesney’s award-winning Rich Media, Poor Democracy skewered the assumption that a society drenched in commercial information is a democratic one. In Digital Disconnect, McChesney returns to this provocative thesis in light of the advances of the digital age. He argues that the sharp decline in the enforcement of antitrust violations, the increase in patents on digital technology and proprietary systems and massive indirect subsidies and other policies have made the internet a place of numbing commercialism. A handful of monopolies now dominate the political economy, from Google, which garners a 97 percent share of the mobile search market, to Microsoft, whose operating system is used by over 90 percent of the world’s computers. Capitalism’s colonization of the Internet has spurred the collapse of credible journalism and made the Internet an unparalleled apparatus for government and corporate surveillance and a disturbingly antidemocratic force.
In Digital Disconnect, Robert McChesney offers a groundbreaking critique of the Internet, urging us to reclaim the democratizing potential of the digital revolution while we still can.
McChesney, Robert Waterman. Digital disconnect. How capitalism is turning the internet against democracy. The New Press, 2014.
Lien vers le site de l’éditeur : https://thenewpress.com/books/digital-disconnect
20.10.2013 à 02:00
La politique Framabook
Voici un texte publié sur Framablog avec Benjamin Jean, à propos des licences libres et de la question de leur choix dans la collection Framabook. Ce texte est aussi le prétexte pour une mise au point démontrant les limites du choix des licences interdisant les usages commerciaux ou les modifications d’une œuvre. Nous avons voulu montrer que le modèle éditorial de la collection Framabook est non seulement viable, éthique et pertinent, mais aussi qu’il est transposable pour toute forme de diffusion d’œuvre dans une logique de partage. Ainsi les publications scientifiques, tout particulièrement, devraient adopter ce modèle.
La « politique » Framabook et les licences libres
Par Christophe Masutti et Benjamin Jean
Version 1.1 – 16 octobre 2013
Texte placé sous LAL 1.3 ; GNU FDL 1.3 ; CC-By-SA 3.0
Christophe Masutti est docteur en histoire des sciences et des techniques, chercheur associé au SAGE (Société, Acteurs, Gouvernements en Europe, Université de Strasbourg), responsable des affaires européennes à la Direction Générale des Hôpitaux Universitaires de Strasbourg. Président de l’association Framasoft depuis janvier 2012.
Benjamin Jean est membre de l’équipe du CUERPI (Centre Universitaire d’Enseignement et de Recherches en Propriété Intellectuelle) co-fondateur de la société Inno3, consultant au Cabinet Gilles Vercken et maître de conférence à Science Po. Co-fondateur de l’association Veni, Vidi, Libri et du cycle de conférences European Open Source & Free Software Law Event (EOLE).
Initié en mai 2006, Framabook est le nom donné au projet de collection de livres libres édités par Framasoft1. Basée sur une méthode de travail collaborative entre l’auteur et des bénévoles de l’association, la collection dispose d’un comité de lecture et d’un comité éditorial. Elle propose des manuels, des essais et même des bandes dessinées et des romans en lien avec le logiciel libre ou la culture libre en général. Le choix des licences qui les accompagnent les inscrit dans la culture libre et la participation aux biens communs.
Depuis que Framasoft a choisi de devenir éditeur de sa collection, nous avons tant bien que mal travaillé à la construction d’un modèle alternatif et collaboratif d’édition. Dans nos discussions avec les auteurs, la question des licences acceptées pour la diffusion des projets est récurrente (pour ne pas dire systématique). Ce sujet relativement technique a mobilisé le débat de nos assemblées générales, se poursuivant parfois tard en soirée et sur nos listes de discussion, pour des réponses finalement toujours similaires (« des licences libres et seulement des licences libres »).
Nous nous sommes aperçus que cette recherche répétée de consensus résultait surtout du manque d’exposition claire des principes auxquels adhère la collection Framabook. C’est pour y remédier que cet article a été écrit. Il cherche à exposer les principes de la politique éditoriale du projet Framabook tout en rassemblant les différents éléments de discussion issus des archives de nos listes et qui concernent précisément les licences libres. D’une certaine manière, il témoigne aussi d’une réflexion devenue mature et qui nous semble valider la pertinence d’un modèle d’édition ouverte. Nous destinons aussi ces quelques lignes aux auteurs et éditeurs, afin de les aider à cerner les enjeux du choix d’une licence pour une œuvre destinée à être publiée dans la collection Framabook ou ailleurs.
Nous avons conscience que ce choix n’est pas anodin et peut même être difficile, tant d’un point de vue culturel après presque trois siècles d’histoire du droit d’auteur, que d’un point de vue économique et éthique, dans le contexte d’une économie de la culture qui multiplie les abus en tout genre. Nous ne cherchons pas non plus à prétendre que ce modèle devrait remplacer les modèles existants, nous souhaitons seulement démontrer qu’il peut être viable et, surtout, qu’il ne génère pas tous les risques et déviances qu’on lui rattache fréquemment. Bien que l’un de nos ouvrages compte désormais comme une référence en la matière (Benjamin Jean, Option Libre. Du bon usage des licences libres)2, certaines subtilités nécessitent à la fois une connaissance du droit d’auteur, une connaissance du domaine de l’édition et une connaissance des licences libres. L’ensemble est néanmoins à la portée de tous et n’excède pas les quelques minutes de la lecture à laquelle nous vous invitons, sous la forme de questions fréquemment posées (QFP)…
Sous quelle licence dois-je placer mon œuvre dans la collection Framabook ?
Le premier postulat de notre collection est que les auteurs sont absolument libres d’utiliser les licences qu’ils souhaitent pourvu qu’elles soient « libres », c’est-à-dire qu’elles assurent à l’utilisateur une libre utilisation, copie, modification ou redistribution de l’ouvrage ou de ses dérivés (ce qui exclut donc toutes les licences Creatives Commons limitant l’usage commercial « NC » ou la modification « ND », ainsi que nous allons le développer plus loin).
Dans l’esprit du Libre auquel nous adhérons, cette définition n’exclut pas les licences dites copyleft qui imposent la pérennité des libertés assurées à l’utilisateur (garantissant à l’auteur que le livre ne pourra être exploité que librement). Ce choix n’est pas neutre puisque ce type de licences permet d’alimenter un « pot commun » auquel tout le monde peut puiser à condition d’y reverser à son tour ses propres contributions. En d’autres termes, un Framabook pourra être aussi bien sous Licence Art Libre 1.3, sous licence CC-By-SA 3.0, que sous licence CC-By 3.0 (« tout court ») voire sous CC-03. Vous serez toujours libre de réutiliser ces ouvrages (même commercialement), mais à votre charge de respecter les obligations que ces licences contiennent.
Par exemple – Si quelqu’un rédige un texte incluant un passage substantiel (en termes qualitatifs ou quantitatifs) tiré d’un Framabook, et même si cet usage dépasse le cadre délimité du droit de citation, la licence libre associée par l’auteur lui accordera les droits nécessaires (à condition que soient parallèlement respectées les contraintes qu’elle impose). Au titre de ces contraintes, certaines licences copyleft imposeront que toutes modifications apportées à ce texte soient diffusées selon la même licence, voire que l’intégralité de l’œuvre utilisatrice soit distribuée selon la même licence (ce qui, contrairement à la première hypothèse, limite grandement le type d’exploitation possible). Ainsi qu’indiqué précédemment, cette obligation permet d’assurer une relative pérennité au projet initial et s’ajoute aux obligations classiques telle que l’obligation d’attribuer la paternité de l’œuvre initiale à nos auteurs (et ceux-ci seulement ; vous serez pour votre part auteur de votre propre version dérivée).
Pourquoi utiliser des licences libres ?
Avant toute autre considération, le Libre procède d’une volonté de partage. Si vous placez une œuvre sous licence libre, c’est que vous désirez la partager avec le plus grand nombre d'« utilisateurs » ou de contributeurs possible. Importante dans le monde physique, cette notion de partage se révèle encore plus évidente dans le monde immatériel (celui de la propriété intellectuelle) où l’acquisition par un individu n’implique pas l’aliénation ou la perte par l’autre (bien au contraire)4. Ainsi, « Libre » ne signifie donc pas « libre de droits » (notion qui n’a aucune valeur juridique) et les licences libres sont là pour traduire et sécuriser juridiquement la relation souhaitée5. Le projet Framabook repose donc sur :
- l’usage de licences libres par lesquelles les auteurs exploitent leurs droits. C’est grâce à ce contrat que toutes les autorisations indispensables à l’évolution et à la diffusion de l’œuvre sont données (en l’absence de licence, rien ne serait permis).
- le respect du droit d’auteur dans sa globalité, et notamment des prérogatives morales (droit de divulgation, droit de paternité, droit au respect de l’intégrité de l’œuvre, etc.) qui protègent l’auteur en raison des liens étroits qu’il entretient avec son œuvre. Ajoutons qu’il n’y a pas de remise en cause de ces prérogatives morales par les licences libres ; bien au contraire, celles-ci les rappellent (et parfois renforcent) systématiquement.
- sur le respect des conditions relatives au prix de vente des livres. La loi Lang (81-766 du 10 août 1981 modifiée 2008) sur le prix unique du livre doit toujours être respectée quelle que soit la politique éditoriale choisie (ces règles s’appliquent aussi sur la vente des versions numériques – même si un prix différent du prix papier peut alors être décidé).
Ainsi, l’utilisation d’une licence libre est indispensable pour assurer aux utilisateurs les libertés proclamées par l’auteur et par la collection.
N’est-ce pas contradictoire avec la commercialisation des livres ?
L’adage « libre ne signifie pas gratuit » s’applique parfaitement pour ce qui concerne la collection Framabook.
La politique de la collection consiste à proposer un modèle économique du livre basé à la fois sur la primauté de la diffusion et la juste rémunération des auteurs. Puisque nous vendons les livres « papier » et encourageons d’éventuelles rééditions, nous ne voulons pas utiliser de clause de licence interdisant à priori la vente (pas de -NC dans le cas des licences Creative Commons).
Bien que la clause NC puisse être légitimée, il y a un contexte propre à la collection Framabook. Framasoft est un réseau d’éducation populaire dédié au Libre qui s’appuie sur une association d’intérêt général à but non lucratif. De cette orientation découle toute l’importance de la diffusion au plus grand nombre.
C’est pour cela que nous avons fait le choix de distribuer gratuitement les versions numériques des ouvrages. Mais elles auraient pu aussi bien être vendues au même titre que les livres « papier ». Quoi qu’il en soit, les sources (les fichiers originaux servant à la composition de l’œuvre) étant elles aussi disponibles, tout le monde peut les utiliser afin de diffuser à son tour gratuitement ou non. Par essence, la clause de type -NC contrevient au principe de libre diffusion et de partage, à moins de lever à chaque fois cette clause pour chaque cas particulier (et, même dans cette situation, nous nous placerions dans une situation privilégiée qui serait contre-productive compte tenu du partage qui nous motive).
Certaines maisons d’édition effectuent ainsi une sorte de « Libre-washing » en profitant de leur position de monopole sur l’œuvre pour lever cette clause temporairement moyennant une rémunération que l’auteur ne touche pas obligatoirement. L’idée est de prétendre une œuvre libre mais en conservant le monopole et en exerçant des contraintes indues. Nous pensons que dans la mesure où une maison d’édition désire rééditer un Framabook, moyennant les conditions exposées à la question numéro 4, elle devrait pouvoir le faire indépendamment de Framasoft, en directe relation avec l’auteur. Nous n’avons donc pas à fixer un cadre non-commercial et encore moins fixer un prix pour ces rééditions.
L’exemple typique est le besoin d’une réédition locale hors de France afin d’économiser des frais de port parfois exorbitants : soit il s’agit d’une réédition, soit il s’agit d’une simple ré-impression, mais dans les deux cas, nous n’avons aucun profit à tirer puisqu’il s’agit de toute façon d’un territoire ou d’un secteur dans lequel nous ne sommes pas présent ou actif. Au contraire, une telle diffusion par un tiers (partenaire ou non) est créateur de valeur pour ce tiers, pour la collection ainsi que pour l’auteur (qui, selon nous, mérite un intéressement bien que les négociations ne nous regardent pas).
Par ailleurs, ne bénéficiant que d’une simple cession de droits non exclusive de la part de nos auteurs, nous assumons pleinement le risque d’être concurrencés dans notre rôle d’éditeur si jamais nous ne remplissions pas nos engagements (éthiques ou économiques).
Dans le cas d’une traduction, l’usage d’une licence contenant une clause -NC interdirait à priori la vente de l’œuvre traduite (et donc modifiée). En faisant une nouvelle voie d’exploitation, des maisons d’édition proposent parfois de lever la clause pour cette traduction moyennant une somme forfaitaire sur laquelle l’auteur peut le plus souvent ne rien toucher puisque son contrat ne le lie qu’à la première maison d’édition. Par ailleurs, comme le contrat de cet auteur est généralement exclusif, il ne peut contracter librement avec la maison d’édition qui édite la traduction, sauf accord préalable avec la première.
Nous pensons au contraire que non seulement les contrats d’édition ne doivent pas « lier » (au sens premier) un auteur avec sa maison d’édition mais aussi que celle-ci doit prendre la mesure de sa responsabilité éditoriale sans exercer de monopole et signer avec l’auteur des contrats non exclusifs qui lui permettent d’être contacté par une maison d’édition cherchant à traduire son œuvre à lui, sans pour autant passer par un intermédiaire rendu obligatoire uniquement pour des raisons mercantiles (il peut y avoir des raisons tout à fait acceptables, cependant)6.
Concernant les livres « papier », nous avons fait le choix de ne pas (tous) les vendre à prix coûtant. Il y a deux raisons à cela:
- Depuis 2011, Framasoft a choisi de devenir son propre éditeur. À ce titre nous passons directement des contrats d’édition avec les auteurs, comprenant une rémunération à hauteur de 15% du prix de vente de chaque exemplaire. Ce pourcentage est toujours négociable, mais nous essayons d’en faire une règle, sans quoi il influe trop sur le prix de vente. Nous avons bien conscience que ce pourcentage est nettement plus élevé que ce qui se pratique habituellement dans le monde de l’édition. Il nous semble en effet important que nos auteurs qui ont fait le choix et le pari de la licence libre avec nous s’y retrouvent financièrement et bénéficient ainsi du modèle contributif dans lequel s’inscrit la collection7.
- Framasoft est composé de bénévoles mais repose sur une association qui compte aujourd’hui plusieurs permanents8. À ce titre, le budget de tout projet doit être le plus équilibré possible. Or, éditer un livre suppose de nombreux coûts : le prix de vente est basé sur la fabrication, les frais de port et les frais annexes (administration, BAT, pertes, dons de livres, commission de l’association EnVentelibre.org qui se charge de la vente, des livraisons, de la charge TVA, etc.). Dans les frais annexes, nous pouvons aussi inclure les livres qui sont vendus à prix coûtant (afin de maintenir un prix « acceptable »9). Ainsi, en faisant en sorte de rester en deçà des prix habituellement pratiqués et gardant comme objectif de favoriser la diffusion des connaissances dont elle est responsable, l’association Framasoft perçoit une somme forfaitaire à chaque vente qui lui permet de contribuer à faire vivre les projets éditoriaux de l’association10.
Ainsi, l’usage d’une licence qui autorise les usages commerciaux est à la fois conforme à nos objectifs internes (et à la mission d’intérêt général que revêt Framasoft) et constitutive d’un modèle d’édition ouvert qui tire plein profit des opportunités de notre société numérique et internationale.
Puis-je rééditer un Framabook ?
Oui, c’est même encouragé, sans quoi le modèle économique que nous défendons n’aurait pas de sens. Cependant, n’oubliez pas que les licences libres imposent certaines contraintes ! En plus de celles-ci, pour ce qui concerne les Framabooks, il y a d’autres éléments à prendre en compte.
- Toute réédition doit bien sûr respecter la licence de l’ouvrage à la lettre, à défaut de quoi elle serait non autorisée et donc contrefaisante (cela couvre les obligations en matière de mentions légales – respect de la paternité, indication du Framabook d’origine, de la licence, etc. –, mais plus largement toutes les autres obligations de la licence – et donc notamment lorsqu’elle se présente la clause share alike/copyleft à laquelle est parfois associée l’obligation de livrer la version source du fichier publié).
- Les auteurs des Framabook ont signé des contrats d’édition. Soumis par le Code de la propriété intellectuelle à un régime dédié, les contrats d’édition sont particulièrement protecteurs des intérêts des auteurs (et un éditeur ne peut y déroger)11. Les contrats conclus par Framasoft avec les auteurs ne couvrent que notre propre collection et sont dits « non exclusifs » (n’empêchant donc pas un auteur de publier une réédition ailleurs). Toute nouvelle édition de l’ouvrage devra donc donner lieu à un nouveau contrat d’édition signé par le ou les auteurs (avec ou sans un intéressement à la vente, selon les négociations).
- Toute réédition d’un Framabook consiste à utiliser le contenu d’un livre (en le modifiant ou non) pour le diffuser par une autre maison d’édition, avec un nouvel ISBN. Il ne s’agit donc pas seulement de revendre un Framabook déjà édité par Framasoft. Dans ce cadre, hors accord spécifique avec l’association Framasoft, toute réédition ne doit pas réutiliser l’identité de Framasoft (ou son dérivée Framabook) qui est une marque déposée. Naturellement, Framasoft doit être mentionné dans les crédits (« Première édition : Framasoft (année) »).
Alors, tout le monde pourrait modifier mon œuvre et je n’aurais rien à dire ? Ne devrais-je pas plutôt utiliser une licence comme CC-BY-ND (sans modification) ?
La réponse mérite un développement. Certaines personnes, et c’est en particulier le cas de Richard M. Stallman, affirment que dans le cas d’œuvres dites « d’opinion », la pensée de l’auteur ne devrait pas pouvoir être déformée12. Ces œuvres constitueraient donc autant de cas où une licence doit pouvoir empêcher toute modification de l’œuvre13.
En réalité, le droit d’auteur14 est bien plus subtil que ne laisse paraître ce genre de posture. Premièrement, Richard M. Stallman confond le fond et la forme : le droit d’auteur protège la forme que donne l’auteur à certaines idées, en aucun cas il ne protège les idées ou l’opinion d’un auteur (celles-ci n’étant, en tant que telles, génératrices d’aucun droit). À partir de là, apposer sur la forme une licence qui limite la réutilisation qui peut en être faite apparaît comme une limitation qui empêche in fine (pour un auteur) d’utiliser une certaine matière (les écrits, tournures, etc.) sans pour autant apporter de garantie quant à la réutilisation (ou non) des idées ou opinions qu’elle contient. Cela est d’autant plus dommage que la société actuelle donne une place de plus en plus grande au « mashup », ainsi qu’à tous ces processus de créations utilisant des œuvres premières comme matière, et qu’une licence qui interdit les dérivations s’oppose frontalement à cet usage. Aussi, jamais une licence libre (qui ne porte donc que sur le droit d’auteur – l’expression, la forme) n’autorisera de modifier une œuvre de telle sorte que cette modification porte atteinte à l’intégrité de l’œuvre.
Dans le cadre d’une œuvre conçue par son auteur comme ouverte et collaborative, la modification par un contributeur est par principe entièrement respectueuse de l’intégrité de l’œuvre. Néanmoins, s’il était porté sur l’œuvre une modification manifestement non conforme à la représentation qu’en avait son auteur, il serait tout à fait valable qu’un auteur agisse sur le fondement de ses droits moraux pour faire cesser cette atteinte (de la même façon qu’il pourrait le faire en l’absence de licence libre), en particulier si l’œuvre était utilisée pour véhiculer des messages manifestement contraires à l’intention de l’auteur.
Au-delà du champ du droit d’auteur, ajoutons qu’il reste bien entendu interdit de publier toute version dérivée qui serait présentée de telle sorte qu’elle véhiculerait une idée fausse : soit que l’auteur initial de l’œuvre en serait aussi l’auteur, soit qu’il ait écrit certaines choses de certaines façons, etc. Ce type de comportement serait tout à fait sanctionnable d’un point de vue civil comme pénal. Il n’est bien sûr pas inutile de le rappeler, mais en revanche nul besoin d’utiliser une « licence verbatim » (interdisant toute modification) à cette seule fin.
Dans le cas des Framabooks, une clause de type -ND (ou toute autre clause de la même famille) est donc superflue. La suite va nous montrer qu’elle peut même être gênante.
Le second argument concerne la réédition. En effet, une modification de l’œuvre n’a d’intérêt que pour la diffuser. Il s’agit dans ce cas d’une réédition. Comme il est expliqué dans la question numéro 4, toute réédition d’un Framabook est soumise à certaines conditions. Parmi celles-ci, le contrat d’édition signé par l’auteur : puisque le contrat est « nommé », il lie l’auteur à son œuvre de manière formelle. Ainsi, il resterait toujours possible pour un imprimeur de réaliser des copies papiers « à la demande » dès lors qu’il ne rentrerait pas dans une démarche similaire à celle d’un éditeur et toute nouvelle édition serait nécessairement rattachable à un auteur (soit l’auteur initial de l’œuvre s’il choisit de souscrire à un nouveau contrat et dès lors que ce nouveau contrat ne souffre pas de la non exclusivité accordée à Framasoft ; soit l’auteur d’une version dérivée dès lors que les apports de chacun des auteurs sont clairement identifiés).
Le troisième argument, « l’absence de risque », est sans doute le plus important. Une licence sans clause -ND (ou autre clause du même genre) aura seulement pour conséquence :
- de permettre des créations nouvelles empruntant pour partie à l’œuvre initiale, mais : a) en attribuant l’œuvre initiale et b) en se dissociant de façon non équivoque. C’est le cas par exemple de traductions ou des « mises à jour » de l’œuvre ;
- de permettre des « grandes citations » (ou toute autre réutilisation qui dépasserait le seul cadre des exceptions prévues par la Loi) au sein d’une autre œuvre.
Ainsi, dans la mesure où notre objectif premier est celui de la diffusion, une clause interdisant toute modification fait obstacle à l’apparition de nouvelles créations susceptibles de devenir le support second de cette propagation.
En guise d’illustration, nous pouvons citer deux extraits du préambule de la Licence Art Libre, mise à disposition pour des œuvres artistiques :
Avec la Licence Art Libre, l’autorisation est donnée de copier, de diffuser et de transformer librement les œuvres dans le respect des droits de l’auteur (…) L’intention est d’autoriser l’utilisation des ressources d’une œuvre ; créer de nouvelles conditions de création pour amplifier les possibilités de création. La Licence Art Libre permet d’avoir jouissance des œuvres tout en reconnaissant les droits et les responsabilités de chacun.
Cet esprit est d’autant plus présent dans la LAL que le texte distingue l’original de la copie : les droits portant sur les copies de l’original (qui pour sa part ne peut être modifié sans autorisation de son auteur et qui doit être mentionné comme tel).
Pour revenir au contexte d’édition dans lequel nous nous situons, le choix d’une licence entièrement libre est aussi une assurance pour le projet et ses contributeurs : même si l’auteur se désengage et ne souhaite ou ne peut assurer de nouvelle version, d’autres pourront prendre le relais (comme ce fut le cas pour le premier Framabook Utilisez Thunderbird 2.0!).
Et si je décide de ne pas m’encombrer les neurones ?
Les raisons esthétiques ci-dessus ne s’appliquent que peu aux ouvrages de la collection Framabook, mais restent néanmoins discutables dans le cadre d’une démarche de partage libre. À contrario, nous pouvons signaler que certains ouvrages de la collection sont, eux, sous licence CC-Zéro. C’est-à-dire qu’il s’agit de ce que l’on pourrait appeler le « domaine public volontaire ».
Certes, nous avons dit plus haut qu’il était impossible pour un auteur, du point de vue légal et dans beaucoup de juridictions, de renoncer à tous ses droits d’auteurs (en particulier les droits moraux). Cela dit, les choses peuvent aussi s’envisager d’un point de vue beaucoup plus pratique : le fait de déclarer que non seulement l’œuvre est libre mais aussi qu’elle a pour vocation de suivre son cours en pleine autonomie, un cours que l’auteur s’engage à ne pas influencer (à ne pas exercer son droit d’auteur qui pourtant lui colle à la peau).
La licence CC-0 cherche à traduire ces effets au sein d’un contrat qui propose alternativement et successivement : une renonciation aux droits, une cession de tous les droits patrimoniaux et moraux ou une cession des seuls droits patrimoniaux. En d’autres termes, les droits de Propriété Intellectuelle (et régimes associés) étant territoriaux, la licence CC-0 fonctionne différemment selon que l’auteur peut renoncer à ses droits, céder ses droits moraux ou non. Dans les faits, la licence confère ainsi à l’œuvre le statut juridique s’approchant le plus de la volonté de l’auteur (en France, un statut très proche de la CC By : une cession très large des droits patrimoniaux avec une obligation de citer l’auteur – sauf si ce dernier souhaite rester anonyme). C’est notamment le cas du roman Le Cycle des NoéNautes, par Pouhiou15. Nous pouvons le citer :
Dès aujourd’hui, je fais passer Les Noénautes dans le domaine public volontaire. Cela veut dire que tu as le droit d’en faire ce que tu veux. Tu n’as aucun compte à me rendre. Tu peux éditer et vendre cette œuvre pour ton propre compte, tu peux la réécrire, l’adapter, la recopier, en faire de la pub ou des navets… Tu es libre. Parce que légalement, cette œuvre est libre. La loi Française imposerait que tu fasses mention de l’auteur malgré tout : OSEF, j’irai pas t’attaquer ! J’avoue que si tu fais quelque chose de tout cela, ça m’amuserait que tu me tiennes au jus. Mais tu n’as plus d’autres obligations que celles que tu te crées. »16
— Pouhiou
Conclusion
Elle s’exprime en une phrase : la collection Framabook édite des livres sous licence libre, sans clause non commerciale ou empêchant toute modification de l’œuvre. Voici des exemples de licence qui peuvent être utilisés :
- GNU FDL – Issue du projet GNU, elle est au départ adaptée aux manuels de logiciels. C’est une licence très permissive ;
- CC-By – Creative commons – paternité (obligation de nommer l’auteur pour toute redistribution avec ou sans modification) ;
- CC-By-SA – Creative commons – Paternité – Partage à l’identique (share alike) : toute redistribution doit être partagée sous les mêmes termes de licence ;
- LAL – Licence Art Libre, conçue comme une adaptation de la GNU GPL au domaine de l’art ;
- CC-Zéro – il s’agit du versement volontaire de l’œuvre dans le domaine public.
Cette liste n’est pas limitative et nous nous ferons un plaisir de vous accompagner si vous souhaitez discuter de la pertinence de toute autre licence. Le choix de la licence de la part de l’auteur doit être un choix éclairé et mûrement réfléchi. Il entre dans une démarche de partage et en même temps dans un circuit éditorial. Il n’échappe néanmoins pas à la juridiction du droit d’auteur.
– Framasoft, le 15 octobre 2013
-
La collection est coordonnée par Christophe Masutti. ↩︎
-
Nous avons également publié un essai qui propose, lui, de se passer complètement du droit d’auteur : J. Smiers, et M. van Schijndel, Un monde sans copyright… et sans monopole. ↩︎
-
De manière plus complexe, certains de nos ouvrages sont soumis à plusieurs licences libres : tel l’ouvrage précité « Option Libre » qui est diffusé sous triple licence CC-By-SA 3.0, Licence Art Libre 1.3, GNU FDL 1.3. ↩︎
-
Lorsque je souhaite donner un fichier, je fais une copie, ce qui devient du partage : ce principe est évidemment contrarié par la pléthore de dispositifs de surveillance et de protection de la part des ayants droits (type DRM, ou lobbying législatif) qui visent à empêcher le partage pour des raisons plus ou moins défendables. ↩︎
-
Il est en effet admis, au moins en Europe, qu’un auteur ne peut décider d’élever de lui-même une œuvre dans le domaine public (un tel acte serait certainement sans valeur juridique et l’auteur ou ses ayants droit pourraient valablement revenir dessus plusieurs années plus tard). ↩︎
-
Nous avons récemment rencontré le cas avec la traduction d’un chapitre de l’ouvrage de C. Kelty, tiré de Two Bits. The Cultural Significance of Free Software (http://twobits.net), que nous souhaitions intégrer dans le Framabook Histoires et cultures du Libre. Bien qu’ayant l’accord de l’auteur, son livre étant sous licence CC-BY-NC-SA, c’est l’éditeur seul qui pouvait lever temporairement la clause NC, moyennant une rétribution (certes faible, de l’ordre d’une centaine de dollars), afin que nous puissions inclure ce chapitre dans l’ouvrage destiné à la vente. La clause -SA posait aussi un grave problème pour l’ensemble de l’ouvrage. Nous l’avons donc inclus uniquement dans la version numérique gratuite. ↩︎
-
Pour les ouvrages où il n’y a pas de contrat d’auteur, les bénéfices sont reversés à Framasoft et entrent dans le cadre de l’équilibre budgétaire (en principe, lorsque celui-ci peut être atteint). ↩︎
-
Framasoft compte trois permanents à ce jour, affectés à la gestion des multiples projets de l’association ainsi qu’à son administration. ↩︎
-
C’est par exemple le cas des bandes dessinées GKND pour lesquelles nous avons fixé un objectif de prix (pas au-delà de 12 euros la version imprimée). Ce prix permet à l’auteur de toucher un intéressement, mais ne couvre pas les frais annexes (stockages, frais de port pour les approvisionnements, etc.). Cela peut bien entendu changer si nous empruntons une autre voie plus économique pour la production. ↩︎
-
L’essentiel des revenus de l’association étant composé des dons faits à l’association. Les revenus provenant de la vente des ouvrages permet d’avoir à disposition un fonds de roulement permettant d’acheter des stocks d’imprimés. ↩︎
-
Voir article L132-1 du CPI : « Le contrat d’édition est le contrat par lequel l’auteur d’une œuvre de l’esprit ou ses ayants droit cèdent à des conditions déterminées à une personne appelée éditeur le droit de fabriquer ou de faire fabriquer en nombre des exemplaires de l’œuvre, à charge pour elle d’en assurer la publication et la diffusion ». Constitue une faute de la part de l’éditeur le fait de n’avoir pas passé un contrat d’édition avec une personne à laquelle il reconnaissait la qualité d’auteur (Paris, 4^e^ chambre, 22 novembre 1990). ↩︎
-
R.M. Stallman affirme en effet : « Selon moi, les licences non libres qui permettent le partage sont légitimes pour des œuvres artistiques ou de divertissement. Elles le sont également pour des œuvres qui expriment un point de vue (comme cet article lui-même). Ces œuvres ne sont pas dédiées à une utilisation pratique, donc l’argument concernant le contrôle par l’utilisateur ne s’y applique pas. Ainsi, je ne vois pas d’objection à ce qu’elles soient publiées sous licence CC BY-NC-ND, qui ne permet que la redistribution non commerciale de copies identiques à l’original. » ↩︎
-
Dans le même registre, et pour des motifs tout à fait recevables selon l’usage, certaines licences libres – une principalement : la GNU Free Documentation License – permettent d’identifier des passages spécifiques d’une œuvre comme invariants (cela notamment afin d’assurer une plus grande diffusion des textes philosophiques et/ou politiques annexer à une documentation). ↩︎
-
Le droit d’auteur se décompose entre droit moral et droit patrimonial : en vertu du droit patrimonial, l’auteur a la possibilité d’exploitation son œuvre (par des contrats de cession telle qu’une licence libre) ; en vertu du droit moral, l’auteur peut limiter certains usages préjudiciables pour son œuvre ou le lien qu’il entretient avec cette dernière. ↩︎
-
Ainsi que Joost Smiers et Marieke van Schijndel, op. cit. ↩︎
-
Voir noenautes.fr. ↩︎
03.08.2013 à 02:00
Histoires et cultures du Libre
Fruit de la collaboration inédite d’auteurs provenant d’horizons disciplinaires différents, par des approches thématiques et des études de cas, cet ouvrage propose une histoire culturelle du Libre non seulement à travers l’histoire de l’informatique, mais aussi par les représentations sociales, philosophiques, juridiques et économiques qu’a cristallisé le mouvement du logiciel libre jusqu’à nos jours.
À l’aide de multiples clés d’analyse, et sans conception partisane, ce livre dresse un tableau des bouleversements des connaissances et des techniques que ce mouvement a engendré. Le lecteur saura trouver dans cette approche ambitieuse et prospective autant d’outils pour mieux comprendre les enjeux de l’informatique, des réseaux, des libertés numériques, ainsi que l’impact de leurs trajectoires politiques dans la société d’aujourd’hui.
Paloque-Berges, Camille, et Christophe Masutti, (éds.). Histoires et cultures du Libre. Des logiciels partagés aux licences échangées. Lyon, Framasoft, 2013.
Lien vers le site de l’éditeur : https://framabook.org/histoiresetculturesdulibre/
15.06.2013 à 02:00
Histoires et cultures du Libre
Une récente parution dans la collection Framabook a fait l’objet d’un billet du Framablog que je reproduis en partie. J’ai en effet eu le plaisir, avec Camille Paloque-Berges, de co-diriger un ouvrage qui a fait l’objet d’une sortie très officielle lors du séminaire HINT (Histoires de l’Internet) à l’Institut des Sciences de la Communication (ISCC / CNRS, Paris). Il est possible d’auditionner la plus grande partie de cette séance sur le site de l’ISCC. Histoires et cultures du Libre n’est pas seulement ouvrage interdisciplinaire : il cherche à rendre compte de l’idée que le Libre représente pilier (historique, économique, juridique…) incontournable des pratiques numériques et de l’échange d’information aujourd’hui. Ce livre parle de partage et de liberté.
Présentation
- Titre : Histoires et cultures du Libre. Des logiciels partagés aux licences échangées
- Direction : Camille Paloque-Berges et Christophe Masutti
- Licences : Creative Commons CC-By
- Prix (papier) : 25 €
- ISBN : 978-2-9539187-9-3
- Première édition : Mai 2013, Framasoft
- Format : broché, 14,5 x 21 cm
- Poids : 830 gr.
- Nombre de pages : 580 (dont xxiii)
- Téléchargement et vente sur Framabook.org
Sous un titre ambitieux, ce livre est néanmoins dans l’air du temps. Ces derniers mois, on n’a jamais autant parlé des acteurs qui ont créé l’Internet d’aujourd’hui. L’excellent site/portail/documentaire Une contre-histoire d’Internet par Arte.tv est une belle illustration de ce besoin de rétrospective, de s’arrêter un moment non seulement sur ce qu’est Internet (on parle tout de même d’un 8e continent) mais aussi sur les valeurs et les pratiques qui y circulent et se diffusent mondialement. Pourquoi ce besoin? Je crois, toujours pour coller à l’actualité, que l’arrivée du récent rapport Lescure est les désillusions qu’il porte sont un bel exemple du choc culturel que représentent les pratiques de partage et de coopération numériques et du manque d’intégration par les modèles économiques dominant les marchés, de manière volontaire ou non.
On a longtemps parlé d’une « culture underground » ou, pour reprendre l’expression de T. Roszak, d’une contre-culture plus ou moins aux « origines » d’Internet ou du logiciel libre en général. C’est en partie vrai. En partie seulement parce que les enjeux « contre-culturels » que l’on retrouve aujourd’hui autour de la neutralité du Net, de la lutte contre la cybersurveillance, du partage du savoir et des connaissances, de la liberté d’expression, du droit d’auteur, etc., font que justement les histoires d’Internet, du logiciel libre, de l’informatique et de la circulation de l’information numérique sont vues de manière rétrospective, un peu comme si toutes les étapes de leur construction, depuis la fin des années soixante, tendaient vers cette île d’Utopia de la résistance contre l’oppression ou de l’émergence de « nouveaux modèles » (économiques, politiques, sociaux, etc.). Tout cela est néanmoins juste et l’on ne peut nier que des valeurs communes sont partagées et se développent de manière positive dans la société.
Dans la mesure où il s’agit d’en fait une analyse historique, on ne peut pour autant nier qu’il y a dans tout ceci une certaine dose de folklore populaire. C’est tout à fait normal. Il y a toujours un besoin latent d’identification une fois que des acteurs sortent du lot. Qui a lu la biographie de Richard Stallman ne peut s’empêcher, en plus d’adhérer à son éthique du Libre, d’avoir envie de le rencontrer, d’échanger et surtout d’espérer et oeuvrer avec lui pour un monde (plus) libre. Et vous avez remarqué comment l’on passe facilement de l’histoire d’Internet à ces questions de liberté et de logiciel libre ?
Je pense qu’il faut préciser ce que nous entendons par Libre, avec un grand L. C’est, au delà de la divergence méthodique entre logiciel open source et logiciel libre (relativement secondaire par rapport à l’histoire générale que nous racontons ici), ce qui fait que l’ensemble des modèles et des conditions socio-techniques du logiciel libre deviennent justement culturels et ainsi s’appliquent à d’autres domaines, comme aujourd’hui le matériel informatique ou agricole, la musique ou les arts en général, les connaissances et les sciences en particulier, etc. L’un des vecteurs principaux est Internet, l’outil de partage par excellence, mais aussi l’ensemble des licences libres, et même l’économie qui peut nous montrer comment la culture Libre est porteuse de référents suffisament solides pour constituer une approche sociale différente. L’une des bases de ce développement, c’est l’abolition de la frontière entre l’ingénieur et l’utilisateur, entre le créateur et le spectateur, bref l’apparition de la possibilité de casser la division sociale des rôles (par exemple la division du travail) en permettant une approche coopérative de la société. Un autre pilier, c’est le fait que la création est elle-même le véhicule des valeurs qu’elle traduit : ces idées de partage se transcrivent dans l’invention de nouveaux langages informatiques (par exemple LISP), dans l’arrivée de systèmes d’exploitation « ouverts » pour travailler à plusieurs sur des grosses machines, par les protocoles de communication (Internet, en général), et par tout ce qui pouvait circuler, à la fois l’organisation et la création. En somme, ce sont toutes ces pratiques des hackers (ainsi qu’il se reconnaîtront plus tard, sans toutefois former une classe sociale à part, puisque nous sommes tous des hackers), en informatique et au delà de l’informatique, que le livre Histoires et cultures du Libre tente de raconter… sans toutefois être exhaustif.
Étant donné la pluralité des approches possibles, il fallait que cet ouvrage soit un collectif et il a toute sa place dans la collection Framabook, entre la biographie de Richard Stallman et Option Libre de Benjamin Jean. Avec Camille Paloque-Berges, nous avons donc lancé en mai 2012 un appel à publication en tâchant de résumer la problématique d’une approche historique du libre. Rien ne laissait présager que cet appel allait intéresser autant d’auteurs. 27 ont été selectionnés par Camille, Benjamin et moi sur la quarantaine de résumés reçus. Il s’agissait avant tout de donner de la cohérence entre les parties de l’ouvrage (en six parties). La très grande majorité présentaient des approches riches, variées et pertinentes. Nous avons tâché d’équilibrer nos choix et, finalement, avons laissé carte blanche aux auteurs quant au nombre de pages tout en essayant de les orienter au mieux par rapport à la problématique de départ. Beaucoup d’allers et retour avec les auteurs ont donc eu lieu. L’appui du comité éditorial du projet Framabook a été décisif : sans les relecteurs, la cohérence de l’ouvrage aurait été fortement compromise. Quant aux coquilles… sur 580 pages cela donne une idée de l’enfer.
Et ce n’est pas fini. Nous avons livré pour l’instant un Framabook disponible en PDF (gratuit) et à la vente en version papier (pour les vacances d’été, vous pourrez le lire sur la plage ou à la montagne si vous avez de la place dans votre sac à dos, le premier qui parvient à emmener ce pavé à plus de 2500 mètres d’altitude, à pied, pas en avion, photographie à l’appui, gagne un second Framabook !). Il faut maintenant en produire des versions HTML et e-pub rigoureuses. C’est là que ca se complique : le texte est en LaTeX, avec une gestion bibliographique par chapitre avec biblatex. Or, la transformation ne peut se faire en un clic. Avis, donc, aux amateurs : nous serons ravis de les accueillir dans le groupe Framabook qui a bien besoin de bras. Par ailleurs, l’objectif serait de pouvoir en faire une traduction au moins en anglais. Là encore, si des spécialistes (aguerris) sont partants…
20.04.2013 à 02:00
Hackers : au cœur de la résistance numérique
Communiquer, partager, s’informer librement : c’était l’utopie des pionniers du Net. Quarante ans après ses premiers balbutiements, les gouvernements et les grands acteurs privés contrôlent toujours plus étroitement les échanges, rongent liberté d’expression et droit à la vie privée. Le Réseau est une extension du domaine de la lutte politique.Ils sont nés avec un ordinateur dans les mains, ont grandi sur la Toile, connaissent tous les avantages et les pièges de la vie en ligne. Ils ont soutenu WikiLeaks et les cyberdissidents des printemps arabes, se sont mobilisés contre les lois sécuritaires, exfiltrent des témoignages de répression, échangent avec les Indignés du monde entier. Ils créent des réseaux alternatifs. On les retrouve jusque dans les Parlements européens. Ils réinventent la politique. Amaelle Guiton a interviewé ceux qui, sous le masque Anonymous ou à découvert, sont les artisans d’un Internet libre. Elle livre une enquête passionnante au cœur de la résistance numérique, pour savoir ce que « hacker » veut dire.
Guiton, Amaelle. Hackers: au cœur de la résistance numérique. Au diable Vauvert, 2013.
Lien vers le site de l’éditeur : https://audiable.com/boutique/cat_document/hackers/
05.04.2013 à 02:00
Sécurité informatique: le CAS plaide pour l'ouverture
En matière de sécurité informatique, on ne le répétera jamais assez, les internautes sont bien souvent de vraies billes. Des mots de passe trop simples, utilisés pour tout type de connexion et n’importe quel site, utilisation de services Web gratuits mais peu respectueux des données personnelles… Sur un mode paranoïaque (mais sans exagération et en toute objectivité), tous ces usages inconsidérés concourent à la création d’un Internet policier digne des pires dictatures. Le Centre d’Analyse Stratégique a produit récemment une note intéressante en faveur d’un Internet ouvert et d’une informatique ouverte. Une analyse un peu à contre-courant du refrain habituel des politiques au service de l’industrie logicielle…
Cessons d’en douter, nos mauvaises habitudes sur nos outils informatiques sont dangereuses à la fois pour nous mêmes mais aussi pour la sécurité nationale, à commencer par les réseaux sociaux gratuits, première forme d’intrusion pour le cyberespionnage. L’utilisation de nos portables personnels (le plus souvent sans cryptage et sans mot de passe à l’ouverture) à des fins professionnelles sont aussi des techniques très faciles qui favorisent l’intrusion. Ces dernières années de multiples services et dispositifs informatiques se sont multipliés dans nos vies, et la diffusion de nos données personnelles ou professionnelles, que ce soit à des fins commerciales, de surveillance, ou d’espionnage (les trois étant souvent fortement liées) n’ont jamais été aussi faciles d’accès.
Nous faisons confiance à des société privées pour stocker nos données, nous faisons confiance à des sociétés privées pour utiliser des logiciels dont nous ignorons tout de la manière dont ils traitent nos données personnelles et professionnelles. Mais “nous” ne sommes pas les seuls. Les services de l’État sont eux-mêmes victimes de réflexes inconsidérés, comme le montrent par exemple les contrats passés avec des firmes privées (en particulier Microsoft) pour exploiter des services “clé en main”. Sur bien des points, des pans entiers du Service Public ont cédé au confort de la déresponsabilisation consistant à reporter l’engagement de sécurité des données sur des firmes privées, comme si des chartes et des contrats de papier apportaient à eux seuls le minimum de garantie. Qu’il s’agisse des logiciels privateurs utilisés sur nos machines personnelles ou ces mêmes logiciels utilisés à l’intérieur de l’administration publique, la fermeture du code et la boîte noire des brevets logiciels reportent fatalement la sécurité des données sur la seule garantie de la transaction, du contrat, de la bonne foi… et pas sur ce qui devrait être diffusé : le code. La séparation entre les utilisateurs et les concepteurs en matière d’informatique, surtout élevée aux plus hauts niveaux des besoins de sécurité, est une grossière erreur. Le constat est le même du côté des entreprises, qu’il s’agisse de celles qui exploitent nos données à des fins commerciales ou celles qui figurent parmi les plus innovantes et qui, pourtant, prennent bien plus de précaution.
Dans sa Note d’Analyse 324 de mars 2013, le Centre d’Analyse Stratégique fait une synthèse des questions actuelles de cybersécurité. La conclusion est la suivante :
Pour élever le niveau de sécurité, tout en tirant profit des avantages d’un Internet ouvert et décentralisé, les organisations doivent adopter une démarche rationnelle d’analyse de risques afin de mettre en œuvre une réponse adaptée sur le plan technique et organisationnel. L’offre nationale de solutions de sécurité doit également se structurer pour permettre une meilleure valorisation des compétences technologiques françaises et garantir un plus haut degré de souveraineté.
Laissons de côté la question d’un “Internet Policier”, qui n’est finalement pas le centre du rapport et concentrons-nous sur l’idée que la sécurité doit tirer avantage d’un “Internet ouvert décentralisé”. Tout est dans ces deux mots: “ouvert” et “décentralisé”. Bien évidemment! Il suffisait d’y penser! Sauf que cela fait des années que les Internautes les plus éclairés, les hackers et avec eux tout le mouvement du logiciel libre prônent cette ouverture et cette décentralisation. Qu’est-ce que cela veut dire exactement ?
Du point de vue de nos usages personnels, la décentralisation signifie que nous devons absolument cesser d’utiliser la pléthore de services gratuits pour stocker nos données tout en acceptant des conditions d’utilisation que nous ne lisons même pas. En gros : accepteriez-vous que, avant de les placer dans votre boîte, le facteur apporte d’abord vos lettres au magasin de meuble de votre quartier afin que celui-ci sache de quelle publicité vous avez besoin et dresse votre profil de consommateur? C’est pourtant exactement ce qui se passe chaque fois que vous recevez un courriel via votre compte gracieusement hébergé par des firmes bien connues. Videz-vous souvent le cache de votre explorateur ? Accepteriez-vous que ces mêmes firmes privées, qui s’approprient vos données, acceptent de donner à l’État l’historique de vos transfert de données afin que des firmes vous poursuivent (c’est le rôle d’Hadopi) ou afin de démontrer vos agissements en faveur de davantage de démocratie dans votre pays (voir l’exemple de Yahoo! en Chine). Décentraliser les données signifie donc que nous devons rester maîtres et possesseurs de nos données, savoir à tout moment où elles se trouvent et par qui elles peuvent être lues, et donc pour cela utiliser des outils adéquats: héberger ses propres données sur son propre serveur à la maison (auto-hébergement), pour le mail comme pour votre page personnelle ou votre Cloud, savoir crypter ses courriels (PGP), etc.
Du point de vue des entreprises (et en particulier, par exemple, les journalistes) ou des services publics, la décentralisation revient à appliquer ces mêmes principes, présents depuis le début de l’Internet et DES réseaux. Dans leur grande majorité les responsables sont des personnes très informées sur ces questions et savent exactement comment optimiser la sécurité. Seulement, voilà, il existe des obstacles, ceux mentionnés par le CAS, et qui ont la particularité d’être finalement les mêmes que ceux rencontrés par les utilisateurs individuels.
Du point de vue de l’ouverture, la situation est encore plus simple : il ne saurait être acceptable d’utiliser des logiciels dont nous ne savons rien de la manière dont ils traitent nos données. Les sur-couches utilisées par les firmes pour “faciliter notre expérience utilisateur” sont, à 99% des cas, des verrous qui nous empêchent de maîtriser nos données. Une belle illustration réside dans les “stores”, qui nous obligent, en tant qu’utilisateurs, à ne pouvoir utiliser que des logiciels au préalable agréés par la firme qui produit le système d’exploitation que nous utilisons : fermeture du code, impossibilité d’adapter le code à nos besoins, obligation d’accepter qu’en échange une partie de nos données personnelles soient envoyées, stockées et utilisées à des fins commerciales… ou moins avouables.
Tous ces verrous mis en place ces dernières années l’ont été de manière insidieuse, en échange de biens et de services auxquels nous n’avions jamais rêvé auparavant : se rapprocher de ses “amis” en utilisant un réseau social, obtenir “enfin” de la publicité ciblée, télécharger toujours plus vite des morceaux musicaux (sans pouvoir se les approprier vraiment), bref tout ce qui a fait qu’Internet est passé dans les représentations d’un moyen décentralisé de communication (de pair à pair) à une sorte de grosse télévision collective sans que nous puissions le moins du monde influencer les programmes.
Je m’éloigne du sujet ? non. car il est temps maintenant de divulguer les 4 paragraphes les plus importants de cette analyse du CAS (page 11):
Des blocages juridiques dommageables pour la sécurité Le cadre juridique français crée de nombreux blocages susceptibles d’affecter la sécurité des systèmes d’information :
- la loi Godfrain de 1988(55) réprime les comportements informatiques “agressifs” : appliquée de manière stricte, elle condamne pénalement le fait de divulguer publiquement une faille de sécurité jusque-là inconnue (sécurité par transparence ou full disclosure) alors que cela incite les éditeurs de logiciels à concevoir des correctifs ;
- la rétroingénierie, qui consiste à étudier un objet pour en déterminer son fonctionnement interne ou sa méthode de fabrication, est interdite lorsqu’elle est effectuée pour des raisons de sécurité informatique(56). C’est pourtant le seul moyen d’évaluer le degré de sécurité de produits propriétaires ;
- des mesures techniques de protection (57) d’œuvres numériques peuvent créer des vulnérabilités dans les systèmes d’information. Ainsi, le système de protection XCP installait automatiquement un logiciel contenant des failles de sécurité lors de la lecture d’un CD audio. Or le contournement de ces mesures est interdit par la loi relative au droit d’auteur et aux droits voisins dans la société de l’information (DADVSI, 2006) ;
- les brevets logiciels offrent la possibilité d’obtenir un monopole sur des techniques algorithmiques, y compris lorsque celles-ci sont nécessaires pour assurer la sécurité. L’article 52 de la Convention sur le brevet européen de 1973(58) exclut les “programmes d’ordinateur” du champ des inventions brevetables, mais l’Office européen des brevets (OEB) délivre en pratique des brevets logiciels en raison d’une interprétation extensive de la Convention et d’un modèle économique et de gouvernance discutable.
Si on interprète dans l’ordre des 4 points, cela donne :
- Point 1 : ne pas séparer utilisateurs et programmeurs. Les premiers doivent pouvoir faire remonter plus facilement les améliorations des logiciels et les second doivent pouvoir s’approprier les commentaires… Dans ce cas de figure les utilisateurs doivent pouvoir eux-mêmes contribuer aux programmes en remontant les correctifs. Cela implique que le code doit être accessible.
- Point 2 : le code doit être ouvert et accessible (donc modifiable) de manière à évaluer son degré de sécurité (son adaptation au besoin). Cette évaluation du code ne doit pas être faite uniquement par le concepteur (c’est un peu comme si vous demandiez à vote concessionnaire automobile si la voiture qu’il veut vous vendre est une bonne voiture, c’est pourtant ce qu’il se passe même aux plus hauts niveaux décisionnels).
- Mettre fin aux dispositifs de verrous numériques qui provoquent eux-mêmes des failles de sécurité au nom de l’intérêt des firmes. Ce point ne nécessite pas de commentaires, c’est le simple bon sens qui est à l’oeuvre.
- Mettre fin aux brevets logiciel qui imposent un black-out total sur le code au nom de la propriété intellectuelle. Ce point ne devrait pas être négociable lorsqu’il s’agit de sécurité des données… or c’est presque toujours de la sécurité des données qu’il s’agit. Donc briser les brevets logiciels devrait être une mesure qui s’impose partout et tout le temps.
En conclusion: l’utilisation des logiciels libres devrait s’imposer partout de manière à augmenter l’efficacité des mesures de sécurité (et donc la protection des données) grâce à l’accès aux programmes. Cela n’empêche nullement les firmes de travailler et d’innover, bien au contraire, puisque l’innovation serait une œuvre concertée vers plus d’efficacité dans les produits, et donc plus de sécurité, plus de respect des libertés (des individus, des services de l’État, des entreprises). C’est bien le but recherché, non ?
01.02.2013 à 01:00
L’éthique des hackers
Qui aurait cru qu’une poignée de hackers binoclards seraient à l’origine de la plus grande révolution du XXe siècle ? Le livre culte de Steven Levy, histoire vraie de l’équipe de geeks qui ont changé le monde.
Précision : un « hacker » n’est pas un vulgaire « pirate informatique ». Un hacker est un « bricoleur de code ». Son truc : plonger dans les entrailles de la machine.
Bill Gates, Steve Jobs, Steve Wozniak, Mark Zuckerberg ont commencé leurs brillantes carrières comme hackers… La plupart ne paient pas de mine mais tous partagent une même philosophie, une idée simple et élégante comme la logique qui gouverne l’informatique : l’ouverture, le partage, le refus de l’autorité et la nécessité d’agir par soi-même, quoi qu’il en coûte, pour changer le monde.
C’est ce que Steven Levy appelle l’Éthique des hackers, une morale qui ne s’est pas exprimée dans un pesant manifeste, mais que les hackers authentiques ont mise en pratique dans leur vie quotidienne. Ce sont eux qui ont œuvré, dans l’obscurité, à la mise en marche de la révolution informatique.
Depuis les laboratoires d’intelligence artificielle du MIT dans les années 1950 jusqu’aux gamers des années 1980, en passant par toutes les chambres de bonne où de jeunes surdoués ont consacré leurs nuits blanches à l’informatique, Steven Levy les a presque tous rencontrés. Voici leur histoire.
Levy, Steven. L’éthique des hackers, Globe, 2013.
Lien vers le site de l’éditeur : https://www.editions-globe.com/lethique-des-hackers/
18.11.2012 à 01:00
Eben Moglen: nous n'avons pas intégré l'anonymat quand nous avons construit le Net
La liberté de penser, voilà un concept que tout le monde est prêt à défendre. Seriez-vous prêt à le défendre bec et ongle, et même donner votre vie pour cette cause? Cette question n’est pas subtile… parce que les enjeux sont beaucoup plus subtiles que ce que tout le monde imagine. La question est plutôt de savoir jusqu’où vous êtes prêt à sacrifier un peu de cette liberté pour obtenir des services et des biens qui vous donnent l’impression de pouvoir vous exprimer librement ? La génération actuelle des utilisateurs d’Internet a la possibilité aujourd’hui de corriger le principal biais du système nerveux mondial qu’est Internet: la surveillance totale de la société humaine. Voilà pourquoi “nous avons besoin de logiciels libres, de matériels libres et de bande passante libre”. Voyons un peu ce qu’en dit Eben Moglen…
Prenez-le temps de regarder cette vidéo… (qui est Eben Moglen ?)
Le 20e siècle a connu les pires atrocités (aussi bien physiques que psychologiques), des guerres durant lesquelles le silence des esprits était aussi meurtrier que les obus. La censure était cependant visible (du moins, certains l’ont dénoncée) et l’expression était condamnée au moment où elle franchissait les limites de ce que le pouvoir avait décidé. C’était le cas dans les dictatures modernes de l’Allemagne nazie au Chili de Pinochet, en passant par la Chine et l’Iran. Mais pensez-vous que la censure tombe avec les dictateurs ? Ce serait bien naïf. On sait depuis quelque temps déjà qu’en démocratie aussi les opinions publiques se manipulent, ce que certains ont appelé la “fabrique du consentement”. Aujourd’hui, depuis que l’Internet est devenu un outil de communication de masse, le pouvoir des États est de plus en plus investi d’une mission de surveillance totale par les groupes d’intérêts, y compris les lobbies politiques, dont les intérêts vont radicalement à l’encontre de la diffusion des connaissances, de l’information et de la liberté d’expression. La question Hadopi en France est une illustration convaincante de ce que l’industrie du divertissement peut exiger d’un État pour qu’il espionne ses citoyens.
Aujourd’hui, Eben Moglen (voir sa fiche sur Wikipedia) part d’un constat assez grave : « Nous n’avons pas intégré l’anonymat quand nous avons construit le Net ». C’est entièrement vrai. Internet s’est construit sur la base des échanges d’informations à l’intérieur de petites communautés de programmeurs et de chercheurs, sur des bases de confiances et une croyance positive en ce que l’Internet allait changer le monde. Cet enthousiasme a sans doute effacé des esprits le fait que plus vous proposez aux individus des moyens de se cultiver et d’échanger des informations, plus le pouvoir des États perd de l’influence sur ces mêmes individus. Cela est d’autant plus vrai que les turpitudes des hommes politiques sont levées au grand jour par des groupes d’expression libre ou lorsque s’organisent à grande vitesse des résistances ou des révolutions grâce à ce réseau ultra rapide qu’est Internet.
Sur la dangerosité des réseaux sociaux, la question n’est évidemment pas de savoir si diffuser la photo de son chien est dangereux ou pas. La question est de savoir si il est acceptable que l’on puisse profiler votre identité de manière aussi fine que le peuvent les réseaux sociaux, et que cela soit analysé à la fois par les États et des groupes commerciaux dont les collusions avec les États sont évidentes. Comme le dit Eben Moglen, et sans exagérer :
La Stasi ne coûterait plus rien si elle revenait, car Suckerberg fait le boulot à sa place. […] Donc, la forme primaire de collecte qui devraient nous inquiéter le plus est que les médias nous espionnent pendant que nous les utilisons. Les livres qui nous regardent les lire, la musique qui nous écoute en train de l’écouter. Les moteurs de recherche qui surveillent ce que nous recherchons pour ceux qui nous recherchent et ne nous connaissent pas encore.
La plupart des citoyens ont du mal à comprendre ce genre de réflexion car cela les dépasse d’un point de vue technique : ils utilisent des technologies qu’ils ne comprennent pas. On peut toujours rétorquer que la plupart des conducteurs d’automobiles ne savent pas comment fonctionne un moteur à explosion. C’est vrai, mais l’analogie n’est pas la bonne. On ne parle pas ici de la manière dont est construit un ordinateur, on parle de la manière dont sont perçues, enregistrées et traitées les informations que vous transmettez grâce à lui. Par exemple, tout le monde peut comprendre qu’indiquer son nom et son adresse comme condition préalable à l’utilisation d’un logiciel que venez d’installer sur votre machine n’est pas du tout nécessaire pour faire fonctionner ce programme. De la même manière tout le monde peut s’interroger sur le fait qu’acheter un livre à lire sur une tablette Kindle ou un fichier musical sur votre IPhone devrait être une opération irréversible (ce livre ou ce fichier musical sont censés vous appartenir) et que, par conséquent, si vous avez envie de les prêter à quelqu’un, vous devriez pouvoir le faire. Par contre tout le monde n’a pas étudié d’assez près le fonctionnement des systèmes informatiques pour comprendre comment ces barrières ont été rendues possibles et comment certains acteurs économiques et politiques peuvent désormais connaître et décider le contenu des informations qu’ils partagent et comment ils les partagent.
Prenons enfin un cran plus haut. L’espace dans lequel nous évoluons avec Internet a besoin de sécuriser la liberté d’expression avant que l’espionnage de nos vies interdise les usages de cette liberté. Est-il acceptable que l’enregistrement (éternel) de vos recherches sur Google ou vos « amis » sur Facebook puisse devenir un élément à charge contre vous si votre pays devient une dictature et si vous n’avez pas glissé votre bulletin dans la bonne urne ? Souvenez vous cet épisode de l’affaire Tarnac où la seule présence d’un livre (L’insurrection qui vient) dans la bibliothèque de Mr Coupat était devenu une preuve d’intention terroriste: qui pensait que le délit de lecture pouvait être de retour en France ? Vérifiez vite les e-book que vous avez téléchargé dans votre liseuse !
Cet espionnage est justifié de multiples manière : la protection des droits d’auteurs, la lutte contre la pédopornographie, la lutte anti-terroriste, les « dangers d’Internet » pour les enfants, etc. Chacun de ces combats est justifiable politiquement et recouvre à chaque fois un peu plus de nos espaces de liberté… jusqu’à ne laisser de place sur le marché que pour les firmes proposant des « applications » calibrées et centralisées à la sauce Apple, avec lesquelles il deviendra impossible d’être anonyme ou de partager quoique ce soit.
C’est pour ces raisons, de manière à construire des médias libres, que « nous avons besoin de logiciels libres, de matériels libres et de bande passante libre ». Eben Moglen cristallise ici la question fondamentale que pose le Libre depuis ses débuts : sommes nous prêts à utiliser des logiciels ou des services, aussi performants et séducteurs soient-ils, en échange de nos libertés ? La réponse est « non », elle doit être « non ».
21.10.2012 à 02:00
Aux sources de l’utopie numérique
Stewart Brand occupe une place essentielle, celle du passeur qui au-delà de la technique fait naître les rêves, les utopies et les justifications auto- réalisatrices. Depuis la fin des années soixante, il a construit et promu les mythes de l’informatique avec le Whole Earth Catalog, le magazine Wired ou le système de conférences électroniques du WELL et ses communautés virtuelles. Aux sources de l’utopie numérique nous emmène avec lui à la découverte du mouvement de la contre-culture et de son rôle déterminant dans l’histoire de l’internet.
Turner, Fred. Aux sources de l’utopie numérique. De la contre-culture à la cyberculture : Stewart Brand, un homme d’influence. C&F éditions, 2012.
Lien vers le site de l’éditeur : https://cfeditions.com/utopieNumerique/
16.10.2012 à 02:00
Le plagiat, les sciences et les licences libres
Ces 5-6 dernières années, la question du plagiat dans les sciences est devenu un thème de recherche à part entière. On peut saluer le nombre croissant de chercheurs qui s’intéressent à cette question à double titre: d’abord parce que le plagiat est un phénomène social, mais aussi parce que ce phénomène (pourtant très ancien) illustre combien les sciences ne constituent pas cet édifice théorique et inébranlable de l’objectivité qu’il serait étonnant de voir un jour s’effriter.
Qu’est-ce que le plagiat ?
Parmi ces chercheurs, on remarquera plus particulièrement Michelle Bergadaà, de l’Université de Genève, qui a créé en 2004 le site responsable.unige.ch. Elle fut l’un des premiers chercheurs à recueillir une multitude d’informations sur des cas de plagiat et à dresser une typographie des plagiats scientifiques. Elle a montré aussi que la reconnaissance des cas de plagiat ne peut manifestement pas se contenter d’une réponse juridique, mais qu’il appartient à la communauté des chercheurs de réguler des pratiques qui vont à l’encontre des principes de la recherche scientifique, en particulier la nécessité de citer ses sources et d’éviter la redondance au profit de l’avancement des sciences.
En 2012, Michelle Bergadaà a publié un article bien documenté et accessible, intitulé « Science ou plagiat », dans lequel elle montre que la conjonction entre le peer review process, qui fait des revues non plus des instruments de diffusion de connaissance mais des « instruments de prescription et de référencement à l’échelle mondiale » (comprendre: le système du publish or perish), et le web comme outil principal de communication et de diffusion des productions des chercheurs, cause l’opposition de deux modes de rapports au savoir:
Un malentendu s’installe entre ceux qui restent fidèles au savoir scientifique véhiculé par les revues traditionnelles et ceux qui défendent le principe des licences libres inscrites dans une logique de savoir narratif. Cette tension apparaît dans la manière dont est compris et souvent envisagé le modèle de production des Creative Commons ou licences libres, issues du monde du logiciel. Ce modèle vise d’abord à partager l’information, à l’enrichir, et non la rendre privative. Il est possible de copier et de diffuser une œuvre, à condition de respecter la licence choisie ; de la modifier à condition de mentionner la paternité de l’œuvre. Il correspond donc précisément aux pratiques canoniques de la recherche scientifique : publier et diffuser les connaissances le plus largement possible permettant de s’appuyer sur les résultats et les productions des autres chercheurs pour faire avancer le savoir.
Cette analyse assimile le web à un endroit où se partagent, de manière structurée, les productions scientifiques, que ce lieu de partage est fondamentalement différent des lieux « traditionnels » de partage, et que donc les défenseurs de ces lieux traditionnels ne comprennent pas leur propre miroir numérique… Je parle de miroir car en effet, ce que M. Bergadaà ne fait que sous entendre par le terme « malentendu », c’est que les licences libres permettent de remettre en cause l’ensemble du système de production, diffusion et évaluation scientifique. Elles démontrent même que le sens du plagiat n’est pas le même et ne questionne pas les mêmes valeurs selon qu’on se situe dans une optique ou dans l’autre. C’est une accusation radicale du système d’évaluation scientifique qu’il faut porter une fois pour toute et la « lutte » contre le plagiat est, à mon sens, l’un des premiers pas de cette étape réflexive. Il est donc important de bien situer ce « malentendu », et la question du plagiat est un bon levier.
Qu’est-ce que le plagiat, aujourd’hui? N’est-il pas le « côté obscur » du sentiment légitime que les connaissances appartiennent à tous ? Dans le domaine du logiciel libre, prendre du code et le diffuser sans porter le crédit du créateur originel, même lorsqu’on modifie une partie de ce code, cela s’appelle le resquillage. Selon la législation nationale du pays où se déroule le resquillage, cette attitude peut se condamner devant les tribunaux. De même, du point de vue du droit d’auteur, reprendre à son compte des pans entiers voire la totalité d’une oeuvre sans citer l’auteur, c’est interdit et va à l’encontre du droit (moral) d’auteur.
Au-delà du droit d’auteur
Mais tant que l’on en reste là, c’est à dire à la question du droit d’auteur, on passe à côté du vrai problème de la diffusion des connaissances scientifiques: dans la mesure où un chercheur publie le résultat de recherches menées sur fonds publics (et même privés, dirai-je, mais cela compliquerait notre réflexion à ce stade) comment peut-on considérer un instant que le texte qu’il produit et les analyses qu’il émet puissent être l’objet d’un droit d’auteur exclusif ? c’est là qu’interviennent les licences libres: qu’un droit d’auteur doive être reconnu, en raison de la paternité de l’oeuvre (ou même de la découverte), mais que ce droit soit protégé tout en permettant la diffusion la plus large possible.
Ce qui pose donc problème, ce n’est pas le droit d’auteur, c’est l’exclusivité ! Lorsqu’un texte scientifique est plagié, aujourd’hui, qui est réellement lésé et en quoi ?
- L’auteur ? dans la mesure où il est censé publier pour la postérité et dans le but de diffuser les connaissances le plus largement possible, ce qui lui pose alors problème est sa fierté et le fait que l’oeuvre dérivée ne reconnaisse pas sa paternité. Il s’agit-là d’un point de vue personnel, et un auteur pourrait prendre cela de manière plus ou moins heureuse. Par contre, cela pose problème dans le cadre de l’évaluation scientifique : moins d’impact factor à son crédit. On touche ici un des nombreux points faibles de l’évaluation de la recherche.
- La revue? très certainement, dans la mesure où elle a les droits exclusifs de l’exploitation d’une oeuvre. Ici, ce sont les aspects purement financiers qui sont en cause.
- La communauté des chercheurs et, au delà, l’humanité ? c’est sans doute le plus important et ce qui devrait passer au premier plan ! Tout resquillage en science revient à fouler aux pieds les principes de l’avancement scientifique: la production de connaissances nouvelles.
Mais alors, d’où vient le malentendu ? Tout le monde s’accorde pour reconnaître que les productions des chercheurs doivent être diffusées le plus largement possible (on pourra se questionner sur l’exclusivité d’exploitation des revues et les enjeux financiers). De même, tout le monde s’accorde sur le fait que la paternité d’un texte doit être reconnue à travers le droit d’auteur. Par conséquent, puisque les licences libres doublent le droit d’auteur de conditions permissives d’exploitation des oeuvres par l’humanité entière, d’où vient la réticence des défenseurs du système traditionnel de la publication revue par les pairs face aux licences libres (et peut-être au web en général) ?
Lorsqu’on discute avec ces traditionalistes de la production scientifique évaluée par les copains, les poncifs suivants ont tendance à ressortir:
- l’absence d’évaluation dans cette jungle du web dont Wikipédia et consors représentent le pire des lieux de partage de connaissances forcément faussées puisque les articles sont rarement écrits par les « spécialistes » du domaine ;
- la validation du travail de chercheur passe exclusivement par l’évaluation de la part de « spécialistes » reconnus. Cela se fait grâce aux revues qui se chargent de diffuser les productions pour le compte des chercheurs (notamment en s’attribuant le copyright, mais là n’est pas la question) ;
- il faut éviter que des « non-spécialistes » puisse s’autoriser à porter un jugement sur mes productions scientifiques, cela serait non seulement non recevable mais présenterait aussi un danger pour la science qui ne doit être faite que par des scientifiques.
À ces poncifs, on peut toujours en rétorquer d’autres :
- Comment définir un « spécialiste » puisqu’il n’y a que des degrés de compétences et que tout repose sur l’auto-évaluation des pairs à l’intérieur d’une seule communauté de chercheurs. Ainsi, les spécialistes en biologie du Bidule, ne sont reconnus que par les spécialistes en Biologie du Bidule. Et en cas de controverse on s’arrange toujours pour découvrir que Dupont était en réalité spécialiste en biologie du Machin.
- Les évaluateurs des revues ([voire les revues elles mêmes](http://www.the-scientist.com/?articles.view/articleNo/27376 « The Scientist. L’affaire Merck »)) ont bien souvent des conflits d’intérêts même s’ils déclarent le contraire. En effet, un conflit d’intérêt est souvent présenté comme un conflit qui ne concerne que les relations entre un chercheur et les complexes industriels ou le système des brevets, qui l’empêcheraient d’émettre un jugement fiable sur une production scientifique qui remettrait en cause ces intérêts. Or, que dire des évaluateurs de revues (ou d’appel à projet) qui ont eux-mêmes tout intérêt (en termes de carrière) à être les (presque) seuls reconnus spécialistes du domaine ou, d’un point de vue moins individualiste, donner toutes les chances à leur propre laboratoire ? le monde de la recherche est un territoire de plates-bandes où il ne fait pas bon venir sans avoir d’abord été invité (demandez à tous les doctorants).
- Enfin, relativisme extrême: pourquoi la fameuse « société civile » ne pourrait porter un jugement sur les productions scientifiques? Parce que, ma bonne dame, c’est pour cela qu’on l’appelle « société civile » : à elle Wikipédia et à nous la vraie science. Après tout c’est à cause de ce relativisme qu’on en vient à réfuter le bien fondé des essais nucléaires ou la salubrité des OGMs.
Privilégier la diffusion
Il faut dépasser ces poncifs…. je réitère la question : d’où vient ce malentendu ? Il vient du fait qu’on doit aujourd’hui considérer que les limites entre les communautés scientifiques entre elles (les « domaines de compétence ») et avec la « société civile » deviennent de plus en plus ténues et que, par conséquent, les licences libres impliquent que les scientifiques soient prêts à assumer trois choses :
- privilégier la diffusion des connaissances sur leur distribution protégée par l’exclusivité des revues, car cette exclusivité est un rempart contre les critiques extérieures à la communauté (voire extérieures aux cercles parfois très petits de chercheurs auto-cooptés), et aussi un rempart financier qui empêche l’humanité d’avoir un accès total aux connaissances, grâce au web, ce qu’elle réclame aujourd’hui à grands cris, surtout du côté des pays où la fracture numérique est importante ;
- que les scientifiques – et nombreux sont ceux qui ont compris cette évidence –, ne peuvent plus continuer à produire des connaissances à destination exclusive d’autres scientifiques mais bien à destination du Monde: c’est à dire qu’on ne produit des connaissances non pour être évalué mais pour l’humanité, et que ce principe doit prévaloir face à la gouvernance des sciences ou à l’économie de marché;
- que le plagiat ne doit pas être condamné parce qu’il est malhonnête vis à vis de l’auteur, mais parce qu’il est tout simplement immoral, tout autant que la course à la publication et la mise en concurrence des chercheurs. Plus cette concurrence existera, plus la “société civile” la remplacera par d’autres systèmes de production scientifique: imaginez un monde où 50% des chercheurs publient leurs articles sur leurs blog personnels ou des sites collaboratifs dédiés et ouvert à tous (pourquoi pas organisés par les universités elles-mêmes) et où l’autre moitié des chercheurs accepte cette course au peer review pour gagner des points d’impact. Qui osera dire que la première moitié des productions ne mérite pas d‘être reconnue comme scientifique parce qu’elle n’est pas évaluée par des pairs à l’intérieur de revues de catégorie A, B, ou C ?
Voici le postulat: il est préférable de permettre aux pairs et au monde entier d’apprécier une oeuvre scientifique dont on donne à priori l’autorisation d’être publiée, que de ne permettre qu’au pairs d’évaluer cette production et ne donner l’autorisation de publication (exclusive) qu’à postériori.
Les licences libres n’interviennent que de manière secondaire, pour asseoir juridiquement les conditions de la diffusion (voire des modifications).
La conséquence, du point de vue du plagiat, c’est que l’oeuvre est connue à priori et par le plus grand nombre : cela diminue radicalement le risque de ne pas démasquer le plagiat, en particulier grâce aux moteurs de recherche sur le web.
Par ailleurs, dans ces conditions, si l’oeuvre en question n’est pas « scientifiquement pertinente », contient des erreurs ou n’obéit pas à une méthodologie correcte, c’est toute la communauté qui pourrait alors en juger puisque tous les agents, y compris les plus spécialistes, seraient en mesure de publier leurs évaluations. Il appartient donc aux communautés scientifiques, dès maintenant, de multiplier les lieux où l’exercice de la recherche scientifique pourrait s’accomplir dans une transparence quasi-absolue et dans une indépendance totale par rapport aux revues comme aux diktat de l’évaluation à tout va. C’est le manque de transparence qui, par exemple, implique l’anonymat des évaluateurs alors même que ce sont des « pairs » (j’aime l’expression « un article de pair inconnu »): ne serait-il pas juste qu’un évaluateur (comme le ferait un critique littéraire) ne se cache pas derrière le nom de la revue, afin que tout le monde puisse juger de son impartialité ? Voilà pourquoi il faut ouvrir à priori la diffusion des articles : les évaluations publiques seront toujours plus recevables que les évaluations anonymes, puisqu’elles n’auront rien à cacher et seront toujours potentiellement discutées entre lecteurs. Là encore les cas de plagiat seraient très facilement identifiés et surtout discutés.
Il se pourrait même que le modèle économique du logiciel libre puisse mieux convenir à l’économie de la Recherche que les principes vieillissants du système dominant.
27.01.2012 à 01:00
Il faut libérer les sciences
Ce billet fait suite à mon texte de 2010 intitulé « Pour libérer les sciences », au risque de paraître quelque peu redondant. En effet, en cette fin de mois de janvier 2012, le mathématicien Timothy Gowers (Cambridge + Médaille Fields 1998) a lancé un appel au boycott de l’éditeur Elsevier, un des grands poids lourds de l’édition scientifique et en particulier les éditions papier et en ligne vendues par abonnement aux Universités. Cet appel au boycott repose sur le même reproche fait depuis des années sans que rien ne bouge à propos des tarifs exorbitants des ces firmes (Elsevier en tête mais on peut aussi citer Springer et d’autres), sans aucun rapport avec le coût effectif des supports de diffusion ainsi proposés à la vente. Faut-il boycotter Elsevier et, comme T. Gowers, inciter les scientifiques à ne plus soumettre leurs publications aux revues détenues par Elsevier, ne plus faire partie des comités de lectures, etc. ?
Des connaissances libres et gratuites
Selon moi, un tel appel au boycott n’a que peu de chance de réussir. En effet, la pression de l’évaluation tout-azimut est telle sur les scientifiques qu’ils se trouvent bien obligés de participer à la mascarade collective consistant à s’auto-évaluer et se plier au racket organisé. Mais la question dépasse largement ces aspects. En effet, qu’est-ce qu’une publication scientifique? C’est un ensemble de connaissances (nouvelles) exposées selon des règles et une méthodologie claire et dont l’objectif est d’être diffusée le plus largement possible. Dans la mesure où cette publication est le produit de l’effort collectif à la fois des scientifiques et des citoyens qui, par leurs impôts, subventionnent la recherche scientifique, les connaissances produites sont censées être consultables par tous, et comme un juste retour sur l’investissement public, cela implique selon moi un accès libre et gratuit.
Libre, parce que la priorité doit être donnée à la diffusion des sciences et que chacun devrait pouvoir utiliser un texte scientifique : le lire, le partager, identifier les auteurs et proposer éventuellement des modifications en leur écrivant, bref, en disposer de manière démocratique et dans un esprit de partage. Libre est ici utilisé dans le même sens que dans “licence libre”, c’est à dire que les texte scientifiques devraient être soumis à de telles licences. Quant au droit d’auteur, si l’on s’en réfère à la législation française (je ne parle pas de copyright), il reste bien sûr inaliénable (droit moral) et la paternité d’un texte sera toujours reconnue quoiqu’il arrive. Dès lors, la conclusion s’impose d’elle même : un texte scientifique, produit grâce à des subsides publics, ne doit en aucun cas faire l’objet d’une cession exclusive des droits de diffusion. En effet, on devrait considérer que si le droit moral sur l’oeuvre appartient bien à l’auteur, ce dernier ne devrait pas être détenteur d’un droit patrimonial dans la mesure où son oeuvre appartient au public en premier lieu. L’évaluation de cette oeuvre par les pairs lui confère sa validité scientifique, fruit du métier de chercheur, et consiste à la reconnaître comme une véritable production de la recherche publique.
Gratuit, parce que rien n’oblige à réaliser des bénéfices sur la production scientifique, mais pour autant, cela doit rester possible. Cette gratuité peut s’obtenir d’une manière très simple : aujourd’hui, un texte scientifique est produit de manière électronique, il peut donc, pour un coût proche de zéro, être diffusé par voie électronique. La publication au format papier ou dans un format électronique spécial peuvent certes être payantes, dans la mesure où un effort est fait par un éditeur pour produire un support. Mais, quoi qu’il advienne, un chercheur devrait pouvoir garder la main sur n’importe quel moyen de diffusion qui lui semble opportun et laisser gratuitement à disposition du public ses productions scientifiques.
C’est la raison pour laquelle je ne suis pas favorable à un boycott d’Elsevier ou de toute autre maison d’édition. Si l’on part du principe que toute production scientifique est censée être libre et gratuitement disponible quelque part, rien n’empêche une maison d’édition de s’emparer d’un texte et participer à sa diffusion via n’importe quel support. Dans ce cas, c’est un service qui est vendu… pourquoi le condamner?
Le système est aberrant, il faut le changer
Les problèmes ne sont donc pas là où l’on pense d’emblée les trouver. Les scientifiques en ont pourtant l’habitude. La question réside dans l’exercice d’un monopole, lui même soutenu de manière politique. Preuve en est que Elsevier et d’autres ont récemment soutenu le Research Works Act qui vise explicitement à limiter voire interdire l’accès libre aux productions scientifiques ! En d’autres termes, le rêve d’Elsevier et consors est d’obtenir un monopole sur la connaissance. C’est inacceptable. Surtout si l’on relève quelques petits scandales de Elsevier sur le montage de vrais-faux journaux pharmaceutiques, au service de quelques firmes.
Face aux pratiques douteuses de ces groupes de l’édition scientifique, l’un des premiers réflexes des scientifiques est de se tourner vers des solutions de type open access. Au risque de répéter ce que j’ai déjà affirmé précedemment, cette solution n’est valable qu’à la condition que ces productions scientifiques soient véritablement libres et soumises à des licences libres. Si l’on prend l’exemple de HAL (Archives ouvertes) qui se targue d’être un accès “libre” garantissant la propriété intellectuelle des auteurs, on est encore loin du compte. Le fait de placer un texte sur HAL et autres serveurs est souvent soumis à des conditions bien particulières, dont la plus importante est d’obtenir l’autorisation préalable de l’éditeur de la revue dans laquelle le texte est censé être initialement diffusé. Tout part du principe qu’une publication scientifique passe obligatoirement par une revue au sens classique du terme. Certaines revues ont depuis longtemps fait le pari des licences libres, mais c’est loin d’être le cas de toutes les revues. Or, rien n’oblige les chercheurs à accepter de telles conditions ! Qui plus est, cet engouement pour les archives ouvertes a été perçu par certains éditeurs comme une occasion de racketter encore plus les auteurs (et leurs labos) : si vous voulez publier, il faut payer et si, en plus, vous voulez obtenir l’autorisation de placer votre texte sur l’un ou l’autre support d’archives ouvertes, il faut encore payer (très cher).
En somme, si je parle de racket, c’est bien parce qu’un texte, produit sur des fonds publics, à la sueur du front d’un chercheur, ne donnera qu’un retour limité sur l’investissement public de départ, sera centralisé dans une revue (sclérosant ainsi la diffusion), moyennant des tarifs de publication, et revendu aux institutions publiques sous forme d’abonnement… Les membres des comités de lecture, qui prennent de leur temps de chercheur (là encore: fonds publics) pour évaluer les articles de ces revues, sont très rarement indemnisés (et s’il le sont, c’est de manière personnelle, aucune somme n’est versée à leur institution). Quant au travail d’éditeur, il se réduit ni plus ni moins qu’à imprimer un texte fourni de manière électronique par le chercheur déjà mis en page et corrigé par lui-même selon les maquettes fournies, c’est à dire un travail éditorial proche de zéro (surtout sans indemniser les comités de lecture). Comment un tel système a-t-il pu se mettre en place ? c’est une aberration.
Que faut-il faire ?
Les solutions sont très simples à mettre en oeuvre, mais très difficiles à accepter. Il faut tout d’abord s’inspirer de l’existant : ArXiv et Wikipedia sont selon moi deux systèmes parfaitement adaptés. Il faut en effet inverser la tendance : les éditeurs doivent accepter le fait que ce qu’ils publient est d’abord issu du pot commun “connaissance de l’homme”, et que leur travail est d’abord un service rendu sous forme de support. Les productions scientifiques peuvent aujourd’hui être évaluées par les pairs de manière transparente sur des serveurs en ligne adaptés. Elle peuvent être publiées et/ou référencées en ligne avec un coût nul et toucher des milliards de personnes, sans obliger le lecteur au fin fond d’une zone rurale d’un pays du tiers-monde à posséder un abonnement Elsevier. Et si ce dernier n’a pas Internet, un de ses correspondants plus chanceux devrait pouvoir avoir la possibilité la plus morale qui soit à imprimer le texte et le lui envoyer par courrier.
Recette à méditer, reposant sur le principe de la décentralisation des données et de la priorité de la diffusion des connaissances :
- Chaque chercheur (ou simple quidam) produit des textes qu’il héberge soit depuis chez lui, soit sur un emplacement qui lui est personnellement réservé sur un serveur au sein de son université de rattachement.
- Les universités hébergent toutes des duplicata des bases de données dont l’alimentation se fait via une technologie peer-to-peer. Les bases de données sont les suivantes : 1) la liste et les adresses des textes produits par les chercheurs et hébergés partout dans le monde 2) le descriptif de ces textes, leur domaines, suivant une nomenclature commune 3) les commentaires et les critiques de ces textes, produits de manière anonyme ou non.
- Les revues ont accès (comme le reste du monde) à ces données et peuvent choisir celles parmi les meilleures publications (système de popularité) qui peuvent être inclues dans leurs collections. Elles font alors pour cela appel à leurs comités de lecture. En retour, d’autres comités de lecture issus des communautés scientifiques (associations internationales de chercheurs, prix de travaux scientifiques, membres de comités d’institutions publiques, etc) peuvent aussi participer à un système de notation.
- Les systèmes de notation doivent être indépendants les uns des autres, parfaitement identifiés, et peuvent être multiples. Par exemple, l’Association des Joyeux Mathématiciens du Wyoming peut éditer mensuellement ou annuellement, toujours en ligne, un classement des productions les plus pertinentes. Ce classement pourra être différent pour les referees des médailles Fields. Et encore différent pour des institutions comme le CNRS. Il peut donc y avoir consensus ou différence : c’est bien là l’objectif des théories scientifiques que d’être discutables, non? Mais ces classements multiples permettraient de hiérarchiser la qualité des travaux selon des tendances, et permettrait aussi des notations “en contexte” : si un chercheur doit être évalué, c’est à l’instance qui l’évalue qu’il revient de noter ses productions. Ainsi par exemple en France : l’AERES, au lieu de ne se référer qu’à des évaluations de revues complètement absconses, pourrait faire l’effort de lire les publications des membres des labos et elle-même attribuer une note au labo, note qui compterait alors dans la popularité des articles référencés.
- Le chercheur qui produit un texte peut toujours le faire en vue de le proposer dans une revue bien précise mais il le dépose en ligne et le rend accessible à tous : la revue peut alors utiliser ce texte, comme initialement prévu, mais d’autres revues peuvent très bien l’utiliser aussi : par exemple pour le traduire et favoriser sa diffusion, ou le rendre disponible dans des endroits ne disposant pas d’accès Internet (on peut imaginer une autre ambition aux éditeur consistant à publier des versions papiers des meilleurs articles dans un but humanitaire…Ceci en vertu d’une absence d’exclusivité de la diffusion.
Et alors, où serait le problème ? Les auteurs ne sont de toute façon pas censés toucher de revenus sur leurs propres publications scientifiques. Les institutions feraient des économies substantielles. Tout le monde aurait accès à ces connaissances. La fiabilité des informations ainsi produites serait mesurée à l’aune des méthodes de ceux qui se donneront la peine d’effectuer ces évaluations. L’ensemble pourrait très bien reposer sur un modèle Wikipedia… Avec l’avènement du tout numérique et de l’Internet, il faut aussi que nos chers éditeurs adaptent leurs modèles hérités du début du XXe siècle (Elsevier est même plus ancien) et comprennent que leur rôle n’est plus autant indispensable qu’il l’était hier, surtout si leur jeu consiste à imposer un modèle de monopole et brider la diffusion des connaissances.
01.01.2012 à 01:00
Occupations
Voici quelques éléments biographiques à propos de Christophe Masutti (voir la photo). Ils ne sont ni exhaustifs ni définitifs.
En résumé
Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft. Sport à haute dose (VTT, natation, trail). Histoire, sociologie, philosophie des sciences et des techniques.
J’ai un job que j’aime beaucoup aux Hôpitaux Universitaires de Strasbourg. Il m’est cependant indispensable de poursuivre mes activités militantes en faveur des libertés numériques. En même temps, ce sont aussi mes compétences d’historien des sciences et des techniques qui sont souvent mobilisées… et j’écris des textes. Pour décompresser de tout cela, je pratique mon sport de prédilection, le VTT, que je complète par deux autres sports, le trail (et l’endu en salle de sport) et la natation.
Trucs officiels
- Attaché aux affaires Européennes et transfrontalières, Hôpitaux Universitaires de Strasbourg, dep. fév. 2008. — Coopération, coordination de projets, recherche clinique, évaluation, gestion scientifique et technique, développement de l’activité
- Co-administrateur, Association Framasoft, Dep. janv. 2010 — Membre de différents comités, administration de l’association
- Chercheur associé, SAGE, UMR 7363, Dep. sept. 2012 — (Sociétés, acteurs, Gouvernement en Europe)
- Post-doctorat, INSERM, Institut national de la santé et de la recherche médicale, janv. 2008 — janv. 2009 — Histoire et politiques de santé, France / Allemagne
- Post-doctorat, La Charité Universitätsmedizin Berlin, févr. 2007 – janv. 2008 — Développement réseau DRUGS (histoire de l’industrie pharmaceutique)
- Attaché d’enseignement et de recherche, Faculté des sciences économiques, Université de Strasbourg, 2004 — 2006. — Histoire des sciences et des technologies, Histoire économique
- Doctorat (allocataire-moniteur de recherches), IRIST, Université de Strasbourg, 2001 — 2004. — Histoire des sciences et des technologies (72), Sciences politiques (04), Histoire moderne et contemporaine (22)
- DEA, IRIST, Université de Strasbourg, 2000 — 2001. — Sciences, Technologies et Société (STS)
- Maîtrise/master, Université de Strasbourg, 1999. — Discipline : Philosophie
01.01.2012 à 01:00
Clefs publiques
Clefs à télécharger
-
Clef publique pour affaires Framasoft et libertés numériques : clepubliqueframasoftframatophe.asc
-
Clef publique personnelle (pour messages personnels) : clepubliquepersochristophe.asc
Explications
Voir cette page Wikipedia
20.04.2011 à 02:00
Option libre
Quel est le cadre légal associé aux aux créations de l’esprit, et comment les licences libres changent-elles la donne ? Quels sont les bons usages des licences libres ? Dans ce livre, Benjamin Jean nous présente ce nouveau paradigme des licences libres et l’équilibre du système qu’elles structurent. Tout en évitant la simple exposition de règles et de normes, c’est de manière méthodique que seront abordées les notions juridiques, les exemple pratiques et les principaux écueils à éviter.
Jean, Benjamin. Option libre. Du bon usage des licences libres. Framasoft, 2011.
Lien vers le site de l’éditeur : https://framabook.org/optionlibre-dubonusagedeslicenceslibres/
21.01.2011 à 01:00
Réseaux sociaux
La dissémination des technologies numériques dans toutes les couches sociales de tous les pays industrialisés transforme inexorablement les relations entre les individus, les groupes, les générations et les nations. La croissance spectaculaire des réseaux sociaux affecte tous les milieux, et vient transformer les règles du jeu socio-économique dans son ensemble, tant pour les individus que pour les entreprises et organisations, et dans tous les domaines de la vie. Or – en première analyse – ces nouveaux réseaux peuvent sembler des réseaux non sociaux, voire même antisociaux. Ils sont en effet généralement coupés de ce qui caractérisait jusqu’alors le social : lié à un territoire, à une langue, à un héritage (religieux, politique ou culturel au sens le plus large), légué par des générations d’ascendants, et qui précède en principe le social comme son passé, comme un sol commun.
Cet ouvrage, dirigé par Bernard Stiegler, propose les meilleures contributions aux Entretiens du Nouveau Monde Industriel sur les réseaux sociaux. Il montre comment ces technologies relationnelles bouleversent non seulement les règles traditionnelles de l’économie et de l’industrie, mais également, et plus profondément, le processus d’individuation psychique et collective. Il propose une analyse approfondie des conditions sociologiques et psychologiques qui président à la constitution de ces réseaux sociaux.
Il étudie leurs conséquences économiques et organisationnelles, et identifie les opportunités d’innovation sociale, les enjeux politiques et les menaces afférents à cette émergence du « social engineering ».
Enfin, il explore les règles de constitution et de développement des réseaux sociaux du web 3.0 (alliance du web sémantique et du web social), et également les conditions économiques et éthiques d’administration de ces nouveaux milieux, c’est-à-dire les questions de la gestion, du contrôle, de la transparence et de l’e-démocratie, ainsi que les technologies et les stratégies industrielles déjà mises en oeuvre ou à venir.
Avec les contributions de : Bernard Stiegler, Alexander R. Galloway, Yann Moulier-Boutang, Annie Gentès, François Huguet, Christian Fauré, Richard Harper, Antoine Masson, Elizabeth Rossé, Kieron O’Hara, Aristea M. Zafeiropoulou, David E. Millard et Craig Webber, Alain Mille, Olivier Auber
Stiegler, Bernard, éditeur. Réseaux sociaux. Culture politique et ingénierie des réseaux sociaux. FYP éditions, 2011.
Lien vers le site de l’éditeur : https://www.fypeditions.com/bernard-stiegler-et-al-reseaux-sociaux/
11.01.2011 à 01:00
À propos de Mutt
Pour résumer simplement, Mutt est une sorte de navigateur de fichiers en mode texte spécialisé dans la lecture de boites courriel (comme le format mbox par exemple). Ainsi, à l’aide d’un “récupérateur” de courriel (comme fetchmail ou procmail) vous pouvez télécharger vos courriels, les stocker dans un dossier et les lire avec Mutt. Cela dit, Mutt est tellement bien qu’il peut lire des dossiers distants, en utilisant le protocole IMAP notamment. En d’autres termes si vous utiliser IMAP, Mutt peut (presque) se suffire à lui tout seul. De plus, Mutt n’a pas d’éditeur de texte intégré, et il s’utilise dans un terminal. Si vous voulez écrire un courriel, il vous faut configurer Mutt de manière à utiliser l’éditeur de votre choix. Et si vous voulez des couleurs, ce seront celles dont est capable d’afficher votre terminal. Ce billet vise à faire le point sur l’utilisation de Mutt et montre combien ce petit logiciel peut s’avérer très puissant.
S’il est si petit, pourquoi utiliser Mutt?
Mutt est un programme dans la droite lignée des programmes Unix. C’est un petit programme, réalisé pour effectuer un seul type de tâche, mais il le fait bien. Ainsi pour utiliser convenablement Mutt, il faudra tout de même un peu de débrouillardise et de bon sens, surtout dans la mesure où Mutt est dit “hautement configurable”. Sa puissance vient tout simplement de ce que vous même avez configuré. C’est pour cela que Mutt est sans doute le client de courriel le plus efficace.
Voici deux exemples rapides:
– Je possède un compte courriel sur un serveur et je veux y accèder en IMAP. Le processus est assez simple. Après avoir correctement configuré Mutt pour l’accès à mon compte, Mutt lira les dossiers sur le serveur, me renverra les en-têtes, me permettra de lire les courriels et si je désire envoyer un message, Mutt ira le placer dans la boîte d’envoi. De ce point de vue, Mutt effectue un travail de rapatriement de données, le serveur IMAP fait le reste.
– Je possède un compte courriel et j’y accède en POP. A l’aide d’un “récolteur” de courriel, comme procmail ou fetchmail, je rapatrie mes données dans un dossier local et je configure Mutt pour qu’il lise les éléments de ce dossier. Le tri, les règles de stockage et classement reposent sur la configuration du “récolteur” que j’ai décidé d’utiliser (notez que fetchmail ou procmail sont de même “hautement configurables”). Vous pouvez lire cette page du manuel de formation Debian pour en apprendre davantage sur ce système
Comment utiliser Mutt?
Il vous faudra d’abord le configurer. Pour ce faire, le principe est simple: après avoir installé le programme via les dépôts de votre distribution, créez un fichier .muttrc dans votre /home. Ensuite il existe toute une série de commandes que vous pouvez renseigner pour faire fonctionner Mutt. Ces commandes concernent les modalités de connexion à un compte, les règles d’affichage des messages et de leurs en-tête, les règles de rédaction, les règles de tri et d’envoi, la personalisation des en-têtes des messages envoyés, les jeux de couleurs, l’éditeur de texte choisi, etc, etc. Bref, tout ce qui permet à Mutt de faire ce que vous lui demandez tout en coopérant avec d’autres programmes selon vos besoins.
Le seul bémol est qu’il vous faudra sans doute passer du temps à comprendre et implémenter ces commandes dans le fichier de configuration. En contrepartie, Mutt sera capable de faire tout ce que vous lui demandez et l’éventail des fonctionnalités est particulièrement grand et malléable. Mutt est vraiment un logiciel libre!
Barre latérale
Certains utilisateurs préfèrent avoir sous les yeux la liste des dossiers dans lesquels ils trient leurs messages. Lorsqu’un nouveau message arrive, il est signalé présent dans l’un des dossiers et l’utilisateur peut naviguer entre ces derniers. Nativement, Mutt n’intègre pas une telle barre latérale. Il faut alors patcher Mutt dans ce sens. Pour cela, certaines distributions, outre le fait de proposer Mutt dans les dépôts, proposent aussi le paquetage mutt-patched. Si ce n’est pas le cas, il faut alors se rendre sur le site officiel de ce patch.
Imprimer avec Mutt?
Imprimer avec Mutt, c’est déjà beaucoup dire. En fait, lorsque l’on configure Mutt en éditant .muttrc, il suffit d’ajouter cette commande
set print_cmd="lpr -P nom_de_l_imprimante"
pour pouvoir imprimer (touche “p”) l’entrée courante. Mutt envoie alors le texte… tout le texte visible.
De même, selon l’éditeur de texte que vous utilisez avec Mutt pour écrire vos courriels, il possède sans aucun doute une fonction d’impression. Mais il ne s’agit que d’imprimer le texte que vous entrez.
Vous aimeriez peut-être pouvoir formater l’impression et gérer la mise en page des courriels que vous imprimez. Pour cela Muttprint est un petit utilitaire configurable (lui aussi!) qui vous rendra de bien grands services, ne serait-ce que pour limiter l’impression aux en-têtes les plus utiles comme date:, à:, et de:. Certaines distributions proposent le paquetage muttprint, il vous suffit alors de l’installer en quelques clics depuis les dépôts.
Configurer Muttprint se fait de manière similaire à Mutt. Vous avez cependant le choix entre soit éditer directement le fichier /etc/Muttprint (donc en mode root), soit créer et éditer un fichier .muttprintrc dans votre /home, à coté de .muttrc.
Dans .muttrc, au lieu de spécifier l’imprimante, vous devez alors dire à Mutt d’appeler Muttprint à la rescousse:
set print_command="muttprint"
Et dans muttprintrc, il vous suffit de renseigner les commandes, en particulier celle-ci:
PRINT_COMMAND="lpr -P nom_de_l_imprimante"
Le fichier /etc/Muttrc qui se crée lors de l’installation de Muttprint servira de modèle (à défaut d’être directement modifié lui-même). Il a l’avantage de voir chaque commande explicitée, ce qui le rend très facile à configurer.
Petite astuce: si dans l’en-tête que vous imprimez, vous désirez voir figurer un petit manchot linuxien, il vous suffit d’installer le paquetage ospics qui ira placer une série de petit dessins dans /usr/share/ospics/. Il reste à faire appel à l’un d’entre eux (format .eps) pour égailler un peu vos impressions (mais vous pouvez très bien utiliser un autre fichier .eps de votre choix, comme le logo de votre labo, une photo de votre chien, etc.).
Gestion des profils
Vous aimeriez peut-être utiliser plusieurs adresses courriel et signatures, selon vos destinataires ou les listes auxquelles vous êtes abonné. Pour cela il y a au moins deux possibilités.
La première est de partir de l’idée que vous rapatriez plusieurs boites courriel, par exemple avec fetchmail. Et que selon les boites que vous consultez et répondez aux correspondants, vous devez passer par un serveur smtp différent, avec une connexion (mot de passe) différente, une clé GPG différente, etc. Le petit utilitaire Muttprofile est là pour gérer ce type de situation. Depuis Mutt, on peut alors passer d’un profil à l’autre via une série de macro adéquates. Certaines distributions proposent le paquetage muttprofile dans leurs dépôts.
Cela dit, le système précédent est un peu lourd à gérer (opinion personnelle de l’auteur de ces lignes). Il présente néanmoins le grand avantage de se prêter parfaitement à l’utilisateur qui héberge son propre serveur de courriel, où à celui qui tient vraiment à avoir une configuration relative à ses profils. Pour l’utilisateur qui souhaite fonctionner plus simplement, le mieux est encore de rapatrier toutes les boites courriel dans une seule depuis les serveurs (généralement, vous pouvez configurer cela depuis l’interface webmail de votre boite) et finalement ne consulter avec Mutt qu’une seule boîte. Il s’agit donc de ne passer que par un seul serveur au lieu de plusieurs. Mais dans ce cas, comment gérer ses profils?
Hooks
Une fonctionnalité formidable de Mutt, ce sont les “hook”. Il s’agit de fonctions de type “si … alors” qui sont très précieuses.
Par exemple, si j’ai besoin de spécifier une adresse en fonction d’une adresse d’un expéditeur ou d’une liste à laquelle je suis abonné, je peux écrire dans mon .muttrc la séquence suivante :
send-hook olivier.durand@machin.com my_hdr From: Patrick Dupont
Cette séquence permet de répondre à Olivier Durant en utilisant l’adresse Patrick Dupont (lorsque j’écris un message, Mutt repère la chaîne “olivier.durand” dans le champ To: et place ce que je lui ai demandé dans le champ From:).
Autre exemple: si je souhaite utiliser une adresse courriel précise lorsque je me situe dans un dossier (par exemple le dossier dans lequel je rapatrie les messages provenant de mon compte secondaire), alors je peux utiliser ce type de commande:
folder-hook laposte my_hdr From: Jean Dugenou
qui permet d’utiliser l’adresse Jean Dugenou lorsque je me situe dans le dossier /laposte (cela marche aussi bien en IMAP).
Il y a beaucoup d’autres possibilités ouvertes par le système des “hook”, et, au fil du temps, vous finirez par constituer une suite de règles variées correspondant exactement à vos besoins. C’est aussi la raison pour laquelle vous avez tout intérêt à sauvegarder en lieu sûr une copie de votre .muttrc, histoire de ne pas avoir à tout refaire si vous perdez la première…
Commandes et variables
Une autre particularité de Mutt est que l’apprentissage consiste essentiellement à comprendre son .muttrc et comparer avec celui des autres utilisateurs. Pour cela, il est possible de trouver sur internet des exemples bien faits de .muttrc, en particulier sur le site officiel (qui propose aussi un wiki). La liste des commandes et variables pour la configuration de Mutt se trouve sur cette page du manuel en ligne et sa traduction en français sur le site de Cedric Duval.
L’éditeur de texte
Comme nous l’avons précisé plus haut, Mutt ne fait que naviguer dans votre courriel. Il ne permet pas d’écrire. Pour cela, il lui faut faire appel à un éditeur de texte. Le principe est, là encore, assez simple: lorsque vous écrivez un message, vous entrez le texte sous les en-têtes définies par Mutt (et que vous pouvez modifier “à la main”), vous quittez l’éditeur et Mutt reprend la main pour envoyer le message.
Avec Mutt, vous pouvez utiliser n’importe quel éditeur de texte de votre choix. Après l’installation, la configuration par défaut utilise l’éditeur par défaut de votre système. Si vous souhaitez en changer, il suffit de le déclarer dans .muttrc. En pratique, Vim ou Emacs sont sans doutes les éditeurs les plus appropriés, Mutt ayant une apparence par défaut se rapprochant plutôt de Vim. Nano, un gentil petit éditeur de texte qui a aussi sa cohorte d’admirateurs, pourra de même combler vos attentes.
Pour ceux qui désirent utiliser Vim, là encore, de manière optionnelle, vous pouvez créer un fichier .vimrc dans votre /home, de manière à configurer Vim pour une utilisation avec Mutt, entrer vos propres commandes par exemple. L’une d’entre elles (syntax on
) vous permettra d’utiliser un jeu de coloration syntaxique se rapprochant de Mutt (quoi que cela dépende des couleurs que vous avez configuré dans .muttrc).
[Attention, utilisateurs de Ubuntu, la version de Vim installée par défaut est Vim-Tiny. Il vaut mieux installer Vim dans sa version complète pour pouvoir faire ce que vous voulez avec .vimrc].
Lire les messages en HTML
Pour des raisons diverses (et pas toujours justifiées) certaines personnes aiment envoyer des courriel au format HTML, parfois même accompagnés d’images à l’esthétique douteuse censées “embellir” le message. Avec Mutt, il faut donc faire appel à un logiciel capable de lire le HTML. Il existe au moins plusieurs navigateurs en mode texte: Lynx, W3m, Elinks, Links, Links2…
Il s’agit en fait d’utiliser les entrées mailcap pour reconnaitre le type d’information à traiter et faire appel au bon logiciel pour les afficher. Dans le fichier .muttrc, il faudra donc entrer le code permettant de faire appel au fichier .mailcap que vous devez créer dans votre /home:
set implicit_autoview auto_view text/html application/x-pgp-message set mailcap_path="~/.mailcap" set mailcap_sanitize=yes
Puis, dans .mailcap, au choix :
- Si vous désirez utiliser Lynx*:
text/html; lynx -dump -force-html -assume_charset %{charset} -localhost %s; copiousoutput
- Si vous désirez utiliser W3m:
text/html; w3m -dump %s; copiousoutput; nametemplate=%s.html
- Si vous désirez utiliser Links ou Links2:
text/html; links2 -dump %s; nametemplate=%s.html; copiousoutput
- Si vous désirez utiliser Elinks:
text/html; elinks -default-mime-type text/html %s; needsterminal;
- Dans le cas Lynx, vous noterez la séquence
-assume_charset %{charset}
. Elle vise à tirer avantage de la configuration de Lynx utilisant le paramètre assume_charset afin de lire correctement la majorité des messages et leur encodage.
L'option -dump permet l'affichage dans le même processus que Mutt, c'est à dire dans la même fenêtre. Si vous désirez utiliser les navigateurs de manière autonome, puis, en les quittant, revenir automatiquement à Mutt:
text/html; Lynx %s; nametemplate=%s.html
text/html; w3m %s; nametemplate=%s.html
text/html; links2 %s; nametemplate=%s.html
Attention: si votre système est configuré en UTF8 (Locales), c’est cet encodage qui sera utilisé par le navigateur que vous aurez choisi. Un avantage de Links(2) est que si le “content-type” du courriel envoyé n’est pas ou mal renseigné, ou si l’encodage n’est pas le même que le vôtre, alors ce navigateur gèrera les défauts d’affichage (par exemple les lettres accentuées) en trouvant des solutions permettant une lecture agréable du courriel.
Le Carnet d’adresses
Les alias, mode classique
Mutt intègre un système de répertoire d’adresses très simple. Un fichier d’adresse est créé dans lequel vous enregistrez vos contacts.
Ainsi, dans votre .muttrc, vous pouvez indiquer ceci :
#CARNET ADRESSES set alias_file = ~/.mutt/adresses source ~/.mutt/adresses
Cela aura pour effet d’enregistrer vos alias dans /.mutt/adresses
et de rechercher ces alias dans ce même fichier (source).
Utilisation de Abook
Abook est un petit programme de gestion de contacts fait pour fonctionner avec Mutt. Plus élaboré que le systèmes des alias (cf. ci-dessus), il permet notamment l’import et l’export de carnets d’adresses dans différents formats et surtout il présente une interface graphique et stocke davantage d’informations sur vos contacts.
Abook doit certainement être disponible dans les paquets de votre distribution. Le site du projet se trouve à cette adresse.
Pour utiliser Abook avec Mutt, il suffit de configurer votre .muttrc ainsi:
# Abook set query_command= "abook --mutt-query '%s'" macro index,pager A "abook --add-email-quiet" "Ajouter l'expediteur dans abook"
Cela aura pour effet de permettre à Mutt de faire appel à Abook, deux deux manières : en tapant A (au lieu de a, utilisé pour les alias), l’expéditeur sera ajouté au carnet de Abook. Et pour utiliser Abook “à l’intérieur de Mutt”, c’est à dire dans le même terminal, il suffira de faire CTRL+t lors de l’entrée du destinataire. La liste des contacts de Abook apparaîtra alors.
Le logo de Mutt affiché en haut à gauche n'est pas le logo officiel (mais il est très joli). Il a été créé par Malcolm Locke. Vous pouvez vous le procurer ici, ainsi que sa licence (creative common).
01.01.2011 à 01:00
Quelques publications libristes
— À part ce qui suit, il y a aussi une thèse (et un livre), et on peut trouver mes publications académiques par ici.
Des livres
- Christophe Masutti, Affaires Privées. Aux sources du capitalisme de surveillance, Caen, C&F Editions, mars 2020. Lien.
- Richard M. Stallman, Sam Williams, Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, Paris, Eyrolles, 2011. Liens : Eyrolles (2eéd.), Framabook.
- Camille Paloque-Berges et Christophe Masutti (dir.), Histoires et cultures du Libre. Des logiciels partagés aux licences échangées, Lyon/Framasoft, Framabook, 2013. Lien.
- Christophe Masutti, Libertés numériques. Guide de bonnes pratiques à l’usage des DuMo, Lyon/Framasoft, Framabook, 2017. Lien.
- Christophe Masutti (trad. et adaptation de Bruce Byfield), LibreOffice Writer, c’est stylé !, Lyon/Framasoft, Framabook, 2018. Lien.
Des articles (liste non exhaustive)
-
Christophe Masutti, « La valeur lucrative des données est une vieille histoire », Alternatives Économiques, 05/22, Lien.
-
Christophe Masutti, « Encore une autre approche du capitalisme de surveillance », La Revue Européenne des Médias et du Numérique, automne 2021, Lien.
-
Maud Barret Bertelloni, « La surveillance est un mode du capitalisme » – Entretien avec Christophe Masutti, Le Vent se Lève, 25/09/2020, Lien.
-
Romain Haillard (interview par), « La lutte contre la surveillance est un anticapitalisme », Politis, 29/04/2020, Lien.
-
Anouch Seydtaghia (interview par), « Les résistants du logiciel libre », Le Temps, 11/10/2018. Lien.
-
Christophe Masutti, « Le capitalisme de surveillance », Vers l’Éducation Nouvelle, num. 571, 2018.
-
Christophe Masutti, « Vie privée, informatique et marketing dans le monde d’avant Google », document de travail, HAL-SHS, 2018. Lien.
-La série Anciens et Nouveaux Léviathans parue sur le Framablog. Lien :
- Les Nouveaux Léviathans IV « La surveillance qui vient ».
- Les Nouveaux Léviathans III. « Du capitalisme de surveillance à la fin de la démocratie ».
- Les Nouveaux Léviathans II « Surveillance et confiance ».
- Les Nouveaux Léviathans I « Histoire d’une conversion capitaliste ».
- Les Anciens Léviathans I « Le contrat social fait 128 bits… ou plus ».
- Les Anciens Léviathans II « Internet. Pour un contre-ordre social ».
Christophe Masutti, « Du software au soft power » , dans Tristan Nitot et Nina Cercy (éds.), Numérique, reprendre le contrôle, Framabook, 2016, pp. 99-107. Lien.
Christophe Masutti, « Ingénieurs, hackers : naissance d’une culture », in : Camille Paloque-Berges et Christophe Masutti (dir.), Histoires et Cultures du Libre. Des logiciels partagés aux licences échangées, Lyon/Framasoft, Framabook, 2013, pp. 31 – 65.
Christophe Masutti, « Internet, pour un contre-ordre social », Linux Pratique, num. 85 Septembre/Octobre 2014. Lien.
C. Masutti, Benjamin Jean, Préface, in : J. Smiers et M. van Schijndel, Un monde sans copyright… et sans monopole, Paris, Framabook, 2011. Lien.
Christophe Masutti, « Pour libérer les sciences », Framablog, 15 décembre 2010. Lien.
30.12.2010 à 01:00
Pour libérer les sciences
L’objectif de ce texte est de faire valoir l’intérêt d’une diffusion décentralisée et libre des connaissances scientifiques. En partant de l’idée selon laquelle l’information scientifique n’a d’autre but que d’être diffusée au plus grand nombre et sans entraves, je montrerai les limites du système classique de publication à l’ère du format numérique, ainsi que les insuffisances des systèmes d’archives « ouvertes ». J’opposerai le principe de la priorité de la diffusion et à l’aide de quelques exemples, j’aborderai la manière dont les licences libres Creative Commons permettent de sortir de l’impasse du modèle dominant.
« Pour libérer les sciences » by Christophe Masutti est mis à disposition selon les termes de la licence Creative Commons Paternité - Partage des Conditions Initiales à l’Identique 2.0 France.
(Màj) : Ce texte a été écrit en 2010, et publié sur le Framablog. Disponible uniquement en PDF à l’époque, je le reproduis ici en entier.
Christophe Masutti (IRIST – Université de Strasbourg), Pour libérer les sciences, 2010.
Merci à Jean-Bernard Marcon pour sa (re)lecture attentive.
Introduction
En juillet 2010, l’Organisation européenne pour la recherche nucléaire fit un communiqué apparemment surprenant. Déclarant supporter officiellement l’initiative Creative Commons, elle annonça que les résultats publiables des recherches menées au LHC (Large Hadron Collider – l’accélérateur de particules inauguré en 2008) seraient diffusés sous les termes des licences libres Creative Commons, c’est-à-dire1 :
En réalité, la surprise était en partie attendue . En effet, le CERN2 fut pour beaucoup dans l’apparition de l'Internet et le rôle qu’y jouèrent Tim Berners Lee et Robert Cailliau, inventeurs du système hypertexte en 1989, fut décisif. Le fait de diffuser les résultats du LHC sous licence libre obéit donc à une certaine logique, celle de la diffusion et de l’accessibilité de l’information scientifique sous format numérique. La dématérialisation des publications scientifiques et leur accessibilité mondiale, pour un coût négligeable grâce à Internet, permet de se passer des mécanismes de publication par revues interposées, avec cession exclusive de droit d’auteur, et réputés lents, coûteux, et centralisés. Dans ce contexte, le CERN a opté pour une diffusion décentralisée (en définissant a priori les conditions d’exercice des droits d’exploitation favorisant le partage) tout en garantissant la paternité et l’intégralité (les droits moraux) des travaux scientifiques.
Plus récemment encore, en novembre 2010, M. P. Rutter et J. Sellman, de l’Université d’Harvard, ont publié un article intitulé Uncovering open access 3, où ils défendent l’idée selon laquelle le libre accès aux informations scientifiques permet de resituer le lien entre savoir et bien commun. Pour amorcer leur argumentaire, l’étude de cas – désormais classique en histoire de la génétique – de la redécouverte des expérimentations de Gregor Mendel sert à démontrer à quel point les sciences sont assujetties à la diffusion . Là encore, il s’agit de mettre en perspective la question de la disponibilité des informations scientifiques à travers les systèmes centralisés de publications. L’exemple des accords difficiles entre le Max Planck Institüt et le groupe Springer pour l’accès à quelques 1200 revues est illustratif de la tension permanente entre le coût des abonnements, les besoins des chercheurs et l’idée que les connaissances scientifiques devraient être accessibles pour tous.
Dans un monde où la production et la diffusion des connaissances dépendent essentiellement de l’outil informatique (production et communication de données dans toutes les disciplines), la maîtrise des technologies de stockage et du web sont des conditions essentielles pour garantir le transfert et l’accessibilité. Aujourd’hui, en profitant des plus récentes avancées technologiques, tout un chacun est capable d’échanger avec les membres de sa famille et ses amis un grand volume de données en tout genre via Internet. Il devrait donc logiquement en être de même pour les travaux scientifiques, pour lesquels l’échange d’information est d’une importance vitale. Ce n’est toutefois pas le cas.
La centralisation
La production, la diffusion et l’accès à nos connaissances scientifiques sont formalisés par les outils informatiques :
-
la production : nul chercheur ne saurait aujourd’hui travailler sans Internet et encore moins sans un ordinateur dans lequel il classe, construit et communique ;
-
la diffusion : aujourd’hui, un article scientifique peut rester, de sa production à sa lecture finale, dans un circuit numérique sans jamais en sortir ;
-
l’accès : nous profitons tous des multiples services qui nous permettent, notamment par Internet, d’accéder rapidement à l’information, beaucoup plus rapidement qu’il y a à peine vingt ans. Le rythme de la recherche s’accélère et la numérisation des connaissances n’y est pas pour rien.
Pour rendre cohérent ce système de production et de diffusion, l’ingénierie informatique a joué un rôle fondamental dans la création des moyens par lesquels nous ordonnons nos connaissances : le système hypertexte, l’introduction de la logique booléenne, les outils d’indexation de données, etc. De même, la réduction du temps de transmission de l’information, grâce, par exemple, aux nanotechnologies ou encore au clustering de serveurs, joue un rôle primordial dans l’efficacité de nos systèmes d’échanges d’informations. Ces innovations ont donc produit quelque chose de très positif dans la mesure où, profitant de ces avancées techniques majeures, nous réduisons de plus en plus les délais de communication des données scientifiques, ce qui optimise la production de nouvelles connaissances.
La production, la diffusion et l’accès à nos connaissances ont donc épousé un ordre numérique hautement performant, et l’on pourrait redouter que la maîtrise de cet ordre soit avant tout une maîtrise des moyens. Il s’avère que non. Excepté pour les expérimentations nécessitant, par exemple, l’utilisation de supercalculateurs, la maîtrise des outils informatiques en général ne préjuge pas du rendement scientifique, elle ne fait qu’optimiser la communication des résultats. Les maîtres du nouvel ordre numérique ont donc déployé une stratégie qui a toujours fait ses preuves : centraliser les données et conditionner leur accès.
C’est ce qui s’est produit dans le cas d’Internet : alors même qu’Internet est d’abord un système décentralisé où chacun communique des données avec tous les autres, la possession des données et le calibrage de leur accès par les acteurs de l’économie du web a transformé Internet en un gigantesque Minitel 2.04, c’est à dire une logique d’accès individuel à des serveurs spécialisés.
Dans le cas des connaissances scientifiques, leur stockage et leurs conditions d’accès, c’est ce modèle qui fut repris : une optimisation du potentiel de communication mais un accès restreint aux données. En effet, les supports de la publication scientifique, que sont notamment les revues, proposent un service de stockage, payant ou non. Le problème, c’est qu’en maîtrisant ainsi le stockage et l’accès aux productions scientifiques, le potentiel technologique censé accélérer la diffusion et la réception de données est réduit aux contingences de rendement et aux capacités des services qui centralisent ces connaissances.
En fait, les revues scientifiques ont toujours fonctionné sur ce mode centralisé qui avait, au départ, deux objectifs : a) garantir la fiabilité de la production scientifique et la protéger par le droit d’auteur et b) regrouper les connaissances pour en assurer la diffusion, afin que les scientifiques puissent externaliser leur communication et rendre visibles leurs travaux. Cette visibilité, à son tour, permettait d’asseoir la renommée des chercheurs, de valoriser et évaluer leurs recherches au sein d’un champ disciplinaire, et surtout de permettre une forme de démocratie scientifique où les connaissances peuvent être discutées et critiquées (même si un peu de sociologie des sciences montre vite les limites de cette apparente démocratie). Aujourd’hui, la centralisation que proposait chaque revue, dans chaque discipline, est devenue d’abord une centralisation de moyens. Les revues se regroupent, des consortiums naissent et proposent, cette fois, de centraliser l’accès en plus des données. Or, le coût du support de la production scientifique est devenu presque nul puisque chaque chercheur est en mesure de communiquer lui-même sa production au sein de la communauté et même au monde entier grâce à Internet.
De même, les mécanismes de diffusion, encouragés par la rigidité de l’évaluation scientifique qui raisonne presque exclusivement en termes de classement de revues, sont aujourd’hui centralisés et conditionnés par le savoir-faire des organisations ou conglomérats en termes de stockage des données de classement et d’indexation. À tel point que ces acteurs (les regroupement de revues), conditionnent eux-mêmes les outils d’évaluation des instances publiques (comme la bibliométrie) qui définissent le ranking des chercheurs et des publications elles-mêmes. Nous avons donc confié aux professionnels de la publication les bases matérielles qui nous permettent de juger les productions scientifiques, et, ainsi, de produire en retour d’autres connaissances. La centralisation s’est alors doublée d’un enjeu de pouvoir, c’est à dire une stratégie permettant non seulement de décider qui a accès aux données, mais aussi comment et selon quels critères. Cette stratégie est devenue protectionniste : alors même que l’informatique et Internet permettraient de changer de système de diffusion et garantir le libre accès de chacun à l’information scientifique, le système de centralisation à créé des monopoles de moyens, et de la commercialisation des données.
De leur côté, les chercheurs - auteurs n’ont pas récupéré la maîtrise de la diffusion de leurs propres productions et la centralisation est devenue de plus en plus incontournable puisque le savoir-faire technique inhérent au stockage et à la diffusion en masse est possédé par quelques groupements ou conglomérats. Qu’importe, après tout, si une partie de ces moyens de diffusion et d’accès appartiennent à des conglomérats privés comme Google, Springer ou Elsevier ? Les impératifs de rendement et de rentabilité expliquent-t-ils à eux seuls la recherche de contenus toujours plus imposants de Google ou faut-il envisager un élan humaniste encore jamais rencontré dans l’histoire ? Dans quelle mesure le classement des revues conditionne-t-il en retour la rentabilité de leur diffusion numérique pour une firme comme Elsevier? Quel est le degré de neutralité de ces services de diffusion de contenus scientifiques ? Ce ne sont que quelques exemples frappants. Plus généralement, dans quelle mesure les parts de marché et les contraintes économiques jouent-elles un rôle dans la diffusion des connaissances, et, par conséquent, dans leur accès et leur production ?
Je n’apporterai pas de réponse à cette question, qui nécessiterait une étude approfondie sur les mécanismes du marché de la diffusion électronique et des supports. Je me contenterai simplement de souligner le hiatus entre d’un côté les multiples études sur l’économie de la connaissance et, d’un autre côté, le manque d’analyse sur l’appropriation concrète des moyens de diffusion par les agents. Car l’idée selon laquelle les agents sont tous rationnels masque le fait que les auteurs comme leurs lecteurs ne maîtrisent pas les conditions de diffusion et s’en remettent entièrement à des tiers.
Un exemple récent : sur la pression du gouvernement américain, Amazon.com a cessé d’héberger sur ses serveurs le site Wikileaks, suite aux révélations de ce dernier sur la face caché de la diplomatie internationale (Le Monde, 1er décembre 2010). Certes, le service de diffusion et de vente de livres d’Amazon.com n’a que peu de relation avec son service d’hébergement de sites, mais dans la mesure où un gouvernement peut ordonner la fermeture d’un site sur ses serveurs, comment assurer la neutralité du service de diffusion de livres de cette même multinationale ? Un gouvernement pourrait-il faire pression sur Elsevier-Science Direct si l’une des publications diffusées par ce groupe divulguait des données pouvant être censurées ?
L’accès gratuit
Pour ce qui concerne les services d’accès gratuit, comme le service d’archives ouvertes HAL, inscrit dans le cadre de l’Open Archive Initiative (OAI), l’accès aux productions scientifiques correspond bel et bien à une volonté de diffusion globale et libérée des contraintes économiques. Mais il ne s’agit que de l’accès à certaines productions, sous réserve de l’acceptation préalable des détenteurs des droits de diffusion que sont les revues, et uniquement si l’auteur accomplit la démarche.
Si HAL et les principes de l’OAI permettent aussi le dépôt de textes produits directement par leurs auteurs, et favorise en cela la diffusion par rapport à la publication, c’est une part importante des connaissances qui est effectivement en accès gratuit. Néanmoins, comment comprendre cette différence de traitement ? À qui appartiennent les connaissances ? À celui qui les produit, qui cède une partie de ses droits d’auteur (et justement ceux qui conditionnent la diffusion), ou à celui qui les diffuse et met à portée du public les moyens considérables auxquels nous accédons aujourd’hui grâce aux circuits numériques ? Si nous ajoutons à cela le besoin inconsidéré d’être évalué, d’améliorer le ranking des chercheurs et de publier dans les revues cotées, pouvons-nous raisonnablement croire que le dépôt spontané de la part des auteurs dans un système d’archives ouvertes rétablisse cette inégalité de traitement dans l’accès et la diffusion des connaissances ?
Le système de dépôt ArXiv.org reste pourtant un modèle5, car il est inscrit dans une certaine tradition de la communauté des chercheurs qui le fréquentent et y déposent presque systématiquement leurs productions. Il a ses limites, tout comme l’ensemble des initiatives d’accès gratuit aux ressources : aucun n’a de politique véritablement claire à propos du droit d’auteur.
Les politiques éditoriales
Le projet Sherpa est une source d’information très utile pour connaître les politiques éditoriales des maisons de publications. La liste Romeo, en particulier, recense les possibilités et les conditions de dépôt des productions dans un système d’archives ouvertes. Selon les revues et les conditions imposées par les éditeurs, il est possible pour un auteur d’archiver une version preprint ou postprint de son article. Un classement des revues par couleur (blanc, jaune, bleu et vert) signale les niveaux d’autorisation donnés aux auteurs afin qu’ils puisse disposer de leur travail après avoir toutefois cédé une partie de leurs droits d’auteur.
Le fait que la majorité des revues scientifiques aient des politiques de droit d’auteur différentes n’est guère surprenant. Outre les grandes revues classées dans les premiers rangs mondiaux, on trouve parfois des centaines de revues spécialisées selon les disciplines, apparaissant (et parfois disparaissant) selon la vie des communautés de chercheurs. Un peu d’histoire des sciences nous apprend que lorsqu’une discipline ou un champ d’étude apparaît, le fait que la communauté puisse disposer d’un espace de publication propre marque souvent les débuts d’une forme d’institutionnalisation de ce champ d’étude et, donc, une forme de reconnaissance par le reste de la communauté scientifique. La longévité et la fréquence de parution des revues peuvent être considérées comme des indicateurs de croissance de ce champ d’étude au cours de son histoire. Par conséquent, la multiplicité des revues, dans la mesure où se trouvent des groupes de chercheurs assez motivés pour les maintenir en termes de moyens techniques, humains et financiers, est plutôt un élément positif, signe d’une bonne santé de l’activité scientifique, et une forme de garantie démocratique de l’accès aux connaissances. Si toutes ces revues ont des politiques de droit d’auteur différentes c’est aussi parce qu’elles ont des moyens divers de subsistance, et, bien souvent, la seule vente des exemplaires papier ne suffit pas à couvrir les frais de publication.
Un autre élément qui conditionne en partie les politiques éditoriales, c’est le flux des publications scientifiques. Paradoxalement, le nombre actuel des revues ne saurait suffire à absorber les productions scientifiques toujours plus nombreuses6. Outre les phénomènes de compétitions entre pays, ce nombre est principalement dû aux politiques de recherche et à la culture de l’évaluation des chercheurs selon laquelle le nombre de publications est devenu un indicateur de qualité de la recherche, faute d’avoir des évaluateurs capables de (et autorisé à) juger précisément de la pertinence et de la valeur scientifique du contenu des publications. Or, ces politiques d’évaluation de la recherche impliquent pour les chercheurs la nécessité de publier dans des revues dont le classement, établi par ces mêmes évaluateurs, préjuge de la qualité scientifique du contenu.
Toutes les revues ne sont pas classées, à commencer par les petites revues connues dans les champs d’étude émergents et qui sont bien souvent les principaux supports de communication des recherches les plus novatrices et des nouvelles niches intellectuellement stimulantes. Finalement, les revues classées, et surtout celles qui disposent d’un classement élevé, ne peuvent absorber tout le flux des productions. Cette pression entre le flux et les capacités concrètes de publication implique une sélection drastique, par l’expertise (les reviewers ou referees), des articles acceptés à la publication. Comme cette sélection est la garantie a priori de la qualité, le classement se maintient alors en l’état. On comprend mieux, dès lors, pourquoi ces revues tiennent non seulement à ce que les auteurs leur cèdent leurs droits pour exploiter les contenus, mais aussi à ce que ces contenus soient le moins visibles ailleurs que dans leur propre système de publication et d’archivage. Nous revenons au problème de la centralisation.
Propriété et pénurie
Si nous mettons en perspective la croissance des publications scientifiques, le besoin d’évaluation, la nécessité (individuelle de la part des chercheurs, ou concurrentielle au niveau des universités et des pays) du ranking qui privilégie quelques revues identifiées au détriment des plus petites et discrètes, et l’appropriation des moyens de diffusion par les conglomérats du marché scientifique, nous assistons à l’organisation d’une pénurie maîtrisée de l’information scientifique.
J’évacue aussitôt un malentendu. Cette pénurie est maîtrisée dans le sens où l’information scientifique est en général toujours accessible, mais ce sont les conditions de cette accessibilité qui sont discutables.
Prenons un cas concret. Jstor (Journal Storage) est une organisation américaine à but non lucratif, fondée en 1995, dans le but de numériser et d’archiver les revues académiques. Créé pour permettre aux Universités de faire face à l’augmentation des revues, Jstor sous-traite l’accessibilité et le stockage de ces revues, assurant ainsi un rôle de gardien de la mémoire documentaire scientifique. Le coût de l’abonnement à Jstor est variable et ne figure certainement pas parmi les plus chers. En revanche, dans le cadre de l’archivage et des conditions d’accessibilité, des accords doivent se passer entre les revues détentrices des droits de publication et Jstor. Ainsi, la disponibilité des revues est soumise à une barrière mobile (moving wall) qui détermine un délai entre le numéro en cours de la revue et le premier numéro accessible en ligne. Quel que soit ce délai, un article scientifique devra toujours être payé : soit en achetant la revue au format papier, soit en achetant l’article au format électronique sur le site de la revue en question, soit en achetant un abonnement auprès de Jstor dans le cas où le numéro de la revue en question y est accessible.
Dans d’autres cas de figure, les articles scientifiques peuvent être trouvés et vendus au format numérique sur plusieurs espaces à la fois : sur le site de la revue, sur un site de rediffusion numérique (comme par exemple le service Cat.Inist du CNRS), ou en passant par le service d’abonnement d’une institution (Jstor, Elsevier…).
Jamais auparavant on n’avait assisté à une telle redondance dans l’offre de publication du marché scientifique. En conséquence, surtout avec l’arrivée du service de vente d’articles à l’unité, jamais le marché de la publication scientifique n’a obtenu un tel chiffre d’affaire. Est-ce synonyme d’abondance ? Pas vraiment. L’inégalité de traitement entre les revues est toujours un obstacle qui prive les nombreuses petites revues (qui peuvent toutefois être célèbres mais dont le marché n’a bien souvent qu’une dimension nationale) de participer à l’offre. Dans la plupart des cas, les articles scientifiques publiés dans ces conditions sont donc archivés d’une manière ou d’une autre, mais sur un marché séparé, parfois sur le site internet propre à la revue, parfois sur les serveurs d’un regroupement non lucratif de revues, géré la plupart du temps par des institutions publiques, comme par exemple Revues.org.
Par ailleurs, un autre obstacle est préoccupant : le temps de latence variable d’une revue à l’autre entre la publication papier et l’accès aux versions numériques. Ce temps de latence est dû à deux écueils qu’il me faut maintenant longuement développer.
Le premier est la conception rigide que l’on a du format numérique, à savoir que la version numérique d’un document est considérée comme une copie de la version papier. Ce n’est pas le cas. Fort heureusement, la plupart des maisons d’éditions l’ont compris : un article peut être mis sous format HTML, avec un rendu dynamique des liens et de la bibliographie, par exemple, ce qui lui apporte une dimension supplémentaire par rapport à la version papier. Or, c’est cette conception du document-copie numérique qui prime, par exemple, dans le cas de Jstor, ou encore dans celui de certains projets de numérisation de la BNF, car l’objectif est d’abord de stocker, centraliser et d’ouvrir l’accès. Certes, la numérisation de fonds anciens ne peut transformer les articles en pages dynamiques (quoique les récentes avancées dans le domaine de la numérisation de fonds tendrait à montrer le contraire). En revanche pour les numéros plus récents, qui de de toute façon ont été rédigés de manière électronique par leurs auteurs, la barrière mobile implique bien souvent que pendant quelques années un article ne sera disponible qu’au format papier alors que rien ne l’y contraint techniquement. Cela représente une perte considérable dans notre monde numérique ! Dans le cas d’une revue bi-annuelle à faible tirage, il devient très difficile de se procurer un numéro un ou deux ans après sa parution (phénomène qui pourrait être mieux contrôlé avec les systèmes d’impression à la demande dont il sera question plus tard). Et il faut attendre sa mise à disposition sur Internet (gratuitement ou non), pour que cet article touche enfin le potentiel immense du nombre de lecteurs à travers le monde…à ceci près qu’il y a toujours un temps de latence et qu’en moins de deux ans, un article peut voir très vite son intérêt scientifique diminuer, et avec lui l’intérêt de la mise en ligne, si ce n’est uniquement pour son archivage. Ce temps de latence, cette barrière mobile , peut très facilement disparaître pour peu que l’on s’interroge sur le réel intérêt de la cession des droits d’auteur (de diffusion) des articles scientifiques.
C’est ce qui m’amène au second écueil : la question des droits d’auteur et de diffusion. Pour qu’une revue papier soit rentable, ou du moins qu’elle résiste à la pression entre l’investissement et les frais de fonctionnement, il faut qu’elle puisse vendre un certain nombre de copies. Pour que cette vente puisse se faire, tout le monde part du principe que les auteurs doivent céder une partie de leurs droits à l’éditeur (une cession exclusive). Avec l’apparition des licences libres de type Creative Commons, nous verrons que ce n’est nullement là une condition nécessaire. L’autre aspect de cette cession de droit est que l’auteur ne peut plus disposer de son travail (son œuvre) comme il l’entend. La diffusion de cette œuvre est donc soumise à la politique éditoriale de la revue qui ne s’engage pas obligatoirement à en garantir l’accessibilité numérique. En revanche, la cession des droits permet aux revues de réaliser une plus-value supplémentaire dans le cadre de la diffusion numérique, par exemple en passant des accords avec un grand distributeur de revues électroniques. Là encore, le biais est à redouter dans la mesure où les abonnements ont un coût bien souvent prohibitif pour les institutions qui les payent, ce qui fait souvent l’objet de discussions serrées.
Avec l’émergence des premiers périodiques électroniques, les éditeurs ont massivement investi dans l’économie numérique, en répercutant ces coûts sur les abonnements. Pour donner un exemple, le prix annoncé par l’Université de Poitiers pour un abonnement à Elsevier-Science Direct est de 37556 euros pour l’année 2007, un coût apparemment raisonable mais qui ne cesse d’augmenter et doit être multiplié par le nombre d’abonnements différents d’une même université7. Pour pallier ces frais toujours croissants les institutions se sont organisées en consortia, de manière à mutualiser ces coûts. Mais cela ne vaut que pour les groupements capables de faire face aux éditeurs. En effet, certains pays se heurtent à une réduction des fonds publics dédiés à la recherche, et d’autres pays, comme ceux en voie de développement, n’ont bien souvent pas les moyens de payer ces abonnements. En fait, il y a là encore une différence de traitement dans l’accès à l’information scientifique, et sans doute la plus révoltante : dans la mesure où l’accès aux ressources numériques représente bien davantage, d’un point de vue technique et de traitement de l’information, qu’un simple accès à un abonnement papier , comment peut-on concevoir qu’une partie loin d’être négligeable des informations scientifiques sous forme électronique puisse ne pas être accessible à certaines parties du monde ? Et au sein d’un même pays, comment accepter qu’il puisse exister une inégalité d’accès entre les différentes institutions, entre celles qui ont les moyens financiers suffisants et les autres, ou entre celles qui, faisant partie de tel consortia, n’ont pas accès aux mêmes revues que les autres ?
Certes, on me rétorquera que les abonnements aux revues papier ont toujours été chers eux aussi, de même que le stockage de ces revues. Ce à quoi je réponds :
-
le format numérique ne coûte rien à la production (les revues externalisent les coûts de mise en page chez les auteurs eux-mêmes, et ont tendance à ne jamais payer les auteurs ni les membres des comités de sélection des articles), c’est le stockage et la gestion sur les serveurs privés d’un conglomérat qui représente un coût,
-
ce stockage en un seul endroit dont l’accès est payant n’apporte rien de plus à la qualité de l’information scientifique,
-
classement et ordonnancement de l’information scientifique dépendent du distributeur, et ne sont donc pas neutres scientifiquement (certaines revues disparaissent ou apparaissent dans les catalogues suivant les transactions ou les intérêts du moment),
-
les productions scientifiques devraient donc circuler librement dans les communautés scientifiques sans dépendre de services tiers, du moins non publics.
Il ressort de tout cela que l’accès à l’information scientifique souffre gravement d’un manque d’efficacité. Les mouvements du type archives ouvertes se contentent finalement de transformer l’information en archive, justement, c’est à dire la forme la moins exploitable de l’information scientifique. En effet, dans la mesure où l’accessibilité à l’information sous forme numérique en temps et en heure dépend d’un marché de diffusion fermé, dont sont exclus des pans entiers de la connaissance (les revues papier et parfois numériques mais dotées de peu de moyens ou n’appartenant pas à un conglomérat), on traite l’article scientifique au format numérique comme une copie de sa version validée , parfois plusieurs années après, au titre d’archive de la connaissance. En somme, on fait de la mémoire documentaire, au lieu d’assurer la diffusion des connaissances au moment où elles se créent. Or, si un groupe comme Elsevier Science Direct regroupe environ 2000 périodiques, comment est assurée la diffusion des autres revues ? Nous avons vu leur inégalité de traitement. La barrière mobile séparant, pour un article, sa publication de son archivage, crée donc une grande inégalité entre les articles pouvant être diffusés par les revues cotées ou appartenant à des groupements de diffusion, et ceux des revues moins cotées, sachant que la rareté induite par les mécanismes de classement (on ne peut classer toutes les revues) est aussi une cause de cette inégalité de traitement et de fermeture du marché. Ma conclusion, pour cette partie, tient en une seule affirmation : il faut rendre la priorité à la diffusion sur la publication. Mais sous quelles conditions ?
Principe de priorité de la diffusion
Je voudrais opposer à ce modèle centralisé, privatif et inégalitaire le principe de priorité de la diffusion, c’est-à-dire le fait de diffuser la connaissance avant que de la publier par le moyen des revues, des livres ou des publications numériques nécessitant une obligation d’abonnement. En somme, diffuser avant de vendre.
Ce n’est pas une nouveauté. Ce principe est déjà agréé par tous les chercheurs. En effet, toute production scientifique a pour but premier d’être diffusée. Avant même sa publication, un article est diffusé à l’intérieur du réseau de la communauté de chercheurs à laquelle appartient l’auteur : ses collègues qui l’aident à rédiger et apportent leurs avis, le laboratoire ou institut auquel il appartient et auquel il demande éventuellement l’autorisation pour pouvoir publier, les membres du comité d’évaluation de la revue qui sont censés appartenir à sa communauté (sans quoi ils ne pourraient juger de la pertinence scientifique de l’article), et enfin, la plupart du temps, les spécialistes de son domaine d’étude à qui il a spontanément envoyé ses travaux ou qui le lui ont demandé8. Il s’avère pourtant que ces pratiques vont à l’encontre du contrat de cession de droits que l’auteur a conclu avec l’éditeur.
Il peut aussi arriver, dans certains cas, que la revue ne propose même pas de contrat de cession exclusive, et que la diffusion par l’auteur lui-même est considérée comme un manque de fair-play de sa part, produisant ainsi un manque à gagner pour la revue souvent elle-même dans un équilibre financier précaire. Dans ce cas bien particulier, courant dans le domaine des sciences humaines, et pour de petites revues communautaires , il importe alors de se demander quelle peut bien être l’utilité d’une revue qui n’a, ainsi, aucun autre but que de centraliser l’information scientifique, organiser sa faible diffusion, et confirmer la pertinence scientifique d’un travail déjà diffusé dans une partie de la communauté de spécialistes. En fait, l’intérêt est évident : il s’agit d’ajouter une ligne à la liste des publications d’un chercheur et donc de son institut ou laboratoire, même si la revue en question n’est pas classée. La comptabilité du nombre de publications est tenue à des fins d’évaluation et démontre la productivité en termes quantitatifs. Les petites revues qui émergent donc des champs scientifiques ont pour premier rôle de participer à l’amortissement du flux croissant de publications scientifiques. Toutefois, je resterai prudent : cela n’altère en rien leur qualité scientifique, bien au contraire, puisque la plupart du temps elles rassemblent la production scientifique d’une communauté établie et qui valide les recherches menées selon le principe de l’évaluation par les pairs.
La vraie raison d’être de certaines revues serait-elle donc l’évaluation et non la diffusion ? C’est un aspect qu’il faut prendre en compte. Les revues scientifiques sont spécialisées et s’adressent toujours à une communauté de chercheurs bien identifiée. La meilleure preuve est qu’il appartient aux revues de vulgarisation scientifique, à grand tirage, d’effectuer un travail de veille et de reformulation afin de rendre accessibles les informations scientifiques importantes à un public de non spécialistes, qu’il soit grand public ou un public composé de spécialistes d’autres disciplines. À l’exception des revues scientifiques généralistes avec un haut niveau d’évaluation (une cohortes d’experts de disciplines différentes) comme Nature ou Science, par exemple, toutes les revues, qu’elles aient un ranking élevé ou non, s’adressent à la communauté de chercheurs qui les font exister. Elles sont en quelque sorte les vitrines de ces communautés et en montrent le dynamisme. Publier dans ces revues n’a donc pour autre objectif que d’être un acte hautement individuel visant à optimiser son évaluation par les instances et les pairs. Par conséquent, l’évaluation et la centralisation sont les causes premières de l’existence des revues, qui entrent d’ailleurs en concurrence (économique et intellectuelle) lorsqu’elles appartiennent à un même champ scientifique.
Nous avons vu que la centralisation est néfaste pour la diffusion. Nous avons vu aussi que lorsqu’un article arrive à publication, c’est qu’il a été validé et diffusé auparavant dans la communauté ou du moins dans une partie significative de cette communauté, au regard du niveau de spécialisation des travaux en question. Donc, dans les pratiques des chercheurs, au jour le jour, c’est la diffusion qui prime sur la publication, et, dans la mesure où le but d’une information scientifique est d’être diffusée, la publication devrait être considérée à sa juste place : un acte accessoire motivé par d’autres raisons que l’avancement des sciences.
Trois exemples
Plusieurs revues et institutions ont choisi d’opter pour le principe de la priorité de la diffusion de manière formelle. Ce type de choix est de plus en plus courant et alterne entre l’archivage avec accès gratuit (généralement appelé archives ouvertes ) et l’adoption de licences libres de type Creative Commons. Les trois exemples suivants me permettront d’illustrer la différence entre ces deux possibilités.
Un premier exemple concerne la revue Medical History. Cette revue, supportée par le Wellcome Centre for History of Medicine (University College London), est publiée de manière classique depuis 1957. Il y a quelques années, le comité éditorial, en phase avec la politique du Wellcome Trust en faveur de l'open access, a décidé de porter la revue en ligne (y compris ses archives) avec un accès gratuit, l’hébergement étant assuré par PubMed Central (PMC), le service d’archives gratuites de la Bibliothèque nationale de médecine aux États-Unis9. Effort louable dans la mesure où les abonnements, loin de s’amenuiser comme on aurait pu le craindre, ont au contraire augmenté suite à la visibilité nouvelle de cette excellente revue, se déclarant par la même occasion comme une référence incontournable du champ de l’histoire de la médecine.
Medical History a donc privilégié la diffusion sur la publication. Les articles sitôt évalués, acceptés et publiés sont accessibles facilement et gratuitement pour l’ensemble de la communauté des chercheurs. Les droits d’auteurs, eux, sont soumis à la politique de copyright de PubMed Central, sous la juridiction du gouvernement américain ou des pays étrangers d’où sont issus les articles. Ainsi, le copyright d’un article dans Medical History est toujours celui de l’auteur de l’article, protégé par le droit national.
Le principal biais de cette configuration est que l’auteur, s’il est effectivement rassuré sur la conservation de ses droits, n’est pas en mesure de décider a priori de la manière dont peut être utilisé son article.
Par exemple, un utilisateur de l’article ne peut lui-même partager l’article sans demander d’abord l’autorisation à l’ayant droit. Qu’arrive-t-il à la mort de l’auteur ? C’est un véritable parcours du combattant que de retrouver alors les ayants droits de l’œuvre. Et, bien entendu, cette question ne touche pas seulement les publications scientifiques, mais toutes sortes de productions soumises au droit d’auteur. Si Medical History a pu changer sa politique éditoriale sans se soucier de ce problème pour les articles les plus anciens, c’est parce que les auteurs on procédé à une cession de droits à l’époque où ils ont écrit l’article. Du moins, je l’espère... Sinon, les ayants droit actuels peuvent retirer l’œuvre de la collection d’archive.
Sans être aussi pessimiste pour l’auteur, projetons-nous dans un futur proche et imaginons un instant qu’un riche mécène féru d’histoire de la médecine dispose des moyens techniques pour transformer l’ensemble de la collection de Medical History au format e-book, à destination des chercheurs souhaitant en disposer sur leurs liseuses électroniques, et même éventuellement en proposant de payer pour le service rendu. Pourquoi devrait-il attendre une quelconque autorisation des ayants droit ? Là encore on peut se demander à qui appartient la connaissance scientifique : n’est-elle pas destinée d’abord à être diffusée ?
En fait, il en va de l’intérêt commun que de spécifier dès le départ les conditions sous lesquelles l’œuvre peut être diffusée, partagée et même vendue, c’est en cela que les licences Creative Commons sont une amélioration du principe du droit d’auteur.
Un second exemple, le cas des publications du LHC, déjà mentionné dans l’introduction, nous montre un autre point de vue sur les limites de la notion de propriété. En effet, ce qui motive essentiellement un tel choix, c’est avant tout une forme d’injustice. Un texte est produit et validé par la communauté des chercheurs. Pourquoi l’éditeur, détenant les droits d’auteurs nécessaires, devrait-il le revendre au prix fort, sans que jamais (sauf pour de rares exceptions) les retombées économiques soient profitables à la communauté ? Au contraire, elle est amenée à payer pour accéder aux informations qu’elle a elle-même produites.
Je suis caricatural. Dans plusieurs cas de figure, bien entendu, l’éditeur fait un véritable travail éditorial, consistant à corriger le texte et le mettre en page…quoique les corrections proposées le sont en fait bien souvent par un relecteur appartenant à la communauté de chercheurs, et rarement payé pour le faire (seule sa renommée y gagne). Si bien que, dans le cas fort compréhensible où les lecteurs préféreraient une version papier de la revue, il serait normal d’en payer les frais d’impression et de tirage, c’est à dire un coût bien moindre que celui proposé pour des abonnements numériques, surtout lorsque les fournisseurs de services ne sont pas eux-mêmes les éditeurs, mais de simple revendeurs exerçant un monopole sur le stockage des informations.
Certes, ce ne sont pas les raisons principales du soutien actif du CERN en faveur des licences Creative Commons, mais ces arguments sont bel et bien présents et jouent un rôle décisif dans la volonté de choisir un système de diffusion plus juste.
Un troisième exemple me permet de montrer de quelle manière le choix des licences libres peut être assumé par une revue scientifique. Non Linear Processes in Geophysics, sous titrée An open access Journal of the European Geosciences Union a décidé de placer chaque article sous licence CC-BY (Creative Commons – Paternité), c’est-à-dire que vous pouvez :
-
reproduire, distribuer et communiquer cette création au public,
-
modifier cette création (dans notre contexte : l’auteur ou l’utilisateur peuvent améliorer l’article et en corriger éventuellement certains aspects après sa publication),
-
à condition de citer le nom de l’auteur original de la manière indiquée par l’auteur de l’œuvre ou le titulaire des droits qui vous confère cette autorisation (mais pas d’une manière qui suggèrerait qu’ils vous soutiennent ou approuvent votre utilisation de l’œuvre).
En d’autres termes, vous pourriez aussi vendre l’œuvre. Choquant ? Pas tant que cela. Je fais encore appel à vos capacités imaginatives. Imaginons qu’en l’honneur d’un chercheur décédé (décidément, mes exemples n’ont rien de réjouissant!), ses collègues désirent compiler toutes ses œuvres dans un volume publié et vendu à l’occasion du dixième anniversaire de sa mort. Et bien, dans le cas de la licence CC-BY, ils le pourraient sans avoir à demander d’autorisation spécifique.
Les licences Creative Commons favorisent la création là où le droit d’auteur sous sa forme classique a tendance à la freiner voire l’annihiler. Cependant, certains pourront soulever aux moins deux arguments à l’encontre de cet exemple.
Premier argument : le droit d’auteur (le copyright – je rappelle plus loin la différence entre les deux) est d’abord l’expression d’une propriété. Pourquoi la veuve de notre camarade ne pourrait-elle pas bénéficier des royalties générées par la vente de l’ouvrage dont nous venons de parler, ou même s’opposer à sa publication ? Il y a plusieurs réponses :
-
La première est que nous parlons de science10. Comme nous l’avons vu, nous devons avant tout favoriser la diffusion de l’information scientifique qui ne saurait être la propriété de qui que ce soit (la méthode de résolution d’une équation mathématique peut-elle être la propriété de quelqu’un ? C’est un vaste débat qui nous mène tout droit à la question de la brevetabilité et de la propriété intellectuelle, mais ce n’est pas notre propos ici).
-
Deuxièmement, rien n’empêche les diffuseurs et vendeurs de l’ouvrage de reverser des royalties à la veuve (même si elle n’est pas l’auteur et que ce n’est pas son travail, elle peut contractualiser, par exemple, la mise à disposition de manuscrits appartenant à l’auteur). De plus, elle peut elle-même diffuser et vendre à son tour.
-
Troisièmement, l’auteur lui-même aurait pu, de son vivant, utiliser une licence n’autorisant pas la vente de ses œuvres (dans le cas des Creative Commons, il s’agirait de la licence CC-By-NC).
Second argument : si tout le monde peut diffuser et modifier un article scientifique tiré de la revue Non Linear Processes in Geophysics, le risque serait grand de nuire à l’intégrité ou à la moralité de l’auteur, voire de distribuer des versions de l’article néfastes à l’avancement scientifique. Là encore, il y a plusieurs réponses :
-
les licences Creative Commons permettent à l’auteur de conserver quoi qu’il arrive ses droit moraux, notamment le droit de paternité et le droit au respect de l’intégrité de l’œuvre (c’est pourquoi les modifications sont toujours proposées à l’auteur et non imposées à l’oeuvre, au risque de contrevenir au droit d’intégrité).
-
L’obligation de citer l’auteur implique de citer aussi la source de l’article modifié. Étant donné que la communauté scientifique se reportera systématiquement à cette source (nous sommes toujours dans le cadre d’une revue clairement identifiée), la diffusion d’un article falsifié sera marginale.
-
La possibilité de modifier l’article s’adresse en premier lieu à l’auteur lui-même ! En cédant ses droits de diffusion, toute modification qu’il peut faire dans son article après une première publication est vouée au silence. En utilisant une licence Creative Commons, il peut non seulement modifier et améliorer son article, mais aussi le diffuser ; et la revue peut très bien intégrer un système de mises à jour. C’est là tout l’avantage de la diffusion numérique des articles scientifiques, et nous verrons plus loin comment le système d’impression à la demande peut aussi y trouver sa justification.
Droit d’auteur
Un obstacle a donc été identifié : c’est au nom des droits d’auteur que l’on centralise et handicape la diffusion des œuvres scientifiques. Il semblerait bien que la pratique de cession de droits d’auteur et l’emploi du copyright (même à titre de mise à disposition gratuite des travaux scientifiques) soient compris en premier lieu et exclusivement comme des moyens d’autoriser l’exploitation de la propriété de l’auteur. Dans tous les cas de figure, comme les droits d’auteur ne nécessitent aucune démarche particulière pour être automatiquement attribués à l’auteur, c’est dans ce cadre juridique que sont exploitées les œuvres scientifiques, mais la plupart du temps sans que soit proposé à l’auteur de déroger aux pratiques (injustes) en vigueur.
Qu’est-ce que le droit d’auteur ? Il s’agit des droits exclusifs dont dispose l’auteur sur ses œuvres de l’esprit originales. Ces droits sont de deux sortes :
-
le droit moral, qui protège la paternité de l’œuvre et au nom duquel l’intégrité de l’œuvre est garantie,
-
et le droit patrimonial qui donne a priori l’exclusivité de l’exploitation (économique) de l’œuvre à l’auteur et qui varie en durée selon les législations nationales.
Dans certains pays qui appliquent une législation jurisprudentielle, comme aux États-Unis, le droit d’auteur est nommé copyright. Généralement, le copyright accentue l’importance du droit de propriété par rapport au droit moral, ce qui explique l’apparente synonymie entre le droit d’auteur et la propriété intellectuelle. Cette dernière regroupe le droit d’auteur (œuvres de l’esprit), mais aussi la propriété industrielle (y compris les brevets et les marques).
Un chercheur de la Stanford Law School, Mark Lemley décrit bien cela dans un article de 200511. En faisant une étude sur le nombre d’occurrences trouvées dans les textes de lois américains, Lemley démontre que l’expression de propriété intellectuelle a peu à peu remplacé les expressions de droit d’auteur et droit des brevets. Pour lui, cette distorsion tient à deux choses : la première est la création en 1967 de l’Organisation mondiale de la propriété intellectuelle (OMPI) qui représente en une seule institution les intérêts des ayants droit dans les trois domaines du droit d’auteur, des brevets et des marques déposées. La seconde raison, c’est que parler de propriété intellectuelle permet d’unifier deux domaines disciplinaires traitant des droits exclusifs à l’information immatérielle. En d’autres termes, si le droit des brevets vise à encourager la publication d’idées et à imposer une limitation de monopole sur ces idées, le droit d’auteur peut suivre la même voie et imposer la restriction de l’information au nom de la défense de la paternité de l’œuvre ou de son intégrité. Autrement dit, le droit d’auteur peut être amené à servir d’autres intérêts que ceux pour lesquels il a été créé : freiner, voire empêcher la diffusion des idées reconnues d’abord comme propriété exclusive.
C’est dans ce cas de figure que les licences libres s’opposent à l’idée de propriété intellectuelle , notamment dans le cas des logiciels libres. Concernant ces derniers, les licences libres proposent de défendre le droit d’auteur pour les logiciels envisagés comme des productions de l’esprit, mais en encadrant la diffusion et l’utilisation d’un logiciel libre de trois manières :
-
positive (vous avez le droit de diffuser et modifier tant que vous respectez la paternité de l’oeuvre),
-
durable (il faut garder la même licence dans toutes les versions modifiées),
-
et profitable (tout le monde peut utiliser le code et produire à son tour du logiciel libre).
Tout cela s’oppose bien sûr à la logique des brevets, mais permet aussi d’encourager la créativité tout en proposant un modèle économique plus juste. Dans son livre Internet et Création12, Philippe Aigrain s’inspire du modèle du libre dans l’économie de l’immatériel et démontre l’intérêt d’une licence globale pour favoriser le partage des œuvres, du moins sous format numérique.
Pour revenir à la question des droits d’auteur dans le contexte de la diffusion de travaux scientifiques, il s’avère que la notion de propriété est devenue la seule référence dans le cadre de leur exploitation, numérique ou non. Deux solutions sont alors envisagées :
-
l’auteur garde la propriété exclusive et se débrouille pour diffuser lui-même ses travaux. Une revue peut cependant l’y aider dans le cadre d’un projet d’archives ouvertes, ou en publiant les articles sous licence libre, tout en offrant un service d’évaluation par les pairs ;
-
soit c’est la revue qui possède les droits de reproduction et d’exploitation, par cession (exclusive ou non) de la part de l’auteur. Même si l’auteur ne profite pas des éventuelles royalties générées par l’exploitation de son œuvre, il n’est pas pour autant lésé, dans la mesure où son œuvre sera bel et bien publiée à destination de la communauté. C’est cette dernière qui se trouve lésée, nous l’avons vu, par les différents aspects de la centralisation et de la restriction de diffusion des informations (même à titre gratuit).
Il faut en conclure que les droits d’auteur sont ici considérés comme un instrument au service de la diffusion des œuvres scientifiques. Puisqu’il s’agit d’instruments encadrant les droits patrimoniaux et moraux, il appartient à l’auteur de choisir la manière dont son œuvre sera exploitée et diffusée. Soit il s’en remet à un tiers, soit il s’en remet à la communauté. Pourquoi ne pas directement autoriser la communauté à exploiter et diffuser l’œuvre en fixant par avance les conditions au nom, justement, du droit d’auteur ? Après tout, même les éditeurs de revues font partie de la communauté et pourraient profiter eux aussi des autorisations d’exploitation…mais pas de manière exclusive.
Universalisme et liberté
Parmi les solutions envisagées pour favoriser la diffusion et la créativité dans le cadre du partage des biens intellectuels ou artistiques, la plus radicale semble être la plus simple : supprimer le droit d’auteur…ou plutôt supprimer le copyright, ce dernier étant envisagé essentiellement sous son aspect de droit patrimonial. C’est l’idée explorée par Joost Smiers et Marieke van Schijndel dans Imagine there is no copyright and no cultural conglomerate too13. Ce livre propose un nouveau modèle économique où le copyright n’a plus de raison d’être. Dans leurs études de cas, qui concernent la littérature, la musique, le cinéma et les arts graphiques, la notion de droit d’auteur est envisagée uniquement sous l’angle du droit moral. Cela implique de nouvelles formes d’organisation des marchés dans lesquelles tout serait fait pour que chaque acteur soit gagnant. La principale caractéristique en est que toute forme de monopole doit être proscrite en raison même de la centralisation des coûts et donc de la privatisation des œuvres.
Il s’agit bien sûr d’une utopie. Mais l’un de ses intérêts est d’adresser quatre objections au système de licences Creative Commons :
-
Les Creative Commons ne forment pas un système économique capable de garantir les revenus de tous les auteurs-créateurs.
-
Elles ne remettent pas en cause le droit d’auteur, mais créent de la propriété qui devient libre .
-
Rien n’oblige les conglomérats culturels à y participer.
-
La propriété reste le pivot des licences libres, or la propriété n’est pas une condition nécessaire à l’appréciation et à la réception d’une œuvre par le public.
Il serait fastidieux ici d’exposer tous les avantages des licences Creative Commons. Pour cela, j’invite le lecteur à parcourir Culture Libre14, écrit par leur initiateur Lawrence Lessig, professeur de droit à Stanford, ainsi que la page Wikipédia qui leur est consacrée. Pour l’essentiel, elles sont le résultat d’un véritable tour de force consistant à adapter une certaine compréhension du droit d’auteur au modèle économique dominant, dans lequel nous vivons. Loin d’être une utopie, les même préoccupations à l’encontre des monopoles se retrouvent mais dans le cadre du libre choix et de la responsabilité individuelle pour faire vivre les biens communs intellectuels et artistiques.
Un autre aspect des licences Creative Commons est leur universalisme. Bien sûr, il faut à chaque fois adapter les termes de la licence aux caractéristiques juridiques du pays concerné en matière de droit d’auteur. Cependant, cela a pour effet de proposer un modèle commun censé s’appliquer en tout lieu.
Je prends l’exemple du projet DASH à Harvard, cité par M. P. Rutter et J. Sellman dans leur article Uncovering Open Access (cf. introduction). DASH est l’acronyme de Digital Access to Scholarship at Harvard. Ce système a été adopté par l’université d’Harvard afin de mettre à disposition au public, au titre d’archives documentaires gratuites, l’ensemble des articles écrits par les membres de la faculté. La formulation du projet fut la suivante : chaque membre d’une faculté accorde au président et ses collaborateurs de l’université d’Harvard la permission de rendre disponibles ses articles universitaires et d’exercer le droit d’auteur pour ces articles . Cela implique que tout travail universitaire à Harvard est par défaut gratuitement disponible pour tous. C’est un excellent exemple du principe de priorité de la diffusion, et sur le fond, peu de critiques peuvent être adressées, sauf les suivantes.
En premier lieu, cette disposition concerne exclusivement l’université d’Harvard. Un article publié dans une autre université ne peut être livré dans le dépôt central DASH. Les termes d’utilisation sont plutôt flous quant à l’éventualité d’une diffusion par un tiers (par exemple dans le cas où plusieurs scientifiques d’Harvard et d’ailleurs écrivent un article, déposé dans le DASH, mais qu’un des auteurs décide de le diffuser à son tour dans son pays ou dans son université d’origine). Qu’arrive-t-il si un jour le projet DASH cesse ses activités ? Il faudra apporter des modifications substantielles aux conditions d’utilisation (Harvard Open Access Policy15) pour qu’une autre université reprenne la gestion du dépôt. Mais que se passerait-il en cas d’arrêt total ?
En somme, là encore, il subsiste des contraintes qui seraient rapidement levées avec l’adoption des licences Creative Commons. En effet, ce serait aux auteurs, et non à l’université et ses représentants, de définir quels sont les usages qui peuvent être faits de leurs articles. Il est possible de rendre systématique le dépôt des travaux sur un serveur, mais dans ce cas, il n’y a pas de relation nécessaire entre le lieu du dépôt et la diffusion de l’œuvre. Le système DASH reste prisonnier alors que les licences Creative Commons permettent une diffusion décentralisée des œuvres tout en conservant leurs droits et sans préférence pour leur provenance.
La Déclaration de Berlin
Enfin, puisqu’il vient d’être question des systèmes d’archives ouvertes, deux choses sont regrettables. La première est la multiplication des dépôts. Les universités ou autres institutions qui ont décidé d’installer à leurs frais de tels dépôts ont répondu à un besoin croissant de la part des chercheurs à pouvoir disposer de leur mémoire documentaire. Elles ont aussi répondu à l’augmentation croissante des coûts d’abonnements aux revues dont nous avons vu le caractère monopolistique. En revanche, chacun de ces dépôts possède une politique de diffusion propre, avec des conditions d’utilisation particulières. L'Open Archive Initiative tend à harmoniser cet ensemble, mais là encore l’utilisation des licences libres, à caractère universel, permettrait d’éviter cette tâche fastidieuse.
Le second regret concerne la traduction de open en libre , du moins dans les exemples francophones de dépôts d’archives. Si les archives sont déclarées ouvertes, c’est parce que de tels système s’inspirent du modèle de développement des logiciels open source. Or, dans ce contexte, libre et gratuit ne signifient pas la même chose16. Nous avons vu que les licences libres sont dites libres parce qu’elle garantissent la liberté de l’auteur de disposer de ses droits, ainsi que celle de l’utilisateur dans le cadre du contrat passé avec l’auteur qui définit les conditions de cette liberté d’utilisation. Les archives ouvertes ne sont donc pas un accès libre aux ressources , comme on peut parfois le lire ici et là : rien n’indique dans ces archives le caractère libre des documents mis gratuitement à disposition des utilisateurs. La preuve en est que dans la plupart des cas, la mise à disposition d’articles publiés dans ces archives ouvertes est soumise à autorisation préalable de la part des revues au regard de leurs politiques éditoriales. Tel est le prix.
Pourtant, un texte célèbre fut quelque peu oublié par le mouvement des archives ouvertes, et aurait permis d’éviter ce flou conceptuel entre libre et ouvert. Suite à un congrès organisé par la Société Max Planck pour le Développement des Sciences en 2003 à Berlin, un appel fut rédigé : la Déclaration de Berlin sur le libre accès à la connaissance en sciences exactes, sciences de la vie, sciences humaines et sociales17. Cet appel a reçu à ce jour presque 300 adhésions de la part de différentes institutions académiques. Dans ce texte, qui encourage les enseignants-chercheurs et toutes les institutions à favoriser la mise à disposition des publications scientifiques en libre accès, la première18 condition propose une définition claire d’un texte en libre accès :
Pour rappel, les premières versions des licences Creative Commons ont été publiées en 2002 et on ne peut s’empêcher de corréler la définition d’un texte en libre accès par la Déclaration de Berlin et la définition d’une œuvre libre par les Creative Commons. La première fait explicitement référence à la seconde, sans toutefois la mentionner. Certes, le mouvement des Creative Commons était encore jeune à cette époque, mais il n’en demeure pas moins que le texte de la Déclaration de Berlin, s’inscrivant dans le mouvement des Archives Ouvertes, marque une distance que j’ai déjà mentionné précédemment et que j’approuve pleinement : une publication scientifique doit être libre et pas seulement ouverte.
En qualifiant une œuvre d’ouverte, on ne peut signifier que deux choses : qu’elle peut être en accès gratuit (c’est le cas la plupart du temps) et que l’on s’est arrangé avec les politiques éditoriales. On peut alors se demander pourquoi des auteurs placent eux-mêmes leurs textes en archives ouvertes lorsqu’ils n’ont pas (ou pas encore) été publiés : c’est une manière de donner sans donner, de verser dans le bien commun en gardant la possibilité de retirer à tout moment sous la pression d’une revue. Les licences Creative Commons, elles, permettent à l’auteur de se réserver le droit de changer d’avis mais la version de l’œuvre libérée auparavant reste libre à jamais (les personnes disposant de cette œuvre sous licence libre peuvent continuer à en faire usage sous les conditions dans lesquelles ils l’ont reçue initialement).
Si la Déclaration de Berlin n’est guère citée, c’est parce que les initiatives d’archives ouvertes disposent d’une meilleure visibilité dans les lieux fréquentés par les chercheurs et rassurent les revues en proposant une politique d’archivage sous autorisation. Il nous faut au contraire défendre une certaine éthique de la recherche et laisser le soin aux archives ouvertes de publier les œuvres non libres, c’est-à-dire organiser une forme de récupération (mais ô combien importante) en échange d’un peu de liberté. Même si rien n’empêche un auteur de déposer un travail sous licence libre dans un dépôt d’archives ouvertes, le mélange des genres est selon moi peu recommandé, à moins d’ouvrir des sections spécifiques aux licences libres.
Aspects pratiques
Pour terminer ce texte, j’aimerais aborder quelques aspects pratiques, même si les exemples cités plus haut sont assez clairs. La question des livres et de l’évaluation de la qualité des documents doivent néanmoins faire l’objet de quelques précisions. J’aborderai en dernier lieu, mais sans chercher à être exhaustif, la forme des échanges scientifiques, une question qui mériterait d’être beaucoup plus approfondie.
Et les livres ?
Nous n’avons parlé jusqu’à présent que des articles scientifiques mais les mêmes réflexions s’adaptent parfaitement à tous les domaines de l’édition scientifique. En réalité, nous pouvons considérer que revues, monographies, rapports et ouvrages collectifs peuvent tous utiliser les licences Creative Commons.
Il est très courant, dans le cadre d’un projet de recherche subventionné par une instance publique, que le groupe de chercheurs utilise une partie des fonds pour publier un ouvrage collectif de référence. Dans ce cas de figure, il s’adresse souvent à une maison d’édition qui non seulement s’engage à mettre le livre ou la revue à disposition dans son catalogue, mais demande aussi une certaine somme d’argent pour faire imprimer un minimum d’exemplaires et éventuellement (parfois ce n’est même pas le cas) effectuer un travail éditorial et de mise en page. Il est anormal que des fonds dédiés à la recherche soient utilisés pour publier à perte un nombre conséquent d’ouvrages destinés à prendre la poussière dans un placard.
La mise à disposition et la diffusion de tous types d’ouvrage sous forme numérique permettrait de couvrir un large public (souvent il est difficile de se procurer un livre d’une petite maison d’édition depuis un pays étranger). Si le livre au format papier est estimé nécessaire ou répond à un besoin de la part des utilisateurs (car il est souvent plus agréable de lire sous ce format), les systèmes d’impression à la demande existent, et fonctionnent avec des machines de reproduction numérique. Les cas de I-kiosque et de In Libro Veritas, par exemple, méritent d’être mentionnés. Il est curieux que le monde scientifique n’utilise pas davantage de telles solutions impliquant des coûts bien moindres.
Et l’évaluation ?
Si tout le monde peut publier n’importe quoi, il n’y a plus de crédibilité . Cette affirmation est vraie, bien entendu. Mais j’ai passé du temps à démontrer que l’essentiel de la publication scientifique, de l’évaluation à la diffusion, est assuré en majeure partie par la communauté des chercheurs. Qui évalue les projets d’ouvrage au profit des maisons d’édition, si ce ne sont des pairs que l’on charge, pour l’occasion, de la responsabilité d’une collection ?
Revues et collections d’ouvrages peuvent fonctionner sur le même mode : une sélection d’articles ou d’ouvrages, parmi les plus pertinents pour les thèmes choisis, et leur agrégation dans un ensemble cohérent. Pourquoi cela devrait-il se faire obligatoirement sous l’égide d’une maison d’édition et de son nom ? Surtout si les efforts de mise en page et de corrections sont externalisés chez les auteurs. En fait, ce qu’apportent aujourd’hui les maisons d’édition classiques aux publications scientifiques se réduit bien souvent à un nom (une marque) et un catalogue de diffusion…en échange d’un contenu sérieux et vendable. Si l’auteur souhaite toucher des royalties, il peut très bien le faire dans le cadre de l’impression à la demande et si la licence Creative Commons choisie autorise la diffusion commerciale19.
La communauté scientifique dispose aujourd’hui des moyens nécessaires et suffisants pour gérer ses propres revues ou collections. En fonction de leur importance, des moyens humains peuvent être mis à disposition par les universités, par exemple, tout en vendant des exemplaires papier publiés à la demande. Cela représente certes un coût qui doit être internalisé par les instances académiques, mais il sera bien moindre que le coût engendré par les multiples abonnements. Il se trouve que, déjà, une grande partie de des coûts de production revient aux institutions (en temps de travail de la part des scientifiques, ou en subventionnant indirectement des publications, ou encore en hébergeant des maisons d’édition comme les Presses Universitaires de…).
Et les serveurs ?
Permettez-moi ici de revenir sur nombre de dépôts d’archives ouvertes : il serait bien plus efficace de les transformer en autant de nœuds accueillant indifféremment n’importe quel article, quelle que soit sa provenance, et placé sous licence Creative Commons. Par conséquent il y a plusieurs avantages à favoriser ainsi la décentralisation de la distribution des œuvres :
-
la diffusion de pair à pair est possible,
-
la redondance (un même article sur plusieurs serveurs) permet d’optimiser la disponibilité de l’article,
-
l’accès est moins soumis aux contraintes techniques et – parfois – idéologiques inhérentes aux réseaux et la couverture mondiale serait mieux assurée (certains pays soumis, par exemple, à une dictature, peuvent restreindre les accès à des serveurs d’autres pays plus démocratiques : la possibilité de copier et diffuser à l’intérieur de ces pays des œuvres libres est un pas de plus vers la démocratie).
Et les formats ?
Aujourd’hui, la plupart des articles diffusés sous forme numérique sont accessibles en HTML et PDF. Les conglomérats du marché n’ont généralement pas rendu totalement privateurs les formats sous lesquels les articles peuvent être disponibles au téléchargement payant. Il importe d’être attentif à d’éventuelles transformations dans ce domaine. Le format HTML est de loin le meilleur rendu adapté à la fois à la lecture et à la diffusion. Aujourd’hui, dans la mesure où tous les articles scientifiques sont produits sous format numérique par leurs auteurs, rien n’empêche la mise en ligne sous ce format. L’utilisation du format PDF, s’il permet un confort différent, peut aussi être soumis à l’emploi de DRMs et autres verrous numériques visant à empêcher la diffusion ultérieure ou permettant la lecture pour un temps donné sous réserve de paiement. La recherche du profit dans le cadre de l’exercice d’un monopole peut prendre des formes variées auxquelles la communauté scientifique se doit de rester attentive. Voyez la page Wikipédia consacrée aux formats libres garantissant l’interopérabilité.
-
Le Conseil Européen pour la Recherche Nucléaire fut créé en 1952 et a changé de nom deux ans plus tard. L’acronyme fut toutefois conservé. ↩︎
-
Pour une traduction française, voir le billet du Framablog (11 décembre 2010). ↩︎
-
Nous empruntons cette expression à Benjamin Bayart, dans cette célèbre conférence intitulée Internet libre ou minitel 2.0 ? (juillet 2007). ↩︎
-
On peut se reporter à la thèse de Nathalie Pignard-Cheynel, La communication des sciences sur Internet. Stratégies et pratiques, Université Stendhal Grenoble 3, 2004 (lien), en grande partie consacrée au système Arxiv. ↩︎
-
Voir le rapport biennal de l'Observatoire des Sciences et des Techniques qui a analysé la part de production scientifique de la France de 1993 à 2006. En 1993, la France a contribué à la publication de 31618 articles, contre 39068 en 2006, ce qui représente respectivement 5,2% et 4,4% en parts de publications mondiale. Il faut prendre en compte deux éléments importants dans cette analyse : premièrement il s’agit de contributions, car un article scientifique peut avoir été écrit de manière collaborative entre plusieurs chercheurs de pays différents. D’un autre côté, l’OST ne traite que des parts de publication pour 7 champs disciplinaires : mathématiques, biologie, chimie, physique, sciences de l’univers, recherche médicale, sciences pour l’ingénieur. Il est impossible d’évaluer le nombre de publications scientifique au niveau mondial, car toutes les revues ne seraient jamais recensées. Il faudrait de même faire un travail d’analyse toutes disciplines confondues. En revanche si on considère que la France a maintenu un niveau supérieur à 4% compte tenu de la montée des puissances comme la Chine et l’Inde, on peut en conclure que le rythme de publications français n’a cessé de croître ces dernières années, et que ce n’est pas le seul pays dans ce cas. ↩︎
-
On peut consulter la réponse à la question Combien coûte un abonnement électronique sur le portail documentaire de l’UPMC. ↩︎
-
La plupart du temps, il est vrai, après la publication. Mais il n’est guère aimable (ni stratégique du point de vue de la renommée personnelle) de refuser à un cher collègue la communication d’un article dont on est l’auteur, et de le prier d’aller débourser quelques euros en commandant le numéro de la revue en question (surtout si cette revue ne profite pas du support des Elsevier et Springer, auquel cas, la commande peut souvent devenir un parcours long et pénible). ↩︎
-
UK PubMed Central est un site miroir de PMC. ↩︎
-
Ou d’art, en général. C’est la question des biens communs qui est soulevée ici. En publiant un article sous licence Creative Commons, on verse les connaissances dans le bien commun, c’est un acte altruiste qui peut toutefois être conditionné : possibilité de commercer ce bien, possibilité de l’améliorer ou le modifier (sans que cela nuise à l’auteur ou à l’œuvre elle-même. ↩︎
-
Mark A. Lemley, Property, Intellectual Property, and Free Riding , Texas Law Review, 83, pp. 1031, 2005. ↩︎
-
Philippe Aigrain, Internet et Création, Paris : In Libro Veritas, 2008. ↩︎
-
Joost Smiers et Marieke van Schijndel, Imagine there is no copyright and no cultural conglomerate too, Amsterdam : Institute of Network Cultures, 2009. Accès libre. ↩︎
-
Lawrence Lessig, Free Culture, How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity, New York: The Penguin Press, 2004 (http://www.free-culture.cc). Placé sous licence libre, ce livre a été traduit en plusieurs langues, y compris en français. ↩︎
-
Le guide destiné aux auteurs se trouve sur le site du service de documentation. On peut aussi consulter cet article du Harvard Magazine (mai-juin 2008) ↩︎
-
le mouvement du logiciel libre, initié par Richard M. Stallman propose une éthique là où le mouvement open source propose un principe d’efficacité. Si, pour des logiciels, la question peut-être discutée, je ne pense pas qu’elle puisse l’être concernant les connaissances sicentifiques. Pour comprendre la différence, je vous invite à lire : Richard Stallman, Christophe Masutti, Sam Williams, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, Paris: Eyrolles (Framasoft - Framabook), 2010. ↩︎
-
Le texte en français peut être téléchargé à cette adresse : http://oa.mpg.de/… (ainsi que la liste des signataires). ↩︎
-
La seconde concerne le format et l’accessibilité de l’œuvre. ↩︎
-
Pour un modèle de collection de livres (non académiques) sous licences libre, avec partage de royalties entre auteurs et éditeur, voyez Framabook.org. ↩︎
21.10.2010 à 02:00
Richard Stallman et la révolution du logiciel libre
Né en 1953, Richard Stallman est un programmeur américain hors pair considéré comme le « père » du logiciel libre.
Son héritage est unanimement reconnu et son influence toujours plus grande sur nos sociétés actuelles de l’information et de la communication. Ses conférences en français débutent invariablement ainsi : « Je puis résumer le logiciel libre en trois mots : liberté, égalité, fraternité… ».
Cette biographie éclaire sans complaisance la vie de ce personnage autant décrié qu’encensé qui a révolutionné l’histoire du logiciel en particulier en initiant le projet GNU. À travers cet ouvrage, nous pouvons mieux connaître le parcours et les combats de cet homme hors du commun.
Williams, Sam, Masutti, Christophe et Stallman, Richard. Richard Stallman et la révolution du logiciel libre. Une biographie autorisée. Eyrolles / Framasoft, 2010.
Lien vers le site de l’éditeur : https://framabook.org/richard-stallman-et-la-revolution-du-logiciel-libre-2/
31.03.2010 à 02:00
Le Web collaboratif
LeWeb 2.0 – ou Web collaboratif – est aujourd’hui présenté comme une évolution culturelle majeure, voire même comme le fondement d’une nouvelle ère politique et sociétale. Dans les versions les plus optimistes, on assisterait à l’émergence d’une nouvelle culture participative, basée sur les interactions libres entre « usagers générateurs de contenus » sur le réseau Internet, et à l’effacement du rôle central occupé jusqu’à présent par les industries de la culture et de la communication.
Face à ces représentations dominantes, l’ouvrage propose une analyse critique du phénomène, à la fois sur le plan socio-économique et en termes de production idéologique. Il interroge tout d’abord la notion même deWeb 2.0 et les questions qu’il pose aux catégories d’analyse des industries de la culture et de la communication. Les auteurs illustrent comment les discours et les dispositifs propres au Web collaboratif s’inscrivent dans le cadre de profondes transformations des rapports entre médias, économie et politique. Cette approche permet de mieux comprendre la place spécifique du Web collaboratif au sein des mutations du capitalisme, dans les industries de la culture et de la communication.
Bouquillion, Philippe, et Jacob Thomas Matthews. Le Web collaboratif: mutations des industries de la culture et de la communication. Presses universitaires de Grenoble, 2010.
Lien vers le site de l’éditeur : https://www.pug.fr/produit/756/9782706115936/le-web-collaboratif
31.03.2009 à 02:00
Propaganda
LE manuel classique de l’industrie des relations publiques » selon Noam Chomsky. Véritable petit guide pratique écrit en 1928 par le neveu américain de Sigmund Freud, ce livre expose cyniquement et sans détour les grands principes de la manipulation mentale de masse ou de ce que Bernays appelait la « fabrique du consentement ». Comment imposer une nouvelle marque de lessive ? Comment faire élire un président ? Dans la logique des « démocraties de marché », ces questions se confondent. Bernays assume pleinement ce constat : les choix des masses étant déterminants, ceux qui parviendront à les influencer détiendront réellement le pouvoir. La démocratie moderne implique une nouvelle forme de gouvernement, invisible : la propagande. Loin d’en faire la critique, l’auteur se propose d’en perfectionner et d’en systématiser les techniques, à partir des acquis de la psychanalyse. Un document édifiant où l’on apprend que la propagande politique au XXe siècle n’est pas née dans les régimes totalitaires, mais au cœur même de la démocratie libérale américaine.
Bernays, E. L., & Baillargeon, N. (2009). Propaganda : Comment manipuler l’opinion en démocratie (O. Bonis, Trad.). Lux.
Lien vers le site de l’éditeur: https://www.editions-zones.fr/lyber?propaganda
21.04.2008 à 02:00
Two bits
In Two Bits, Christopher M. Kelty investigates the history and cultural significance of Free Software, revealing the people and practices that have transformed not only software, but also music, film, science, and education.
Free Software is a set of practices devoted to the collaborative creation of software source code that is made openly and freely available through an unconventional use of copyright law. Kelty shows how these specific practices have reoriented the relations of power around the creation, dissemination, and authorization of all kinds of knowledge after the arrival of the Internet. Two Bits also makes an important contribution to discussions of public spheres and social imaginaries by demonstrating how Free Software is a “recursive public” public organized around the ability to build, modify, and maintain the very infrastructure that gives it life in the first place.
Drawing on ethnographic research that took him from an Internet healthcare start-up company in Boston to media labs in Berlin to young entrepreneurs in Bangalore, Kelty describes the technologies and the moral vision that binds together hackers, geeks, lawyers, and other Free Software advocates. In each case, he shows how their practices and way of life include not only the sharing of software source code but also ways of conceptualizing openness, writing copyright licenses, coordinating collaboration, and proselytizing for the movement. By exploring in detail how these practices came together as the Free Software movement from the 1970s to the 1990s, Kelty also shows how it is possible to understand the new movements that are emerging out of Free Software: projects such as Creative Commons, a nonprofit organization that creates copyright licenses, and Connexions, a project to create an online scholarly textbook commons.
Kelty, Christopher. Two bits. The cultural significance of free software. Duke University Press, 2008.
Lien vers le site de l’éditeur : https://twobits.net/
01.02.2005 à 01:00
L’avenir des idées
L’hostilité de Lawrence Lessig à l’égard des dérives monopolistiques et des excès de la réglementation, notamment celle du droit d’auteur, ne se fonde pas sur des présupposés idéologiques, mais sur une analyse précise, illustrée par de nombreuses études de cas, des conséquences catastrophiques pour l’innovation et la créativité que ne manqueront pas d’avoir les évolutions récentes de l’architecture d’Internet. De plus en plus fermée, propriétarisée et centralisée, celle-ci est en train de stériliser la prodigieuse inventivité à laquelle l’Internet a pu donner lieu à ses débuts. Historien scrupuleux des trente années de développement de ce moyen de communication interactif, d’échange de connaissances, de création de richesses intellectuelles sans précédent, Lawrence Lessig pose le problème en juriste, mais aussi en philosophe et en politique. C’est une certaine idée du partage des savoirs et de la création artistique qui est en jeu dans les tendances actuelles qui dénaturent les principes démocratiques de l’Internet originel. Cette étude parfaitement documentée est aussi un pressant cri d’alarme.
Lessig, Lawrence. L’avenir des idées: le sort des biens communs à l’heure des réseaux numériques, Presses universitaires de Lyon, 2005.
Lien vers le site de l’éditeur : http://presses.univ-lyon2.fr/produit.php?id_produit=731
01.02.2004 à 01:00
Culture libre
Dans la préface de Culture Libre, Lessig compare ce livre avec un de ses précédents, Code et autres lois du cyberespace, qui avançait alors l’idée que le logiciel fait effet de loi. Le message de Culture Libre est différent car « son sujet n’est pas Internet en soi. Le sujet en est plutôt ses effets sur l’une de nos traditions, ce qui est bien plus fondamental et plus difficile à comprendre, que ce soit pour les passionnés d’informatique et de technologies que pour les autres, car bien plus importants. »
Lawrence Lessig analyse la tension qui existe entre les concepts de piratage et de propriété intellectuelle, dans ce contexte qu’il appelle « le système législatif désespérément corrompu », et qui évolue dans chaque pays grâce à des entreprises plus intéressées par l’accumulation d’un capital que par le libre échange des idées.
Le livre rend aussi compte du procès qui opposa Éric Eldred (éditeur de livre appartenant au domaine public) à John Ashcroft, qui allongea la durée du copyright de certaines œuvres de 20 ans, et la tentative de Lessig de développer à ce moment-là une loi Eldred, aussi connue sous le nom de Loi d’amélioration du domaine public (Public Domain Enhancement Act ou Copyright Deregulation Act).
Lessig conclut son livre en écrivant que maintenant que notre société évolue en une société de l’information, il faut décider si la nature de celle-ci doit être libre ou féodale. Dans la postface, il suggère que le pionnier du logiciel libre Richard Stallman et le modèle de la Free Software Foundation de créer des contenus disponibles ne sont pas dirigés contre le capitalisme (qui permet à des entreprises comme LexisNexis de faire payer les utilisateurs pour des contenus étant principalement dans le domaine public), mais qu’il faut proposer des licences telles que celles créées par son organisation Creative Commons.
Il argumente également en faveur de la création d’une période plus courte pour le renouvellement du copyright et une limitation de ses dérives, telles que le fait de stopper, pour un éditeur, la publication de l’ouvrage d’un auteur sur Internet pour un but non commercial, ou de créer un régime de licence obligatoire pour assurer aux créateurs d’obtenir des royalties sur leurs œuvres directement en fonction de leurs usages.
(Source : Wikipédia)
Lessig, Lawrence. Culture libre. Comment les médias utilisent la technologie et la loi pour vérouiller la culture et contrôler la créativité. Freeculture.cc, 2004.
Lien vers le site de l’éditeur : http://www.free-culture.cc/
Téléchargement : https://www.ebooksgratuits.com/details.php?book=2198
31.03.2002 à 01:00
Confessions d’un voleur
L’essor des intelligences artificielles réactualise une prophétie lancinante : avec le remplacement des êtres humains par les machines, le travail serait appelé à disparaître. Si certains s’en alarment, d’autres voient dans la « disruption numérique » une promesse d’émancipation fondée sur la participation, l’ouverture et le partage. Les coulisses de ce théâtre de marionnettes (sans fils) donnent cependant à voir un tout autre spectacle. Celui des usagers qui alimentent gratuitement les réseaux sociaux de données personnelles et de contenus créatifs monnayés par les géants du Web. Celui des prestataires des start-ups de l’économie collaborative, dont le quotidien connecté consiste moins à conduire des véhicules ou à assister des personnes qu’à produire des flux d’informations sur leur smartphone. Celui des microtravailleurs rivés à leurs écrans qui, à domicile ou depuis des « fermes à clics », propulsent la viralité des marques, filtrent les images pornographiques et violentes ou saisissent à la chaîne des fragments de textes pour faire fonctionner des logiciels de traduction automatique. En dissipant l’illusion de l’automation intelligente, Antonio Casilli fait apparaître la réalité du digital labor : l’exploitation des petites mains de l’intelligence « artificielle », ces myriades de tâcherons du clic soumis au management algorithmique de plateformes en passe de reconfigurer et de précariser le travail humain.
Chemla, Laurent. Confessions d’un voleur. Internet : la liberté confisquée. Denoël impacts, 2002.
Lien vers le site : http://www.confessions-voleur.net
21.05.2001 à 02:00
Il était une fois Linux
Il y a aujourd’hui dix ans, un étudiant finlandais nommé Linus Torvalds s’enfermait plusieurs mois, dans sa chambre, rideaux tirés, pour un long tête-à-tête avec son ordinateur. Le résultat : un nouveau système d’exploitation. Qu’allait-il en faire ? Le garder pour son usage personnel ? Le vendre à une société de logiciels? Rien de tout cela. Linus décide de rendre le fruit de son travail librement accessible sur Internet en invitant toute personne intéressée à l’améliorer. L’UNIX libre de Linus, baptisé Linux, était né et avec lui, une nouvelle manière de concevoir les logiciels qui allait bouleverser le monde de l’informatique.
La suite des événements fera date dans l’histoire. Linus Torvalds est devenu la figure emblématique du monde du logiciel libre. Son puissant système d’exploitation est aujourd’hui un acteur de tout premier plan de l’industrie informatique. La méthode de conception utilisée, nourrie de passion volontaire, fait de Linux le plus vaste projet de création collective qui ait jamais existé.
Pour la première fois, Linus Torvalds raconte, dans ce livre, son étonnant parcours : sa fascination, tout enfant, pour la calculatrice de son grand-père, professeur de statistiques à l’Université d’Helsinki, sa première rencontre en 1981 avec un ordinateur, un Commodore VIC-20 et bien sûr les circonstances de la création du noyau Linux, le composant essentiel du système GNU.
Torvalds, Linus, et David Diamond. Il était une fois Linux. L’extraordinaire Histoire d’une révolution accidentelle. Eyrolles Multimédia, 2001.
Lien vers le site de l’éditeur : https://www.eyrolles.com/Informatique/Livre/il-etait-une-fois-linux-9782746403215/
20.04.2001 à 02:00
L’éthique hacker et l’esprit de l’ère de l’information
Himanen présente les termes de l’éthique hacker selon trois pôles, en l’opposant à l’éthique protestante caractéristique du capitalisme : l’éthique du travail, l’éthique de l’argent, et la néthique ou éthique du réseau. Dans l’éthique protestante du travail, il s’agit de vivre pour travailler. Le moteur principal de la mise au travail des hackers du logiciel libre consiste dans le plaisir, dans le jeu, dans l’engagement dans une passion. Pour Linus Torvalds « Linux a largement été un hobby (mais un sérieux, le meilleur de tous). »
Le deuxième plan qui caractérise l’éthique hacker porte sur l’argent. Le mobile de l’activité du hacker n’est pas l’argent. Un des fondements même du mouvement du logiciel libre, initié par les hackers, consiste précisément à rendre impossible l’appropriabilité privée de la production logicielle et donc la perspective d’en tirer profit. Là encore, on trouve comme mobiles qui président à l’engagement dans le travail coopératif volontaire la passion, la créativité, et la socialisation.
Un point particulier mentionné par Himanen, qui porte sur l’organisation et la coordination du travail chez les hackers, les hackers parviennent à s’affranchir du recours à l’autorité hiérarchique pour coordonner leurs activités, en lui substituant comme modalité principale la coopération directe.
L’éthique hacker selon Himanen, est « une nouvelle éthique du travail qui s’oppose à l’éthique protestante du travail telle que l’a définie Max Weber. » Elle constitue une innovation sociale susceptible d’avoir une portée qui dépasse largement les limites de l’activité informatique.
(Source : Wikipedia)
Himanen, Pekka. L’éthique Hacker et l’esprit de l’ère de l’information. Exils, 2001.
Lien vers le site de l’éditeur : http://www.editions-exils.fr/exils/l-ethique-hacker-et-l-esprit-de-l-ere-de-l-information
01.02.1994 à 01:00
The electronic eye
Every day precise details of our personal lives are collected, stored, retrieved, and processed within huge computer databases belonging to big corporations and government departments. Although no one may be spying, strangers do know intimate things about us, often without our knowing what they know, why they know it, or who shares this information. This is the surveillance society. In The Electronic Eye, David Lyon looks into our mediated way of life, where every transaction and phone call, border-crossing, vote, and application registers in some computer, to show how electronic surveillance influences social order in our day. The increasing impact of computers on modern societies is seen by some as very promising, but by others as menacing in the extreme. The Electronic Eye is a genuine contribution to the understanding of modern institutions in an era of globalizing electronic communication.
Lyon, David. The electronic eye: the rise of surveillance society. Polity Press, 1994.
Lien vers le site de l’éditeur : https://www.upress.umn.edu/book-division/books/the-electronic-eye
- Persos A à L
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Blogs persos du Diplo
- LePartisan.info
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Romain MIELCAREK
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Fabrice NICOLINO
- Timothée PARRIQUE
- Emmanuel PONT
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- Numérique
- Binaire [Blogs Le Monde]
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD