LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Framatophe Blog
Souscrire à ce FLUX

STATIUM

Christophe MASUTTI

Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft.

▸ les 161 dernières parutions

10.01.2021 à 01:00

Un ordi par lycéen : la surenchère inutile

Dans un élan qui s’accentue de plus en plus depuis 2010, les Régions de France distribuent en masse des ordinateurs portables à tous les lycéens. « Lycée 4.0 » dans la Région Grand Est, « Lordi en Occitanie », « virage numérique » des lycées en Île de France, etc. Tout cela vient s’ajouter à la longue liste de projets plus ou moins aboutis des instances territoriales qui distribuent tablettes et ordinateurs portables avec une efficacité pédagogique fort discutable. Tout porte à croire que l’enjeu consiste surtout à verser dans la surenchère où la présence d’ordinateurs portables sur les tables reflète une image obsolète de l’école du futur, tout en faisant entrer dans les établissements scolaires certains modèles économiques des technologies numériques.

Il serait facile de rapprocher ces projets d’autres initiatives, plus anciennes, de production d’ordinateurs portables à très bas prix afin de permettre leur distribution dans des pays en développement (par exemple, le projet OLPC). Cependant les ambitions affichées par les Régions sont assez floues quant aux objectifs réellement poursuivis. Souvent employé, l’argument de la réduction de la « fracture numérique » n’est pas le plus évident car il s’agit avant tout d’élire des projets de « lycées connectés » et de faciliter les apprentissages des lycéens là où la plupart disposent déjà d’équipements informatiques. Par exemple, si le projet Lordi en Occitanie consistait en première intention à faciliter l’achat d’un ordinateur portable pour les familles, il s’est transformé en distribution générale pour tous les lycéens de la Région. C’est donc bien une transformation des modalités pratiques des enseignements qui est visée, en faisant de l’ordinateur une recette miracle d’optimisation du rendement scolaire.

Qu’est-ce qui chiffonne ?

On sait depuis longtemps qu’un apprentissage de niveau primaire ou secondaire n’est pas plus efficace avec ou sans ordinateur (ou tablette). Il y a en effet une grande différence entre un apprentissage de l’ordinateur (la programmation et les techniques) ou aux outils de communication numériques, et l’apprentissage avec l’ordinateur, ce qui suppose d’en avoir déjà une grande expertise, ce qui est loin d’être le cas (j’y reviens plus loin).

La politique se résume souvent à bien peu de choses. Ces derniers temps, montrer qu’on s’occupe de la jeunesse revenait essentiellement à distribuer des tablettes et des ordinateurs portables par brouettes : limiter la « fracture numérique », favoriser « l’égalité d’accès au digital », « projet ambitieux » pour « accompagner l’avenir » des jeunes… tout un appareillage lexical fait de périphrases abscondes qu’on qualifiera surtout de condescendantes.

En fait, ce qui est vraiment moisi, dans cette affaire, ce n’est pas le gaspillage d’argent (qui pourrait être bien mieux employé si ce genre de politique était au moins concertée avec les enseignants), non, c’est l’impact environnemental et cognitif de ces opérations. Les prémisses sont d’une part les technologies choisies (du matériel très moyen qui ne tient pas la durée) et d’autre part l’acculturation aux produits Microsoft (qui empêche l’entretien durable des machines en favorisant la passivité face aux logiciels).

Culture du jetable

Concernant les choix technologiques, c’est toujours la même histoire. Les logiques d’appel d’offre obligent les institutions publiques à effectuer des choix toujours très contraints. Et bien souvent dans ces cas là, bien que l’expertise soit menée par des personnes très compétentes, la décision revient à des politiques qui, lorsqu’ils ne sont pas parfaitement embobinés par les lobbies, ne mesurent les conséquences de leurs actions qu’en fonction du degré de satisfaction de leur électorat. Et comme aujourd’hui l’électorat est soit vieux, soit réac., soit facho1, autant dire que le plus important est de prendre une belle photo avec des jeunes en classe, leurs ordinateurs portables ouverts et bien attentifs à ce que dit le prof… (non, pardon : l’élu qui est venu faire une conférence de presse).

En matière de choix, disais-je, les ordinateurs des Régions finiront exactement comme les tablettes des lycées « pionniers » des années 2010 : au fond des tiroirs. Le premier sas vers la poubelle. Car en matière de filière de recyclage pour les matériaux de nos petites merveilles numériques, c’est zéro ou presque rien. Tout au plus quelques associations recyclent des machines pour en équiper les plus pauvres. Elles accompagnent d’ailleurs ces actions avec une vraie formation aux outils numériques, et font preuve de bien plus d’utilité publique que les plans Région dont nous parlons ici. Mais à part ces actions, je me demande encore comment vont terminer les centaines de milliers d’ordinateurs des lycéens dans quatre ou cinq ans.

Sans parler du fait que nous brûlons nos crédits écologiques tout en favorisant des économie minières inégalitaires et des guerres en sur-consommant des dispositifs numériques dans nos pays industrialisés. Quelle est la qualité des appareils fournis par les plans Région ? sont-ils assez évolués pour être plus durables que ce qu’on trouve habituellement dans le commerce bon marché ?

Même pas. Des machines qui atteignent péniblement 4Go de Ram, des matériaux de qualité moyenne, avec des périphériques moyens… Ce n’est pas tellement que les Régions fournissent des machines bas de gamme aux lycéens : elles leur confient des machines qui fonctionnent… mais ne tiendront jamais la distance.

En Région Grand Est à la rentrée 2020, les lycéens en classe de Seconde ont reçu des ordinateurs HP 240 G7, processeur Intel Celeron N4000, 4 Go de Ram, 128 Go SSD. Il faut envisager leur état dans trois ans, à la fin du lycée, par exemple, lorsque les usages deviendront plus sérieux. Sans parler du boîtier en plastique qui montre très vite des signes de faiblesse chez tous les élèves (et pas seulement les moins soigneux). Ajoutons de même que la question ne se pose pas seulement dans le Grand Est : en Île de France, outre les problème de gestion, la qualité des dispositifs n’est clairement pas au rendez-vous (voir cet article du Parisien du 11/01/2021). Hé oui, amis décideurs : si c’est pas cher, parfois c’est qu’il y a un lièvre (dans cette petite vidéo, vous avez au début un petit florilège).

Microsoft obligatoire

Bien sûr ce type de machine a une configuration matérielle largement suffisante pour une distribution GNU/Linux (la vidéo que je mentionne ci-dessus montre comment installer ElementaryOS sur ces ordinateurs). Avec un tel système d’exploitation, on pourrait envisager l’avenir de la machine de manière beaucoup plus sereine (je ne parle pas du boîtier, cela dit). Mais voilà : installer GNU/Linux apporte plus de confort et de fiabilité, mais rien n’est fait pour que les lycéens puissent l’utiliser.

En effet, deux obstacles de taille s’opposent à l’emploi d’un système libre.

Le premier c’est la connexion au Wifi des lycées : aucune autre procédure de connexion ne semble être disponible dans la Région Grand Est, à part sous Windows. J’ignore ce qu’il en est dans les autres Régions. C’est un obstacle tout à fait surmontable, à condition de développer les bons petits scripts qui vont bien et accompagner les lycéens dans l’utilisation de GNU/Linux. Mais cela implique une vraie volonté politique, or cet aspect des choses n’intéresse absolument pas les élus.

Le second obstacle m’a été rappelé récemment par le compte Twitter de la Région Grand Est : les liseuses des manuels numériques ne sont disponibles que sous Microsoft Windows. Correction cependant : ils sont disponibles en ligne avec un navigateur, mais d’une part il faut une connexion internet et d’autre part, pour les manuels dits « interactifs », les fonctionnalités manquent. Impossible de télécharger un manuel (sous format PDF, ou mieux, du HTML ou du Epub, par exemple) et l’utiliser localement sans être dépendant des logiciels des éditeurs (car il y en a plusieurs !).

Résumons donc la position de la Région Grand Est : puisque les éditeurs de manuels ne les rendent disponibles que sous Microsoft Windows (ou Apple), c’est-à-dire à grands renforts de verrous numériques (DRM), il est normal d’obliger les élèves à n’utiliser que Microsoft Windows…

Imaginons un instant la même logique appliquée aux transports : si on se fout de l’impact environnemental de la pollution des véhicules à moteur, étant donné que la plupart des stations services distribuent de l’essence, il est inutile de chercher à promouvoir des énergies alternatives.

C’est sans compter les initiatives d’éditions de manuels libres et de grande qualité telle Sesamath où le fait que, au contraire, certains éditeurs de manuels fournissent bel et bien des manuels sans pour autant obliger l’utilisation de tel ou tel système d’exploitation. Ou même la possibilité, éventuellement, de travailler en coordination avec l’Éducation Nationale pour demander aux éditeurs de créer des versions de manuels compatibles, par exemple en s’appuyant sur des appels d’offres correctement formulés. Mais non. En fait, puisque la Région n’a aucune compétence en éducation, comment imaginer qu’il y ai une quelconque coordination des efforts ? Peut-être que les Régions auraient ainsi appris que des ordinateurs en classe sont parfaitement inutiles…

OK. Mais le problème est bien plus large. C’est dès la mise en service de l’ordi que les élèves se trouvent bombardés de pop-up les invitant à installer MSOffice 365 et à ouvrir un compte Microsoft OneDrive. Tout cela bien encouragé par la Région qui explique benoîtement comment faire pour valider sa version de Microsoft Office (alors que LibreOffice est déjà installé). En plus, la version est valable sur plusieurs machines dont 5 ordinateurs (donc les lycéens détiendraient en majorité déjà des ordinateurs ?). Ben oui, si c’est gratuit…

Et c’est là qu’on peut parler d’une acculturation de masse. « Acculturation » est un terme qui relève de la sociologie et de l’ethnologie. Cela signifie dans une certaine mesure l’abandon de certains pans culturels au profit d’autres, ou de la création d’autres éléments culturels, par la fréquentation d’une autre culture. C’est ce qui se passe : alors qu’un outil informatique devrait toujours laisser le choix à l’utilisateur de ses formats et de son utilisation, l’adoption de normes « Microsoftiennes » devient obligatoire. On organise ainsi à l’adhésion forcée à ce monde où l’on parle de « Pohouèrepointe » et de « documents ouhorde ». On passera sur les recommandations du Référentiel Général d’Interopérabiltié du gouvernement Français qui recommande les formats ouverts ou bien (au hasard) la Déclaration des gouvernements européens à Talinn2 et une foule d’autres directives plaidant très officiellement pour l’utilisation des formats ouverts et des logiciels libres.

Et en ces temps de confinement à cause de la COVID, la posture s’est trouvée d’autant plus auto-justifiée. Preuve, s’il en était besoin, que chaque élève devait bien satisfaire aux exigences des enseignements à distance avec les ordinateurs qui leurs sont confiés. C’est justement ce qui rend la critique difficile, l’ordinateur faisant office de vecteur d’égalité des élèves devant les contraintes numériques. En revanche, l’argument peut se retourner aisément : n’importe quel enseignant honnête pourra témoigner de l’extrême difficulté à enseigner à distance, de l’inadaptation pédagogique de la visio-conférence, de l’intensification des inégalités des conditions sociales et d’accès aux connaissances. L’ordinateur inutile en classe est aussi un vecteur d’inégalité devant les apprentissages là où il est censé être une solution d’accès égalitaire à la technologie. En d’autres termes, focaliser sur les solutions technologiques au détriment des vrais problèmes, cela s’appelle du solutionnisme et les Régions s’y baignent avec délectation.

Des projets contre-productifs

Les plans Régionaux de distribution d’ordinateurs aux lycéens sont des instruments de communication politique qui effacent sciemment de l’équation les aspects sociaux et cognitifs de la vie des lycéens. Ils éludent l’expertise des enseignants et imposent des usages (les manuels numériques et les conditions d’exploitation des éditeurs). Ils imposent l’obligation de gérer le rapport de l’élève à l’ordinateur, c’est-à-dire un second média dans la classe, le premier étant l’enseignant lui-même et ses propres outils que sont le manuel, le tableau, les photocopies, le video-projecteur.

Partout l’ordinateur donne à voir un surplus d’information qui a tendance à brouiller le message dans la relation maître-élève. C’est pourquoi les syndicats d’enseignants trouvent évidemment beaucoup à redire face à ces plans numériques. Mais quels que soient les arguments, les Régions auront beau insister sur le fait que l’ordinateur est un bon outil pour le lycéen, les études menées dans ce domaine montrent surtout que les résultats escomptés sont loin d’être au rendez-vous. Si l’ordinateur (+ Internet) à la maison ou au CDI est évidemment un accès supplémentaire éventuellement profitable à l’acquisition d’informations (et pas forcément de connaissances), l’ordinateur en classe est parfaitement contre productif. Adieu la belle image des salles de classe Microsoft, vitrines alléchantes du solutionnisme ambiant (et coûteux) :

  • l’utilisation d’un ordinateur portable pour prendre des notes en cours entraîne un déficit de traitement de l’information et devient préjudiciable à l’apprentissage (voir cette étude),
  • l’usage d’Internet en classe avec des ordinateurs portables (y compris pour effectuer des recherches censées être encadrées par l’enseignant) détourne l’attention et provoque une baisse de performance (voir cette étude),
  • le comportement multitâche lié à l’usage de l’ordinateur en cours entraîne une baisse de la productivité (voir cette étude),
  • les élèves les moins bons pâtissent en premier lieu des difficultés de concentration causées par l’usage de l’ordinateur en classe (voir cette étude),
  • les élèves mutlitâches (avec ordis) ont non seulement des résultats moins bons, mais gênent aussi ceux qui n’ont pas d’ordi (voir cette étude),
  • même dans les écoles militaires on voit apparaître la baisse de rendement pour les élèves qui utilisent des ordinateurs ou des tablettes en classe (voir cette étude).

La liste de références académiques ci-dessus est le résultat d’une demi-heure de recherches rapides sur Internet. Un temps qui aurait pu être mis à profit avant de lancer concrètement les institutions dans la distribution à grands renforts de communication. Ces études me semblent assez alarmistes pour interroger sérieusement le slogan de la Région Grand Est (« Lycée 4.0 : de nouveaux outils pour apprendre »).

Bien sûr beaucoup d’autres études vantent depuis longtemps l’usage des TIC dans l’éducation, mais une première analyse me porte à juger que les avantages ainsi mis en avant se situent surtout dans l’acquisition de compétences liées au numérique et non pas dans l’apport réel de l’ordinateur « en classe », c’est-à-dire comme un outil censé améliorer la productivité et le rendement des élèves. Nuance. Le raccourci est bien trop dangereux entre d’une part l’idée que les TIC doivent être utilisées dans le primaire et le secondaire parce que nous vivons dans une société de la communication numérique, et d’autre part l’idée que l’ordinateur est par conséquent l’outil idéal pour acquérir et maîtriser des connaissances.

Ce raccourci, c’est la porte ouverte aux injonctions malheureuses envers les plus jeunes dans notre société. Un jeune serait-il forcément plus enclin à apprendre avec un ordinateur qu’avec un papier et un crayon ? Est-ce qu’un manuel scolaire sera meilleur qu’un autre parce qu’il possède une version numérique et interactive ? est-ce que les représentations, les intentions, les analyses des plus jeunes doivent nécessairement passer par un ordinateur pour être plus pertinentes ?

L’injonction faite aux élèves

Il y a des livres qu’on devrait tous lire et à commencer par les politiques qui se mêlent d’éducation. Le livre d’Anne Cordier, intitulé Grandir Connectés chez C&F Éditions (par ici), fait partie de ce genre de livres.

Dans le processus de recherche d’information, Anne cordier nous invite à moult précautions lorsqu’on évalue les pratiques informationnelles des « jeunes ». D’abord en distinguant la maîtrise experte de l’outil de la simple familiarité à l’outil, et ensuite en remettant en cause le cadre de l’évaluation qui trop souvent tend à évaluer la capacité cognitive (le jeune est forcément toujours un novice par rapport à l’adulte) et non les riches stratégies d’apprentissage, aussi différentes que la jeunesse est multiple et non uniforme, au moins sociologiquement. Si bien que les pratiques informationnelles des jeunes et des adultes ne sont pas si différentes dans leurs approches, loin de la pseudo distinction entre le monde adulte et celui des digital natives dont on a forgé la représentation pour en faire des cibles marchandes tout en renvoyant les adultes à leurs propres difficultés. Une doxa largement intégrée chez les adultes comme chez les plus jeunes.

Car voilà, ce qui pèse c’est l’injonction. Cette norme à laquelle on invite les plus jeunes à se conformer dès les premiers apprentissages : savoir se servir d’Internet, savoir envoyer un courriel, savoir se « servir » d’un ordinateur. L’appétence supposée des enfants envers l’ordinateur les confronte à une norme de laquelle il leur est impossible de se départir : l’appétence équivaudrait à l’expertise. Et les adultes y calent leurs propres incompétences parce qu’ils n’en n’auraient, eux, aucune appétence ou très faible.

Qu’est-ce que cela signifie ? tout simplement que les adultes qui n’ont qu’une expertise faible de l’ordinateur et plus généralement des infrastructures numériques et des outils de communication, supposent qu’il suffit à un enfant de fréquenter un ordinateur pour en acquérir l’expertise. Dès lors il n’y aurait plus de problème pour que l’ordinateur devienne un outil permettant, voire optimisant, l’acquisition de connaissance à l’école ou au lycée.

Hélas, ce n’est ni une condition nécessaire ni une condition suffisante. Il suffit par exemple d’interroger les associations d’éducation populaire qui, tous les jours ont affaire à des jeunes (et des moins jeunes) et voient à quel point malgré la présence d’un téléphone portable dernier cri dans la poche ou d’un ordinateur très cher dans la chambre, une multitude est complètement dépassée par le numérique. Pour beaucoup, Internet n’est constitué que d’une série d’applicatifs permettant d’utiliser les services des GAFAM. Quant à une adresse courriel, on a perdu le mot de passe, on ne s’en sert pas. On ignore même avoir un compte Google alors qu’on a un smartphone Android.

L’injonction faite à ces jeunes est d’autant plus cruelle qu’elle nie complètement leur rapport au numérique et leur renvoie en pleine face la responsabilité de leur inadaptation aux apprentissages. C’est exactement la même chose pour les plus vieux qui ont un rapport d’autant plus distant aux services publics que ces derniers estiment suffisant de les renvoyer sur un site internet pour effectuer toutes les démarches nécessaires à la vie publique. Si « tout le monde a Internet » alors tout le monde sait s’en servir. Rien n’est plus faux. On pourra aussi lire à ce sujet l’excellent ouvrage de Dominique Pasquier, L’internet des familles modestes (par ici) et constater qu’on n’y parle pas seulement des plus modestes…


Illustration : « L’avènement de l’école informatisée », par Shigeru Komatsuzaki, parue dans Shōnen Sunday, 1969 (archive).



  1. La caricature est rude, mais qui osera me dire qu’elle ne reflète pas la sociologie du vote en ce moment ? ↩︎

  2. Déclaration de Talinn, 06/10/2017, extrait : «[Les États membres invitent] la Commission à envisager un renforcement des exigences relatives à l’utilisation de normes et de solutions à code source ouvert lorsque la (re)construction de systèmes et de solutions TIC est effectuée avec un financement de l’UE, notamment par une politique appropriée de licences ouvertes–d’ici à 2020.» Pour information, le projet de Lycée 4.0 de la Région Grand Est s’est trouvé co-financé par le FEDER. C’est sans doute pour cette raison qu’on trouve LibreOffice installé sur les machines. Ce qui s’apprente à du Libre-whashing si, dans le même mouvement, tout est fait pour inviter les utilisateur à utiliser des logiciels de la suite MSOffice. ↩︎

21.10.2020 à 02:00

Déterminisme et choix technologiques

(Préambule) Cette tentative de synthèse est avant tout un document martyr. J’essaie de saisir les discours empreints de déterminisme technologique au long de la révolution informatique. Ces discours valident un certain ordre économique et envisagent la production et l’innovation comme des conditions qui s’imposent à la société. Les dispositifs technologiques sont-ils uniquement des dispositifs de pouvoir ? impliquent-ils des représentations différentes du rapport entre technique et société ? Un peu des deux sans doute. Avant d’employer ce mot de dispositif et de nous en référer à Michel Foucault ou autres penseurs postmodernes, j’essaye de tracer chronologiquement la synergie entre l’émergence de l’informatique dans la société et les discours qui l’accompagnent. Il n’y a donc pas vraiment de thèse dans cet article et certaines affirmations pourront même paraître contradictoires. Je pense en revanche exposer quelques points de repères importants qui pourront faire l’objet ultérieurement d’études plus poussées, en particulier sur le rôle des principes du pair à pair, celui du logiciel libre et sur l’avenir d’Internet en tant que dispositif socio-technique. Il me semblait cependant important de dérouler l’histoire tout autant que l’historiographie de manière à contextualiser ces discours et tâcher d’en tirer enseignement à chaque étape.

P.S. : à plusieurs reprises je copie-colle quelques paragraphes de mon ouvrage publié en mars 2020. Cette redondance est voulue : tâcher d’aller plus loin.

P.S. (bis) : (màj 22/10/2020 : coquilles corrigées par Goofy !)


Téléchargez la version PDF de l’article ici


Table des matières

Introduction

Nous avons une tendance à nommer les sociétés et les âges en fonction des artefacts. De l’âge du fer à la société numérique d’aujourd’hui, qu’il s’agisse de l’outil, ou du rattachement des usages à un dispositif technique, tantôt sacré, tantôt profane, nous devons toujours lutter contre le déterminisme technologique qui restreint le degré de complexité nécessaire pour appréhender la société, son rapport à l’espace et au temps. Cette simplification n’en est pas vraiment une. En effet, prétendre que la technologie est un paramètre indépendant qui conditionne le développement humain ou social, suppose de savoir ce qui exactement dans l’ensemble des dispositifs techniques présents joue un rôle significatif. Ce choix doit être éclairé, débattu jusqu’à parfois identifier des « technologies clé » ou des combinaisons de technologies dont les effets rétroactifs conditionnent les choix économiques en termes d’innovation, de compétitivité, de profit et, au niveau macro-économique, la géostratégie.

Forme pervertie du déterminisme technologique, le solutionnisme (Morozov 2014) et les idéologies de dérégulation libertarianistes (Husson 2018) partent de ce principe qu’appréhender tout problème par algorithme et ingénierie permet de proposer des solutions techniques efficientes, indépendamment des conditions et des paramètres du problème et des finalités poursuivies. Si vous êtes fatigué-e d’une journée de travail au point de vous endormir au volant sur le chemin du retour, vous pouvez toujours utiliser des lunettes bourrées de capteurs qui vous permettront de faire sonner une alarme si vous vous endormez au volant… mais vous ne réglerez pas le problème qui consiste à se demander pourquoi votre travail est à ce point harassant.

Depuis la sortie de K. Marx (Marx 1896, chap. 2) sur le moulin à bras et le moulin à vapeur1, nombre de chercheurs ont travaillé sur le rapport déterminant ou non de la technologie sur la société ou, de manière plus restrictive, la politique, la culture ou l’économie. Dans la seconde moitié du XXe siècle, le débat fut largement occupé par les historiens tels Robert L. Heilbroner, partisan d’un déterminisme doux, tandis que les philosophes tels Martin Heidegger ou Jacques Ellul, proposaient une lecture ontologique ou matérialiste qui les fit à tort assimiler à des technophobes là où ils ne faisaient que réclamer une critique radicale de la technique. Enfin vinrent les études sociales sur les sciences et les techniques (STS) qui montrèrent que les techniques ne naissent pas de processus autonomes mais sont les fruits d’interactions sociales (Vinck 2012), même si la version radicale de certains implique que tout serait le résultat de processus sociaux, tandis que pour d’autres le réflexe déterministe reste toujours très présent (Wyatt 2008).

Avant d’être un biais conceptuel pour l’historien, le déterminisme technologique est d’abord un discours sur la technologie. Il projette des représentations qui impliquent que la société doit évoluer et faire ses choix en fonction d’un contexte technologique (l’innovation et la compétitivité économique en dépendent) tout en démontrant par la même occasion que dans la mesure où le développement technologique est sans cesse changeant, il projette la société dans l’incertitude. On ne compte plus les discours politiques contradictoires à ce propos.

Les mouvements ouvriers ont pu chercher à éviter ces paradoxes en proposant le troisième terme qu’est le capitalisme pour articuler les rapports entre société et techniques. Ainsi, de la révolution industrielle, on peut tenir le fordisme comme la forme la plus élaborée de l’équilibre entre production et consommation. Cela eut un coût, très vite identifié par Antonio Gramsci : il ne s’agissait pas seulement d’une nouvelle organisation du travail, mais une soumission au machinisme, ce qui fini par conditionner une représentation de la société où le capitalisme « annexe » la technique en y soumettant le travailleur et par extension, la société. Ce sont aussi les mots de Raniero Panzieri, l’un des fondateurs le l’ouvriérisme italien (opéraïsme) des années 1960 : le capitalisme détermine le développement technologique et pour cela il lui faut un discours qui doit montrer que c’est à la société de s’adapter au changement technologique et donc d’accepter la soumission ouvrière à la machine – là où la manufacture morcelait le travail encore artisanal, l’usine et ses machines systématisent l’exploitation de l’ouvrier et le prive du sens de son travail (Panzieri 1968, 105).

La critique marxiste fut néanmoins largement minorée après les années 1960 au profit d’une mise en accusation de la « technoscience » d’être le nouvel épouvantail du totalitarisme. Cependant, il faut regarder de près les multiples variations de discours au sujet des « nouvelles technologies » dont les ordinateurs et les infrastructures numériques représentaient l’essentiel sur lequel allaient définitivement s’appuyer les sciences comme l’industrie et les services. On voit alors comment se déploie une acculturation commune à l’informatique simultanément à une popularisation d’un déterminisme technologique qui déjà correspond à une certaine tradition de la critique – disons – non-marxiste.

Pour caricaturer, une version extrême de ce déterminisme pourrait aujourd’hui figurer dans le discours du Président de la République Française Emmanuel Macron le 14 septembre 2020 au sujet des nouveaux standards de téléphonie mobile. « Le tournant de la 5G », dit-il, « est le tournant de l’innovation. J’entends beaucoup de voix qui s’élèvent pour nous expliquer qu’il faudrait relever la complexité des problèmes contemporains en revenant à la lampe à huile : je ne crois pas au modèle Amish (…) ». Nous pouvons nous interroger sur le fait qu’un discours politique en 2020 puisse ainsi opposer la présence d’une technologie à un faux dilemme. Car c’est lorsque nous avons toutes les peines du monde à penser la société et la technique comme un tout interagissant que nous réduisons le problème à un choix entre (techno)phobie et adhésion. La technique s’impose d’elle-même à la société, la société doit s’y adapter… Il y eut des échappées à ce choix durant la « révolution informatique » : les espoirs du progrès social, les mythes qui idéalisaient les innovateurs de l’informatique, le partage communautaire des usages, les combats pour la vie privée (contre les bases de données)… Échappèrent-ils pour autant aux faux-dilemmes ?

Dans cet article, ce sont ces contradictions qui nous intéresseront à travers une lecture de la Révolution Informatique à partir des années 1960. Nous la nommerons aussi « informatisation de la société ». Nous préférons ce terme d’informatisation parce qu’il contient l’idée qu’un processus est à l’œuvre qui ne concerne pas seulement les choix sociaux mais aussi les effets persuasifs des discours sur les artefacts concernés : les ordinateurs, les programmes, les réseaux et leurs infrastructures, les acteurs humains de l’informatisation, leurs rôles et leurs représentations du processus. Nous maintenons, pour commencer, que l’adhésion du public à une conception déterministe de la technologie est cruciale dans ce qu’on peut appeler un processus historique d’assimilation, c’est-à-dire, d’une part une diffusion des discours qui assimilent progrès informatique et progrès social, et d’autre part une acculturation auprès des groupes professionnels, ingénieurs, parties prenante de l’économie numérique naissante. Cependant, des promesses d’un avenir économique radieux au mythe de l’ingénieur ermite qui développe un artefact « révolutionnaire » dans son garage, en passant par le partage de pratiques : de quel déterminisme est-il question ?

Nous pouvons opposer deux logiques. L’une « extérieure » qui consiste à interpréter de manière déterministe ou non le changement technologique, apanage des chercheurs, philosophes, historiens et sociologues. L’autre, « intérieure », plus ou moins influencée par la première, mais qui développe consciemment ou non un déterminisme discursif qui modèle l’adhésion à une culture de l’artefact, ici une culture informatique, et plus généralement l’adhésion à un modèle économique qui serait imposé par une technologie autonome. Typiquement, ramené à des considérations très contemporaines : avons-nous réellement le choix de nous soumettre ou non au capitalisme de surveillance, fruit de la combinaison entre technologies dominantes et soumission des individus à l’ordre social imposé par ces technologies et leur modèle économique fait de monopoles et d’impérialisme (Masutti 2020). Il est alors important de voir jusqu’à quel point ce discours déterministe est intégré, s’il y a des points de rupture et de résistance et comment ils se manifestent.

L’objectif de cet article est de déployer une lecture générale de la révolution informatique tout en prenant la mesure du discours déterministe qui traverse au quotidien ce processus historique d’informatisation de la société depuis les années 1960 jusqu’à nos jours. Nous emploierons pour cela plusieurs « manières de voir » les techniques (et nous pourrons aussi bien employer le mot « technologies » pour désigner les computer technologies), c’est-à-dire que nous analyserons dans leur contexte les discours qui les encadrent, promoteurs ou détracteurs, ainsi que les critiques philosophiques ou historiques, de manière à en comprendre les variations au fil du temps et comment, in fine, des choix sociaux ont fini par s’imposer, tels le logiciel libre, en créant des zones de résistance.

Que faire avec les ordinateurs ?

Réussir dans les affaires

Si l’histoire de l’informatique traite en premier lieu des « gros ordinateurs » ou mainframe, c’est parce que, au cours des deux décennies des années 1950 et 1960, ils furent porteurs des innovations les plus décisives et qui dessinent encore aujourd’hui notre monde numérique : les matériaux et l’architecture des machines, les systèmes d’exploitation, les réseaux et leurs infrastructures, la programmation et les bases de données. En même temps que ces innovations voyaient le jour, l’industrialisation des ordinateurs répondait à la demande croissante des entreprises.

D’où provenait cette demande ? L’Association internationale pour l’étude de l’économie de l’assurance (autrement connue sous le nom Association de Genève) consacra en 1976, première année de publication de sa collection phare The Geneva Papers on Risk and Insurance, un volume entier produisant une prospective des pertes économiques en Europe liées à l’utilisation de l’informatique à l’horizon 1988. Sur la base de l’expérience des vingt années précédentes, elle montrait que la confiance en l’informatique par les décideurs et chefs d’entreprise n’était pas communément partagée. Un élément décisif qui a permis de lancer concrètement l’industrie informatique dans la fabrication de masse de séries complètes d’ordinateurs, fut le passage des machines mainframe aux mini-ordinateurs, c’est-à-dire des ordinateurs plus petits, fournis avec une gamme d’applicatifs selon les secteurs d’activité des entreprises et des langages de programmation faciles à l’usage. C’est l’effort marketing d’entreprises comme IBM qui changea complètement la représentation des ordinateurs chez les cadres et chefs d’entreprises.

Auparavant, l’ordinateur représentait la puissance de calcul et l’aide à la décision. C’était ainsi qu’il était vanté dans les films publicitaires de la Rand pour la gamme Univac. Les domaines les plus réputés devoir se servir de telles machines étaient les universités, les banques, les assurances, ou l’aéronautique. Mais comment le chef d’une petite entreprise pouvait-il être convaincu par l’investissement dans une telle machine ? Il fallait réinventer l’utilité de l’ordinateur et c’est tout l’enjeu de la production de ce secteur dans les années 1960 (Ceruzzi 1998, 110). Les efforts en marketing furent largement accrus pour passer un message essentiel : l’ordinateur ne devait plus traiter l’information existante parallèlement à la production, mais produire l’information, être le pilier du système d’information et, en tant que « système expert », aider à prendre les bonnes décisions. Mieux encore, l’ordinateur pouvait prédire l’avenir : savoir déterminer à l’avance les chances de succès d’un nouveau produit en analysant le marché et l’environnement. C’est tout l’objet des projets de traitements de données quantitatives et qualitative dont le projet DEMON (Decision Mapping via Optimum Go-No Networks), débuté en 1967, fut longtemps l’illustration dans le domaine de l’informatique appliqué au marketing (Charnes et al. 1968a ; Charnes et al. 1968b).

Après deux décennies de tâtonnements, de bricolages savants et de recherche, l’ordinateur des années 1960 était passé du rang de produit d’ingénierie complexe à celui d’instrument de réussite entrepreneuriale. Cela n’allait pas sans les nombreuses inventions dans le domaine des périphériques et des applicatifs, mais la dynamique des ventes d’ordinateurs, la transformation des fabricants en multinationales et le marché concurrentiel mondial de l’informatique n’auraient jamais pu voir le jour sans qu’un discours convainquant ne puisse être véhiculé. Ce n’était pas celui de la persuasion d’un produit performant de qualité, et il était loin d’être technique (car il ne s’adressait pas aux techniciens). L’ordinateur était fait pour l’homme d’affaires. Ainsi que le vantait la publicité pour l’IBM System/3 :

Toutes les activités économiques ont une chose en commun : l’information. […] et si au lieu de travailler avec ces informations, vous pouviez travailler pour elles ? […] Voici System/3. L’ordinateur pour l’homme d’affaires qui n’avait jamais pensé qu’il pouvait s’en payer un.

Organiser la paix sociale

Aborder les aspects techniques la réorganisation informatique d’une entreprise était un sujet qui ne pouvait pas passer inaperçu. La même publicité pour System/3 précisait :

Un langage de programmation est aussi disponible, basé sur les besoins courants des entreprises. Il est simple à apprendre et à utiliser pour vos employés…

La formation des employés était un aspect incontournable de l’investissement informatique d’une entreprise. Plus précisément, face aux promesses de rentabilité, d’optimisation des processus de production et de vente, le travail des bases de données ne pouvait pas s’improviser. Les ordinateurs de nouvelle génération ne se réduisaient pas à la retranscription et au stockage de listes et de procédures pour les automatiser. Si l’ordinateur était un instrument de réussite sociale des décideurs, la formation des employés devait être l’objet d’un discours plus général sur l’avancement de la société toute entière.

Les langages informatiques de haut niveau tels FORTRAN, LISP, COBOL, ALGOL sortirent au début des années 1960 du cercle fermé des experts universitaires et industriels pour intégrer peu à peu des procédures d’automation dans les entreprises. Pour cela il fallait former de futurs salariés au travail algorithmique de la donnée, tout en abaissant le niveau de qualification global comparé aux savoirs universitaires ou d’ingénierie que nécessitait la maîtrise des ordinateurs mainframe. Dès 1965, c’est l’une des raisons qui poussèrent IBM à produire des systèmes comme l’IBM 360. Outre ses équipements qui intéressaient les secteurs de la recherche et de la haute ingénierie, la série d’IBM permettait d’initier de nouvelles pratiques, comme la possibilité de passer d’un ordinateur à l’autre avec les mêmes programmes, voire les mêmes systèmes d’exploitation, ou d’augmenter la vitesse d’exécution des programmes (grâce aux techniques de microprogrammation). L’avantage consistait aussi en l’utilisation plus harmonisée des langages de programmation réduisant ainsi les coûts de formation tout en optimisant la rentabilité de l’investissement que représentait l’achat de ces machines.

Aux États-Unis, la complexification des systèmes d’information des organisations et l’apparition des grands pôles industriels destinés à l’innovation électronique, poussèrent la population des plus diplômés à se spécialiser dans des secteurs très compétitifs. Les universités ne produisaient qu’un nombre limité de ces ingénieurs et scientifiques, le plus souvent issus d’établissements prestigieux et d’une classe sociale élevée. La communauté des ingénieurs informaticiens su faire face à ce qui fut appelé en 1968 la « crise des programmeurs » et qui en réalité avait commencé bien avant. Chaque entreprise disposant d’un ordinateur devait développer ses propres logiciels, ce qui à chaque fois augmentait la masse salariale de programmeurs qui développaient souvent des programmes similaires. C’est ainsi que le besoin s’est fait sentir de rationaliser et standardiser les programmes dans un secteur économique nouveau. La création formelle de l’IEEE Computer Society en 1971 validait ce qui déjà était une évidence : s’il fallait une industrie du logiciel, les ingénieurs devaient se regrouper pour s’entendre sur les standards et appuyer cette industrie naissante.

Pourtant, ce n’est pas pour combler un manque de main d’œuvre qu’apparurent les centres de formation (souvent pour adultes) destinés à l’apprentissage des langages de haut niveau et plus généralement pour occuper des postes informatiques de premier niveau. Dans la veine des mouvements pour les droits civils et pour faire face à des risques d’émeutes dans certains quartiers de centres urbains, les États et les municipalités construisirent des programmes de formations destinés de préférence aux populations afro- et latino- américaines (Abbate 2018). Le discours tenu était empreint d’une croyance dans le pouvoir des technologies à provoquer le changement social : s’adapter à l’informatique et apprendre les langages informatiques était une voie vers l’émancipation, la paix sociale et la démocratie. De fait, la réorganisation des entreprises autour de l’informatique créait de nouvelles hiérarchies entre cols blancs et manipulateurs, au fur et à mesure que les tâches s’automatisaient et que le travail des scientifiques-ingénieurs devait se spécialiser toujours plus au risque de se diluer dans la masse d’exécutants sur machines.

Pourtant, si l’apprentissage des langages informatiques pouvait donner du travail, il n’exonérait ni de la soumission hiérarchique à l’ordre blanc en col blanc, ni des inégalités salariales et sociales (Nelsen 2016). Si nous pouvons considérer l’histoire de l’industrie informatique selon les cycles d’innovations technologiques et envisager leur impact sur la société par le prisme de l’informatisation de la société, une lecture tout aussi pertinente peut nous amener à nous interroger la manière dont la société s’est imprégnée des discours qui accompagnèrent le marché de l’informatique. Plus ce dernier s’étendait, plus le discours devait avoir une ambition universelle et inclusive, indépendamment de la réalité sociale.

Promouvoir l’accomplissement individuel

En 1977, lorsque le premier ordinateur personnel de la gamme Apple II sorti sur le marché, l’annonce2 parue dans la presse spécialisée en micro informatique précisait, outre les fonctionnalités déjà intégrées et prêtes à l’usage : « Mais le plus grand avantage – indépendamment de la façon dont vous utilisez Apple II – est que vous et votre famille vous familiarisez davantage avec l’ordinateur lui-même ».

Aussi bien pour son concepteur Steve Wozniak que pour Steve Jobs, Apple II est le premier micro-ordinateur destiné à un usage individuel et dont le pari réussi fut d’être produit à grande échelle (et pas sous la forme d’un kit électronique réservé aux spécialistes). Utilisé le plus souvent par la catégorie des cadres d’entreprises, au moins pour les premières années de sa présence sur le marché, les principaux atouts résidaient dans la gamme logicielle fournie (en particulier le tableur VisiCalc, sorti en 1979), le stockage et archivage sur cassette, et les jeux vidéos. Malgré l’apparition des gammes concurrentes, comme celles de Commodore, et jusqu’à la vente des Apple Macintoch, Apple II resta longtemps le modèle de référence de l’ordinateur personnel, entré dans les foyers comme le véhicule d’une acculturation à l’informatique domestique.

Censé propulser les familles dans un mouvement général d’encapacitation économique et sociale, l’ordinateur personnel entrait en rupture avec la représentation courante d’une informatique à la fois puissante et encombrante, réservée à l’entreprise. Dans un monde où l’informatisation des secteurs tertiaires (banques et assurances) et industriels créait de grands bouleversements dans l’organisation du travail, l’informatique personnelle se présentait comme une part de « démocratisation » technique dans les foyers alors qu’elle était habituellement vécue dans l’entreprise comme l’application d’une stratégie autoritaire et hiérarchique.

L’historien Clifford Conner rapporte une communication privée avec Frederick Rodney Holt, l’un des piliers du développement d’Apple II, qui affirme (Conner 2011, 458) :

L’Apple II n’était pas une machine à écrire : c’était un instrument permettant de concevoir de beaux algorithmes. Les gens ne l’achetaient pas pour exécuter des programmes. Ils l’achetaient pour réaliser leurs propres logiciels. Avec les machines d’aujourd’hui, et leurs centaines de mégaoctets de code obscur, il n’est plus possible d’apprendre comment marche un ordinateur ni même d’apprendre à écrire du code. Mais en 1976, des gamins de douze, quatorze ans pouvaient réparer une machine qui ne fonctionnait pas.

Ce type de réflexion est très courant. Il s’agit de postuler que la connaissance du code informatique est un moyen d’appropriation de la machine, une forme de lutte contre l’aliénation technologique d’où résulterait un mieux-être social. Tout comme l’apprentissage des langages informatique devait être une opportunité de plein emploi et de paix sociale, suffirait-il, pour briser les chaînes de nos esclavages modernes, d’équiper les individus d’ordinateurs personnels ?

À la fin des années 1970, le mythe de l’ordinateur personnel obéissait au même schéma discursif entretenu durant la décennie précédente (Pfaffenberger 1988). La raison pour laquelle il était, parfois de bonne foi, imaginé comme un vecteur d’égalité sociale, c’est qu’il était le produit d’une éthique commune, celle des hackers de la première heure, opérant dans les universités sur des projets développement scientifiques et industriels, et dont le principal appétit était le partage collectif des savoirs et des techniques en dehors des contraintes hiérarchiques et académiques. Mais il était aussi le produit d’une autre génération de hackers, ceux sortis des institutions au profit de l’aventure entrepreneuriale (Agre 2002) et qui considéraient l’innovation du point de vue libéral voire, plus radicalement, d’un point de vue libertarien (Turner 2012). Si bien que ce discours, adressé en premier lieu à ceux qui avaient les moyens financiers d’acquérir un ordinateur personnel, rencontrait chez les cadres supérieurs des entreprises une approbation générale. En échange du prestige et de la distraction que promettait l’ordinateur personnel à toute la famille, on acceptait de faire pénétrer dans le calme foyer les obligations et les tensions du travail.

Adhésion

Le hacker, ingénieur hétérogène

Quels furent les vecteurs de l’adhésion générale à ces discours en faveur d’une informatique libératrice ? Autant il est toujours possible de centrer historiquement l’artefact « ordinateur » ou « informatique » autour de quelques personnages connus, autant l’adhésion culturelle qu’on pourrait traduire par « consentement au processus d’informatisation », en dépit des controverses (sur l’organisation du travail, par exemple), n’a jamais été traduite sur un mode consensuel et uniforme par un groupe d’acteurs bien identifiés. Au sens de la théorie de l’acteur-réseau (Callon 2006), l’hétérogénéité des acteurs-humains (hackers, décideurs politiques, chefs d’entreprises, communautés d’utilisateurs, etc.) autant que celle des acteurs-objets concernés (infrastructures de réseaux informatiques, machines informatiques, logiciels et langages de programmation, etc.) doivent nous amener à beaucoup d’humilité quant à l’identification des nœuds de traduction et des acteurs médiateurs (Akrich 2006) (objets techniques ou personnes) de l’acculturation informatique.

Lorsque nous parlons d’acteur-réseau, remarquons que l’approche des objets scientifiques et techniques à laquelle nous faisons référence date du début des années 1980, au moment où les dispositifs informatiques (réseaux et machines) devaient être considérés comme des dispositifs inaccomplis (et Internet est encore aujourd’hui un dispositif inachevé, nous y reviendrons) et n’ont fait que très rarement l’objet des études de sociologie des sciences et des techniques. Néanmoins, c’est justement pour cette raison que le concept d’hétérogénéité est si important, car il était pour ainsi dire incarné par les premières communautés d’ingénieurs-scientifiques des premiers âges de l’informatique, tout particulièrement les hackers, non parce qu’ils étaient porteurs d’un discours bien problématisé, mais parce qu’ils diffusaient des pratiques. C’est pour cette raison que les hackers ont été dès le début identifiés comme les principaux vecteurs d’une diffusion culturelle, d’un esprit, de l’informatique dans la société. C’est cette vision qui a fini par s’imposer comme un paradigme dans l’histoire de l’informatisation, avec toutes les valeurs positives qu’il véhiculait, jusqu’à parfois construire des récits, des mythes, dont le rôle consiste à sacraliser le rôle social des entreprises nées de cet esprit informaticien, de Apple à Google et des riches heures de la Silicon Valley.

Pour une approche systématique, nous devons nous limiter volontairement au concept, défini par John Law, d'ingénieur hétérogène (Law 1987), c’est-à-dire un acteur qui ne crée pas simplement des objets techniques, mais qui définit un nouveau cadre du rôle social, des représentations et des valeurs de cette technologie et de ceux qui l’emploient et la diffusent. Il faut cependant comprendre que cette diffusion n’est pas obligatoirement intentionnelle et elle est souvent moins le fait de volontés individuelles que de communautés de praticiens dont les activités et les techniques interagissent et s’enrichissent mutuellement sans cesse, des premiers phraekers aux bidouilleurs de génie piratant les réseaux commutés universitaires. L’apparition des pratiques informatiques en réseau a multiplié la diffusion des pratiques et démontré le potentiel libérateur des usages « contre-culturels » de l’informatique.

Dans un article, Janet Abbate propose dans un plaidoyer pour une étude STS (Science and Technology Studies) de l’histoire d’Internet : « Lorsqu’on observe à la fois les créateurs et les utilisateurs de matériels et de logiciels, on s’aperçoit que l’infrastructure et la culture ont amorcé une fusion » (Abbate 2012, 170). En effet, dans l’histoire de la révolution informatique, cette fusion engage à la fois l’innovation technologique, l’économie de production de ces technologies, et la figure de l’ingénieur hétérogène qui incarne à la fois la culture, l’économie et les pratiques bien qu’il s’auto-définisse comme révolutionnaire ou contre-culturel3. Le hacker est un programmeur dont le génie ne réside pas seulement dans la qualité de son travail mais aussi dans sa manière de traduire un ensemble de valeurs de la sphère informatique à la sphère sociale : le partage de l’information, l’esprit d’innovation (d’amélioration), les libertés d’usages des machines, l’idée qu’un « progrès technique » est aussi un « progrès social » dans la mesure où tout le monde peut y contribuer et en être bénéficiaire. Sa contre-culture ne s’exerce donc pas à l’encontre d’un discours dominant et largement en faveur de l’adoption de l’informatique dans toutes les organisations sociales, mais dans la tension entre l’appropriation de ces valeurs par les institutions et la défense de leur autonomie au niveau des pratiques sociales. C’est ce qui fait dire à Paul Baran (un des co-inventeurs de la communication réseau par paquets) dès 1965 que l’ingénieur informaticien a l’opportunité d’exercer « une nouvelle forme de responsabilité sociale. » (Baran 1965)

Comment exercer cette responsabilité ? Sur ce point, on peut prendre l’exemple du projet Community Memory qui, entre 1973 et 1975 s’est fait le support d’une telle ambition sur un mode communautaire (Doub 2016). Les fondateurs du projet (Judith Milhon, Lee Felsenstein, Efrem Lipkin, Mark Szpakowski) entendaient créer un système de communication non hiérarchisé où les membres pouvaient partager de l’information de manière décentralisée. Techniquement, le projet était le pilote d’un mini-réseau dans la région de la Baie de San Francisco et le succès qu’il rencontra enthousiasma ses initiateurs tant par l’engouement du public à pouvoir disposer d’un réseau d’information communautaire mais aussi par la créativité spontanée de ce public pour échanger des informations (Colstad and Lipkin 1976). Michael Rossman, journaliste, ex–activiste du Free Speech Movement et qui fréquentait alors assidûment le projet Community Memory, affirma à son propos : « le projet est indéniablement politique. Sa politique est centrée sur le pouvoir du peuple - son pouvoir par rapport aux informations qui lui sont utiles, son pouvoir par rapport à la technologie de l’information (matériel et logiciel). » (Rossman 1976)

Community Memory a fait des émules au-delà de San Francisco et ses choix techniques étaient eux aussi des choix politiques : le projet était hébergé par Resource One, une organisation non gouvernementale créée lors de la crise de 1970 et l’invasion controversée du Cambodge par l’armée des États-Unis en avril. Il s’agissait de mettre en place l’accès à un calculateur pour tous ceux qui se reconnaissaient dans le mouvement de contre-culture de l’époque. Avec ce calculateur (Resource One Generalized Information Retrieval System – ROGIRS), des terminaux maillés sur le territoire américain et les lignes téléphoniques WATS, les utilisateurs de Community Memory pouvaient entrer des informations sous forme de texte et les partager avec tous les membres de la communauté, programmeurs ou non, à partir de terminaux en accès libre. Il s’agissait généralement de petites annonces, de mini-tracts, etc. dont les mots-clés permettaient le classement.

Pour Lee Felsenstein, le principal intérêt du projet était de démocratiser l’usage de l’ordinateur, en réaction au monde universitaire ou aux élus des grandes entreprises qui s’en réservaient l’usage. Mais les caractéristiques du projet allaient beaucoup plus loin : pas de hiérarchie entre utilisateurs, respect de l’anonymat, aucune autorité ne pouvait hiérarchiser l’information, un accès égalitaire à l’information.

Community Memory était une émergence technologique de la contre-culture américaine. En tant qu’objet technique et idéologique, il s’opposait surtout à tout contrôle de l’État, dans un climat de méfiance entretenu par les épisodes de la guerre du Vietnam ou le scandale du Watergate. Pour y accéder, il fallait que l’on accepte de participer à et d’entrer dans une communauté, seule à même de rendre des comptes, indépendamment de toute structure institutionnelle. Ce système de pair à pair s’oppose frontalement à toute intention de contrôle et de surveillance externe.

C’est à travers ce type de projets que les hackers furent généralement identifiés, du moins dans les représentations populaires. Tous les hackers n’appartenaient pas à la contre-culture, du moins tous ne se prêtaient pas, dans les rues, à des manifestations contestataires. Mais tous croyaient sincèrement en une chose : l’informatique et plus généralement les ordinateurs, doivent améliorer notre quotidien. Lee Felsenstein et ses amis en étaient persuadés eux aussi, persuadés que ce modèle d’échanges d’information et de savoir-faire constituait un projet social.

Le côté obscur

Dispositifs techniques et intérêt social interagissent mutuellement. Cependant, cette affirmation que nous posons aujourd’hui comme une évidence n’est pas aisée à expliquer dans l’histoire des assimilations sociales des dispositifs informatiques. En l’espace d’à peine dix ans, la représentation commune du rapport entre utilité et contraintes de l’ordinateur a radicalement changé lors de l’apparition de l’ordinateur personnel sur le marché de la consommation des foyers.

Ce changement s’est déroulé en deux temps : dans un premier temps, une critique générale des systèmes informatiques des entreprises conçu comme une « décapacitation » du travailleur, puis, dans un second temps, une adoption de l’informatique individuelle sur le marché de la consommation, motivé par le discours d’encapacitation issu à la fois de la culture hacker et du marketing. Bien qu’une étude historique plus approfondie soit hautement souhaitable, on peut étudier ces deux étapes indépendamment des terrains géographiques car, comme nous allons le voir, un discours commun dans la « culture occidentale » se dégage autour d’une conception déterministe de la technologie.

Comme nous l’avons vu plus haut, les années 1960 connurent une embauche massive de personnels visant d’une part à apprendre les langages informatiques et d’autre part intégrer les systèmes d’information (le passage de la mécanographie à l’automatisation du travail de la donnée). Du point de vue managérial, toutefois, le thème dominant allait jusqu’à fantasmer sur la capacité des systèmes d’information à automatiser entièrement une entreprise (Haigh 2001), et manière plus prosaïque, on voyait clairement émerger une nouvelle sorte d’ingénieurs, éloignés de la programmation et du matériel : les spécialistes des systèmes d’information.

Face à ces bouleversements radicaux, tout particulièrement dans les grandes entreprises qui accomplissaient leur conversion informatique, on pouvait s’attendre à ce que les syndicats manifestent bruyamment leur méfiance. Jusqu’à la fin des années 1960, ce ne fut pas le cas dans les pays occidentaux pour plusieurs raisons. Aux États-Unis, l’évolution technologique était essentiellement comprise comme la clé des gains de productivité et de la diversification des activités, en particulier la technologie de pointe, celle justement qui permettait d’avoir des entreprises multinationales, monopolistiques, leader de l’automatisation et de l’informatique, surtout pourvoyeuses d’emplois qualifiés. Du côté Européen, à l’instar de la France, on remédiait assez lentement au retard technologique, notamment à cause de la conversion difficile de l’économie agricole et le trop grand nombre de petites entreprises.

À la lecture des archives du Trades Union Congress (TUC) on voit cependant que les syndicats de Grande Bretagne étaient en revanche très attentifs à la question mais adoptaient une posture linéaire depuis le milieu des années 1950 (où le congrès déclare se refuser à toute interprétation alarmante au sujet de l’automation dans les entreprises4), jusqu’à la mise en place en 1964 d’un sous-comité chargé de veiller à la mécanisation des bureaux et au développement de l’informatique d’entreprise (avec des points de vigilance au sujet des éventuelles suppressions de postes et l’augmentation du temps de travail5). Mais si les positions officielles du TUC étaient toujours très conciliantes avec les politiques d’avancement technologique du gouvernement, ce n’était pas le cas pour d’autres syndicats membres tels l’Amalgamed Engineering Union (regroupant des ingénieurs) dont le Comité National vota une résolution très contraignante dont les deux premiers points impliquaient de ne pas accepter de licenciement en cas d’automatisation de tâches, et pour tout changement organisationnel, obliger une consultation préalable des syndicats6.

Du point de vue des travailleurs, en effet, le sujet de l’informatique d’entreprise était alors un sujet complexe, une affaire d’ingénieurs qui s’occupaient des grandes machines dont le nombre se chiffrait seulement en milliers à l’échelle mondiale. Par contraste, la décennie des années 1970, avec la venue sur le marché des mini-ordinateurs, était une période de digestion des transformations des organisations qui s’informatisaient à une vitesse exponentielle, à mesure que les coûts investis dans ce secteur baissaient drastiquement.

Dès lors, loin des préoccupations de rentabilité, les répercussions sur l’organisation du travail furent ressenties tantôt comme une forme de taylorisation du travail de bureau, tantôt comme une négation du travail vivant (au sens marxiste) du travailleur, une remise en cause de son accomplissement personnel au profit d’une automatisation routinière, surveillée et guidée par des machines, en somme un travail « électronicisé » (Zuboff 1988).

Une prophétie se réalisait, celle de Charles Babbage lui-même qui affirmait en 1832 (Babbage 1963, 191) :

La division du travail peut être appliquée avec le même succès aussi bien aux opérations mentales qu’aux opérations mécaniques, ce qui assure dans les deux cas la même économie de temps.

C’est cette taylorisation mentale que les syndicats dénonçaient avec force. Pour certains, l’informatique était le « Cheval de Troie » de la taylorisation, en particulier du point de vue de l’ingénieur devenu un appendice pensant de la machine, à la capacité d’initiative réduite et par conséquent soumis à l’organisation et au pouvoir des organisateurs. L’informatique devenait l’instrument d’un pouvoir de classe là où elle était censée libérer les travailleurs, développer l’autonomie créatrice et démocratiser les organisations (Cooley 1980).

Ce point fut problématisé entre 1975 et 1977 par l’une des figures les plus connues de la théorie du contrôle, Howard H. Rosenbrock. Selon lui, la formulation mathématique du contrôle des processus ne peut être exhaustive et l’approche algorithmique ne peut être que le résultat d’un compromis entre des choix existants. Le choix ne se réduit jamais entre ce qui est entièrement automatisable ou non. Le principal biais du contrôle moderne est selon lui une distanciation de l’ingénieur par rapport à son objet : parce que nous voulons toujours une solution unique, optimale, les procédures tendent à restreindre les objectifs parce qu’elles n’intègrent pas, ou mal, les éléments qualitatifs et les jugements de valeurs. Si bien que, à l’ère des ordinateurs, le constat est partagé : l’ordinateur devient un « manuel de conception automatisé » (Rosenbrock 1977), ne laissant que des choix mineurs à l’ingénieur tout en donnant naissance à un brouillage entre la gestion des process et l’application de la technologie.

Entre la réduction de l’autonomie créatrice et le terrain gagné par la taylorisation mentale, tout particulièrement dans les secteurs tertiaires, les syndicats commencèrent à élaborer une réflexion ambivalente.

D’un côté il existait des projets de transformation organisationnelle dont l’objectif était très clairement guidé par une conception hacker de partage de connaissances et de pratiques. On peut citer sur ce point les projets scandinaves (en Norvège, au Danemark et en Suède) menés à partir de 1975, à l’initiative conjointe des chercheurs (on retient le rôle phare de Kristen Nygaard) et des unions syndicales afin d’influencer les développements locaux des technologies informatiques sur un mode démocratique, en alliant les contraintes de rentabilité, l’accroissement des compétences des travailleurs et la qualité de vie au travail. Le célèbre projet Utopia (Sundblad 2011), entre 1981 et 1986, était la continuité logique de projets précédents et regroupait l’ensemble des syndicats scandinaves des travailleurs graphiques (Bødker et al. 2000). Néanmoins, selon les participants, les expériences montraient que les technologies de productions en place constituaient des obstacles souvent infranchissables pour que les demandes des syndicats (être associés aux changements organisationnels, co-développer des dispositifs de production, faire valoir leur expertise, accroître leurs compétences, etc.) puissent réellement aboutir. Ce que montraient ces projets en réalité, c’était que les nouvelles technologies limitent les revendications des travailleurs et reflètent davantage les intérêts des entreprises (Lundin 2011). Les technologies, et plus particulièrement l’informatique et les systèmes d’information sont chargés de valeurs, et elles ne sont pas toujours socialement acceptables.

Face à l’avancement des technologies dans l’entreprise, les syndicats prenaient de plus en plus conscience que si l’informatisation de la société s’accommodait d’un discours positif sur le progrès social et le contrôle des technologies, les travailleurs n’avaient pour autre solution que de se soumettre à un nouvel ordre négocié où les technologies leur étaient justement incontrôlable. Ce paradoxe était essentiellement nourri d’une idée répandue alors : la technique détermine l’ordre social.

Éclairant l’état d’esprit des chefs d’entreprises à propos de l’adoption des systèmes de traitement de données informatisés dans les organisations, on peut noter ces mots de Franco Debenedetti, directeur général adjoint de Olivetti, lors d’une conférence organisée par le Financial Times en 1979, à propos de l’avenir de l’EDP (Electronic Data Processing) (Cité par S. Smith 1989) :

Il s’agit d’une technologie de coordination et de contrôle d’une main-d’œuvre, les cols blancs, que l’organisation (traditionnelle) ne couvre pas (…). En ce sens, l’EDP est en fait une technologie organisationnelle, et comme l’organisation du travail elle a une double fonction de force productive et d’outil de contrôle pour le capital.

Si bien que, d’un autre côté, face à des projets de transformation technologique où la négociation se concentrait plus sur l’aménagement du poste informatique que sur le rôle de l’informatique dans la transformation du travail, des voix réfractaires se faisaient entendre.

Comme le montre Tali Kristal pour ce qui concerne l’industrie américaine des années 1970 (Kristal 2013), la face « noire » des technologies informatiques était d’une part le fait de l’inégalité de classe qu’elles induisaient historiquement dans l’entreprise qui s’informatise tout en diminuant le pouvoir de l’action syndicale, mais aussi en dissociant le travail de l’expertise des cadres intermédiaires et des ingénieurs. En somme, l’informatisation a été aussi considérée comme un mouvement capitaliste construit sur une concentration des pouvoirs et la diminution des contre-pouvoirs dans les institutions de l’économie.

Pour prendre l’exemple de la France, le « mai des banques » en 19747, fut un épisode pour le moins surprenant : dans un secteur où se jouait déjà depuis des années un processus d’informatisation qui promettait à la fois qualité de travail et gains de productivité, les travailleurs ne se plaignaient pas seulement de leurs conditions de travail et salariales mais en interrogeaient aussi le sens. En effet le secteur bancaire n’avait pas complètement terminé ce processus d’automatisation si bien que le passage à l’informatique devait passer par une forme assumée de taylorisation de travail de bureau et, par extension, une déqualification d’une partie des employés (Moussy 1988). Préalablement, une augmentation de la demande de produits bancaires résultant de la réforme Debré de 1966 (une déréglementation de la banque qui introduisit une concurrence au nombre de guichets) avait suscité une embauche en nombre d’employés dont la qualification était de niveau moyen à bas : ces mêmes employés qu’il fallait former pour parachever la modernisation de la banque tout en maîtrisant la masse et le coût salarial. À une déqualification générale correspondait alors au début des années 1970 (et ce, jusqu’au milieu des années 1980) une employabilité toute aussi concurrentielle de jeunes diplômés sur-qualifiés pour le travail demandé, alors qu’en même temps la formation interne peinait à suivre le mouvement. Mutation informatique et déréglementation furent les principales causes de ce mouvement de 1974, dont le nom est une référence aux grèves de « mai 1968 », débuté en janvier au Crédit Lyonnais puis à la Banque de France et suivi presque aussitôt et bruyamment par les employés d’autres établissements jusqu’en avril (Feintrenie 2003).

On connaît les positions de la CFDT (Confédération française démocratique du travail) qui s’impliqua très tôt dans ce conflit du secteur bancaire. Suivant les positions d’autres syndicats en Europe, elle s’était lancée depuis quelque temps dans une réflexion de fond sur le rapport entre informatique et travailleurs. Le « mai des banques » fut un élément déclencheur qui donna lieu avec succès à un colloque en 1976 intitulé « Progrès technique, organisation du travail, conflits ». Organisé par le secteur « Action Revendicative » de la CFDT et le trio Jean-Louis Missika, Jean-Philippe Faivret – alias Philippe Lemoine – et Dominique Wolton, il donna lieu à une publication au Seuil : Les dégâts du progrès. Les travailleurs face au changement technique. Il s’agissait de penser ce nouveau rapport à la technologie dans des secteurs d’activité très différents en prenant en compte l’impact social et économique de l’informatisation et son articulation avec l’organisation du travail. L’auteur de la préface, Edmond Maire (secrétaire général de la CFDT de 1971 à 1988), résume ainsi (Maire 1977) :

Il suffit d’avoir en mémoire les grandes grèves des banques et des PTT en 1974 où les OS du tertiaire sont apparus en pleine lumière, celles de Renault au Mans sur le travail à la chaîne, de Péchiney-Noguères contre le chantage technologique, d’Usinor-Dunkerque contestant la prétendue impossibilité technique d’assurer la sécurité ; et, au-delà, la mise en cause croissante du travail posté, de la dangereuse accélération du programme d’énergie nucléaire, de l’impérialisme de l’informatique et du danger qu’il fait courir aux libertés.

Cet « impérialisme de l’informatique » est vécu dans le monde du travail des années 1970 de deux manières. Premièrement, il s’agit de mettre en exergue l’informatique comme outil de contrôle. Mais ce contrôle n’est pas celui du contremaître ou de l’informatique de gestion. Il s’agit d’un contrôle qui change radicalement l’organisation même du travail parce qu’il s’agit d’automatiser les tâches pour qu’elles deviennent des sources d’information les plus exhaustives possible. Deuxièmement, ces données ont pour effet d’intellectualiser le travail, c’est-à-dire qu’elles détachent le travail de la production. Comme le montrent les auteurs : « les tâches de contrôle et de surveillance remplacent les tâches de production. » (Missika, Faivret, and Wolton 1977, 41)

Le discours était le même pour ce qui concernait le secteur bancaire et ajoutait la dimension supplémentaire du service rendu à la clientèle qui, considéré du point de vue de l’informatisation, présentait ce danger de la surveillance des individus (Missika, Faivret, and Wolton 1977, 101) :

L’informatique n’est pas seulement une « solution » aux difficultés rencontrées en raison du développement bancaire, elle est avant tout la solution patronale : pour tout autre, elle pose plus de problèmes qu’elle n’en résout. Pour le personnel, elle signifie la standardisation des opérations et la scission entre une masse déqualifiée et un petit noyau super-qualifié. Pour la clientèle, elle constitue une action commerciale anonyme et un risque pour ses libertés.

Vie privée : inquiétudes

Choc pétrolier et crise économique, augmentation du chômage et prolétarisation intellectuelle, ont fait des années 1970 une décennie où les promesses de la technologie devenaient aussi des menaces. S’y adapter devenait un enjeu crucial pour les travailleurs : cette prise de conscience était celle de l’impact radical du changement technologique sur la société.

Démonstration de cet impact dans les représentations communes, en France, le plan « informatique pour tous » (IPT) lancé en 1985 par le ministre Laurent Fabius ne poussait pas seulement la société Thomson à des prétentions au niveau de la grande IBM. Selon les mots du ministre, ce plan entendait « donner à notre société la chance de mieux dominer l’avenir » (Fabius 1985). Le message était si bien reçu que, dans les enquêtes « Informatique pour tous », les enseignants démontraient par leurs réflexions qu’ils avaient profondément intégré le rapport entre société et informatique : pour eux le plan IPT ne représentait pas un moyen de permettre à des élèves de découvrir l’informatique, mais d’intégrer les usages déjà existants dans le domaine de l’enseignement. En somme, une nécessaire adaptation de l’école à la société (Narcy 1986) :

S’il n’est pas surprenant qu’ils voient presque unanimement en elle un instrument motivant pour les élèves, il est plus étonnant qu’ils la considèrent davantage comme une « nouvelle nécessité culturelle » que comme un outil pédagogique paré des vertus du « rattrapage », de « l’individualisation » ou de la « rigueur intellectuelle ». C’est, un peu comme si l’informatique devait, avant tout, être présente dans l’enseignement parce qu’elle est présente dans la vie sociale, indépendamment de ses apports spécifiques.

Pour qu’en 1985 les enseignants français puissent à ce point admettre que l’adoption générale de l’informatique dans la société pousse l’école à s’adapter aux usages, et non les créer, c’est parce que les représentations communes allaient dans le sens d’un certain déterminisme technologique : la technologie était présente et c’était à la société de s’y adapter.

Les critiques syndicales des transformations technologiques n’étaient pourtant que rarement technophobes. Simplement, elles avaient tendance à suivre la même idée qu’à une autonomie de la technologie (au sens de Jacques Ellul) il fallait répondre par négociations et compromis alors même que les fonctions de contrôle et de surveillance des technologies en question étaient considérées comme un instrument de pouvoir patronal. Même dans les projets où la transformation technologique pouvait paraître démocratique, l’idée qu’elle puisse être contrôlable relevait davantage de la croyance que de la soumission à un nouvel ordre capitaliste. De ce point de vue on peut mieux comprendre la construction d’une philosophie déterministe de la technique à cette période cruciale (voir section suivante).

Ceci était d’autant plus paradoxal que le rapport entre vie sociale et informatique contenait un point particulièrement problématique depuis le milieu des années 1960 : face aux bases de données informatisées et les menaces qu’elles portaient sur la vie privée, le débat public n’a cessé de croître. Là où il fut le plus visible, ce fut sur le territoire nord-américain à partir du milieu des années 1960 pour au moins deux raisons : c’est là que s’est industrialisé l’exploitation des bases de données informatiques (Atten 2013), surtout dans les secteurs bancaires, assurantiels, et dans l’administration publique, et c’est là qu’on peut identifier dans les publications (monographies, articles et rapports) une construction de la privacy à partir d’une définition juridique de la vie privée datant de la fin du XIXe siècle (The right to be let alone).

Pendant près de 50 ans jusqu’à nos jours (et nous pouvons gager que la question est loin d’être réglée), la construction de la privacy est le fruit d’une convergence entre l’histoire technique des infrastructures informatiques, l’histoire d’une économie capitaliste de la donnée, et l’histoire de la lutte pour la protection de la vie privée dans le débat public et les pratiques de régulation gouvernementales (Masutti 2020). Face aux abus des pratiques bancaires et des sociétés de crédit constatés par les consommateurs, l’État fédéral américain mis en place le Fair Credit Information Act en 1970 puis, résultat des débats tenus au Congrès sur l’usage des banques de données publiques, le Privacy Act de 1974 fut voté à son tour.

Les publications furent abondantes au sujet des « menaces sur la vie privée » que représentaient les bases de données. Employant une rhétorique qui emprunte chez Georges Orwell et Max Weber un appareillage conceptuel faisant planer les dangers d’une « société du dossier » à venir, des auteurs comme Alan Westin proposèrent au début des années 1970 une définition de le vie privée comme « une exigence à décider soi-même comment et quand les informations qui nous concernent peuvent être communiquées » (Westin 1967, 7). Peu à peu un courant de pensée se construisit et s’internationalisa au fur et à mesure que l’informatisation gagnait tous les secteurs économiques, que l’industrie de l’informatique devint une industrie faite de multinationales spécialisées, et que l’emploi des bases de données et des plateformes se généralisait jusqu’à configurer ce que Foster et Chesney nomment le capitalisme de surveillance, fruit de la jonction historique de l’impérialisme américain, de l’économie politique et de l’industrie du numérique (Foster and McChesney 2014).

Daniel J. Solove (Solove 2002), s’efforce en 2002 de synthétiser la privacy en y incluant la définition « primaire » de la vie privée au sens de la Common Law américaine (le droit d’être laissé tranquille) et y ajoutant autant de contre-propositions à l’économie de la surveillance : l’accès limité à la personne, le droit au secret, le contrôle des renseignements personnels, etc. Et c’est en 2014 avec les Révélation d’Edward Snowden que le monde apprit que malgré les nombreux débats et lois promulguées durant des années, des agences publiques et des entreprises multinationales et monopolistique de l’économie numérique avaient organisé un vaste espionnage de masse à l’échelle de la planète.

La construction de la privacy est le fruit de plus 50 ans de combats, de revendications et de créativité juridique. Si bien que l’avènement tant craint de la « société du contrôle » (de décider, d’agir, de penser, d’être) est surtout le fruit d’un imaginaire collectif tandis que la surveillance est devenue le moteur même de l’économie, translation de la surveillance des process de production de l’entreprise à la surveillance comportementale des consommateurs, ordonnancement des modèles monopolistiques et exploitation des données dans un contexte hautement concurrentiel dominé par le marketing et les objectifs de rentabilité (Zuboff 2019).

Ces débats sur la surveillance donnèrent lieu à de nombreuses études. Les surveillances studies plongent leurs racines dans cette histoire des années 1970 où l’on commençait à interroger notre rapport à l’informatique sous l’angle de l’exploitation de la donnée. Dans la mesure où des données peuvent être extraites de nos comportements pour être traitées de manière automatisée afin de créer de la valeur, les comportements peuvent être alors considérés comme des ressources primaires. Cette assimilation du comportement implique deux choses : la première est un déplacement du concept de comportement qui n’est plus seulement la manifestation, compréhension et l’anticipation des actions pour un observateur, mais la transformation de cette manifestation en indicateurs quantifiables et assimilables par la machine, c’est à dire les données personnelles. La seconde, c’est l’idée que l’avancement technologique permet la multiplication des indicateurs, l’accroissement des données quantifiables, et le passage de l’anticipation à la prédictibilité : le degré d’intrusion dans la vie privée ne s’évalue plus seulement en fonction de l’observateur mais en fonction de la technologie mobilisée pour cela.

En réponse à l’électronicisation de la vie privée et l’algorithmisation du traitement des données personnelles, les combats pour la vie privée ne se placent plus seulement sur terrain du droit, mais confrontent le droit et la technologie selon deux tendances possibles. La première consiste à maintenir une tradition contractualiste, celle que les philosophes du droit comme John Rawls ont travaillé durant les années 1970 (Rawls 1997) en articulant éthique et justice, où la liberté individuelle prévaut. C’est ce qui permet d’expliquer pourquoi les voix les plus retentissantes comme Allan Westin utilisaient cette double rhétorique du repoussoir orwellien (le totalitarisme contre les libertés) et du repoussoir weberien (la société du dossier, la bureaucratie contre une perspective américanisante d’un national-libéralisme supposé de Max Weber (Draus 1995)). La seconde constitue une réaction à la quantification par une institutionnalisation de la vie privée, la privacy : la sanctuarisation de la vie privée serait le fondement d’un nouvel équilibre entre la société et ses institutions, le droit et une économie capitaliste qui implique l’usage illimité des technologies au nom de la rentabilité et du profit illimité.

À ceci près que pendant que les luttes pour la vie privée s’organisaient sur de multiples fronts (l’État intrusif, les banques, le marketing, etc.), on admettait que le questionnement sur la technologie était une affaire de philosophie et non pas d’usages puisque le déterminisme technologique ambiant appelait de ses vœux l’informatisation de la société et sa projection vers un avenir prometteur. Face au « progrès technologique », il y avait comme un parfum de défaite.

Ce rapport à la vie privée, est un trait caractéristique d’une société moderne qui, dans son rapport à la technique, en vient à sacraliser ce qui cristallise les transformations sociales. Ainsi l’État n’est pas seulement un système de gouvernance fait de dispositifs juridiques, moraux, ou policiers. L’État moderne est un État sacralisé dans la mesure où il est peut être assimilé à une entreprise de sécularisation des concepts religieux (Schmitt 1988 ; Aron 1944). Cet exemple est le plus évident. Cependant, selon les points de vue, d’autres aspects de notre modernité sont réputés sacralisés. Ainsi la fétichisation de la marchandise selon Guy Debord, qui montre de quelle façon l’idéologie capitaliste est communément cautionnée (Debord 1992). Il reprend ainsi l’idée de Karl Marx qui montrait que le rapport entre recherche du bonheur et bien matériel passait par l’illusion qu’une marchandise avait une valeur par elle-même8. Le thème traverse aussi toute l’œuvre de Jacques Ellul qui, de manière rétroactive, montre que la technique en désacralisant le monde (nature comme spiritualité) est devenue par un effet de renversement le seul recours de l’homme au sacré, la technique sacralisée (Ellul 1954).

Enfin, la vie privée comme ressource numérique relève aussi d’un autre thème philosophique, plus ontologique, celui de l’arraisonnement heideggerien (Heidegger 1958). Si on suit ce philosophe, la technique moderne n’est plus l’art, elle est devenue ce rapport paradoxal entre la volonté de puissance et l’exercice technique, soumission de l’homme à son destin technicien, non plus sujet mais être technique, par l’instrumentalisation, l’arraisonnement du monde qu’il ne peut plus voir que comme une ressource. Les Jacques Ellul ou Guy Debord ont en réalité cherché à montrer que l’homme pouvait encore échapper à ce destin funeste en prenant conscience ici de la prégnance de l’idéologie capitaliste et là d’une autonomie de la technique (hors de l’homme). Cependant, on ne peut s’empêcher de penser que l’extraction de données à partir de la vie privée est une forme d’arraisonnement poussé à l’extrême, sur l’homme lui même, désormais objet de la technique.

Le discours du déterminisme technologique qui implique que la société doit s’adapter à la technique prend une dimension tout à fait nouvelle dans le contexte de l’informatisation de la société. À travers l’histoire de la « Révolution Informatique », ce cauchemar heideggerien est né d’un discours aliénant, où l’ordinateur devient l’artefact central, et contre lequel la simple accusation d’aliénation technologique n’est plus suffisante pour se prémunir des dangers potentiels de cette désormais profonde acculturation informatique. Les combats pour la vie privée, loin d’être technophobes, sont autant de manifestations de l’inquiétude de l’homme à ne pouvoir se réapproprier la logique autonome de la technique.

La grande conjecture

Le déterminisme est une tradition

Si on a longtemps accusé à tort Jacques Ellul d’être déterministe, c’est pour deux raisons. D’abord parce que c’est un trait caractéristique de sa pensée que de montrer que la technique est déterminante dans les transformations sociales. Cependant cela n’implique pas pour autant que tout fait social soit explicable par la technique. Au contraire, ce qui alarme Ellul c’est justement que cette technicisation de la société est en train de se produire, et que la technique moderne devient autonome (et l’est déjà depuis un certain temps au moment où il écrit).

L’autre raison, c’est l’adoption de la pensée de Ellul aux État-Unis par une importante diffusion de son livre La Technique ou l’enjeu du siècle (Ellul 1954) sous le titre The technological society, publié en 1964 et introduit par l’éminent sociologue Robert K. Merton et sur les conseils d’Aldous Huxley (Ellul 1964, sec. 1). Dans sa préface, R. K. Merton le compare à Oswald Spengler et Lewis Mumford, et soutient qu’Ellul « propose un système de pensée qui, moyennant quelques modifications critiques, peut nous aider à comprendre les forces qui se cachent derrière le développement de la civilisation technique qui est la nôtre ». Certes la société se technicise, la délibération devient rationalisation-quantification, l’économie devient pure concentration de capital et planification forcenée où l’analyse laisse place à la technique, tout ceci est contenu dans l’œuvre d’Ellul, et Merton le remarque bien. Mais au-delà d’une mise en garde contre le réflexe technophobe, c’est aussi d’une lecture techniciste de l’histoire qu’Ellul nous invite à se méfier (même si la technique joue malgré tout chez Ellul un rôle primordial et presque normatif dans sa propre lecture de l’histoire). L’absorption de l’œuvre d’Ellul aux États-Unis a certainement été en quelque sorte victime de cette lecture trop techniciste.

L’historien Merritt Roe Smith, après avoir travaillé des années sur l’histoire des techniques en Amérique, montre à quel point le déterminisme technologique imprègne la culture américaine au moins depuis le XVIIIe siècle (M. R. Smith 1994). Les visions technocratiques issues des discours politiques impliquent ainsi depuis des centaines d’années l’idée que les innovations technologiques ne sont pas seulement des illustrations du « progrès en marche » mais sont autant de preuves de cette marche du progrès, en particulier dans notre quotidien. Selon M. R. Smith cette vision s’est disséminée dans toutes les sphères intellectuelles, des politiques aux écrivains en passant par les grands industriels. L’avènement de la publicité au début du XXe siècle marqua un virage décisif : le progrès n’était plus simplement le synonyme de l’espoir industriel, la technologie était « devenue la cause du bien-être humain ». Face à ce refrain si profondément intégré, les auteurs les plus critiques tel Henri D. Thoreau qui prétendait (avant Heidegger) que les hommes étaient « devenus les outils de leurs outils » (Thoreau 1922), ont pu laisser un héritage littéraire pertinent. Cependant, d’après M. R. Smith, ce furent trois auteurs qui produisirent aux États-Unis un appareillage critique central, bien que contenant encore des bribes de déterminisme puisqu’ils reconnaissent implicitement que la technique est une force agissante qui modèle l’histoire : « Lewis Mumford, Jaques Ellul et Langdon Winner ».

Dès lors, que peut-on opposer à des siècles où le paradigme dominant implique de penser toute avancée technique comme un déterminant social décisif, central, voire absolu ? On sait bien depuis l’avènement des STS que ce n’est pas le cas mais encore une fois nous cherchons ici à comprendre le discours dominant qui n’est manifestement pas celui de l’historien éclairé mais auquel il est finalement toujours soumis. De fait, aux États-Unis comme en Europe, le mantra récité durant les trente années qui suivent l’apparition de l’industrie informatique est celui qui tient l’ordinateur comme une technologie clé de l’histoire. Ce peut être le résultat, pour reprendre la pensée de Bernard Stiegler, que la technologie a toujours été pensée d’après la tradition antique comme un « dehors » auquel répondait le « dedans » de la philosophie, le savoir, la connaissance dont la technique n’est au plus qu’un dérivé auxiliaire. Or, avec l’avènement de l’ordinateur et de la mise en réseau des machines, c’est la communication et donc le langage, véhicule de ce « dedans », qui s’est mis à dépendre fondamentalement de la technique.

Les historiens dans leurs travaux plus récents ne furent pas exempts de cette manière de considérer la technique comme un déterminant, certes rarement unique ou exclusif, mais autonome, même lorsqu’ils attribuaient un rôle décisif aux interactions sociales et aux acteurs des transformations techniques. Par exemple l’historien Paul E. Ceruzzi, dans la conclusion de sa grande histoire de l’informatique moderne, revient sur cette modernité. Il l’exprime comme un processus autonome de remplacement d’une technologie par une autre. Pour lui, l’histoire des ordinateurs et des réseaux est celle de deux prises de contrôle successives de l’analogique par le numérique. La première a été identifiée au début des années 1970 lorsque les ordinateurs ont remplacé les circuits électroniques analogiques par la programmation et la miniaturisation. La seconde est Internet, mariage de tout le secteur des communications avec l’informatique en lieu et place des télécommunications analogiques. Une prise de contrôle validée « par tout le spectre politique et culturel, par Newt Gingrich, Al Gore, Stewart Brand, feu Timothy Leary, la ‘génération X’ et de nombreuses autres personnes » (Ceruzzi 1998, 347).

Pourtant, au cours des années 1960 et 1970, la manière dont on concevait la dynamique du changement technologique était le résultat de l’observation de ce qui était en train de se passer dans l’industrie : la spécialisation toujours plus croissante des entreprises, et en particulier l’apparition des entreprises dites de « haute technologie » ou « de pointe », et l’informatisation de cette industrie qui permettait d’accroître la production et travailler en réseau (là où Ford maîtrisait sa chaîne de A à Z suivant un vieux modèle, les secteurs les plus technologiquement avancés travaillaient la coopération).

Ce changement permettait d’appréhender différemment le déterminisme technologique. Ce fut le cas de Robert L. Heilbronner qui publia un article de référence en posant la question frontalement : les machines font-elles l’histoire (Heilbroner 1967) ? Il montre que si la technologie influence l’ordre social, il y a comme un processus d’aller et retour entre l’innovation et un aspect fondamental de l’organisation sociale, la production. C’est pourquoi on peut qualifier le déterminisme de R. L . Heilbronner de « déterminisme doux ». En effet, pour lui, ce qui fait que les développements technologiques sont prévisibles, ce n’est pas parce qu’ils sont les fruits d’une application mécanique de la science sur la technique, mais le résultat d’une organisation de la production adéquate pour atteindre un stade supérieur de technologie : division du travail, spécialisation des industries et coopération. Et cette organisation est elle-même dépendante du capital mobilisé pour atteindre une congruence efficace entre les fonctions industrielles diversifiées et coopérantes. Le capitalisme autant que la science conditionne la production technologique, ce qui fait de la technologie un médiateur social qui définit les caractéristiques de la société où elle se développe : la composition de la population active (spécialisations, compétences) et l’organisation hiérarchique du travail. Si bien que dans l’histoire récente du capitalisme, là où J. Ellul pointait une technique qui s’autonomise, R. L. Heilbronner montre que si le capitalisme est le stimulant d’une technologie de production, l’expansion de la technologie dans le système de marché prend un aspect automatique à bien des égards parce que production devient synonyme de production technologique dans un système concurrentiel et de course à l’innovation.

Choisir entre antériorité ou postériorité de la technique par rapport au changement social devient un problème qui a fait son temps. La question est de savoir comment la technique est conçue comme un intermédiaire entre capitalisme-productivisme et changement social. Cependant, hors de l’ombre de ce tout technique, l’historien Lewis Mumford proposait quasi simultanément à la parution de l’article de R. L Heibronner, encore une autre manière d’envisager la technique dans Le mythe de la machine (Mumford 1973). Reléguant le couple capitalisme-machinisme au rang d’épisode négligeable dans l’histoire de l’humanité, Mumford resitue le rapport à la technique sur le temps long, depuis la préhistoire et l’émergence des États et des régimes de gouvernement où la technique apparaît comme le véhicule du pouvoir, une mégamachine (c’est ce qu’un Serge Latouche affirmera plus tard (Latouche 1995) en assimilant technique et culture9). Mieux encore, pour L. Mumford, le rôle de la technique avait largement été fantasmé et cette dissonance entre société et technique, il l’avait déjà expliqué dans Technique et civilisation en 1934 en ces termes (Mumford 1950, 35) :

En fait, la nécessité de promouvoir sans cesse des changements et des améliorations — ce qui est la caractéristique du capitalisme — a introduit un élément d’instabilité dans la technique et empêché la société d’assimiler ces perfectionnements et de les intégrer dans des schémas sociaux appropriés.

Mais dans la (ou les) mégamachine(s) qu’il décrit en 1967, tout est déjà compris : division du travail, exploitation des classes, pouvoir centralisé, puissance militaire, logique impérialiste… sans pour autant fermer la porte à une reconquête possible de la machine ou plutôt cette « mégatechnologie » qui, aux mains d’une minorité de puissants menace les individus en les enfermant dans un régime fonctionnel fait de contrôle et d’automatismes. Au moment où étaient en train de naître les réseaux de communication numérique, et alors même qu’on avait déjà assimilé des modèles théoriques de tel réseaux, notamment grâce aux travaux de Ted Nelson (qui invente l’hypertexte) en 1965, la possibilité de mettre en relation les individus était en même temps la possibilité de se sortir éventuellement de la dynamique de la mégamachine qui instrumentalise la technique. L. Mumford déclarera ainsi en 1972 (Mumford 2014) :

(…) l’objectif majeur de la technique n’est ni d’étendre encore le domaine de la machine, ni d’accélérer la transformation des découvertes scientifiques en inventions rentables, ni d’accroître la production de nouveautés technologiques changeantes et de modes dictatoriales; ce n’est pas non plus de placer toutes les activités humaines sous la surveillance et le contrôle de l’ordinateur – en bref, ce n’est pas de riveter les parties de la mégamachine planétaire encore indépendantes de manière à ce qu’il n’y ait plus moyen de s’en échapper. Non: la tâche essentielle qui incombe aujourd’hui à tous les intermédiaires humains, et surtout à la technique, est de restituer les qualités autonomes de la vie à une culture qui, sans elles, ne pourra pas survivre aux forces destructrices et irrationnelles qu’ont déclenchées ses réalisations mécaniques initiales.

Cette possibilité entr’ouverte, elle fut sans doute comprise par bien des acteurs de l’élaboration commune d’un agrégat technique qui sera nommé Internet. C’est très certainement cette ré-appropriation de la technologie qui a motivé les hackers du projet Community Memory et bien d’autres initiatives du genre, et qui donnèrent lieu à une économie de services et un choix qui fit de L. Mumford une Cassandre des temps modernes.

Réseaux, démocratie, capital

On attribue généralement la naissance d’Internet à la mise en œuvre combinée de projets militaires et civils aux États-Unis à la fin des années 1960. Sans revenir sur cette histoire maintes fois racontée, il y a plusieurs aspects que nous devons prendre en compte dans la manière dont l’usage des technologies de réseau s’étendit à travers la société.

En premier lieu, les réseaux informatiques sont le résultat d’une combinaison d’ordinateurs, de systèmes d’exploitation et de protocoles de communication. Des ordinateurs, avant tout, puisque le projet initial de l’ARPA (pour l’exprimer simplement : construire un réseau résilient) comportait une alliance très forte avec une entreprise issue du MIT nommée BBN (créé par les professeurs Leo Beranek et Richard Bolt, rejoints ensuite par un de leurs étudiants, Robert Newman) qui elle même entretenait des liens historiques avec DEC (Digital Equipment Corporation), productrice d’ordinateurs type PDP pour une grande partie des instituts de recherche. Bien que DEC ne fut pas la seule entreprise concernée, le développement ultérieur des mini-ordinateurs de type PDP-11 puis le passage à des architectures 32 bits, la baisse des coûts de production, jouèrent un rôle décisif dans le développement du marché des mini-ordinateurs et leur mise en réseau. L’arrivée de systèmes d’exploitation à temps partagé (dont CTSS – Compatible Time-Sharing System – fut l’un des projets phare au MIT, avec pour successeur le projet Multics) fut l’une des conditions à réunir pour permettre aux utilisateurs de se connecter à plusieurs sur un ordinateur. Ces créations furent associées à d’autres concepts théoriques et applicatifs tels la commutation de paquets (un sujet que Paul Baran avait initié au début des années 1960), ou, de manière structurée, la suite de protocoles TCP/IP (travaillée par Bob Kahn au début des années 1970).

Ces exemples ne montrent qu’une petite partie de l’ensemble nommé Internet, et qui n’est lui-même que la partie de réseaux de réseaux accessible au public. Des premières recherches conceptuelles qui s’agrégèrent jusqu’aux réseaux opérationnels, les technologies de base d’Internet ont été développées sur une trentaine d’années et ne cessent d’évoluer. De plus, cet agrégat n’est pas qu’un amalgame de technologies, il est le fruit de bien des aspects relationnels entre acteurs et groupes d’acteurs, institutions et entreprises. De ces convergences découla la concrétisation de la notion de computer utility, c’est-à-dire un modèle économique de service : mise à disposition de ressources informatiques (puissance de calcul) et gestion d’infrastructures (Garfinkel 1999). Ce modèle fut pensé dès le début des années 1960 mais l’arrivée de l’informatique en réseau lui donna corps, et avec cela tout un discours sur la transformation sociale qui, en un sens radicale, supposait que la technologie recelait en elle et de manière positive les ingrédients de cette transformation, comme si elle ne relevait d’aucune pensée préalable. Or, ce n’était évidemment pas le cas. Nous l’avons vu avec la pensée hacker, et comme l’a brillamment montré Fred Turner à travers des hommes comme Stewart Brand et The WELL, il en va ainsi de la majorité des acteurs principaux qui ont construit l’économie de la Silicon Valley sur l’idée que les technologies apportent les réponses à tous les « grands problèmes du monde ».

Les réseaux et leurs infrastructures ne sont pas seulement le substrat technique sur lequel s’est développée l’économie numérique. Nombre d’acteurs qui ont construit cette économie partageaient une vision commune du rapport entre société et technique que l’on pourrait qualifier de solutionniste. Ils marquèrent sur plusieurs décennies le point de basculement principal dans le processus d’informatisation de la société : les ordinateurs n’étaient pas qu’une extension du machinisme dont l’objectif était d’augmenter notre production et améliorer notre bien-être. Ils allaient plutôt nous permettre de changer le monde et pour cela, il était impératif que la société accepte le rôle calculatoire de l’ordinateur comme le maillon principal des processus de décision et d’action.

Bien entendu, ce n’était pas le point de vue de tous les hackers. Cependant, comme le montre Fred Turner, le déplacement de la contre-culture hippie associé à la logique industrielle et au libéralisme a créé un certain anti-autoritarisme qui s’est lui-même structuré en ce que nous pouvons identifier comme un « libertarianisme californien ». Le couple technologie-capital que mentionnait R. L. Heilbronner a fini par captiver cette contre-culture au point que la plupart de ces ingénieurs hétérogènes (si on les considère du point de vue acteur-réseau) on fait le choix de l’aventure entrepreneuriale. C’est au début des années 1980 que d’autres ont au contraire commencé à y voir les déséquilibres économiques et éthiques et investirent alors le modèle du logiciel libre, comme nous le verrons plus loin. Toujours est-il qu’Internet devenait l’El-Dorado de l’économie de service, point de jonction entre l’encapacitation sociale et le cercle vertueux du capital et de l’innovation.

La fin des années 1970 et le début des années 1980 furent des moments propices à la construction de cette représentation d’Internet et de l’économie de services. Cette période connut non seulement l’arrivée de l’ordinateur personnel sur le marché de la consommation de masse mais aussi la consolidation des systèmes de gestion de bases de données, et une assimilation unanime de l’informatique à la fois par les entreprises de tous les secteurs d’activité et les administrations publiques. Ainsi, en 1978, dans son best seller intitulé The Wired Society (Martin 1978) (récompensé du Pullizer), James Martin pouvait bénéficier d’un terrain d’étude extrêmement favorable sur ce qu’il a nommé les « autoroutes des télécommunications ». Il ne s’agissait plus de supposer le développement futur des usages et de leurs implications dans la société, mais de faire un premier point sur ce qu’avait changé la haute disponibilité de l’information. Huit ans plus tôt, dans un précédent ouvrage co-écrit avec Adrian Norman, The Computerized Society (Martin and Norman 1970) il s’agissait de prévenir des dangers potentiels de l’omniprésence des algorithmes dans les systèmes décisionnels : à partir du moment où un système est informatisé, la quantification devient la seule manière de décrire le monde. 0r la veille des années 1980, son analyse n’avait guère changé : le danger ne peut provenir que de ce que l’homme fera des techniques à sa disposition mais elles sont libératrices par essence, leur utilité l’emporte sur l’adversité. Il devenait le futurologue qui mettait fin aux craintes de l’avènement d’une société Orwellienne : la diversité des informations et leur accessibilité sur les autoroutes de télécommunication devait agir comme une garantie à l’encontre de la manipulation mentale et de l’autoritarisme. Les promesses de l’accès illimité aux contenus éducatifs et du partage des connaissances devaient constituer l’antithèse des régimes totalitaires qui restreignent et contrôlent les communications.

Comment comprendre ce revirement qui, à nos yeux contemporains et compte-tenu de ce que nous savons de la surveillance en démocratie, passe aussitôt pour de la naïveté ? En démocratie, l’information et le partage d’information est un élément décisif de l’épanouissement d’une société. Pense-t-on pour autant que, développés en majeure partie dans des pays démocratiques et propagés par les vertus de l’économie libérale, les réseaux de communication numériques ne pourraient servir que des objectifs démocratiques ? Il est compréhensible que leur avènement ait tant bousculé les organisations que cette révolution ait un temps occulté le fait que l’analogie n’est pas fondée.

La même année, en 1978, Murray Turoff et Roxanne Hiltz publient The Network Nation (Turoff and Hiltz 1994), un livre aux conséquences souvent mal connues mais qui consacra le domaine des communications en ligne comme la technologie-clé censée révolutionner la vie sociale et intellectuelle. M. Turoff avait inventé un système de conférence électronique pour le gouvernement américain afin de communiquer en temps de crise. Initiateur du concept de Communication médiée par ordinateur (computer-mediated conferencing, CMC), il continua avec Roxanne Hiltz, qui devint son épouse, à développer son système électronique d’échanges d’informations jusqu’à aboutir à une présentation exhaustive de ce que signifie vraiment communiquer à distance par ordinateurs interposés : échanges de contenus (volumes et vitesse), communication sociale-émotionnelle (les émoticônes), réduction des distances et isolement, communication synchrone et asynchrone, retombées scientifiques, usages domestiques de la communication en ligne, etc. Récompensés en 1994 par l’EFF Pioneer Award, on considère aujourd’hui Murray Turoff et Roxanne Hiltz comme les « parents » des systèmes de forums et de chat massivement utilisés aujourd’hui.

Pour eux, dans la mesure où les réseaux et leurs infrastructures continuent de se développer, la Network Nation ne demande qu’à éclore, aboutissant à un « village planétaire », concrétisation de la pensée de Marshall McLuhan, où « la technologie en viendra probablement à dominer la communication internationale » (Turoff and Hiltz 1994, 25). À l’aide de nombreuses études de cas, ils démontrent combien l’organisation sociale (dont l’éducation et le travail à distance) et les modèles de décision collective peuvent être structurés autour des télécommunications numériques. De l’extension du modèle de démocratie participative asynchrone et obtention de consensus par conférence téléphonique (Etzioni, Laudon, and Lipson 1975), la récolte de l’opinion publique dans les Community Centers de Hawaï en 1978, jusqu’au test grandeur nature du Public Electronic Network de Santa Monica, Murray Turoff et Roxanne Hiltz montrent à quel point la démocratie participative par réseaux de communication pourrait même bousculer radicalement la démocratie représentative qui, elle, est basé sur une participation indirecte. Sans apporter vraiment de réponse à cette question, il reste que les auteurs livrent à ce moment-là une conception selon laquelle la technique est à même de conditionner la vie publique. Les choix relatifs à la régulation des usages sont désormais écrits (Turoff and Hiltz 1994, 400) :

Le domaine des communications numériques a atteint un point où ce n’est plus la technologie, mais les questions de politique, de droit et de réglementation qui détermineront le degré de bénéfice que la société en tirera. Si nous extrapolons les tendances actuelles, des aspects tels que les utilisations publiques peuvent être artificiellement retardés de plusieurs décennies (…)

Mais ce qui devra arriver arrivera, et cela tient intrinsèquement à la nature même des technologies de communication (Turoff and Hiltz 1994, 401) :

Dans la mesure où les communications humaines sont le mécanisme par lequel les valeurs sont transmises, tout changement significatif dans la technologie de cette communication est susceptible de permettre ou même de générer des changements de valeur.

Communiquer avec des ordinateurs, bâtir un système informatisé de communication sociale-émotionnelle ne change pas seulement l’organisation sociale, mais dans la mesure où l’ordinateur se fait de plus en plus le support exclusif des communications (et les prédictions de Turoff s’avéreront très exactes), la communication en réseau fini par déterminer nos valeurs. C’est en cela que la conjecture selon laquelle l’ordinateur est une technologie déterminante est une conjecture qui prend une dimension heuristique à la fin des années 1970. Et c’est la raison pour laquelle à cette époque l’ordinateur passe si difficilement sous le feu des critiques : on lui préfère l’analyse du machinisme ou les références anciennes à la domination de l’outil de travail.

Dans la sphère intellectuelle américaine, plus versée dans la littérature que dans les modèles de systèmes d’information, on retrouve l’adhésion à ce discours. Les enjeux humanistes qu’il soulève devenaient parfaitement audibles aux oreilles des non-techniciens. C’est le cas de Jay David Bolter qui, bien que formé à l’informatique, n’en était pas moins professeur de littérature soucieux de l’avenir culturel à l’âge informatique. En 1984, il écrivit un autre best seller intitulé Turing’s Man: Western Culture in the Computer Age (Bolter 1984). Pour lui, si l’ordinateur est une technologie déterminante, ce n’est pas parce que l’usage de la technique change les valeurs, mais c’est parce que l’ordinateur est comparable à la machine à vapeur ou à l’horloge qui, selon lui, ont révolutionné notre représentation du monde en redéfinissant notre rapport au temps, à la mémoire, à la logique, à la créativité, au langage… Bien que nous puissions en dire autant de bien d’autres techniques. En fait, si on se fie à J. D. Bolter, ces dernières sont déterminantes parce qu’elles se situent haut sur une sorte d'« échelle de la détermination technologique ». Comme toutes les révolutions, la révolution informatique se mesure à l’aune de ses dangers et de la pensée critique qui s’en empare. Pour J. D. Bolter, l’âge informatique est un âge où le risque est grand de perdre l’humanisme occidental en le noyant dans une quantification de nos vies par le traitement des données informatiques. Et si la tradition humaniste est à ce point en danger, ce serait parce que la technologie a toujours déterminé la pensée. L’ordinateur suit la même voie séculaire (Bolter 1984, 36) :

Le scientifique ou le philosophe qui travaille avec de tels outils électronique pensera différemment que ceux qui travaillaient sur des bureaux ordinaires, avec du papier et des crayons, avec des stylets et des parchemins, ou du papyrus. Il choisira des problèmes différents et trouvera des solutions différentes.

Là encore, tout comme dans le livre de James Martin, on se situe bien loin des craintes d’un futur Orwellien, mariage entre technologie et totalitarisme : le côté rassurant de la technologie, aussi révolutionnaire qu’elle soit, c’est qu’elle se présente désormais comme un « déjà-là » et détermine ce que sera « l’homme de Turing ». Un état de fait qu’on ne peut qu’accepter et en trouver les avantages.

Là où Lewis Mumford voyait entr’ouverte la porte de sortie du déterminisme, J. D. Bolter la referme avec la plus grande candeur : il appartiendrait à chacun de savoir conserver la part d’humanisme dans un monde fait par la technique et pour la technique. Mais là encore, tout comme beaucoup ont mal lu J. Elllul, beaucoup ont fait l’erreur de ne pas comprendre que la mégamachine moderne n’est pas toute entière issue de la technique ou de la pensée technocratique. Il faudra plusieurs années entre la fin des années 1960 et le début des années 1990 pour que, à travers le ronronnement permanent des discours sur les bienfaits de l’innovation technoscientifique, émergent des dissonances qui ne s’attachent plus uniquement au problème du déterminisme technologique et au regret d’un humanisme perdu, mais sur les dynamiques sociales qui conditionnent la mégamachine.

En 1966, la Monthly Review publiait l’ouvrage monumental de Paul Sweezy et Paul A. Baran, Le capital monopoliste, un essai sur la société industrielle américaine. L’idée que le pouvoir n’est finalement que secondaire dans une société capitaliste où la logique économique a son cheminement propre, non pas essentiellement technique mais résultat d’une tension entre production et coût de production d’où émergent des tendances impérialistes, consuméristes, monopolistes. Pour survivre, les entreprises sont condamnées à innover. Et c’est ce qu’en 1991 et 1995 l’économiste Serge Latouche nomme le principe du « maximine » (Latouche 1991  ; Latouche 1995) (maximisation du profit, minimisation des coûts), selon lequel l’innovation technologique est le moteur qui génère nos comportements modernes de consommateurs et d’accumulateurs. Pour Serge Latouche, la mégamachine est en réalité la société toute entière qui entretient une synergie entre logique technicienne et logique économique.

Et d’autres auteurs encore développèrent cette approche critique, y compris de nos jours, via une démarche opérant une certaine filiation américaine de la pensée « néo-marxiste ». Ainsi John Bellamy Foster et Robert Mc Chesney qui, au lendemain des révélations Snowden, montrent comment la logique monopoliste, impérialiste et militariste conditionnent notre soumission à un capitalisme de surveillance. C’est-à-dire un capitalisme technologiste qui, pour reprendre le mot de Bernard Stiegler, contribue à prolétariser les individus dans leur quotidien, leur vie, leur comportement, leurs relations, là où on attendait justement des infrastructures technologiques des communications l’espoir d’une émancipation démocratique qui manquait déjà tant aux années 1970.

Internet, dispositif indéterminé

Sommes-nous arrivés à un âge critique où, après un trop-plein d’innovations techniques dont l’économie numérique serait la dernière manifestation (à la suite de la révolution pharmaceutique ou de l’automobile), une prise de conscience serait advenue faisant valoir un discours réaliste sur les interactions entre les dynamique sociales et les techniques ? Prendrait-on conscience d’un trait caractéristique de notre modernité selon lequel la société est dominée non pas par la technique mais par une logique d’accumulation qui détermine à son tour les conditions de l’innovation et donc les techniques ? Marketing, consommation, impérialisme militaro-économique, concurrence et monopoles, décision publique favorable aux monopoles, tous ces leviers (on peut ajouter le capitalisme d’État pour certaines puissances) en faveur des objectifs de production des sociétés modernes montrent que si on peut définir une société par ses technologies-clé, cette définition est non seulement non-exclusive mais doit intégrer le fait qu’il s’agit avant tout de choix collectifs, de stratégies de développement et non de la technique en soi.

C’est l’argument retenu lorsqu’on envisage les changements technologiques à une échelle plus globale et qu’on la confronte aux enjeux environnementaux. D’un côté, la lutte contre le changement climatique ou la prise de conscience des écueils de l’anthropocène et, de l’autre, l’idée que ce sont nos choix techniques qui ont dirigé plus ou moins consciemment les sociétés vers les impasses de l’urgence climatique. Là ne se confrontent plus artefacts et nature (si tant est que l’homme technicien se définisse comme « maître et possesseur ») mais capital et oïkoumène, le milieu, notre commun naturel. Et nous aboutissons aux même arguments de Bernard Stiegler : les technologies numériques font partie d’un ensemble de choix techniques dont la tendance générale consiste à prolétariser toujours plus l’homme (exceptés ceux aux commandes). En séparant technique et savoir, l’homme s’est privé de la critique scientifique de la technique et de là vient la tendance déterministe alors que l’homme se voit dépossédé de ses savoir-faire (automatisation) et savoir-être (algorithmisation de nos comportements). Penser la technique aujourd’hui consiste alors à se demander comment nous pouvons entamer une procédure de déprolétarisation en construisant, selon B. Stiegler, une économie de la contribution, c’est-à-dire une économie dont l’objectif n’est plus composé du moteur accumulation-innovation-profits. Nous y reviendrons plus loin.

Face à cette critique, les forces qui opposent une vision déterministe de la technique relèvent de l’intérêt particulier d’une vision capitaliste dont la caractéristique est de livrer une description monolithique des techniques. Pour qu’une technologie-clé soit considérée comme telle, alors que de sa promotion dépendent les choix économiques, il importe de la définir comme une technologie aboutie ou mature, et surtout libérée des contraintes sociales, c’est-à-dire postuler une neutralité de la technique, une suspension dans les vapeurs éthérées du progrès. Qu’est-ce que cela signifie ? C’est le déploiement d’un discours d’autojustification de la décision : l’utilité économique de la technologie l’emporte sur sa valeur sociale, ou en d’autres termes le besoin individuel (sublimé par l’acte de consommation) l’emporte sur l’intérêt commun. L’autonomie de la technique annoncée par J. Ellul est advenue et semble pleinement assumée par les discours dominants des entreprises monopolistes de la Silicon Valley pour lesquelles il n’existe aucun problème que la technologie ne puisse résoudre, et qui guident la décision publique vers un régime de « start-up nation » comme le souhaitait ardemment le président Macron.

Alors même que le mot « numérique » est sur toutes les lèvres pour promouvoir ce projet global de soumission à un ordre technologique capitaliste, Internet et le mouvement du logiciel libre démontrent depuis le milieu des années 1980 qu’il est possible de se réapproprier socialement la technique et la libérer des discours déterministes. Lorsqu’Internet a commencé à être conçu comme un moyen ouvert de télécommunication assistée par des ordinateurs en réseau, c’est-à-dire comme un moyen de communication social-émotionnel en même temps qu’une infinité d’offres de services et d’innovation dont le modèle économique a explosé dans les années 1990, il a produit en réalité un dispositif technique dont la prégnance sur la société contemporaine est si importante qu’il semble déterminer nos comportements et nos relations sociales. Mais ce n’est qu’une apparence. Nous avons vu qu’Internet est en fait un amalgame de dispositifs techniques. Plus exactement, on peut désigner Internet comme un méta-dispositif socio-technique :

  • Sa construction historique est une association d’infrastructures techniques différentes, de programmes et de protocoles différents, tous issus d’une dynamique d’échanges entre des groupes sociaux (issus de la recherche académique, d’entreprises ou des institutions décisionnaires) ;
  • Son modèle de gouvernance est essentiellement basé sur l’ouverture, comme le montre l’Internet Engineering Task Force (IETF) et son système de requêtes de commentaires, ou comme la suite de protocole TCP/IP (depuis 1973) : l’ouverture s’oppose ici à la possibilité qu’un ayant droit, comme un constructeur, puisse décider des conditions d’usage. Tout le monde peut contribuer à l’avancement d’Internet et des protocoles de communication utilisés. Des organismes de normalisation tels l’IETF ou le W3C consolident juridiquement les innovations issues de cette dynamique d’ouverture (pour éviter, par exemple, les patent troll) ;
  • C’est en particulier grâce à cette liberté des échanges que le mouvement du logiciel libre, dont le concept a été défini au début des années 1980, a pu s’émanciper. L’ouverture d’Internet associée aux libertés logicielles a construit un modèle économique contributif, c’est-à-dire dont le niveau de coopération et de production ne dépendent pas du développement individuel des parties, mais du niveau de progression des communs numériques.

En 2020, les chercheuses Mélanie Dulong de Rosnay et Francesca Musiani (Dulong de Rosnay and Musiani 2020) ont publié un article qui interroge la pertinence aujourd’hui des solutions alternatives d’un internet centralisateur et visiblement en tout point éloigné des objectifs d’émancipation que les discours politiques ont tendance à rabâcher. Face aux entreprises monopolistes et au capitalisme de surveillance, elles questionnent les possibilités qu’offrent depuis des années les technologies ouvertes tels le pair à pair (P2P) et autres moyens de communication décentralisés, de pouvoir proposer des alternatives tout en se rapprochant des nouveaux modes de production et de partage qu’offrent les modèles basés sur les communs. Cette manière de concevoir ce rapport entre technique et société permet aujourd’hui de considérer une autre organisation de la société, d’autres modes de production et d’échanges en alliant les architectures décentralisées et la gouvernance des biens communs (Bauwens and Kostakis 2017).

Étant donné le peu de recherche à ce sujet avant les années 2010, nous avons eu tendance à sous-estimer l’impact de la logique du logiciel libre et des échanges P2P dans la représentation générale du rapport entre société et technique. Ce n’est pas par hasard qu’au milieu des années 1980 le concept de logiciel libre se déploie dans la culture en appliquant ses principes à d’autres formes d’échanges et tout particulièrement les connaissances. Les années 1980 correspondent aussi, nous l’avons vu, à l’arrivée des sciences studies. Même si leur naissance conceptuelle débute un peu auparavant (Pestre 2006), les années 1980 furent un véritable âge d’or d’une modernisation de l’histoire des sciences et des techniques. Et à cet impératif d’interdisciplinarité répondait un changement général dans les discours sur les techniques, celui de l’intégration entre science, technique et société. Il ne pouvait plus être affirmé sans contradiction immédiate que le développement des technologies informatiques et surtout les programmes était une affaire d’innovation et de marché uniquement : comme c’était le cas aux premiers âges des ordinateurs mainframe, le logiciel libre, le développement mondial de GNU/Linux, l’arrivée de Wikipédia, tout cela montrait que l’informatique était avant tout une affaire de communautés d’utilisateurs et de créateurs. Les réseaux ont accentué significativement la tendance au partage et ont fait de ces communautés des illustrations évidentes des dynamiques de co-construction entre techniques et organisation sociale.

Ne nous méprenons pas : il n’y a pas de lien de causalité entre l’émergence de communautés mondiales d’utilisateurs et de programmeurs communiquant avec Internet et le nouvel élan scientifique des science studies. Les deux sont concomitants : des convergences conceptuelles existent entre une vision sociale des techniques et un vécu social des techniques. Le logiciel libre, formalisé juridiquement par les licences libres, est une démonstration à grande échelle de ce que les communautés de pratiques apportent comme apprentissages organisationnels et dynamiques d’innovation. Les communautés ne sont pas que des collectifs de partage mais des maillons décisifs dans l’organisation collective du processus de création : conceptualisation, tests, validation (Cohendet, Créplet, and Dupouët 2003).

Le mouvement du logiciel libre, parce qu’il est avant tout un mouvement social, a suscité beaucoup d’espoirs au point de le considérer comme une utopie plus ou moins concrète qui proposerait une alternative au modèle capitaliste dominant. Il n’en est rien : comme le montre Sébastien Broca (Broca 2018), ce mouvement est profondément ancré dans le modèle capitaliste et notre modernité. Certes, il propose de nouveaux équilibres face aux impasses de la propriété intellectuelle, de la concentration des savoirs, de l’accès aux technologies, et de l’organisation du travail (opposer verticalité et horizontalité, cathédrale ou bazar). Pour autant, les libertés que garanti le logiciel libre ne s’opposent à aucun modèle économique en particulier. Dans la mesure où le secteur de la programmation et des services est aujourd’hui un secteur soumis à de très fortes tensions concurrentielles, il n’y a pas de raison pour que les entreprises spécialisées (les sociétés de services en logiciels libres, SSLL) échappent au modèle dominant, même si elles portent en elles des messages éthiques auxquels adhèrent les utilisateurs. L’éthique du logiciel libre apporte une régulation du marché, sans doute la meilleure, en s’appuyant sur des arguments solides et qui engagent utilisateurs et concepteurs dans un avenir cohérent et durable.

Ce qui a fondamentalement changé la donne, en revanche, c’est l’intégration du concept de pair à pair dans les structures mêmes des réseaux de communication. Et parce que les protocoles qui le permettent sont ouverts et basés sur les mêmes libertés numériques que promeut le mouvement pour le logiciel libre, alors le méta-dispositif socio-technique qu’est Internet peut proposer des modèles de production de valeur indépendants des marchés dominants et des politiques économiques. Historiquement cette idée fait écho à la Déclaration d’Indépendance du Cyberespace écrite en 1996 par John Perry Barlow. Cette dernière été comprise comme le rêve libertarien d’un « village global » de communications et d’échanges sans État ni pouvoir central. À bien des égards, c’était le cas, car en 1996 la Déclaration était d’abord une réaction au Telecommunications Act instauré par le gouvernement de Bill Clinton aux États-Unis, qui ouvrait la concurrence dans les services et équipements de télécommunication et contribua finalement à la bulle capitaliste qui explosa en 2000. En revanche, la Déclaration oppose deux approches de la communication : l’une soumise à un ordre de gouvernement qui impose son modèle par le haut, et l’autre qui promeut, en « défense de l’intérêt commun », une « conversation globale de bits », des échanges selon un ordre collectivement déterminé. Face à un ordre économique profondément inégalitaire, un système différent basé sur des échanges égalitaires permet une mutualisation de l’information et structure la gouvernance des communs. Une gouvernance décidée, orientée, régulée collectivement.

Quels communs ? En premier lieu des biens communs informationnels, dont la caractéristique est d’être non rivaux. Mais d’autres communs peuvent être ainsi gouvernés collectivement de manière à ce que les échanges informationnels de pair à pair permettent de structurer la décision et l’organisation, tout comme le logiciel libre permettait des apprentissages organisationnels. Les modèles de production et d’usage sont alors des modèles sociotechniques : décision et processus de décision, le substrat technique sur lequel la décision se structure, c’est-à-dire les outils communicationnels de pair à pair, autant que les échanges de pair à pair de biens et services. Il peut s’agir de modèles bénévoles ou de modèles marchands. Dans tous les cas, le principe de pair à pair empêche fondamentalement les déséquilibres que cause la prédation d’une économie extractive qui ronge les communs et les individus, qu’il s’agisse de l’environnement, de la connaissance ou encore de nos données personnelles.

Dans une économie pair à pair, il est aussi important de structurer les échanges que de les pratiquer. C’est pourquoi, lorsqu’on se concentre sur le rôle que joue Internet (et le cyberespace) il est important là encore d’éviter toute approche déterministe. La proposition selon laquelle l’innovation venue d’un monde « d’en haut », imposée comme une technique autonome à laquelle nous devrions nous adapter, est fondamentalement une proposition fallacieuse  : s’adapter à Google ou à Facebook comme les seuls pourvoyeurs de solutions de communication sur Internet, c’est accepter des modèles d’échanges qui sont structurellement inégalitaires. Certes des échanges auront bien lieu, mais ils se soumettent à une logique extractive et, comme l’a montré l’affaire Cambridge Analytica, ils imposent aussi leur propre ordre politique. L’autre face de cette proposition fallacieuse consiste à séparer technique et société, en faisant croire qu’Internet est avant tout un ensemble de services techniques précis dont l’avenir ne dépend pas des utilisateurs mais des capacités d’innovation des entreprises qui construisent pour nous un cyberespace mesuré et régulé… alors qu’il est essentiellement conformé à leurs propres intérêts, ainsi qu’en témoigne la tendance concentrationnaire des conditions de l’innovation technique (propriété intellectuelle, puissance financière, possession des infrastructures).

Lorsque le philosophe des techniques Andrew Feenberg s’interroge à propos d’Internet et de son pouvoir d’encapacitation démocratique (Feenberg 2014), il commence par montrer combien Internet est un dispositif qui échappe aux analyses classiques. Historiquement, la stabilisation d’une technologie dans la société vient du fait qu’elle entre dans une dynamique de production et d’innovation qui lui est propre : ce n’est qu’après que le moteur à explosion soit choisi de préférence par les constructeurs que l’automobile passa du statut de prototype à objet de luxe puis à un objet de consommation qui modifia l’organisation sociale en tant que mode de transport. Il n’y a pas d'« artefact Internet » et encore moins qui puisse répondre à ce schéma. C’est pourquoi le fait qu’Internet soit un espace d’échanges qui favoriserait la démocratie est une affirmation qui, selon A. Feenberg doit d’abord prendre en considération qu’Internet est un dispositif sociotechnique qui est encore indéterminé. Pour notre part, nous pensons qu’Internet est potentiellement un dispositif à jamais indéterminé à condition de maintenir le pair à pair comme principe fondamental.

On peut considérer le dispositif dans un sens philosophique. Essentiellement en référence à Michel Foucault, plusieurs penseurs ont travaillé cette notion de dispositif. Giogio Agamben répond à la question Qu’est-ce qu’un dispositif ? en ces termes (Agamben 2014  ; Agamben 2006) :

(…) tout ce qui a, d’une manière ou d’une autre, la capacité de capturer, d’orienter, de déterminer, d’intercepter, de modeler, de contrôler et d’assurer les gestes, les conduites, les opinions et les discours des êtres vivants. Pas seulement les prisons donc, les asiles, le panoptikon, les écoles, la confession, les usines, les disciplines, les mesures juridiques, dont l’articulation avec le pouvoir est en un sens évidente, mais aussi, le stylo, l’écriture, la littérature, la philosophie, l’agriculture, la cigarette, la navigation, les ordinateurs, les téléphones portables, et, pourquoi pas, le langage lui-même (…)

Définir un dispositif, c’est le faire entrer dans une liste dont l’objectif est de rassembler des éléments certes hétérogènes (dispositifs institutionnels, cognitifs, techniques, etc.) mais dont, à un moment donné la cohérence définit l’action. Par exemple l’action de gouverner, d’imposer un pouvoir, ou pour ce qui concerne un dispositif technique, le fait de déterminer des usages ou configurer plus ou moins significativement l’organisation sociale. Envisager Internet comme un dispositif, au sens philosophique, amène une dimension supplémentaire à notre analyse : si Internet est un dispositif indéterminé, il peut devenir l’infrastructure au sens métaphorique, ou la matrice matérielle et logicielle, pratique et théorique, des relations de pair à pair à la source d’alternatives plurielles et néanmoins cohérentes au modèle privateur dominant, et donc matrice d’apprentissages organisationnels ouvrant une pluralité de choix sociaux, économiques, technologiques, politiques.

Internet est ce que nous en ferons. Et pour cela il n’y a aucune ambiguïté dans les projets communautaires consistant à bâtir des réseaux dont les caractéristiques intègrent techniquement la logique des échanges pair à pair grâce au développement de logiciels libres. C’est le cas de ce qui a été nommé depuis quelques années le Fediverse. Il s’agit d’un ensemble de serveurs fédérés entre eux de telle sorte que chacun d’entre eux puisse échanger avec les autres de manière transparente afin de former des réseaux décentralisés de publications de contenus. Chaque serveur propose au moins une instance d’un logiciel libre dont le but est de permettre aux utilisateurs de communiquer entre eux et à travers toutes les instances, par exemple pour des activités de micro-blogage, de blog, de partage de vidéo, de musique, etc. Les logiciels sont libres (le code est connu de tous) et les protocoles ouverts sont standardisés (depuis 2008 avec OStatus jusqu’au protocole ActivityPub recommandé par le W3C). Les seules limites au Fediverse sont celles de la créativité de ses utilisateurs et concepteurs ainsi que l’impossibilité technique de centraliser et capter des ressources, surtout dans une logique de profit, sans sortir du Fediverse. Quant aux usages, et le fait qu’une instance puisse être acceptée par les autres, ils reposent eux aussi sur les notions de partage et de réciprocité. Le Fediverse est sans doute la plus brillante démonstration de l’indétermination d’Internet en tant que dispositif sociotechnique : nonobstant la législation en vigueur dans le pays où une instance est installée, toute tentative de régulation par le haut afin de défendre des intérêts particuliers est vouée à l’échec (de l’un ou de l’autre ou des deux).

Conclusion : portes de sortie

Nous avons vu qu’une tradition du déterminisme technologique transparaissait dans les représentations d’une société informatisée, mêlant ici les espoirs de l’encapacitation générale à la démocratie, et là la nécessité d’un modèle productiviste et innovateur. L’économie numérique s’est imposée comme un nouvel ordre face auquel les critiques « anti-déterministes » avaient tendance à focaliser sur les critiques du pouvoir que cet ordre imposait, ou sur les manquements éthiques d’une technique prétendue autonome. Cependant, si l’avancement technologique est bien le jeu d’interactions entre sciences, techniques et société, il pouvait y avoir la possibilité pour que certaines techniques intègrent en elles by design une réaction à ce nouvel ordre économique. Par conséquent, il existe bien une possibilité de se sortir du modèle productiviste et d’innovation capitaliste. Néanmoins ce modèle est tellement dominant que, du point de vue des utilisateurs, c’est le discours déterministe qui reste encore le plus audible sur le mode d’une idolâtrie de la machine pour reprendre les mots de Simondon (Simondon 1969).

Une grande partie des usages publics d’Internet sont dépendants de sociétés de services qui centralisent l’information et conditionnent les usages de manière déloyale afin d’extraire des données personnelles des utilisateurs. Longtemps dénoncé, ce système fait d’internet un dispositif d’assujettissement, ainsi que le montre S. Zuboff, en surveillant nos quotidiens, en captant nos expériences humaines et en les instrumentalisant pour orienter nos comportements. C’est pourquoi la critique de ce dispositif a fait un lien direct avec un autre dispositif, le panoptique de J. Bentham dont s’inspire Michel Foucault. En effet, pour ce dernier, tout dispositif, surtout parce qu’il a une finalité stratégique, contient une relation de pouvoir (Foucault 1994b, 300). La surveillance continue, exercée tant par des entreprises monopolistes que par des États, a éclaté au grand jour à travers le scandale soulevé par les Révélations Snowden en 2014. Or, ce fut là le point de convergence où l’on trouva les preuves indiscutables que les dispositifs de surveillance avaient des objectifs de contrôle et donc d’assujettissement. La clairvoyance des penseurs postmodernes pouvait être convoquée : si Michel Foucault avait bien anticipé le caractère transitoire d’une société disciplinaire où l’enfermement permet la surveillance et donc l’équilibre du contrat social, l’avenir d’une telle société, nous disait Gille Deleuze (Deleuze 1990), était de passer à un mode ouvert où le contrôle s’exercerait de manière instantanée, permanente et diffuse. À leur tour Michael Hardt et Antonio Negri (Negri and Hardt 2004) montrent que le propre d’une société de contrôle consiste à se servir des dispositifs les plus démocratiques, les plus socialement intégrés pour exercer un contrôle cognitif et biologique. Aujourd’hui ces formes de contrôles ne font aucun doute lorsqu’on considère les scandales sur la sécurité des données personnelles et la main-mise des courtiers de données sur l’analyse comportementale et le modelage de nos comportements au marché ou les techniques de surveillance de masse des populations par les États (et le marché hautement lucratif de ces techniques).

Nous savons tout cela. Mais à ne voir qu’un assujettissement, on ne pense plus une critique d’Internet qu’à travers ce prisme. Or, comme le montre le Fediverse, il existe des stratégies qui, depuis longtemps, imbriquent dans les dispositifs techniques des logiques en tout point opposées au contrôle et au pouvoir. D’où viennent ces stratégies ?

On pourrait les rapprocher des pratiques que déploient les individus en société, la consolidation des relations sociales à travers le souci de soi. Non pas un réflexe individualiste, mais à l’instar de la manière dont Michel Foucault en comprend le déploiement à partir de la cité antique (Foucault 1984), c’est-à-dire les « arts de l’existence », un travail sur soi que l’on fait à travers des pratiques permettant de se transformer afin de vivre avec les autres, partager des règles communes, un « connais-toi toi-même – mais aussi prend soin de toi », comme le conseille Socrate à Alcibiade, pour élever le citoyen (peut-être amené à gouverner) vers l’exemplarité, l’esthétique de soi. Le souci de soi est d’abord la capacité de prendre la mesure de l’autre, en ce sens c’est un rapport éthique  : « le souci de soi est éthiquement premier, dans la mesure où le rapport à soi est ontologiquement premier » (Foucault 1994a). C’est un principe d’accomplissement et en cela, le souci de soi, individuellement et collectivement, est la tendance à mettre en œuvre des pratiques de liberté. Le principe du pair à pair et son inclusion dans des dispositifs techniques tels le Fediverse, élaborés collectivement, de manière contributive, apparemment spontanée mais dans l’effort réfléchi d’une stratégie altruiste, relève de ce souci de soi en structurant les conditions communes de communication et de production de contenus.

Ces pratiques de libertés se retrouvent dans l’œuvre de Michel de Certeau (Certeau 1990). Ce dernier oppose au principe d’assujettissement une lecture beaucoup plus fine du quotidien de l’homme ordinaire face à un ordre organisateur de la technologie. M. de Certeau s’interroge d’abord sur notre état de consommateur dans une économie de production où nous serions docilement soumis à la manipulation par dispositifs communicationnels interposés de marketing ou de télévision. Comment comprendre que la masse de nos singularités puisse être comprise comme un tout uniforme soumis au pouvoir des dispositifs sociotechniques de l’économie ou de l’État ? Au contraire, dans les messages qu’il reçoit, dans ses manières de consommer ou d’agir avec les techniques qu’on lui vend ou qu’on lui impose, il y a toujours chez l’individu un moment de réappropriation tactique qui est en soi un mode de production selon le contexte, un réemploi qui est quelque chose de plus que le seul usage, c’est-à-dire une manière de faire et une manière d’être qui sont à nulles autres pareilles. Or, alors même que les critiques des GAFAM montrent à quel point l’économie numérique influe sur nos quotidiens au point de s’en emparer en pillant notre vie privée, il s’avère que l’équation n’est peut-être pas aussi simple du point de vue individuel. L’approche du quotidien comme celle de Michel de Certeau peut sans doute édulcorer l’idée d’un assujettissement général aux dispositifs de pouvoir.

Alan Westin, l’une des figures intellectuelles des débats publics sur la vie privée au début des années 1970, a longuement travaillé avec de grands instituts de sondage sur la manière dont la population américaine perçoit les risques liés à l’usage des données personnelles dans l’économie numérique. Il dirigea pas moins de 45 sondages entre 1979 et 2001. L’une de ses conclusions est que, si dans les années 1980 une petite partie seulement des personnes se sentait concernée par la question de la vie privée, les années 1990 connurent une multiplication des pratiques et stratégies des consommateurs pour veiller sur cette question. Il résume lors d’une intervention au Congrès en 2001 (Westin 2001) :

Au fil des ans, les sondages que j’ai menés auprès de Harris et de Opinion Research Corporation m’ont permis de dresser un profil de trois segments du public américain. Premièrement, il y a ce que nous appelons les « fondamentalistes de la protection de la vie privée », soit environ 25 % de la population. Il s’agit de personnes très préoccupées par la protection de la vie privée, qui rejettent généralement les avantages qui leur sont offerts par les entreprises ou qui sont sceptiques quant au besoin d’information du gouvernement, et qui veulent voir une loi pour contrôler la collecte et l’utilisation des renseignements personnels par les entreprises.

À l’opposé, il y a ce que j’appelle les « non-concernés », qui étaient auparavant de 20 %, mais qui sont maintenant tombés à 12 %, et qui ne savent vraiment pas de quoi il s’agit. J’aime à penser que pour 5 cents de rabais, ils vous donneront toutes les informations que vous voulez sur leur famille, leur style de vie, leurs plans de voyage, etc.

Entre les deux, il y a ce que nous appelons les « pragmatiques de la protection de la vie privée », soit 63 %, ce qui représente environ 126 millions d’adultes américains et, essentiellement, ils passent par un processus très structuré lorsqu’ils se préoccupent de leur vie privée.

Cet état des lieux montre à quel point l’écrasante majorité des personnes élabore des stratégies (et Michel de Certeau aurait parlé de tactiques) en réponse aux dispositifs de surveillance, alors même que la critique dominante des pratiques des entreprises et des États a tendance à présupposer la passivité chronique de toute la population. Et le problème ne cesse de s’aggraver. Dans un documentaire de 2020 intitulé The Social Dilemma, des « repentis » des grandes entreprises telles Facebook, témoignent à l’encontre des pratiques de captation de l’attention et d’extraction des données personnelles dont ils ont participé à la mise en œuvre. Au long du documentaire, le présupposé consiste à démontrer que seuls les experts des technologies numériques qui ont effectivement travaillé dans ces entreprises seraient à même de développer un discours légitime à leur propos. L’idée sous-jacente serait qu’il n’y peut y avoir de critique des dispositifs techniques en dehors de ces dispositifs. La société ne peut qu’être soumise à ce déterminisme technologique dans la mesure où l’expertise se concentre à l’intérieur du modèle économique qui crée la technologie.

On voit à quel point cette idée est décalée de la réalité car non seulement les utilisateurs créent dans leur quotidien des stratégies de réappropriation mais, de plus, ces stratégies ont toujours existé, depuis les phreakers jusqu’au détournement des services de catalogue commerciaux Prodigy en salons de chat à la fin des années 1980 jusqu’à la création de logiciels et services libres de réseaux sociaux. Des espaces de résistance se sont formés et n’appartiennent pas uniquement aux experts. Ces tactiques du quotidien sont diffuses et universelles. La logique et l’éthique hacker ont su gagner les mentalités et la culture.

On pourra néanmoins rétorquer qu’une analyse sociologique montrerait que l’adoption des dispositifs alternatifs a toujours besoin d’une expertise, et que par conséquent se développent là aussi des jeux de pouvoir entre spécialistes et non spécialistes. C’est d’autant moins vrai que de plus en plus de collectifs ouverts aux non-spécialistes proposent une organisation contributive des dispositifs techniques, c’est-à-dire la possibilité pour tous les utilisateurs d’accomplir leurs actes de réappropriation dans des espaces communs et dans un engagement éthique. Par exemple : ne pas exiger un service de courrier électronique à la hauteur de ce que les grandes firmes proposent, mais en retour avoir la possibilité d’utiliser un service de confiance, dont on connaît les responsables de maintenance. Répondre à des offres de services globaux et basées sur des logiques de profits en initialisant de nouvelles chaînes de confiance dans un système de pair à pair, local et contributif, telle est la réponse « populaire » à la défaite de l’assujettissement, de l’aliénation ou du refuge spirituel.

En fin de compte, il ne suffit pas de s’approprier ou de transformer les techniques (la perversion de l’éthique hacker par les chantres de la Silicon Valley l’a bien montré). La déprolétarisation pensée par Bernard Stiegler ne se suffit pas à elle-même : c’est dans un système contributif qu’il faut créer des techniques qui n’ont pas de prise aliénante sur l’homme. L’éthique du logiciel libre non plus ne se suffit pas : il faut pour lui donner corps des collectifs qui mettent en œuvre concrètement des systèmes de pair à pair producteurs d’organisation, de pratiques mais aussi de biens et services. Ces collectifs préfigurent des modèles organisationnels de demain, c’est-à-dire que les apprentissages organisationnels, les procédures démocratiques qu’ils mettent en œuvre tout autant que les services et les biens qu’ils produisent s’élaborent collectivement et simultanément, sans obéir à des schémas préexistants mais en s’adaptant aux contextes divers dans lesquels ils se déploient, et afin de refléter une ou plusieurs idées de la société future (voir à ce propos des mouvements préfiguratifs les travaux de Carl Boggs, David Graeber et Mariane Maeckelbergh).

Pour terminer cette conclusion, une proposition déclarative. Il est troublant de constater que dans la conclusion de leur article, M. Dulong de Rosnay et de F. Musiani proposent, pour que les alternatives au capitalisme numérique puissent aboutir, un triptyque composé d’un environnement de partage (juridiquement sécurisé), de la recherche et la diffusion des connaissances historiques et techniques. Nous établissons un parallèle avec le triptyque de David Graeber et Andrej Grubacic (Graeber and Grubacic 2004) à propos de l’avenir des mouvements anarchistes au XXIe siècle qui, pour se déployer au mieux (et dans un mouvement que nous pouvons qualifier de préfiguratif, là aussi) ont besoin de la jonction entre militants, chercheurs et organisations populaires. Les mouvements collectifs du futur Internet établiront ces jonctions sur les déclinaisons suivantes des dispositifs socio-techniques communicationnels :

  • indétermination du dispositif (logique d’ouverture et innovation collective permanente),
  • neutralité et communalité assurées par le design matériel et logiciel,
  • interopérabilité et compatibilité,
  • responsabilité juridique et indépendance institutionnelle,
  • pérennité des protocoles et contributions (RFC, copyleft)
  • décentralisation, déconcentration des ressources (matérielles et financières)
  • fédération des instances et gouvernementalité multiorganisationnelle,
  • inclusion de tous et refus des formes de pouvoirs politiques, religieux, de classe ou capitalistes,
  • opposition radicale à toute forme de surveillance à des fins de profits privés.

Bibliographie

Abbate, Janet. 2012. “L’histoire de l’Internet Au Prisme Des STS.” Le Temps Des médias 18 (1): 170. https://doi.org/10.3917/tdm.018.0170.

—. 2018. “Code Switch: Alternative Visions of Computer Expertise as Empowerment from the 1960s to the 2010s.” Technology and Culture 59 (4): S134–59. https://doi.org/10.1353/tech.2018.0152.

Agamben, Giorgio. 2006. “Théorie des dispositifs.” Po&sie 115 (1): 25–33. https://www.cairn.info/revue-poesie-2006-1-page-25.htm.

—. 2014. Qu’est-ce qu’un dispositif ? Paris: Rivages.

Agre, Philip E. 2002. “Cyberspace As American Culture.” Science as Culture 11 (2): 171–89. https://doi.org/10.1080/09505430220137234.

Akrich, Madeleine. 2006. “La Description Des Objets Techniques.” In Sociologie de La Traduction : Textes Fondateurs, edited by Michel Callon and Bruno Latour, 159–78. Sciences Sociales. Paris: Presses des Mines. http://books.openedition.org/pressesmines/1197.

Aron, Raymond. 1944. “L’avenir Des Religions séculières I.” La France Libre 8 (45): 210–17.

Atten, Michel. 2013. “Ce Que Les Bases de Données Font à La Vie Privée. L’émergence d’un Problème Public Dans l’Amérique Des Années 1960.” Réseaux 178 (2): 21–53. https://doi.org/10.3917/res.178.0021.

Babbage, Charles. 1963. On the Economy of Machinery and Manufactures (1832). (1832) ed. New York: Kelley.

Baran, Paul. 1965. “Communications, Computers and People.” In AFIPS, Fall Joint Comput. Conf., 27:45–49. Thompson Book Co.

Bauwens, Michel, and Vasilis Kostakis. 2017. Manifeste Pour Une véritable économie Collaborative. Vers Une Société Des Communs. Paris: Éditions Charles Léopold Mayer. https://www2.eclm.fr/livre/manifeste-pour-une-veritable-economie-collaborative/.

Bolter, J. David. 1984. Turing’s Man: Western Culture in the Computer Age. Chapel Hill: The University of North Carolina Press.

Broca, Sébastien. 2018. Utopie du logiciel libre. Lyon, France: Éditions le Passager clandestin.

Bødker, Susanne, Pelle Ehn, Dan Sjögren, and Yngve Sundblad. 2000. “Cooperative Design — Perspectives on 20 Years with ‘the Scandinavian IT Design Model’.” In Proceedings of NordiCHI 2000. Stockholm. https://www.lri.fr/~mbl/ENS/DEA-IHM/papers/Utopia.pdf.

Callon, Michel. 2006. “Sociologie de l’acteur réseau.” In Sociologie de La Traduction : Textes Fondateurs, edited by Madeleine Akrich and Bruno Latour, 267–76. Sciences Sociales. Paris: Presses des Mines. http://books.openedition.org/pressesmines/1201.

Certeau, Michel de. 1990. L’invention du quotidien. 2 vols. Paris, France: Gallimard, DL 1990-1994.

Ceruzzi, Paul E. 1998. A History of Modern Computing. MIT Press. Cambridge, Mass.

Charnes, Abraham, William W. Cooper, J. DeVoe, and D. B. Learner. 1968a. “DEMON: A Management Model for Marketing New Products.” California Management Review 11 (1): 31–46.

—. 1968b. “DEMON, MARK II : An External Equation Approach to New Product Marketing.” Management Science 14 (8): 513–24.

Cohendet, Patrick, Frédéric Créplet, and Olivier Dupouët. 2003. “Innovation Organisationnelle, Communautés de Pratique Et Communautés épistémiques: Le Cas de Linux.” Revue Française de Gestion 29 (146): 99–121. https://doi.org/10.3166/rfg.146.99-121.

Colstad, Ken, and Efrem Lipkin. 1976. “Community Memory: A Public Information Network.” ACM SIGCAS Computers and Society 6 (4): 6–7. https://doi.org/10.1145/958785.958788.

Conner, Clifford D. 2011. Histoire populaire des sciences. Montreuil, France: Éditions L’Échappée.

Cooley, Mike. 1980. “Computerization – Taylor’s Latest Disguise.” Economic and Industrial Democracy 1: 523–39. https://doi.org/10.1177%2F0143831X8014004.

Debord, Guy. 1992. La société du spectacle. Paris, France: Gallimard.

Deleuze, Gilles. 1990. “Post-Scriptum Sur Les Sociétés de Contrôle.” In Pourparlers 1972-1990, 240–47. Paris: Éditions de minuit.

Doub, Bob. 2016. Community Memory: Precedents in Social Media and Movements. Computer History Museum. Mountain View.

Draus, Franciszek. 1995. “Max Weber Et La Liberté.” Revue Européenne Des Sciences Sociales 33 (101): 123–43. https://www.jstor.org/stable/40370104.

Dulong de Rosnay, Mélanie, and Francesca Musiani. 2020. “Alternatives for the Internet: A Journey into Decentralised Network Architectures and Information Commons.” tripleC: Communication, Capitalism & Critique, August, 622–29. https://doi.org/10.31269/triplec.v18i2.1201.

Ellul, Jacques. 1954. La technique ou l’enjeu du siècle. Paris, France: Armand Colin.

—. 1964. The Technological Society. New York: Vintage Books.

Etzioni, Amitai, Kenneth Laudon, and Sara Lipson. 1975. “Participatory Technology: The MINERVA Communications Tree.” Journal of Communication 25 (2): 64–74. https://doi.org/10.1111/j.1460-2466.1975.tb00581.x.

Fabius, Laurent. 1985. Brochure : Informatique Pour Tous. Paris: Éditions CNDP.

Feenberg, Andrew. 2014. “Vers une théorie critique de l’Internet.” Tic&Société 8 (1). https://doi.org/10.4000/ticetsociete.1382.

Feintrenie, Aurélie. 2003. Chronique de la grève de 1974 au Crédit lyonnais. Librairie Droz. https://www.cairn.info/le-credit-lyonnais-1863-1986--9782600008075-page-153.htm.

Foster, John Bellamy, and Robert W. McChesney. 2014. “Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age.” Monthly Review 66 (July). https://monthlyreview.org/2014/07/01/surveillance-capitalism/.

Foucault, Michel. 1984. Histoire de La Sexualité. Tome 3 -- Le Souci de Soi. Paris: Gallimard.

—. 1994a. “L’éthique Du Souci de Soi Comme Pratique de La Liberté.” In Dits Et Écrits IV, 708–29. Paris: Gallimard.

—. 1994b. “Le Jeu de Michel Foucault.” In Dits Et Écrits III, 298–329. Paris: Gallimard.

Garfinkel, Simson. 1999. Architects of the Information Society: Thirty-Five Years of the Laboratory for Computer Science at Mit. MIT Press. Cambridge, Mass.

Graeber, David, and Andrej Grubacic. 2004. “L’Anarchisme, Ou Le Mouvement révolutionnaire Du Vingt Et Unième Siècle.” The Anarchist Library. https://fr.theanarchistlibrary.org/library/david-graeber-andrej-grubacic-l-anarchisme-ou-le-mouvement-revolutionnaire-du-vingt-et-unieme-s.

Haigh, Thomas. 2001. “Inventing Information Systems: The Systems Men and the Computer, 1950–1968.” Business History Review 75 (1): 15–61. https://doi.org/10.2307/3116556.

Heidegger, Martin. 1958. “La Question de La Technique.” In Essais Et Conférences, 9–48. Paris: Gallimard.

Heilbroner, Robert L. 1967. “Do Machines Make History?” Technology and Culture 8 (3): 335–45. https://doi.org/10.2307/3101719.

Husson, Édouard. 2018. “Peter Thiel, Les Libertariens Et La Silicon Valley : Comme Une méchante Ombre Sur Les démocraties Occidentales.” Atlantico, January 7, 2018.

Kristal, Tali. 2013. “The Capitalist Machine: Computerization, Workers' Power, and the Decline in Labor’s Share Within U.S. Industries:” American Sociological Review, May. https://doi.org/10.1177/0003122413481351.

Latouche, Serge. 1991. La Planète Des Naufragés. Essai Sur l’après-développement. Paris: La Découverte.

—. 1995. La mégamachine. Raison Techno-Scientifique, Raison économique Et Mythe Du Progrès. Paris: La Découverte -- Bibliothèque du MAUSS.

Law, John. 1987. “On the Social Explanation of Technical Change: The Case of the Portuguese Maritime Expansion.” Technology and Culture 28 (2): 227–52. https://doi.org/10.2307/3105566.

Lundin, Per. 2011. “Designing Democracy: The UTOPIA-Project and the Role of the Nordic Labor Movement in Technological Change During the 1970s and 1980s.” In History of Nordic Computing 3, edited by John Impagliazzo, Per Lundin, and Benkt Wangler, 187–95. IFIP Advances in Information and Communication Technology. Berlin, Heidelberg: Springer. https://link.springer.com/book/10.1007/978-3-642-23315-9.

Maire, Edmond. 1977. “Préface.” In Les dégâts Du Progrès Les Travailleurs Face Au Changement Technique, edited by Jean-Louis Missika, Jean-Philippe Faivret, and Dominique Wolton. Paris: Seuil.

Martin, James. 1978. The Wired Society. Englewood Cliffs, N.J: Prentice-Hall.

Martin, James, and Adrian R. D. Norman. 1970. The Computerized Society. An Appraisal of the Impact of Computers on Society over the Next 15 Years. Englewood Cliffs: Prentice-Hall.

Marx, Karl. 1896. Misère de La Philosophie. Paris: Giard et Brière.

Masutti, Christophe. 2020. Affaires Privées. Aux Sources Du Capitalisme de Surveillance. Paris: C&F Éditions.

Missika, Jean-Louis, Jean-Philippe Faivret, and Dominique Wolton. 1977. Les dégâts Du Progrès Les Travailleurs Face Au Changement Technique. Paris: Seuil.

Morozov, Evgeny. 2014. Pour Tout résoudre Cliquez Ici : L’aberration Du Solutionnisme Technologique. Paris: Éditions FYP.

Moussy, Jean-Pierre. 1988. “L’emploi au cœur de la mutation bancaire.” Revue d’économie financière 7 (3): 49–67. https://doi.org/10.3406/ecofi.1988.1547.

Mumford, Lewis. 1950. Technique Et Civilisation. Paris: Seuil.

—. 1973. Le mythe de la machine. Translated by Léo Dilé. 2 vols. Paris, France: Fayard.

—. 2014. “L’héritage de l’homme.” Translated by Annie Gouilleux. Notes & Morceaux Choisis -- Bulletin Critique Des Sciences, Des Technologies Et de La Société Industrielle 11.

Narcy, Michel. 1986. “Au Terme de Deux Enquêtes.” Informatique Et pédagogie -- Numéro Spécial de l’EPI 42: 53–60. https://www.epi.asso.fr/revue/histo/h85-gredip.htm.

Negri, Antonio, and Michael Hardt. 2004. Empire. Paris: 10/18.

Nelsen, Arvid. 2016. “Concern for the ‘Disadvantaged’: ACM’s Role in Training and Education for Communities of Color (1958–1975).” In Communities of Computing: Computer Science and Society in the ACM, by Thomas J. Misa, 229–58. New York: ACM Books.

Panzieri, Raniero. 1968. Quaderni Rossi. Luttes Ouvrières Et Capitalisme d’aujourd’hui. Paris: Maspéro.

Pestre, Dominique. 2006. Introduction Aux Science Studies. Paris: La Découverte.

Pfaffenberger, Bryan. 1988. “The Social Meaning of The Personnal Computer : Or Why the Personal Computer Revolution Was Not a Revolution.” Anthropological Quarterly 61 (1): 39–47. https://doi.org/doi:10.2307/3317870.

Rawls, John. 1997. Théorie de la justice. Translated by Catherine Audard. Paris, France: Éditions du Seuil.

Rosenbrock, Howard Harry. 1977. “The Future of Control.” Automatica (1975) 13: 389–92. https://doi.org/10.1016/0005-1098(77)90022-X.

Rossman, Michael. 1976. “Implications of Community Memory.” ACM SIGCAS Computers and Society 6 (4): 7–10. https://doi.org/10.1145/958785.958789.

Schmitt, Carl. 1988. Théologie politique. Translated by Jean-Louis Schlegel. Paris, France: Gallimard.

Simondon, Gilbert. 1969. Du Mode d’existence Des Objets Techniques. Paris: Aubier-Montaigne.

Smith, Merritt Roe. 1994. “Technological Determinism in American Culture.” In Does Technology Drive History?, edited by Merritt Roe Smith and Leo Marx, 1–35. Cambridge: MIT Press.

Smith, Steve. 1989. “Information Technology in Banks: Taylorization or Human-Centered Systems?” In Computers in the Human Context, edited by Tom Forester, 377–90. Cambridge: MIT Press.

Solove, Daniel J. 2002. “Conceptualizing Privacy.” California Law Review 90 (4): 1132–40. https://ssrn.com/abstract=313103.

Sundblad, Yngve. 2011. “UTOPIA: Participatory Design from Scandinavia to the World.” In History of Nordic Computing 3, edited by John Impagliazzo, Per Lundin, and Benkt Wangler, 176–86. IFIP Advances in Information and Communication Technology. Berlin, Heidelberg: Springer. https://link.springer.com/book/10.1007/978-3-642-23315-9.

Thoreau, Henri David. 1922. Walden Ou La Vie Dans Les Bois. Translated by Louis Fabulet. Paris: La Nouvelle Revue Française.

Turner, Fred. 2012. Aux Sources de l’utopie Numérique : De La Contre Culture à La Cyberculture. Stewart Brand, Un Homme d’influence. Caen: C&F Editions.

Turoff, Murray, and Starr Roxane Hiltz. 1994. The Network Nation: Human Communication via Computer. Cambridge: MIT Press.

Vinck, Dominique. 2012. “Manières de Penser l’innovation.” In Les Masques de La Convergence. Enquêtes Sur Sciences, Industries Et Aménagements, by Bernard Miège and Dominique Vinck, 125–48. Paris: Éditions des Archives contemporaines.

Westin, Alan F. 1967. Privacy and Freedom. New York: Atheneum.

—. 2001. “Opinion Surveys: What Consumers Have to Say About Information Privacy.” In Hearing Before the Subcommittee on Commerce, Trade and Consumer Protection of the Committee on Energy and Commerce, 107th Congress. https://www.gpo.gov/fdsys/pkg/CHRG-107hhrg72825/html/CHRG-107hhrg72825.htm.

Wyatt, Sally. 2008. “Technological Determinism Is Dead; Long Live Technological Determinism.” In The Handbook of Science and Technology Studies. Third Edition, edited by Edward J. Hackett, Olga Amsterdamska, Michael Lynch, and Judy Wajcmann, 165–80. Cambridge: MIT Press.

Zuboff, Shoshana. 1988. In The Age Of The Smart Machine: The Future Of Work And Power. New York: Basic Books.

—. 2019. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: Public Affairs.

Notes


  1. La citation : « Le moulin à bras vous donnera la société avec le suzerain ; le moulin à vapeur, la société avec le capitaliste industriel ». ↩︎

  2. Publicité Apple parue dans le magazine Byte en décembre 1977, page 2. La reproduction est disponible sur commons.wikimedia.org. URL. ↩︎

  3. Voir la définition de hacker dans le Jargon File. URL ↩︎

  4. Trades Union Congress Report 1956, TUC history online, p. 518-519. ↩︎

  5. Trades Union Congress Report 1965, TUC history online, p. 136. ↩︎

  6. United States National Commission on Technology, Automation, and Economic, Technology and the American Economy: Report, vol. III, p. 57. ↩︎

  7. Écouter l’émission La Fabrique de l’Histoire (France Culture) : Quand les banquiers criaient « À bas les profits ! », 13 mars 2012. URL. ↩︎

  8. Karl Marx, Le Capital, livre I, ch. 4 — Le caractère fétiche de la marchandise et son secret. ↩︎

  9. Pour citer Serge Latouche: « la technique n’est pas un instrument au service de la culture, elle est la culture ou son tenant lieu ». ↩︎

02.06.2020 à 02:00

Affaires privées : les coulisses

À la suite d’un échange sur une plateforme de microblogage, j’ai promis de décrire ma méthode de production de manu-(tapu)scrit en vue de l’édition d’un livre. Ce billet vise à montrer à quel point les formats ouverts sont importants dans un processus d’écriture. Il témoigne de mes préférences et n’est en aucun cas une méthode universelle. Cependant j’ose espérer qu’il puisse donner quelques pistes profitables à tous !

Identification des besoins

Le livre dont il est question ici (il est bien, achetez-le !) s’intitule Affaires privées. Aux sources du capitalisme de surveillance, publié chez C&F Éditions, mars 2020. Il fait un peu moins de 500 pages. La production du manuscrit proprement dit (le fichier qu’on envoie à l’éditeur) m’a pris environ 5 mois. Sur cette base, l’équipe éditoriale (qu’elle en soit ici remerciée) s’est livrée au travail de relecture, avec plusieurs va-et-vient avec moi pour les corrections, et enfin un gros travail de mise en page.

Ce dont je vais traiter ici concerne la production du tapuscrit, et donc le processus d’écriture proprement dit, qui regarde essentiellement l’auteur. Pour le reste, il s’agit d’un travail éditorial avec d’autres contraintes.

Au risque d’être un peu caricatural il va me falloir décrire rapidement ce qu’est un travail de recherche en histoire et philosophie des sciences. On comprendra mieux ainsi pourquoi le choix des formats de fichiers est important dans l’élaboration d’un flux de production d’écriture pour un document long, comme un livre, ou même lorsqu’on s’apprête à écrire un article.

Dans ce type de travail, il ne suffit pas de récolter des documents historiques (pour ce qui me concerne, il s’agit de textes, photos, vidéos). Ces sources sont stockées dans différents formats, surtout des PDF (par exemple des fac-similés, des copies d’articles), des transcriptions sous forme de texte (le plus souvent dans un format texte de base), etc. Étant donnée cette diversité, un premier impératif consiste à ne pas sur-ajouter des formats et tâcher de faire en sorte que les notes de consultation soient accessibles dans un format unique et le plus malléable possible. Par ailleurs, se pose aussi la question du stockage de ces sources : les avoir à disposition, où que je me trouve, et m’assurer de la pérennité de leur sauvegarde.

Outre les sources, je dispose de travaux d’écriture préalables. Écrire un manuscrit en 5 mois n’est possible qu’à la condition d’avoir aussi à disposition une matière déjà travaillée en amont, comme un terrain préparatoire à l’écriture proprement dite. Il faut considérer ces travaux préparatoires comme des sources avec un statut particulier.

Il en est de même pour les notes de lectures qui sont aussi des réflexions sur les enjeux philosophiques, historiques et politiques, la méthodologie, les idées critiques, bref des sources particulières puisque produites par moi et toujours soumises à modifications au fur et à mesure de la maturité d’une pensée et de l’acquisition de connaissances.

Se pose ensuite la question du recensement des sources et, de manière générale, toute la bibliographie qu’il faudra utiliser dans le manuscrit. Dans ce genre de discipline, au risque de barber sérieusement le lecteur, une forme d’obligation consiste à citer la bibliographie « à la page » chaque fois que cela est possible. Afin de pouvoir mobiliser ces éléments qui se chiffrent par centaines, il faut bien entendu avoir un système capable de trier, classer, et sortir des références bibliographiques exploitables.

Un autre impératif consiste à élaborer un flux d’écriture qui soit à la fois rapide et efficace tout en l’édulcorant au maximum des contraintes logicielles. Ces contraintes peuvent être liées à la « lourdeur » du logiciel en question, par exemple le temps passé à saisir la souris pour cliquer sur des icônes est autant de temps en moins consacré à l’écriture. Se libérer de ces contraintes va de pair avec une certaine libération des contraintes matérielles : l’idéal consiste à pouvoir écrire sur différents supports c’est-à-dire un ou plusieurs ordinateurs, un smartphone ou une tablette. Pour ce qui me concerne, se trouver coincé par l’accès à un logiciel sur un seul type de support m’est proprement insupportable.

En résumé, les besoins peuvent s’énumérer ainsi : écrire, utiliser différentes machines, synchroniser et sauvegarder, gérer et exploiter une bibliographie, produire un résultat. Allons-y.

Écrire

C’est de plus en plus répandu : les utilisateurs qui produisent du contenu en écriture n’utilisent plus uniquement les logiciels de traitement de texte tels MSWord ou LibreOffice Writer en première intention. Demandez-vous par exemple ce qu’utilisent tous les blogueurs via des interfaces d’écriture en ligne, ou regardez de près le logiciel de prise de notes que vous avez sur votre smartphone : la mise en page est assurée ultérieurement, tout ce que vous avez à faire est simplement d’écrire.

Si j’ai traduit et adapté un manuel sur LibreOffice Writer, c’est parce que je considère ce logiciel comme l’un des plus aboutis en traitement de texte mais aussi parce que le format Open Document est un format ouvert qui permet l’interopérabilité autant qu’un travail post-production. Il en est de même pour LaTeX (qui est un système de composition) et dont les fonctionnalités sont quasi infinies. J’adore LaTeX.

Alors… pourquoi ne pas utiliser d’emblée l’un de ces deux logiciels ? Parce que ce dont j’aimerais vous parler ici, ce n’est pas de la production de document, mais de l’écriture elle-même. Mélanger les deux signifie anticiper la production finale (au risque de se tromper). Quoi qu’on en dise, c’est en tout cas mon cas, on se laisse facilement distraire par les fonctionnalités du logiciel.

Pour écrire, et simplement écrire, je n’ai besoin que d’un éditeur de texte. C’est-à-dire un logiciel qui me permet d’entrer du texte et d’enregistrer sans information de formatage (on parle de plain text) ou alors le strict minimum. C’est sur ce strict minimum qu’il faut réfléchir en allant un peu plus loin dans le raisonnement.

En effet, lors de la production finale, je n’ai pas très envie de revenir sur chaque partie du texte nécessitant un traitement typographique au cours de l’écriture. Par exemple certains mots en emphase, le signalement des titres de parties, sections et sous-sections. Idem, j’ai aussi besoin de pouvoir formater mon texte de manière à ce qu’il se prête ultérieurement à toutes les transformations envisageables nécessitant un processus de traitement comme la génération des références bibliographiques ou l’ajout de liens (URLs). Ces choses-là sont toujours possibles en plain text mais il y a des solutions plus pratiques.

Il existe un format très intéressant : le markdown. C’est du texte, mais avec quelques ajouts d’informations très simples qui permettent un traitement ultérieur lors de la production finale. Ce langage de balisage est léger. Il nécessite un apprentissage de quelques minutes et il s’applique facilement au cours de l’écriture sans la freiner outre mesure. C’est dans ce format que j’écris, y compris par exemple le texte de ce billet de blog. Ce format est par définition ouvert (cela reste du texte).

En pratique, il ne reste plus qu’à choisir l’éditeur de texte ou un éditeur de texte spécialisé en markdown. Sur ce point j’ai déjà eu l’occasion de me prononcer sur ce blog. Par aillieurs, j’accorde beaucoup d’importance au confort visuel de l’écriture. La possibilité de configurer l’affichage l’éditeur (couleurs du fond, style de la police, de la syntaxe, raccourcis, etc.), en jouant notamment sur les contrastes, me permet d’écrire plusieurs heures durant sans avoir trop de gêne visuelle. Il s’agit d’un confort personnel. Il y a d’autres fonctionnalités que l’on trouve dans les éditeurs de texte1, par exemple :

  • éditer le texte à plusieurs endroits à la fois avec un split de fenêtres,
  • faire des recherches sur des expressions régulières,
  • un panneau latéral ouvrant le contenu du dossier sur lequel on travaille,
  • le surlignage d’occurrences,
  • la possibilité d’avoir accès à un terminal sans quitter l’éditeur2,
  • etc.

Enfin, j’y reviendrai plus tard, l’utilisation de fichiers non binaires se prête admirablement à l’utilisation de Git, un outil de gestion de version qui, dans mon cas, me sert surtout à sauvegarder et synchroniser mon travail d’écriture. Et il se prête tout aussi admirablement à la conversion vers d’autres formats à leur tour exploitables tels odt, html et tex.

Mes éditeurs de texte préférés du moment sont les suivants : Gedit, Atom, Ghostwriter. Depuis peu, j’utilise aussi Zettlr pour mes notes, voyez ici.

Utiliser différentes machines

Au fur et à mesure de l’avancée des travaux, on se retrouve généralement à utiliser différents dispositifs. La question se pose : doit-on réserver uniquement la tâche d’écriture à l’ordinateur de son bureau ? Pour moi, la réponse est non.

Sur tous les ordiphones et tablettes, il existe des logiciels de prise de notes qui utilisent le format texte et, comme c’est souvent le cas, le markdown. L’application Nextcloud, par exemple, permet aussi d’utiliser Nextcloud Notes, un logiciel de prise de notes qui synchronise automatiquement les notes sur un serveur Nextcloud (on peut le faire aussi avec n’importe quelle application de notes pourvu que l’on sauvegarde ses fichiers dans le dossier synchronisé). Cela est utile dans les cas suivants :

  • le processus d’écriture n’est pas toujours « sur commande ». Même si les meilleures idées ne surgissent pas toujours inopinément, et même si bien souvent ce qu’on pensait être une bonne idée s’avère être un désastre le lendemain, il est utile de pouvoir développer quelques passages sans pour autant être assis à son bureau. J’utilise pour cela Nextcloud Notes, soit en tapant directement la note, soit par dictée vocale.
  • recopier tout un texte lorsqu’on est en train de consulter des documents ? que nenni, soit on utilise un scanner et un logiciel de reconnaissance de caractères, soit on peut carrément utiliser son ordiphone (avec ce logiciel par exemple), pour produire un texte à placer dans ses notes.

L’essentiel est de ne pas dépendre d’un dispositif unique présent dans un lieu unique. On peut utiliser plusieurs ordinateurs et des lieux différents, utiliser l’ordiphone qu’on a toujours avec soi, la tablette sur laquelle on lit un livre et exporte des notes de lecture…

Tout ceci permet de générer rapidement des ressources exploitables et de les organiser en provenance de différents outils. Pour cela d’autres logiciels doivent encore être utilisés afin de sauvegarder et de synchroniser.

Synchroniser et sauvegarder

Comme je viens d’en discuter, l’organisation est primordiale mais s’en préoccuper sans cesse est plutôt lassant. Mieux vaut automatiser le plus possible.

Séparons dans un premier temps ce qui a trait à la gestion des sources documentaires et la production écrite.

Pour la gestion documentaire, l’ensemble est stocké sur un serveur Nextcloud (hébergé sur un serveur de confiance3). Sur chaque machine utilisée, une synchronisation est paramétrée avec un client Nextcloud. On travaille directement dans le dossier qui se synchronise automatiquement.

Pour la production écrite, c’est Git qui sera utilisé avec un serveur Gitlab (Framagit en l’occurrence). Sont concernés les fichiers suivants :

  • l’écriture des chapitres (fichiers .md),
  • les notes (autres que les notes de lecture) (fichiers .md),
  • le fichier bibtex de la bibliographie (contenant aussi le référencement descriptif de chaque source documentaire ainsi que les notes de lecture) (fichiers .bib).

Pour terminer, il faut aussi penser à faire une sauvegarde régulière de l’ensemble sur le second disque dur de la machine principale sur laquelle je travaille, doublée d’une sauvegarde sur un disque externe. La première sauvegarde est automatisée avec rsync et tâche cron exactement comme c’est décrit dans ce billet. La seconde tâche pourrait aussi être automatisée, mais je la fais manuellement pour éviter de toujours laisser branché le disque externe.

Gérer la bibliographie

Gérer sa bibliographie ne s’improvise pas. Il faut d’abord trouver le logiciel qui répond à ses attentes. Le choix est assez large pourvu que le logiciel en question puisse être en mesure d’exporter une bibliographie dans un format ouvert, exploitable par n’importe quel autre logiciel.

En la matière, selon moi, les deux formats intéressants sont le .bib et le .xml. Au stade de l’écriture, l’essentiel est donc de choisir un logiciel avec lequel on se sent à l’aise et dont les fonctionnalités d’export sont les plus étendues possibles. J’ai choisi Zotero et JabRef.

Pourquoi ces deux logiciels ? Dans les deux cas, des extensions permettent de les intégrer au navigateur Firefox (ainsi qu’à LibreOffice). Dans les deux cas on peut synchroniser la biblio en ouvrant un compte Zotero ou en plaçant son fichier .bib sur Nextcloud dans le cas de JabRef.

Mon usage est un peu exotique, je l’avoue : j’utilise Zotero pour engranger un peu tout et n’importe quoi et j’utilise JaBref pour mon travail proprement dit en utilisant le format .bibet souvent en éditant directement le fichier avec un éditeur de texte. Disons que le .bib final est un fichier très « propre » contenant pour l’essentiel la bibliographie citée alors que Zotero contient un peu de tout au gré des récupérations avec l’extension Firefox. Ce n’est pas l’essentiel : quoi qu’il en soit, lors de la production finale, on configurera ce qui doit apparaître ou non dans la bibliographie.

Enfin, je préfère utiliser le .bib car il est fait au départ pour le logiciel Bibtex lui-même destiné à une utilisation avec LaTeX. Si je veux pouvoir avoir le choix de production finale, autant utiliser ce format. En outre, sa lisibilité lorsqu’on l’édite avec un éditeur de texte permet de retravailler les informations, surtout en cas de problème d’encodage.

Produire un résultat

Nous voici arrivés à la production du manuscrit (on dit plutôt un tapuscrit dans ce cas). Il faut alors se demander ce que veut l’éditeur. Dans notre cas, il s’agissait de produire un fichier .odt avec une présentation complète de la bibliographie.

Nous avons à disposition des fichiers markdown et un fichier bibtex. On peut en faire exactement ce qu’on veut, à commencer par les éditer ad vitam æternam en plain text.

On notera que pour entrer des références bibliographique dans un document en markdown, la syntaxe est très simple et l’utilisation est décrite dans plusieurs billets de ce blog.

On utilisera pour cela un logiciel libre du nom de Pandoc qui permet non seulement de convertir du markdown en plusieurs types de formats mais aussi d’effectuer simultanément des opérations de compilation pour la bibliographie avec un processeur CSL nommé citeproc.

En effet, pour présenter la bibliographique il faut utiliser un format de style bibliographique. On utilise le Citation Style Language (CSL) qui est basé sur un agencement de champs en XML. Pour créer un modèle CSL, le mieux est encore de partir sur la base de modèles existants et adapter le sien. Il existe par exemple cet éditeur CSL.

En d’autres termes il s’agit d’ordonner ceci à Pandoc :

S’il te plaît, transforme mon fichier markdown en fichier au format .odt tout en utilisant la bibliographie que voici au format .bib et le modèle de présentation de bibliographie .csl que voici.

La ligne de commande est alors la suivante :

pandoc -s --bibliography mabiblio.bib --filter pandoc-citeproc --csl modif-monmodele.csl fichier-entree.md -o fichier-sortie.odt

Cela c’est pour l’éditeur ! pour ce qui me concerne, ce sera plutôt une transformation en .tex et une bonne vieille compilation avec XeLaTex + Biber avec un style de mise en page sympathique. De même… pour du epub.

Le seul ennui est qu’à ce stade il fallait encore travailler le texte et tout le processus de relecture qui s’est déroulé exclusivement avec LibreOffice Writer et la fonction de suivi de modification. On a donc quitté la quiétude des fichiers texte pour entrer dans un processus d’échange de fichiers .odt. Ce travail aurait tout aussi bien pu s’effectuer avec Git, évidemment. Mais au bout du compte il aurait tout de même fallu créer un .odt avec les styles de l’éditeur afin d’entrer le tout dans la moulinette de son processus éditorial. Mais cela ne nous… regarde pas.

Conclusion

Comme on peut le voir, tout le processus considère le fichier .odt comme un format obtenu en fin de production et non pas un format sur lequel on travaille directement. C’est une posture qui se justifie par la volonté de conserver la plus grande malléabilité possible sur les résultats finaux et sur la manipulation des fichiers de travail.

Par ailleurs concernant le flux de production d’écriture, une fois l’habitude prise, il est extrêmement confortable d’écrire « au kilomètre » dans un éditeur de texte bien configuré et qui, par sa légèreté n’a besoin que de très peu de ressources système.

Toute l’importance des formats ouverts est là, tant au niveau de la lecture avec différents logiciels qu’au niveau de la production finale et l’interopérabilité qu’ils permettent. De la même manière, on peut voir que tout le travail s’est effectué avec des logiciels libres (et sur des systèmes d’exploitation libres). Le grand choix dans ce domaine permet à chacun de travailler selon ses envies et ses petites manies.


  1. Certaines de ces fonctionnalités se retrouvent aussi sur LibreOffice Writer, bien entendu, mais je trouve que leur accès est plus rapide dans un éditeur de texte simple. ↩︎

  2. Certains me diront d’utiliser Emacs ou Vim. C’est ce que je fais de temps en temps mais l’apport vis-à-vis de mon travail n’est pas significatif. ↩︎

  3. Il s’agit de mon serveur à moi et aussi du serveur destiné à l’usage interne des membres de l’association Framasoft. J’utilise les deux mais c’est un détail. ↩︎

11.05.2020 à 02:00

Revue articles et communications autour de Stop-Covid

Afin de garder une trace (!) des débats qui enflamèrent l’opinion publique lors de la crise sanitaire du printemps 2020, voici une revue partielle d’articles parus dans la presse et quelques communications officielles autour de l’application Stop-Covid, entre discours réalistes et solutionnisme technologique (cette liste est mise à jour régulièrement, autant que possible).

Presse écrite et en ligne

Numerama (18/06/2020), « StopCovid a été lancé alors que même la Cnil ne savait pas comment l’app fonctionnait »

Un chercheur a montré que le fonctionnement technique de StopCovid n’était pas similaire à ce qui était annoncé par le gouvernement, ce qui est écrit dans le décret d’application et même ce qui a été validé par la Cnil. … En résumé, la Cnil a validé un dispositif qui n’est pas celui qui est utilisé aujourd’hui dans l’application que tous les Français et Françaises sont fortement invités à utiliser, par le gouvernement et à grands coups de campagnes de communication. Comme on peut le voir au point numéro 37 qui était abordé dans l’avis du 25 mai, la Commission avait d’ailleurs elle-même « [pris] acte de ce que l’algorithme permettant de déterminer la distance entre les utilisateurs de l’application reste à ce stade en développement et pourra subir des évolutions futures ».

Le Monde - Pixel (16/06/2020), « L’application StopCovid collecte plus de données qu’annoncé »

Un chercheur a découvert que l’application collectait les identifiants de toutes les personnes croisées par un utilisateur, pas seulement celles croisées à moins d’un mètre pendant quinze minutes.

Mediapart (15/06/2020), « StopCovid, l’appli qui en savait trop »

Loin de se limiter au recensement des contacts « à moins d’un mètre pendant au moins quinze minutes », l’application mise en place par le gouvernement collecte, et transfère le cas échéant au serveur central, les identifiants de toutes les personnes qui se sont « croisées » via l’appli. De près ou de loin.

L’Usine Digitale (12/06/2020), « L’application StopCovid n’a été activée que par 2 % des Français »

Échec pour StopCovid. Du 2 au 9 juin, seuls 2 % des Français ont téléchargé et activé l’application. Un chiffre beaucoup trop bas pour qu’elle soit utile. Au moins 60 % de la population d’un pays doit utiliser un outil de pistage numérique de ce type pour que celui-ci puisse détecter des chaînes de contamination du virus.

Dossier Familial (12/06/2020), « Le flop de l’application StopCovid »

Alors même que son efficacité dépend de son succès, l’application StopCovid n’est utilisée effectivement que par environ 350 000 personnes.

France Inter (11/06/2020), « Coût et soupçon de favoritisme : l’appli StopCovid dans le collimateur d’Anticor »

L’association Anticor, qui lutte contre la corruption, a déposé un signalement auprès du Procureur de la République. Le coût de l’application StopCovid est en cause. L’inquiétude ne porte pas sur l’utilisation de nos données, mais sur son coût et… un soupçon de favoritisme.

Liberation (11/06/2020), « L’application StopCovid utilise-t-elle des services des Gafam ? »

Le logiciel développé par le gouvernement français a bien recours au «Captcha» de Google mais n’est pas hébergé sur des serveurs Microsoft (contrairement au projet, distinct, de Health Data Hub).

Le Monde (10/06/2020) « L’application StopCovid, activée seulement par 2 % de la population, connaît des débuts décevants »

Le coût de l’application de suivi de contacts, désormais supportée par l’Etat, pose question, une semaine après son lancement.

Slate.fr (03/06/2020), « Les trois erreurs qui plombent l’application StopCovid »

Ce projet tout à fait louable s’est écrasé en rase campagne en quelques semaines alors que tous les feux étaient au vert.

Nouvel Observateur (02/06/2020), « StopCovid, une application au coût salé »

L’application de lutte contre le Covid-19 a été développée gratuitement par des chercheurs et partenaires privés. Toutefois, depuis son lancement mardi 2 juin, sa maintenance et son hébergement sont bel et bien facturés, entre 200 000 et 300 000 euros par mois.

TV5 Monde (01/06/2020), StopCovid : « C’est le signe d’une société qui va très mal et qui est en train de devenir totalement paranoïaque »

A partir de ce mardi 2 juin, l’application StopCovid débarque en France. Son but : pister le Covid-19 pour éviter sa propagation. Alors cette application est-elle vraiment efficace ? Nos données personnelles sont-elles menacées ? Entretien avec Benjamin Bayart, ingénieur français, ancien président de French Data Network et co-fondateur de la Quadrature du Net.

The Conversation (25/05/2020) « Données de santé : l’arbre StopCovid qui cache la forêt Health Data Hub »

Le projet de traçage socialement « acceptable » à l’aide des smartphones dit StopCovid, dont le lancement était initialement prévu pour le 2 juin, a focalisé l’intérêt de tous. Apple et Google se réjouissaient déjà de la mise en place d’un protocole API (interface de programmation d’application) qui serait commun pour de nombreux pays et qui confirmerait ainsi leur monopole.

Mais la forte controverse qu’a suscitée le projet en France, cumulée au fait que l’Allemagne s’en est retirée et à l’échec constaté de l’application à Singapour, où seulement 20 % des utilisateurs s’en servent, annoncent l’abandon prochain de StopCovid.

« Ce n’est pas prêt et ce sera sûrement doucement enterré. À la française », estimait un député LREM le 27 avril auprès de l’AFP.

Pendant ce temps-là, un projet bien plus large continue à marche forcée : celui de la plate-forme des données de santé Health Data Hub (HDHub).

The Guardian (23/05/2020), « How did the Covidsafe app go from being vital to almost irrelevant? »

The PM told Australians in April the contact tracing app was key to getting back to normal but just one person has been identified using its data (En avril, le Premier ministre a déclaré aux Australiens que l’application de recherche des contacts était la clé du retour à la normale, mais seule une personne a été identifiée grâce à ses données)

Politico (20/05/2020) « Meet the Dutchman who cried foul on Europe’s tracking technology »

The national privacy watchdog has repeatedly broken ranks with EU peers over tracing technology. His approach seems to be winning.

(…) Alors que les gouvernements européens s’empressent d’adopter la technologie pour lutter contre le coronavirus, un Néerlandais au franc-parler est apparu comme une épine dans leur pied.

Le message d’Aleid Wolfsen : Ne prétendez pas que vos solutions sont respectueuses de la vie privée.

“Nous devons éviter de déployer une solution dont on ne sait pas si elle fonctionne réellement, avec le risque qu’elle cause principalement d’autres problèmes”, a déclaré en avril le responsable de l’autorité néerlandaise chargée de la protection de la vie privée, en référence aux applications de suivi des coronavirus pour smartphones en cours de développement dans la plupart des pays de l’UE.

Le Monde (18/05/2020), Tribune – Coronavirus : « Sur l’application StopCovid, il convient de sortir des postures dogmatiques »

Chercheurs à l’Inria et travaillant sur l’application StopCovid, Claude Castelluccia et Daniel Le Métayer mettent en garde, dans une tribune au « Monde », contre les oppositions de principe, notamment à un système centralisé, qui ne reposent pas sur une analyse précise des risques potentiels et des bénéfices attendus. (…)

(…) Même si la valeur ajoutée d’une application comme StopCovid dans le processus plus global de traçage (qui repose sur des enquêtes menées par des humains) reste à déterminer et à évaluer précisément…

The Economist (16/05/2020) « Don’t rely on contact-tracing apps »

Governments are pinning their hopes on a technology that could prove ineffective — and dangerous

Wired (13/05/2020), « Secret NHS files reveal plans for coronavirus contact tracing app »

Documents left unsecured on Google Drive reveal the NHS could in the future ask people to post their health status to its Covid-19 contact tracing app

Numerama (13/05/2020), « ‘Il n’y a rien du tout’ : la première publication du code source de StopCovid est inutile »

(…) les critiques et les moqueries ont fusé immédiatement sur ce qui a été publié le 12 mai. En effet, de l’avis de diverses personnes habituées à travailler avec du code informatique, ce qui est proposé ressemble surtout à une coquille vide. Impossible donc pour les spécialistes de passer aux travaux pratiques en analysant les instructions du logiciel.

Dalloz Actualité (12/05/2020) – par Caroline Zorn – « État d’urgence pour les données de santé (I) : l’application StopCovid »

À travers deux exemples d’actualité que sont l’application StopCovid (première partie) et le Service intégré de dépistage et de prévention (SIDEP) (seconde partie), la question de la protection des données de santé à l’aune du pistage est confrontée à une analyse juridique (et parfois technique) incitant à une réflexion sur nos convictions en période d’état d’urgence sanitaire. Cette étude a été séparée en deux parties, la première consacrée à StopCovid est publiée aujourd’hui.

Revue politique et parlementaire (11/05/2020), « Stopcovid : une application problématique sur le plan éthique et politique »

Pierre-Antoine Chardel, Valérie Charolles et Eric Guichard font le point sur les risques engendrés par la mise en œuvre d’une solution de type Stopcovid, solution techniciste de court terme qui viendrait renforcer une défiance des citoyens envers l’État et ses représentants, ou à l’inverse un excès de confiance dans le numérique, au détriment de projets technologiques soucieux de l’éthique et susceptibles de faire honneur à un État démocratique.

MIT Technology Review (11/05/2020) « Nearly 40% of Icelanders are using a covid app — and it hasn’t helped much »

The country has the highest penetration of any automated contact tracing app in the world, but one senior figure says it “wasn’t a game changer.”

Newstatesman – NSTech (11/05/2020), « The NHSX tracing app source code was released but privacy fears remain »

In a move designed to create the impression of radical transparency, NHSX finally released the source code for the UK’s Covid-19 tracing app last week. However, among experts, the reception was mixed.

Aral Balkan, software developer at Small Technology Foundation, expressed criticism that the source code for the server hadn’t been released, only that of the iOS and Android clients. “Without that, it’s a meaningless gesture,” he wrote on Twitter. “Without the server source you have no idea what they’re doing with the data.”

In further analysis, Balkan said the iOS app was “littered with Google tracking” and the app was using Firebase (a Google mobile and web application development platform) to build the app. He pointed out that Microsoft analytics also tracked what information the person has provided, such as partial postcode and collected contact events. 

France info, (09/05/2020) – Nouveau monde. Refuser l’application StopCovid revient à remettre en question notre système de santé, selon le directeur du comité d’éthique du CNRS

« Déjà, nous sommes tracés tous les jours par notre téléphone qui enregistre énormément d’informations. Surtout, nous sommes tous satisfaits de notre système étatique de santé et, avec un système étatique, contrairement aux États-Unis, l’État est nécessairement au courant de tout. L’État sait chez quels médecins nous allons, quels médicaments nous sont prescrits, quels hôpitaux nous fréquentons, etc. Bien sûr, cela doit se faire avec une certaine confidentialité mais si l’on prenait au sérieux certains discours actuels, cela remettrait en cause le système de santé tel qu’il existe aujourd’hui. Et ça, je pense que ce n’est pas légitime. »

Le Monde (08/05/2020), « Suivi des « cas contacts » : ce que contiendront les deux nouveaux fichiers sanitaires prévus par l’Etat Par Martin Untersinger »

La stratégie du gouvernement pour lutter contre une reprise de l’épidémie repose sur un suivi des « cas contacts ». Les autorités prévoient un « système d’information », reposant sur deux bases de données médicales : Sidep et Contact Covid.

Acteurs Publics, (07/05/2020) « Aymeril Hoang, l’architecte discret du projet d’application StopCovid »

Membre du Conseil scientifique Covid-19 en tant qu’expert du numérique, l’ancien directeur de cabinet de Mounir Mahjoubi au secrétariat d’État au Numérique a eu en réalité un rôle central, en coulisses, dans l’élaboration du projet d’application de traçage numérique StopCovid. Récit.

Les Echos (07/05/2020), « La Réunion lance sa propre appli de traçage… sans attendre StopCovid »

Des entrepreneurs réunionnais ont mis au point Alertanoo, une application mobile permettant aux habitants de l’île testés positifs au coronavirus d’alerter les personnes qu’elles ont croisées récemment.

Le Temps (06/05/2020), « A Singapour, le traçage par app dégénère en surveillance de masse »

Premier pays à avoir lancé le pistage du virus par smartphone de manière volontaire, Singapour lance un nouveau service liberticide, baptisé SafeEntry. La Suisse peut en tirer des leçons

(…) Ainsi, le système central obtiendra les coordonnées complètes – du nom au numéro de téléphone – des Singapouriens qui fréquentent ces lieux. SafeEntry diffère ainsi de TraceTogether sur deux points majeurs: d’abord, son caractère obligatoire, comme on vient de le voir – même si un haut responsable de la Santé vient de demander que TraceTogether devienne obligatoire. Ensuite, la qualité des données récoltées diffère: la première application lancée fonctionne de manière anonyme – ni le nom, ni la localisation des personnes n’étant révélés. SafeEntry ne semble pas avoir suscité, pour l’heure, de critiques.

Wired (05/06/2020), « India’s Covid-19 Contact Tracing App Could Leak Patient Locations »

The system’s use of GPS data could let hackers pinpoint who reports a positive diagnosis.

As countries around the world rush to build smartphone apps that can help track the spread of Covid-19, privacy advocates have cautioned that those systems could, if implemented badly, result in a dangerous mix of health data and digital surveillance. India’s new contact tracing app may serve as a lesson in those privacy pitfalls: Security researchers say it could reveal the location of Covid-19 patients not only to government authorities but to any hacker clever enough to exploit its flaws.

Nextinpact (04/05/2020), « SIDEP et Contact Covid, les deux fichiers du « contact tracing »

Le Conseil d’État estime que les conditions de mise en œuvre des fichiers, qui reposeront notamment sur le traitement de données de santé non anonymisées, « le cas échéant sans le consentement des personnes intéressées », « ne portent pas une atteinte disproportionnée au droit au respect de la vie privée ». Le projet de loi est examiné aujourd’hui au Sénat.

Numerama (04/05/2020), « Après l’échec du StopCovid local, Singapour passe à une solution beaucoup plus radicale »

À Singapour, l’application TraceTogether non fonctionnelle est accompagnée d’un nouveau mode de traçage des contacts numérique : le scan d’un QR Code. Et, dans les grandes lignes, il est obligatoire.

Medium (03/05/2020), par Cedric O. « StopCovid ou encore ? »

Le secrétaire d’Etat chargé du numérique Cedric O. se fend d’un long article sur Medium pour faire le point sur l’application Stop-Covid.

Liberation (02/05/2020), « Fichiers médicaux, isolement, traçage… Le gouvernement précise son état d’urgence sanitaire »

A l’issue du Conseil des ministres de samedi, Olivier Véran a justifié l’utilisation prochaine de «systèmes d’information» pour «tracer» les personnes infectées par le nouveau coronavirus et la prolongation de l’état d’urgence sanitaire jusqu’à juillet.

France Info Tv/2 (02/05/2020), « Déconfinement : le travail controversé des “brigades d’anges gardiens” »

Protéger, isoler, tester, pour mettre en place ce triptyque, la mise en place d’un nouvel outil, avec le suivi des patients, et la récolte des données personnelles est prônée par le gouvernement.

Allons-nous tous être fichés, et faut-il s’inquiéter ? Le gouvernement a dévoilé sa politique de traçage. Lorsqu’une personne est testée positive au Covid-19, elle apparaitra dans un fichier, appelé Sidep, les personnes qu’elle a côtoyé seront fichées dans un deuxième fichier nommé Contact Covid, afin d’être testées et si besoin isolées pour empêcher la propagation du virus. 3 à 4 000 personnes seront affectées à cette mission.

France Info (02/05/2020), « Application StopCovid : “Nous avons absolument besoin de ce regard”, affirme le président du syndicat de médecins généralistes MG France »

Selon Jacques Battistoni, les généralistes effectuent déjà une forme de surveillance en mentionnant les contaminations au coronavirus sur les arrêts de travail. Pour lui, l’application envisagé par le gouvernement donnera une “vision d’ensemble”.

Numerama (02/05/2020), « StopCovid : Olivier Véran confirme les incertitudes autour de l’application de contact tracing »

L’application StopCovid ne sera pas prête pour le 11 mai. Le ministre de la Santé Olivier Véran prépare déjà la France à ce qu’elle ne voit jamais le jour.

Reuters (02/05/2020), « India orders coronavirus tracing app for all workers »

NEW DELHI (Reuters) - India has ordered all public and private sector employees use a government-backed contact tracing app and maintain social distancing in offices as it begins easing some of its lockdown measures in districts less affected by the coronavirus. (…) “Such a move should be backed by a dedicated law which provides strong data protection cover and is under the oversight of an independent body,” said Udbhav Tiwari, Public Policy Advisor for internet browser company Mozilla. Critics also note that about 400 million of India’s population do not possess smartphones and would not be covered.

Capital (01/05/2020), « L’application “Stop Covid” dans le top de l’AppStore, sauf que ce n’est pas la bonne »

Des milliers de personnes ont téléchargé cette application sur Google Play ou l’AppStore, sauf qu’il s’agit de celle lancée par le gouvernement géorgien.

Charlie Hebdo (30/04/2020), « Stop Covid est un danger pour nos libertés »

Le Covid-19 va-t-il nous faire basculer vers une société de surveillance ? Bernard E. Harcourt, professeur de droit à Columbia University et directeur d’études à l’EHESS nous alerte notamment sur les risques de l’application Stop Covid. Il avait publié en janvier dernier un ouvrage intitulé « La société d’exposition », (Ed Seuil), dans lequel il montrait de manière saisissante comment les nouvelles technologies exploitent notre désir d’exhibition et de mise en avant de soi.

Buzzfeed (29/04/2020) « We Need An “Army” Of Contact Tracers To Safely Reopen The Country. We Might Get Apps Instead »

Without enough human contact tracers to identify infected people, the US is barreling toward a digital solution, and possible disaster.

(…) “My problem with contact tracing apps is that they have absolutely no value,” Bruce Schneier, a privacy expert and fellow at the Berkman Klein Center for Internet & Society at Harvard University, told BuzzFeed News. “I’m not even talking about the privacy concerns, I mean the efficacy. Does anybody think this will do something useful? … This is just something governments want to do for the hell of it. To me, it’s just techies doing techie things because they don’t know what else to do.”

Dalloz Actualités (28/04/2020) « Coronavirus : StopCovid, les avis de la CNIL et du CNNum »

Quoi que favorables à l’application de traçage StopCovid telle qu’elle est actuellement présentée, la Commission nationale informatique et libertés et le Conseil national du numérique relèvent cependant les risques et les garanties qui devront être discutées par le législateur.

Mediapart (28/04/2020) « Le gouvernement s’embourbe dans son projet d’application «StopCovid» »

Édouard Philippe a reconnu « les incertitudes » pesant sur le projet d’application de traçage des contacts des personnes contaminées. Celui-ci suscite l’opposition de défenseurs des libertés publiques comme de chercheurs.

Numerama (27/04/2020), « Application StopCovid : que sait-on du projet de contact tracing du gouvernement ? »

StopCovid est un projet d’application servant à suivre la propagation de la maladie dans la population. Présentée début avril, elle doit être prête lorsque la phase de déconfinement débutera. Mais cette stratégie est l’objet d’un intense débat. Que sait-on d’elle ? Numerama fait le point.

Le Monde (27/04/2020) « Coronavirus : « Substituons temporairement au terme “liberté” de notre devise française celui de “responsabilité” »

Trois spécialistes en épidémiologie de l’université de Toulouse, associée à l’Inserm, présentent dans une tribune au « Monde » un éclairage éthique sur le traçage numérique de la propagation du Covid-19, entre intérêt public et libertés individuelles.

France Culture (27/04/2020), « Traçage : “Ce n’est pas le numérique qui pose question, mais notre capacité à penser le bien commun”

Entretien | À travers le monde, les différentes solutions technologiques imaginées pour répondre à la pandémie via les applications de traçage “StopCovid” dessinent une carte assez précise de la façon dont le politique se saisit - ou pas - des questions numériques. Analyse avec Stéphane Grumbach, de l’INRIA.

Numerama (27/04/2020), « StopCovid dans l’impasse : Cédric O confirme que la France se lance dans un bras de fer avec Apple »

Cédric O a confirmé que la France choisissait le bras de fer avec Apple pour obtenir un passe-droit sur le Bluetooth, au risque de mettre en danger la vie privée des utilisatrices et utilisateurs d’iPhone. Sans cela, StopCovid ne fonctionnera pas.

Libération (26/04/2020). Tribune par Didier Sicard et al. « Pour faire la guerre au virus, armons numériquement les enquêteurs sanitaires »

Pourquoi se focaliser sur une application qu’il faudra discuter à l’Assemblée nationale et qui risque de ne jamais voir le jour, alors que nous devrions déjà nous concentrer sur la constitution et l’outillage numérique d’une véritable armée d’enquêteurs en épidémiologie ?

Le Figaro (26/04/2020). « Mobilisation générale pour développer l’application StopCovid »

Les récents avis rendus par la Cnil, le CNNum et le Conseil scientifique ont sonné le top départ pour les équipes de développement d’une application de «contact tracing».

Les Echos (26/04/2020), « StopCovid : le gouvernement passe en force et supprime le débat à l’Assemblée »

En intégrant le débat sur le projet d’application StopCovid à celui, général, sur le déconfinement, l’exécutif est accusé de passer en force. Une situation dénoncée à gauche comme au sein même de la majorité, où les réticences contre cette application sont fortes.

Politis (26/04/2020). « Covid-19 : la solution ne sera pas technologique »

Les débats autour de l’application StopCovid, souhaitée par le gouvernement français, révèlent la grande obsession de notre temps. Face aux périls qui nous menacent, nous devrions nous jeter à corps perdu dans la technologie. Surtout, ne rien remettre en cause, mais opter pour un monde encore et toujours plus numérisé. Au mépris de nos libertés, de l’environnement, de l’humain et, au final, de notre avenir.

Reuters (26/04/2020), « Germany flips to Apple-Google approach on smartphone contact tracing »

Germany changed course on Sunday over which type of smartphone technology it wanted to use to trace coronavirus infections, backing an approach supported by Apple and Google along with a growing number of other European countries.

Le Monde (26/04/2020), « Application StopCovid : la CNIL appelle le gouvernement « à une grande prudence » »

Dans son avis, la Commission nationale de l’informatique et des libertés donne un satisfecit au gouvernement tout en pointant les « risques » liés à ce projet d’application.

Le Monde (25/04/2020). Tribune par Antonio Casilli et al. « StopCovid est un projet désastreux piloté par des apprentis sorciers »

Il faut renoncer à la mise en place d’un outil de surveillance enregistrant toutes nos interactions humaines et sur lequel pèse l’ombre d’intérêts privés et politiques, à l’instar du scandale Cambridge Analytica, plaide un collectif de spécialistes du numérique dans une tribune au « Monde ».

La Dépêche du Midi (25/04/2020), « Coronavirus : la société toulousaine Sigfox propose des bracelets électroniques pour gérer le déconfinement »

Tracer les malades du Covid-19 via une application pour alerter tous ceux qui les ont croisés et qui ont été touchés par le nouveau coronavirus, c’est l’une des options étudiées par le gouvernement pour le déconfinement. La société toulousaine Sigfox a proposé ses services : un bracelet électronique au lieu d’une application. Plus sûr selon son patron.

Le Monde (24/04/2020), Tribune de Thierry Klein, entrepreneur du numérique, « Déconfinement : « Nous nous sommes encore tiré une balle dans le pied avec le RGPD »

L’entrepreneur Thierry Klein estime, dans une tribune au « Monde », que le Règlement général sur la protection des données est un monstre juridique dont la France subira les conséquences quand il s’agira de mettre en place des outils numériques de suivi de la contagion.

Extrait :

Le pompon de la bêtise, celle qui tue, est en passe d’être atteint avec le traitement du coronavirus. Au moment où nous déconfinerons, il devrait être possible de mettre une application traceuse sur chaque smartphone (« devrait », car il ne faut pas préjuger des capacités techniques d’un pays qui n’a su procurer ni gel ni masques à ses citoyens). Cette application, si vous êtes testé positif, va être capable de voir quels amis vous avez croisés et ils pourront être eux-mêmes testés. Ainsi utilisée, une telle application réduit significativement la contagion, sauve des vies (par exemple en Corée du Sud), mais réduirait selon certains nos libertés et, drame national, enfreindrait le RGPD.

Une telle interprétation est un détournement de la notion de citoyenneté, au bénéfice d’une liberté individuelle mal comprise – de fait, la liberté de tuer.

NextInpact (24/04/2020), « « Contact tracing » : la nécessité (oubliée) de milliers d’enquêteurs » (Par Jean-Marc Manach )

La focalisation du débat autour des seules applications Bluetooth de « contact tracing » fait complètement l’impasse sur le fait que, en termes de santé publique, le « contact tracing » repose d’abord et avant tout sur le facteur humain. Et qu’il va falloir en déployer des centaines de milliers, dans le monde entier.

Numerama (21/04/2020), « »StopCovid vs Apple : pourquoi la France s’est mise dans une impasse »

D’après Cédric O, secrétaire d’État au Numérique, l’application StopCovid ne sortira pas dans les temps à cause d’Apple. Cette politisation simpliste du discours autour de l’app de contact tracing cache un désaccord technique entre la méthode nationale de l’Inria et le développement international de la solution de Google et Apple. Résultat : la France est dans l’impasse.

Corriere Della Sera (21/04/2020), « Coronavirus, l’App (quasi) obbligatoria e l’ipotesi braccialetto per gli anziani »

Une idée pour l’incitation pourrait être de laisser la possibilité de télécharger l’application, ou de porter le bracelet, rester volontaire. Comme le gouvernement l’a déjà indiqué clairement. Mais prévoir que pour ceux qui choisissent de ne pas le télécharger, des restrictions de mobilité subsistent. Il reste à préciser ce que l’on entend exactement par restrictions à la liberté de circulation. Pas l’obligation de rester à la maison, ce ne serait pas possible. Mais il pourrait y avoir un resserrement du mouvement qui, pour tous les autres, dans la phase 2, sera autorisé progressivement. La proposition, encore en phase d’élaboration, pourrait être formalisée dans les prochains jours par la commission technico-scientifique, en accord avec Domenico Arcuri, le commissaire extraordinaire qui a signé l’ordre précisément pour l’application, et en accord également avec le groupe de travail dirigé par Vittorio Colao. La décision finale, bien sûr, appartient au gouvernement.

Korii-slate (20/04/2020), « Peut-on déjà se fier à une app de passeport immunitaire? » (voir original sur Quartz paru le 15/04/2020)

Une start-up propose déjà son CoronaPass aux États, sur des bases scientifiques pourtant balbutiantes.

Le Temps (18/04/2020), « L’EPFL se distancie du projet européen de traçage du virus via les téléphones »

L’EPFL, mais aussi l’EPFZ se distancient du projet européen de traçage des smartphones pour lutter contre le coronavirus. A l’origine, les deux établissements faisaient partie de l’ambitieux projet de recherche européen Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT), regroupant 130 organismes de huit pays. Mais vendredi, les deux partenaires suisses ont décidé d’explorer une autre solution, davantage respectueuse de la vie privée.

Le Figaro (17/04/2020). Interview de Shoshana Zuboff « Shoshana Zuboff: «Les applications de contrôle de la pandémie doivent être obligatoires, comme les vaccins» » Traduction d’une interview parue originellement dans La Repubblica «Shoshana Zuboff: ‘Le app per il controllo della pandemia possono essere obbligatorie come i vaccini’ »

VU D’AILLEURS - L’auteure du livre L’ère du capitalisme de surveillance nous explique pourquoi les systèmes numériques de contrôle de la pandémie devraient relever du secteur public et donc devenir obligatoires.

L’Usine Nouvelle (16/04/2020) « Sanofi et Luminostics s’associent pour développer un autotest du Covid-19 sur smartphone »

Le français Sanofi et la start-up californienne Luminostics font alliance pour le développement d’un test de dépistage du Covid-19 à faire soi-même sur son smartphone. Les travaux doivent débuter dans quelques semaines et la solution pourra voir le jour d’ici à la fin 2020 sous réserve de l’obtention des autorisations réglementaires.

WIRED (14/04/2020), « The Apple-Google Contact Tracing Plan Won’t Stop Covid Alone »

Putting the privacy of these smartphone apps aside, few Americans have been tested—and there’s a risk of false positives.

Apple and Google are offering a bold plan using signals from more than 3 billion smartphones to help stem the spread of the deadly coronavirus while protecting users’ privacy. But epidemiologists caution that—privacy concerns aside—the scheme will be of limited use in combating Covid-19 because of the technology’s constraints, inadequate testing for the disease, and users’ reluctance to participate.

Le Monde (10/04/2020), « Coronavirus : Apple et Google proposent un outil commun pour les applications de traçage des malades »

Les deux géants de la téléphonie vont mettre en place une solution technique mise à disposition des gouvernements.

Wired (05/04/2020), « Google and Apple Reveal How Covid-19 Alert Apps Might Look »

As contact tracing plans firm up, the tech giants are sharing new details for their framework—and a potential app interface.

Finding out that you’ve been exposed to a serious disease through a push notification may still seem like something out of dystopian science fiction. But the ingredients for that exact scenario will be baked into Google and Apple’s operating system in as soon as a matter of days. Now the two companies have shown not only how it will work, but how it could look—and how it’ll let you know if you’re at risk.

France Inter (04/04/2020) « Google et le Covid-19 ou le Big data au service des gouvernement »

Google a mis en ligne vendredi l’ensemble des données de déplacements des utilisateurs (qui ont activé l’option localisation) de son outil de cartographie, Google Maps. Des données qui doivent, selon le géant du web américain, permettre d’aider les dirigeants à améliorer l’efficacité de leur politique de confinement.

La Tribune (24/03/2020), « Covid-19 et contagion : vers une géolocalisation des smartphones en France ? »

Un comité de douze chercheurs et médecins va être mis en place à l’Élysée à partir de ce mardi pour conseiller le gouvernement sur les moyens d’endiguer la propagation du coronavirus. Le numérique figure parmi les thèmes à l’étude, notamment pour identifier des personnes ayant été potentiellement exposées au virus. De nombreux pays ont déjà opté pour la géolocalisation des smartphones afin de traquer les déplacements des individus.

Avis et infos experts

CNIL (25/05/2020) – Délibération n° 2020-056 du 25 mai 2020 portant avis sur un projet de décret relatif à l’application mobile dénommée «StopCovid» (demande d’avis n° 20008032)

Feu vert de la CNIL.

SI Lex (01/05/2020), par Calimaq : StopCovid, la subordination sociale et les limites au « Consent Washing »

J’ai déjà eu l’occasion dans un précédent billet de dire tout le mal que je pensais de StopCovid et je ne vais pas en rajouter à nouveau dans ce registre. Je voudrais par contre prendre un moment sur la délibération que la CNIL a rendue en fin de semaine dernière à propos du projet d’application, car elle contient à mon sens des éléments extrêmement intéressants, en particulier sur la place du consentement en matière de protection des données personnelles.

CNIL (26/04/2020), Publication de l’avis de la CNIL sur le projet d’application mobile « StopCovid »

Dans le cadre de l’état d’urgence sanitaire lié à l’épidémie de COVID-19, et plus particulièrement de la stratégie globale de « déconfinement », la CNIL a été saisie d’une demande d’avis par le secrétaire d’État chargé du numérique. Celle-ci concerne l’éventuelle mise en œuvre de « StopCovid » : une application de suivi de contacts dont le téléchargement et l’utilisation reposeraient sur une démarche volontaire. Les membres du collège de la CNIL se sont prononcés le 24 avril 2020.

Dans le contexte exceptionnel de gestion de crise, la CNIL estime le dispositif conforme au Règlement général sur la protection des données (RGPD) si certaines conditions sont respectées. Elle relève qu’un certain nombre de garanties sont apportées par le projet du gouvernement, notamment l’utilisation de pseudonymes.

La CNIL appelle cependant à la vigilance et souligne que l’application ne peut être déployée que si son utilité est suffisamment avérée et si elle est intégrée dans une stratégie sanitaire globale. Elle demande certaines garanties supplémentaires. Elle insiste sur la nécessaire sécurité du dispositif, et fait des préconisations techniques.

Elle demande à pouvoir se prononcer à nouveau après la tenue du débat au Parlement, afin d’examiner les modalités définitives de mise en œuvre du dispositif, s’il était décidé d’y recourir.

Conseil National du Numérique (24/04/2020), « Stop-Covid. Avis du Conseil National du Numérique »

Dans le cadre de la réponse à la crise du COVID-19, ​le secrétaire d’État chargé du Numérique a saisi le Conseil national du numérique pour émettre un avis sur les modalités de fonctionnement et de déploiement de l’application pour téléphones mobiles StopCOVID​, dont le développement a été annoncé le 8 avril 2020.

Ligue des Droits de l’Homme (24/04/2020), « Lettre ouverte concernant le vote sur la mise en œuvre de l’application StopCovid »

Les risques d’atteinte au respect de la vie privée et au secret médical, les risques de surveillance généralisée au regard d’une efficacité tout à fait incertaine conduisent la Ligue des droits de l’Homme (LDH) à vous demander instamment de vous opposer au projet StopCovid.

Washington Post (23/04/2020). Tribune de Bill Gates (24/04/2020) « Here are the innovations we need to reopen the economy. Version lisible aussi sur son blog en [version courte](The first modern pandemic (short read) ) et en version longue. On peut voir qu’un informaticien devient « spécialiste » en épidémiologie et comment il promeut du solutionnisme technologique (tout en affirmant que ce n’est pas non plus la panacée). Il propose le contact tracing (tracage de contact)

Le deuxième domaine dans lequel nous avons besoin d’innovation est le contact tracing. Lorsqu’une personne est testée positive, les professionnels de santé publique doivent savoir qui d’autre cette personne pourrait avoir été infectée.

Pour l’instant, les États-Unis peuvent suivre l’exemple de l’Allemagne : interroger toutes les personnes dont le test est positif et utiliser une base de données pour s’assurer que quelqu’un assure le suivi de tous leurs contacts. Cette approche est loin d’être parfaite, car elle repose sur la déclaration exacte des contacts par la personne infectée et nécessite un suivi personnel important. Mais ce serait une amélioration par rapport à la manière sporadique dont le contact tracing se fait actuellement aux États-Unis.

Une solution encore meilleure serait l’adoption généralisée et volontaire d’outils numériques. Par exemple, il existe des applications qui vous aideront à vous rappeler où vous avez été ; si jamais vous êtes déclaré positif, vous pouvez revoir l’historique ou choisir de le partager avec la personne qui vient vous interroger sur vos contacts. Et certaines personnes ont proposé de permettre aux téléphones de détecter d’autres téléphones qui se trouvent à proximité en utilisant le Bluetooth et en émettant des sons que les humains ne peuvent pas entendre. Si une personne était testée positive, son téléphone enverrait un message aux autres téléphones, et son propriétaire pourrait se faire tester. Si la plupart des gens choisissaient d’installer ce genre d’application, cela en aiderait probablement certains.

Risque-tracage.fr (21/04/2020). Le traçage anonyme, dangereux oxymore. Analyse de risques à destination des non-spécialistes.

Des chercheurs de l’INRIA, du LORIA etc. se regroupent pour diffuser un note de vulgarisation sur les risques liés au traçage par téléphone. Ils produisent un PDF qui circule beaucoup.

Privacy International (20/04/2020) « There’s an app for that: Coronavirus apps »

Increased trust makes every response to COVID-19 stronger. Lack of trust and confidence can undermine everything. Should we trust governments and industry with their app solutions at this moment of global crisis?

Key findings:

  • There are many apps across the world with many different uses.
  • Some apps won’t work in the real world; the ones that do work best with more virus testing.
  • They all require trust, and that has yet to be built after years of abuses and exploitation.
  • Apple and Google’s contributions are essential to making contact-tracing work for their users; these are positive steps into privacy-by-design, but strict governance is required for making, maintaining and removing this capability.

La Quadrature du Net (14/04/2020), « Nos arguments pour rejeter StopCovid Posted »

Utilisation trop faible, résultats vagues, contre-efficacité sanitaire, discriminations, surveillance, acclimatation sécuritaire…

Ross Anderson (chercheur Univ. Cambridge), (12/04/2020) « Contact Tracing in the Real World »

Voici le véritable compromis entre la surveillance et la santé publique. Pendant des années, une pandémie a figuré en tête du registre des risques de la Grande-Bretagne, mais on a beaucoup moins dépensé pour s’y préparer que pour prendre des mesures antiterroristes, dont beaucoup étaient plus ostentatoires qu’efficaces. Pire encore, la rhétorique de la terreur a gonflé les agences de sécurité au détriment de la santé publique, prédisposant les gouvernements américain et britannique à ignorer la leçon du SRAS en 2003 et du MERS en 2015 - contrairement aux gouvernements de la Chine, de Singapour, de Taïwan et de la Corée du Sud, qui y ont prêté au moins quelque attention. Ce dont nous avons besoin, c’est d’une redistribution radicale des ressources du complexe industriel de surveillance vers la santé publique.

Nos efforts devraient porter sur l’extension des tests, la fabrication de ventilateurs, le recyclage de tous ceux qui ont une formation clinique, des infirmières vétérinaires aux physiothérapeutes, et la construction d’hôpitaux de campagne. Nous devons dénoncer des conneries quand nous en voyons et ne pas donner aux décideurs politiques le faux espoir que la techno-magie pourrait leur permettre d’éviter les décisions difficiles. Sinon, nous pouvons mieux être utiles en nous tenant à l’écart. La réponse ne doit pas être dictée par les cryptographes mais par les épidémiologistes, et nous devons apprendre ce que nous pouvons des pays qui ont le mieux réussi jusqu’à présent, comme la Corée du Sud et Taïwan.

Union Européenne (08/04/2020) - Rapport technique sur le contact tracing. European Centre for Disease Prevention and Control . « Contact tracing: public health management of persons, including healthcare workers, having had contact with COVID-19cases in the European Union. » Lien vers le pdf , Lien vers la page.

This document aims to helpEU/EEA public health authorities in the tracing and management of persons,including healthcare workers, who had contact with COVID-19 cases. It should be implemented in combination with non-pharmaceutical measures as appropriate.

The purpose of identifying and managing the contacts ofprobable or confirmedCOVID-19casesisto rapidly identify secondary cases that may arise after transmission from the primary known cases in order tointervene andinterruptfurther onward transmission. This is achieved through:

  • the prompt identification of contacts of a probable or confirmedcase of COVID-19;
  • providing contacts withinformation on self-quarantine, proper hand hygiene and respiratory etiquette measures,and advice around what to do if they develop symptoms;
  • timely laboratory testingfor all those withsymptoms.

CEVIPOF (01/04/2020), Martial Foucault « Note 3 - Opinons sur l’usage du téléphone portable en période de crise du Coronavirus »

En France, aucune décision n’a encore été prise. Comme le démontrent les exemples étrangers précédents, plusieurs modalités d’usage des données cellulaires sont envisageables, allant d’une politique de santé publique partagée (Singapour) à une politique de surveillance sans consentement (Iran). Dans le cadre de l’enquête comparée «Attitudes sur le COVID-19», nous avons interrogé un échantillon représentatif de Français sur «la possibilité de mobiliser les opérateurs téléphoniques à des fins de contrôle des déplacements». Àcette question, une majorité de personnes exprime une opinion fortement défavorable (48%). Seules 33% des personnes interrogées (échantillon de 2000 personnes) y sont favorables. Le niveau d’indécision sesitue à 18,4%.L’évolution des réponses à cette question posée dans les mêmes termes entre les 16-17 mars et les 24-25 mars montre une dynamique fortement positive. Les raisons de cette progression sont à rechercher autour de l’aggravation réelle de la pandémie et de la perception par l’opinion de l’urgence de l’ensemble des politiques sanitaires, technologiques et maintenant numériques. Le cadrage médiatique, fondé sur des expériences étrangères, du possible recours aux téléphones ne précise pas la position que pourraient prendre les autorités françaises en la matière. C’est pourquoi, ici, la question posée dans les deux enquêtesporte volontairement sur la dimension la plus intrusive sur la vie privée et la plus liberticide (la formulation insiste sur une politique de surveillance).

Chaos Computer Club (06/04/2020), « 10 requirements for the evaluation of “Contact Tracing” apps »

Loin d’être fermé à la mise en oeuvre d’application mobile de contact tracing le CCC émet 10 recommandation hautement exigeantes pour rendre ces applications acceptables.

Facebook (06/04/2020), « De nouveaux outils pour aider les chercheurs en santé à suivre et à combattre le COVID-19 »

Dans le cadre du programme Data for Good de Facebook, nous proposons des cartes sur les mouvements de population que les chercheurs et les organisations à but non lucratif utilisent déjà pour comprendre la crise du coronavirus, en utilisant des données agrégées pour protéger la vie privée des personnes. Ils nous ont dit combien ces informations peuvent être précieuses pour répondre au COVID-19, et aujourd’hui nous annonçons de nouveaux outils pour soutenir leur travail :…

Google (blog), (03/04/2020), « Helping public health officials combat COVID-19 »

Starting today we’re publishing an early release of our COVID-19 Community Mobility Reports to provide insights into what has changed in response to work from home, shelter in place, and other policies aimed at flattening the curve of this pandemic. These reports have been developed to be helpful while adhering to our stringent privacy protocols and policies.

Officiel

Anti Cor (12/11/2020) « Application StopCovid : Anticor saisit le parquet national financier »

Anticor a déposé un signalement auprès du Procureur de la République, mercredi 10 juin, ayant pour objet l’attribution du contrat de maintenance de l’application StopCovid, qui n’aurait été soumis à aucune procédure de passation de marché public.

FRA (European Union Agency For Fundamentals Rights) - 28/05/2020 « Les réponses technologiques à la pandémie de COVID-19 doivent également préserver les droits fondamentaux »

Protection des données, respect de la vie privée et nouvelles technologiesAsile, migration et frontièresAccès à l’asileProtection des donnéesEnfants, jeunes et personnes âgéesPersonnes handicapéesOrigine raciale et ethniqueRomsDroits des victimes

De nombreux gouvernements sont à la recherche de technologies susceptibles de les aider à suivre et tracer la diffusion de la COVID-19, comme le montre un nouveau rapport de l’Agence des droits fondamentaux de l’UE (FRA). Les gouvernements qui utilisent la technologie pour protéger la santé publique et surmonter la pandémie se doivent de respecter les droits fondamentaux de chacun.

Office parlementaire d’évaluation des choix scientifiques et technologiques, 12/05/2020. Audition de M. Guillaume Poupard, directeur général de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) – Vidéos Sénat.

Explications sur Stop-Covid, nécessité de conserver la souveraineté de l’Etat dans ce domaine, inquiétudes au sujet de la progression des GAFAM dans le secteur de la santé. Inquiétudes au sujet de la montée en puissance du tracage de contacts dans les dispositifs Apple / Google, et l’éventualité d’un futur développement d’une économie dans ce secteur avec tous les biais que cela suppose.

ANSSI (27/04/2020), « Application StopCovid –L‘ANSSI apporte à Inria son expertise technique sur le volet sécurité numérique du projet »

Pilote du projet d’application StopCovid, à la demande du Secrétaire d’Etat chargé du numérique, Cédric O, l’Institut national de recherche en sciences et technologies du numérique (Inria) est accompagné par l’Agence nationale de la sécurité des systèmes d’information (ANSSI) sur les aspects de sécurité numérique.

INRIA (26/04/2020). Communiqué de presse annonçant officiellement l’équipe-projet de l’application Stop-Covid.

Inria, ANSSI, Capgemini, Dassault Systèmes, Inserm, Lunabee Studio, Orange, Santé Publique France et Withings (et Beta.gouv a été débarqué du projet, qui contiendra finalement peu de briques open-source).

Protocoles

Les protocoles et applications suivants, développés dans le cadre de la lutte contre Covid-19 utilisent en particulier le Bluetooth.

BlueTrace est le protocole open source inventé au sein du gouvernement de Singapour dans le cadre de la lutte contre la propagation du virus Covid-19. Le protocole est utilisé dans l’application TraceTogether. À son tour le gouvernemetn Australien implémente ce protocole dans l’application COVIDSafe distribuée en Australie.

En Europe, le protocole ouvert Pan-European Privacy-Preserving Proximity Tracing (PEPP-PT/PEPP) utilise le bluetooth pour rechercher des contacts mais centralise des rapports sur un serveur centralisé. Son concurrent open source Decentralized Privacy-Preserving Proximity Tracing ne permet pas au serveur central de signalement d’accéder aux journaux de contacts.

Pour la France, le protocole ROBERT (ROBust and privacy-presERving proximity Tracing) a été publié par l’INRIA le 18 avril 2020

Listes d’applications Covid-19 : fr.wikipedia.org/wiki/Applications_Covid-19

10.04.2020 à 02:00

Prophètes et technologistes à l’ère de la suspicion généralisée

Ha ! Le sacro-saint « révélateur ». À écouter et lire les médias, la pandémie Covid-19 que nous traversons aujourd’hui est censée « révéler » quelque chose, un message, un état d’esprit, l’avènement d’une prophétie. Et on voit proliférer les experts toutologues, devins des temps modernes, avatars des prédicateurs de l’An Mille, les charlatans de fin du monde. Je voudrais partager ici quelques réflexions au sujet des discours actuels sur la surveillance en situation de crise sanitaire.

(Note : ce billet a été publié sur le Framablog le 10 avril 2020)

Les prophètes

Faire une révélation, nous dit le dictionnaire, c’est porter à la connaissance quelque chose qui était auparavant caché, inconnu. Et le pas est vite franchi : pour nos prêtres médiatiques, il est très commode de parler de révélation parce que si le divin à travers eux manifeste ce qu’eux seuls peuvent dévoiler au public (eux seuls connaissent les voies divines), il leur reste le pouvoir de décider soit de ce qui était auparavant caché et doit être dévoilé, soit de ce qui était caché et n’est pas censé être dévoilé. Bref, on refait l’histoire au fil des événements présents : la sous-dotation financière des hôpitaux et les logiques de coupes budgétaires au nom de la rigueur ? voilà ce que révèle le Covid-19, enfin la vérité éclate ! Comment, tout le monde le savait ? Impossible, car nous avions tous bien affirmé que la rigueur budgétaire était nécessaire à la compétitivité du pays et maintenant il faut se tourner vers l’avenir avec ce nouveau paramètre selon lequel la rigueur doit prendre en compte le risque pandémique. Et là le prêtre devient le prophète de jours meilleurs ou de l’apocalypse qui vient.

Pourquoi je raconte tout cela ? Je travaille dans un CHU, les politiques de santé publiques me sont quotidiennes ainsi que la manière dont elles sont décidées et appliquées. Mais vous le savez, ce n’est pas le sujet de mes études. Je m’intéresse à la surveillance. Et encore, d’un point de vue historique et un peu philosophique, pour faire large. Je m’intéresse au capitalisme de surveillance et j’essaie de trouver les concepts qui permettent de le penser, si possible au regard de notre rapport à l’économie et au politique.

J’ai appris très tôt à me méfier des discours à tendance technologiste, et cela me vient surtout de ma formation initiale en philosophie, vous savez ce genre de sujet de dissertation où l’on planche sur le rapport technologie / politique / morale. Et à propos, sans pour autant faire de la philo, je ne saurais que conseiller d’aller lire le livre de Fred Turner qui, déjà en 2006 (la traduction est tardive), grattait assez profondément le vernis de la cyberculture californienne. Mais au fil des années de mon implication dans le logiciel libre et la culture libre, j’ai développé une autre sorte de sensibilité : lorsque les libertés numériques sont brandies par trop de prophètes d’un coup, c’est qu’il faut aller chercher encore ailleurs le discours qui nous est servi.

Pour exemple de l’effet rhétorique de la révélation, on peut lire cet article du géographe Boris Beaude, paru le 07 avril 2020 dans Libération, intitulé « Avec votre consentement ». L’auteur passe un long moment à faire remarquer au lecteur à quel point nous sommes vendus corps et âmes aux GAFAM et que la pandémie ne fait que révéler notre vulnérabilité :

Lorsque nous acceptons que de telles entreprises collectent les moindres détails de nos existences pour le compte de leurs clients et que nous doutons conjointement des régimes politiques qui nous gouvernent, nous réalisons que les effets de la propagation du Sars-Cov-2 ne sont qu’un révélateur de l’ampleur de notre vulnérabilité.

Il est important de comprendre la logique de ce discours : d’un côté on pose un diagnostic que seul un sage est capable de révéler et de l’autre on élève la pandémie et ses effet délétères au rang des sept plaies d’Égypte, qui sert de porte à une nouvelle perception des choses, en l’occurrence notre vulnérabilité face aux pratiques d’invasion de la vie privée par les GAFAM, et par extension, les pratiques des États qui se dotent des moyens technologiques pour surveiller et contrôler la population. Évidemment, entre la population assujettie et l’État-GAFAM, il y a la posture du prophète, par définition enviable puisqu’il fait partie d’une poignée d’élus livrant un testament aux pauvres pêcheurs que nous sommes. Reste plus qu’à ouvrir la Mer Rouge…

Arrêtons là si vous le voulez bien la comparaison avec la religion. Je l’affirme : non la crise COVID-19 ne révèle rien à propos du capitalisme de surveillance. Elle ne révèle rien en soi et encore moins à travers les prophètes auto-proclamés. Et la première des raisons est que ces derniers arrivent bien tard dans une bataille qui les dépasse.

Pendant la crise sanitaire que nous traversons il ne faut pas se demander ce qu’elle peut révéler mais interroger les discours qui se servent de cette crise pour justifier et mettre en œuvre des pratiques de surveillance et limiter encore davantage nos libertés. Penser les choses en termes de révélation n’a pour autre effet que de limiter toujours plus notre pouvoir d’action : que peut-on à l’encontre d’une révélation ?

Les amis de la Quadrature du Net (comme beaucoup d’autres, heureusement) préfèrent une approche bien plus structurée. Ils affirment par exemple dans un récent communiqué que, au regard de la surveillance, la crise sanitaire Covid-19 est un évènement dont l’ampleur sert d’argument pour une stratégie de surveillance de masse, au même titre que les attentats terroristes. Ceci n’est pas une révélation, ni même une mise en garde. C’est l’exposé des faits, ni plus ni moins. Tout comme dire que notre ministre de l’intérieur C. Castaner a d’abord affirmé que l’État Français n’avait pas pour intention de copier la Corée du Sud et la Chine en matière de traçage de téléphones portables, avant de revenir sur ses propos et affirmer que les services gouvernementaux planchent sur une application censée tracer les chaînes de transmission. Qui s’est offusqué de ce mensonge d’État ? C’est devenu tellement banal. Pire, une telle application permettrait d’informer les utilisateurs s’ils ont « été dans les jours précédents en contact avec quelqu’un identifié positif au SARS-CoV-2 », comme l’affirment les deux ministres Castaner et Véran dans un entretien au Monde. C’est parfait comme technique de surveillance : la Stasi pratiquait déjà ce genre de chose en organisant une surveillance de masse basée sur la suspicion au quotidien.

Le smartphone n’est qu’un support moderne pour de vieilles recettes. Le Covid-19 est devenu un prétexte, tout comme les attentats terroristes, pour adopter ou faire adopter une représentation d’un État puissant (ce qu’il n’est pas) et faire accepter un État autoritaire (ce qu’il est). Cette représentation passe par un solutionnisme technologique, celui prôné par la doctrine de la « start-up nation » chère à notre président Macron, c’est-à-dire chercher à traduire l’absence d’alternative politique, et donc l’immobilisme politique (celui de la rigueur budgétaire prôné depuis 2008 et même avant) en automatisant la décision et la sanction grâce à l’adoption de recettes technologiques dont l’efficacité réside dans le discours et non dans les faits.

Techno-flop

Le solutionnisme technologique, ainsi que le fait remarquer E. Morozov, est une idéologie qui justifie des pratiques de surveillance et d’immenses gains. Non seulement ces pratiques ne réussissent presque jamais à réaliser ce pourquoi elles sont prétendues servir, mais elles sont le support d’une économie d’État qui non seulement dévoie les technologies afin de maîtriser les alternatives sociales, voire la contestation, mais entre aussi dans le jeu financier qui limite volontairement l’appropriation sociale des technologies. Ainsi, par exemple, l’illectronisme des enfants et de leurs enseignants livrés à une Éducation Nationale numériquement sous-dotée, est le fruit d’une volonté politique. Comment pourrait-il en être autrement ? Afin d’assurer la « continuité pédagogique » imposée par leur ministre, les enseignants n’ont eu d’autres choix que de se jeter littéralement sur des services privateurs. Cette débandade est le produit mécanique d’une politique de limitation volontaire de toute initiative libriste au sein de l’Éducation Nationale et qui serait menée par des enseignants pour des enseignants. Car de telles initiatives remettraient immanquablement en question la structure hiérarchique de diffusion et de valorisation des connaissances. Un tel gouvernement ne saurait supporter quelque forme de subsidiarité que ce soit.

La centralisation de la décision et donc de l’information… et donc des procédés de surveillance est un rêve de technocrates et ce rêve est bien vieux. Déjà il fut décrié dès les années 1970 en France (voir la première partie de mon livre, Affaires Privées) où la « dérive française » en matière de « grands fichiers informatisés » fut largement critiquée pour son inefficacité coûteuse. Qu’importe, puisque l’important n’est pas de faire mais de montrer qu’on fait. Ainsi l’application pour smartphone Stop Covid (ou n’importe quel nom qu’on pourra lui donner) peut d’ores et déjà figurer au rang des grands flops informatiques pour ce qui concerne son efficacité dans les objectifs annoncés. Il suffit de lire pour cela le récent cahier blanc de l’ACLU (Union Américaine pour les libertés civiles), une institution fondée en 1920 et qu’on ne saurait taxer de repère de dangereux gauchistes.

Dans ce livre blanc tout est dit, ou presque sur les attentes d’une application de tracing dont l’objectif, tel qu’il est annoncé par nos ministres (et tel qu’il est mentionné par les pays qui ont déjà mis en œuvre de telles applications comme la Chine ou Israël), serait de déterminer si telle personne a été exposée au virus en fréquentant une autre personne définie comme contagieuse. C’est simple :

  1. Il faut avoir un smartphone avec soi et cette application en fonction : cela paraît basique, mais d’une part tout le monde n’a pas de smartphone, et d’autre part tout le monde n’est pas censé l’avoir sur soi en permanence, surtout si on se contente de se rendre au bureau de tabac ou chez le boulanger…
  2. aucune technologie n’est à ce jour assez fiable pour le faire. Il est impossible de déterminer précisément (c’est-à-dire à moins de deux mètres) si deux personnes sont assez proches pour se contaminer que ce soit avec les données de localisation des tours de téléphonie (triangulation), le GPS (5 à 20 mètres) ou les données Wifi (même croisées avec GPS on n’a guère que les informations sur la localisation de l’émetteur Wifi). Même avec le bluetooth (technologie plébiscitée par le gouvernement Français aux dernières nouvelles) on voit mal comment on pourrait assurer un suivi complet. Ce qui est visé c’est en fait le signalement mutuel. Cependant, insister sur le bluetooth n’est pas innocent. Améliorer le tracing dans cette voie implique un changement dans nos relations sociales : nous ne sommes plus des individus mais des machines qui s’approchent ou s’éloignent mutuellement en fonction d’un système d’alerte et d’un historique. Qui pourra avoir accès à cet historique ? Pourra-t-on être condamné plus tard pour avoir contaminé d’autres personnes ? Nos assurances santé autoriseront-elles la prise en charge des soins s’il est démontré que nous avons fréquenté un groupe à risque ? Un projet européen existe déjà (PEPP-PT), impliquant entre autres l’INRIA, et il serait important de surveiller de très près ce qui sera fait dans ce projet (idem pour ce projet de l’École Polytechnique de Lausanne).
  3. Ajoutons les contraintes environnementales : vous saluez une personne depuis le second étage de votre immeuble et les données de localisation ne prennent pas forcément en compte l’altitude, vous longez un mur, une vitrine, une plaque de plexiglas…

Bref l’UCLA montre aimablement que la tentation solutionniste fait perdre tout bon sens et rappelle un principe simple :

Des projets ambitieux d’enregistrement et d’analyse automatisés de la vie humaine existent partout de nos jours, mais de ces efforts, peu sont fiables car la vie humaine est désordonnée, complexe et pleine d’anomalies.

Les auteurs du rapport écrivent aussi :

Un système de suivi de localisation dans le temps peut être suffisamment précis pour placer une personne à proximité d’une banque, d’un bar, d’une mosquée, d’une clinique ou de tout autre lieu sensible à la protection de la vie privée. Mais le fait est que les bases de données de localisation commerciales sont compilées à des fins publicitaires et autres et ne sont tout simplement pas assez précises pour déterminer de manière fiable qui était en contact étroit avec qui.

En somme tout cela n’est pas sans rappeler un ouvrage dont je conseille la lecture attentive, celui de Cathy O’Neil, Algorithmes: la bombe à retardement (2018). Cet ouvrage montre à quel point la croyance en la toute puissance des algorithmes et autres traitements automatisés d’informations dans le cadre de processus décisionnels et de politiques publiques est la porte ouverte à tous les biais (racisme, inégalités, tri social, etc.). Il n’en faudrait pas beaucoup plus si l’on se souvient des débuts de la crise Covid-19 et la suspicion dans nos rues où les personnes présentant des caractères asiatiques étaient stigmatisées, insultées, voire violentées…

Ajoutons à cela les effets d’annonce des GAFAM et des fournisseurs d’accès (Orange, SFR…) qui communiquaient il y a peu, les uns après les autres, au sujet de la mise à disposition de leurs données de localisation auprès des gouvernements. Une manière de justifier leur utilité sociale. Aucun d’entre eux n’a de données de localisations sur l’ensemble de leurs utilisateurs. Et heureusement. En réalité, les GAFAM tout comme les entreprises moins connues de courtage de données (comme Acxiom), paient pour cela. Elles paient des entreprises, souvent douteuses, pour créer des applications qui implémentent un pompage systématique de données. L’ensemble de ces pratiques crée des jeux de données vendues, traitées, passées à la moulinette. Et si quiconque souhaite obtenir des données fiables permettant de tracer effectivement une proportion acceptable de la population, il lui faut accéder à ces jeux… et c’est une denrée farouchement protégée par leurs détenteurs puisque c’est un gagne-pain.

De la méthode

À l’heure où les efforts devraient se concentrer essentiellement sur les moyens médicaux, les analyses biologiques, les techniques éprouvées en santé publique en épidémiologie (ce qui est fait, heureusement), nous voilà en train de gloser sur la couleur de l’abri à vélo. C’est parce que le solutionnisme est une idéologie confortable qui permet d’évacuer la complexité au profit d’une vision du monde simpliste et inefficace pour laquelle on imagine des technologies extrêmement complexes pour résoudre « les grands problèmes ». Ce n’est pas une révélation, simplement le symptôme de l’impuissance à décider correctement. Surtout cela fait oublier l’impréparation des décideurs, les stratégies budgétaires néfastes, pour livrer une mythologie technologiste à grand renfort de communication officielle.

Et l’arme ultime sera le sondage. Déjà victorieux, nos ministères brandissent une enquête d’opinion du département d’économie de l’Université d’Oxford, menée dans plusieurs pays et qui montre pour la France comme pour les autres pays, une large acceptation quant à l’installation d’une application permettant le tracing, que cette installation soit volontaire ou qu’elle soit imposée1. Est-ce étonnant ? Oui, effectivement, alors même que nous traversons une évidente crise de confiance envers le gouvernement, la population est prête à jouer le jeu dangereux d’une surveillance intrusive dont tout laisse supposer que cette surveillance se perpétuera dans le temps, virus ou pas virus. Mais cela ne signifie pas pour autant que la confiance envers les dirigeants soit rétablie. En effet le même sondage signale que les retombées politiques en cas d’imposition d’un tel système sont incertaines. Pour autant, c’est aussi un signal envoyé aux politiques qui vont alors se lancer dans une quête frénétique du consentement, quitte à exagérer l’assentiment pressenti lors de cette enquête. C’est déjà en cours.

À mon avis, il faut rapprocher le résultat de cette enquête d’une autre enquête récente portant le plébiscite de l’autoritarisme en France. C’est une enquête du CEVIPOF parue en mars 2020 qui montre « l’emprise du libéralisme autoritaire en France », c’est-à-dire que le manque de confiance dans l’efficacité du gouvernement ne cherche pas son remède dans une éventuelle augmentation des initiatives démocratiques, voire alternativistes, mais dans le refuge vers des valeurs de droite et d’extrême droite sacrifiant la démocratie à l’efficacité. Et ce qui est intéressant, c’est que ceux qui se vantaient d’apporter plus de société civile à la République sont aussi ceux qui sont prêts à dévoyer la démocratie. Mais qu’on y prenne garde, ce n’est pas vraiment une affaire de classe sociale, puisque cette orientation autoritaire est aussi valable dans les tranches basses et moyennes. On rejoint un peu les propos d’Emmanuel Todd dans la première partie de son ouvrage Les Luttes de classes en France au XXIe siècle, données sérieuses à l’appui (y compris celles de l’Insee).

Alors quoi ? les Français sont-ils définitivement des veaux heureux d’aller à l’abattoir ? Honnêtement, parfois on peut le penser. Mais pas là. Non. L’enquête d’opinion d’Oxford a été menée dans un climat général extrêmement angoissant, et inédit. Pour retrouver un tel degré de panique dans la population, il faudrait par exemple se souvenir de la crise des missiles cubains et de la manière dont elle a été mise en scène dans les médias américains. Même l’épisode Tchernobyl en France n’a pas eu cet impact (ok, on a largement minimisé le problème). Et là dedans, avec un gouvernement à la fois empêtré et sidéré (avec la chargée de comm' S. Ndiaye alignant ad nauseam sottises et âneries), on fait un sondage dont les tenants et aboutissants techniques sont loin d’être évidents et qui pose la question : êtes-vous prêt à installer une application de tracing sur votre mobile qui permettrait de lutter contre l’épidémie ? Sérieux, on attend quoi comme réponse ? Sur plusieurs pays qui ont connu les mêmes valses-hésitations politiques, le fait que les réponses soient à peu près les mêmes devrait mettre la puce à l’oreille, non ? Bien sûr, allez demandez ce qu’elles pensent de la vidéosurveillance à des personnes qui se sont fait agresser dans la rue, pensez-vous que nous aurions les mêmes réponses si le panel était plus large ? Ce que je veux dire, c’est que le panel des 1.000 personnes interrogées en pleine crise sanitaire n’est représentatif que de la population touchée par la crise sanitaire, c’est-à-dire un panel absolument homogène. Évidemment que les tendances politiques ne viennent donc qu’en second plan et ne jouent qu’un rôle négligeable dans les réponses données.

Je ne suis pas statisticien, je ne peux donner mon sentiment qu’avec mes mots à moi. Mais, n’est-ce pas, nous sommes déjà habitués au techniques d’extorsion (fabrique ?) de consentement. À celui-ci s’ajoute une certaine pauvreté dans la manière d’appréhender cette fuite en avant vers la surveillance. Avec l’expression « Big Brother », on a l’impression d’avoir tout dit. Mais c’est faux. On ne passe pas si facilement d’un libéralisme autoritaire à une dystopie orwellienne, il y a des étapes, et à chaque étape nous prenons une direction. Scander « Big Brother » (comme la récente Une de l’Obs le 02 avril 2020 « Big Brother peut-il nous sauver ? »), c’est un peu comme si on cherchait à donner une théorie sans d’abord la démontrer. « Big Brother » impose une grille de lecture des événements tout en prédisant déjà la fin. Ce n’est pas une bonne méthode.

Y-a-t’il une bonne méthode ? Étudier la surveillance, c’est d’abord faire appel à un ensemble de concepts que l’on met à l’épreuve. Il faut signaler sur ce point l’excellent édito de Martin French et Torin Monahan dans le dernier numéro de la revue canadienne Surveillance & Society, intitulé « Dis-ease Surveillance: How Might Surveillance Studies Address COVID-19? ». C’est tout un programme de recherche qui est développé ici, à titre prospectif. La première chose que s’empressent de signaler les auteurs, c’est que surveiller le Covid-19, ce n’est pas surveiller la population. Ce sont deux choses bien différentes que les politiques feraient mieux de ne pas perdre de vue. Surveiller le Covid-19 c’est faire de l’épidémiologie, et identifier des cas (suspects, déclarés, etc.). Et là où on peut s’interroger, c’est sur la complexité des situations qu’une approche scientifique réduit à des éléments plus simples et pertinents. Si, pour les besoins d’une étude, il faut faire un tri social, il importe de savoir ce que l’étude révélera finalement : y-a-t’il plus de patients Covid-19 dans les couches pauvres de la population ? Comment l’information sur la surveillance circule et est reçue par les populations ? Et plus généralement qu’est-ce que la surveillance des populations en situation de pandémie, quelles sont les contraintes éthiques, comment les respecter ?

Ensuite vient tout un ensemble de concepts et notions qu’il faut interroger au regard des comportements, des groupes de pression, des classes sociales et tous autres facteurs sociaux. Par exemple la vigilance : est-elle encouragée au risque de la délation, est-elle définie par les autorités comme une vigilance face à la maladie et donc une forme d’auto-surveillance ? Il en est de même au sujet de l’anticipation, la stigmatisation, la marginalisation, la prévention, la victimisation, l’exclusion, la confiance, autant d’idées qui permettent de définir ce qu’est la surveillance en situation de pandémie. Puis vient la question des conséquences de la surveillance en situation de pandémie. Là on peut se référer à la littérature existante à propos d’autres pandémies. Je ne résiste pas à citer les auteurs :

L’écologie informationnelle contemporaine se caractérise par une forme de postmodernisme populiste où la confiance dans les institutions est érodée, ne laissant aucun mécanisme convenu pour statuer sur les demandes de vérité. Dans un tel espace, la peur et la xénophobie remplissent facilement le vide laissé par l’autorité institutionnelle. En attendant, si les gens ont perdu confiance dans l’autorité institutionnelle, cela ne les protégera pas de la colère des institutions si l’on pense qu’ils ont négligemment contribué à la propagation de COVID-19. Déjà, des poursuites pénales sont en cours contre la secte chrétienne qui a contribué à l’épidémie en Corée du Sud, et les autorités canadiennes affirment qu’elles n’excluent pas des sanctions pénales pour « propagation délibérée de COVID-19 ». Comme nous l’avons vu en ce qui concerne le VIH, la réponse de la justice pénale a connu un regain d’intérêt au cours de la dernière décennie, ce qui laisse entrevoir la montée d’une approche de plus en plus punitive des maladies infectieuses. Dans le cas du VIH, cette évolution s’est produite sans qu’il soit prouvé qu’une réponse de la justice pénale contribue à la prévention du VIH. À la lumière de ces développements, les chercheurs devraient s’attendre — et s’interroger sur les implications des flux de données sanitaires dans les systèmes de justice pénale.

Effectivement, dans un monde où le droit a perdu sa fonction anthropologique et où l’automatisation de la justice répond à l’automatisation de nos vies (leur gafamisation et leur réduction à des données numériques absconses) on peut se demander si l’autoritarisme libéral ne cherchera pas à passer justement par le droit, la sanction (la punition) pour affirmer son efficacité, c’est-à-dire se concentrer sur les effets au détriment de la cause. Qu’importe si l’application pour smartphone Covid-19 dit le vrai ou pas, elle ne saurait être remise en cause parce que, de manière statistique, elle donne une représentation de la réalité que l’on doit accepter comme fidèle. Ce serait sans doute l’une des plus grandes leçons de cette épidémie : la consécration du capitalisme de surveillance comme la seule voie possible. Cela, ce n’est pas une prophétie, ce n’est pas une révélation, c’est le modèle dans lequel nous vivons et contre lequel nous ne cessons de résister (même inconsciemment).


Crédit image d’en-tête : Le Triomphe de la Mort, Pieter Brueghel l’Ancien (1562) – Wikipédia.


  1. Un sondage réalisé à une semaine d’intervalle dément complètement les résultats de celui de l’université d’Oxford. Il a été réalisé sur la population française par l’IFOP suite à une demande de la Fondation Jean-Jaurès. Il apparaît qu’une majorité de français est en fait opposée à une application de type Stop-Covid. Voir Maxime des Gayets, « Tracking et Covid : extension du domaine de l’absurde », Fondation Jean-Jaurès, 12/04/2020 ↩︎

24.03.2020 à 01:00

Culture de la surveillance : résistances

« Lutte pour les libertés numériques », « droits et libertés sur Internet », liberté, liberté, j’écris ton nom… Sauf qu’il n’a jamais été autant question de liberté dans le monde numérique sans qu’elle finisse invariablement à se retrouver comme réduite à une simple revendication d’auto-détermination individuelle. Nous revendiquons un « droit à la connexion », nous exigeons de pouvoir rester maîtres des données que nous transmettons (et nous ne le sommes pas). Mais ces droits et ces libertés, nous les réclamons en tant que sujets de pouvoir ou plutôt d’une couche de pouvoirs, impérialisme économique et concentration de technologies. Par ces incessantes réclamations, n’est-ce pas plus simplement que nous réaffirmons sans cesse notre soumission au capitalisme de surveillance ?

J’ignore encore, à l’heure où j’écris ces lignes, où je veux en venir exactement. Pas banal direz-vous, car j’ai habitué les lecteurs de ce blog à d’autres stratégies, mais baste ! En ces instants de confinement généralisé, j’ai bien envie de me laisser aller à quelques détours réflexifs. Je voudrais vous parler de Michel Foucault, de Michel de Certeau, des surveillance studies1, et d’autres enjeux que je ne développe pas dans mon récent bouquin (Affaires Privées) parce que la réflexion n’est pas encore assez mûre.

Je feuilletais récemment un ouvrage collectif intitulé Data Politics. Worlds, Subjects, Rights2, un de ces nombreux ouvrages qui fleurissent depuis une dizaine d’années (et plus encore depuis les révélations d’E. Snowden) dans le monde de la recherche en politique et sociologie du côté anglo-saxon. Me sont venues alors quelques réflexions. Ce n’est pas que dans la vieille Europe nous soyons démunis de ce côté-là, et en France encore moins, mais nous avons un gros défaut : une tendance à l’auto-centrisme.

C’est peut-être en réponse à cette limitation intellectuelle que récemment la « littérature » scientifique (et journalistique) en France a commencé par cesser la complainte du « ils nous surveillent, regardez comment », pour se pencher sur l’analyse des causes et des processus de ce qu’on a encore bien du mal à appeler le capitalisme de surveillance. Cette dernière expression est employée un peu partout, mais il est bien rare de trouver une publication académique en France qui l’utilise vraiment. Lorsque c’est le cas, on se tourne généralement vers une seule autrice, Shoshana Zuboff, qui propose effectivement une lecture du capitalisme de surveillance très pertinente puisqu’elle donne une analyse systématique des pratiques des entreprises, la répartition du pouvoir et de la décision que cela induit et l’impact sur la vie privée. Ainsi on a assisté depuis 2014 à la publication de nombreux articles de S. Zuboff en Allemagne (en particulier dans les versions allemandes et anglaises du Frankfurter Allgemeine Zeitung ) et aux États-Unis, avec le point culminant de son ouvrage monumental The Age of Surveillance Capitalism (publié d’abord en Allemagne puis aux États-Unis, et bientôt en France). On prévoit alors la « déferlante Zuboff » dans les prochaines publications ici et là : le Monde Diplomatique à son tour, puis la revue Esprit… Les colonnes sont ouvertes, on bouffera du Zuboff en 2020.

Tout cela est bon. Vraiment. Déjà parce que Zuboff est plus digeste que Masutti (cf. AffairesPrivées), mais surtout parce qu’il est très important d’avoir une base solide sur laquelle on peut commencer à discuter. Je l’ai déjà dit sur d’autres billets de ce blog, mais j’admire vraiment S. Zuboff parce qu’elle fourni dans son travail une analyse globale des pratiques de surveillance de l’économie numérique. C’est un travail essentiel aujourd’hui. Plus encore en ces jours de confinement « Covid 19 » où le solutionnisme technologique bat son plein dans les tentatives pathétiques de contrôle des populations. Il est vrai que la « start-up nation » tant vantée ces deux dernières années est encore attendue au tournant alors que c’est bien du côté de l’Économie Sociale et Solidaire que nous voyons émerger créativité et solidarité numériques pour palier les manquements de l’État-Gafam. S. Zuboff ne montre pas autre chose que le grignotage néolibéral des fonctions publiques et des libertés individuelles, ce qu’elle voit à la fois comme une injustice et une menace pour la démocratie.

Cependant (vous le reconnaissez cet adverbe assassin et jubilatoire des pédants qui critiquent le travail des autres ?), cependant, dis-je, cette analyse de S. Zuboff repose presque exclusivement sur l’idée que le capitalisme de surveillance est une dépossession de l’expérience individuelle, au sens d’un contrôle des masses consommatrices et productives, afin d’imposer un modèle économique qui ne crée pas autre chose qu’un déséquilibre dans la dynamique normale du capitalisme (concurrence, égalité, choix, etc.). Elle en vient même à déclarer que l’atteinte à la vie privée, moteur du capitalisme de surveillance est la marque d’une appropriation de savoirs (qui possède l’information et qui décide ?) d’ordre « pathologique ». En d’autres termes nous parlons donc d’un capitalisme malade qu’il faudrait soigner. Et, de là, S. Zuboff plaide pour une prise de conscience générale des décideurs afin de ré-organiser la régulation et rétablir l’équilibre économique.

Bon. Là-dessus, je ne suis pas d’accord (et je ne suis pas le seul). D’abord, d’un point de vue méthodologique il y a comme un (gros) problème : cette économie de la surveillance ne commence pas avec les géants de la Silicon Valley, elle s’inscrit dans une histoire que S. Zuboff élude complètement. Et si elle l’élude, c’est parce que vouloir influencer les comportements de consommation de masse, c’est déjà vieux (le marketing, c’est les années 1920), mais surtout la critique consistant à dénoncer les atteintes à la vie privée en s’appuyant sur des procédures informatisées et des formules prédictives, c’est un processus normal du capitalisme moderne dans une société informatisée, c’est-à-dire au moins depuis les années 1960 — et ça c’est ce que j’écris dans mon bouquin, entre autre. Si bien que S. Zuboff s’inscrit en fait dans une tradition déjà bien ancienne des contempteurs d’une économie de l’atteinte à la vie privée, qui dénonçaient déjà les pratiques à l’œuvre et dont les ouvrages furent de véritables best-seller dans les années 1960 et 1970 (Arthur Miller, James B. Rule, Alan Westin, etc.).

Mais S. Zuboff apporte bien des nouvelles choses. Elle contextualise son analyse en se concentrant sur l’idéologie de la Silicon Valley dont elle démontre comment, de manière réfléchie, cette idéologie grignote petit à petit nos libertés. S. Zuboff fait tout cela de manière excessivement renseignée, pointant, démontrant avec exactitude (et de nombreux exemples) comment les stratégies des « capitalistes de la surveillance » organisent la confusion entre marché et individu, nient la société pour nous assujettir à leurs modèles. Ce que des gens comme Fred Turner avaient déjà pointé en montrant que les utopies soi-disant contre-culturelles à l’origine de ce « nouveau monde numérique », n’étaient finalement qu’un échafaudage en carton-pâte, S. Zuboff l’intègre davantage dans une confrontation entre une nouvelle idéologie néfaste de la dérégulation et un capitalisme bien régulé où l’État reprendrait ses prérogatives et les individus leur pouvoir d’autodétermination de soi.

Oui, mais… non. Car si ce capitalisme de surveillance apporte des nouvelles règles, elles sont fatalement à l’épreuve de la société et de la culture. Et ce travail d’analyse manque cruellement à S. Zuboff. La réalité de l’idéologie de la Silicon Valley, c’est une augmentation délirante du chômage et de la précarisation, des exploitations nationales et mondiales de la pauvreté, de l’environnement et du climat, mais aussi les luttes solidaires contre l’ubérisation de l’économie, et tout un ensemble de résistances sociales qui font que non, décidément non, nous ne sommes pas que des sujets soumis aux pouvoirs. Si le capitalisme de surveillance impose ses jeux de pouvoir par le biais des États qui, sous couvert de solutionnisme technologique usent et abusent des contrôle des populations, ou par le jeu plus direct de la captation des données et de la prédictions des comportements de consommation, il reste que concrètement, aux bas niveaux des interactions sociales et des comportements collectifs, tout ne se passe pas de manière aussi mécanique qu’on voudrait le croire.

S. Zuboff reprend (sans le dire) l’expression de capitalisme de surveillance des auteurs de la Monthly Review. J’ai déjà eu l’occasion de disserter sur cette usurpation ici et , et j’en parle aussi dans mon ouvrage, aussi je ne vais pas y revenir. En fait, le capitalisme de surveillance est surtout un projet d’étude, une approche du capitalisme. Au lieu d’en faire un objet qui serait le résultat d’une distorsion d’un capitalisme idéal, c’est au contraire une lecture historique (matérialiste) du capitalisme qui est proposée et que S. Zuboff ne peut pas voir. Il est en effet primordial d’envisager le capitalisme de surveillance dans l’histoire, dans une histoire de la surveillance. Par conséquent il est tout aussi important de confronter la lecture de S. Zuboff aux faits sociaux et historiques. C’est ce que j’ai fait dans mon livre avec l’informatisation de la société depuis les années 1960, mais on peut aussi bien le faire avec une approche sociologique.

Maintenant j’en reviens à la référence que je citais en tout début de ce billet, Data Politics. Worlds, Subjects, Rights. Reconnu depuis des années dans le milieu des surveillance studies, le sociologue David Lyon, publie dans ce livre un chapitre (num. 4) que j’ai trouvé tout particulièrement pertinent. Il s’intitule « Surveillance Capitalism, Surveillance Culture and Data Politics ». Ces derniers temps, D. Lyon a beaucoup œuvré autour du livre de S. Zuboff et de la question du capitalisme de surveillance, notamment par des communications dans des colloques (comme ici) ou en interview (comme ici)3. Cela m’avait un peu étonné qu’il ne choisisse pas d’avoir un peu plus de recul par rapport à ces travaux, mais en réalité, j’avais mal lu. Dans le chapitre en question, D. Lyon propose de sortir du dilemme « zubovien » (pour le coup je ne suis pas fort en néologismes) en confrontant d’un côté le point de vue de S. Zuboff et, de l’autre côté, l’idée qu’il existe une « culture de la surveillance », c’est-à-dire en fait une porte de sortie que S. Zuboff ne parvient pas à entr’ouvrir mais qui existe bel et bien, celle des résistances aux capitalisme de surveillance. Des résistances qui ne sont pas de simples revendications pour un capitalisme mieux régulé. En fait, sans trop le dire, D. Lyon voit bien que l’analyse de S. Zuboff, aussi complète soit-elle du côté des pratiques, ne va guère plus loin en raison d’une croyance tout aussi idéologique en la démocratie libérale (et ça c’est moi qui l’ajoute, mais c’est pourtant vrai).

Après avoir rapidement mentionné l’existence de poches de résistances importantes autour du libre accès aux connaissances et les luttes collectives d’activistes, D. Lyon en vient à montrer que les contours d’une culture de la surveillance sont justement dessinés par les résistances et les pratiques de contournement dans la société. Autant, selon moi, le salut réside dans des résistances affirmées comme telles et qui s’imposent aux pouvoirs économiques et politiques (j’y reviendrai plus loin), autant il est vrai que ces résistances plus affirmées ne seraient rien si elles ne prenaient pas leurs racines sociales dans quelque chose de beaucoup plus diffus et que D. Lyon va chercher chez un penseur bien français-de-chez-nous (mais avec une carrière internationale), Michel de Certeau.

Bon alors, là c’est un gros morceau, je vais essayer de faire court, surtout que je ne suis pas sûr de viser juste car je rappelle que ceci n’est qu’un billet de blog prospectif.

Penchons-nous un instant sur des sujets qui gravitent autour de la théorie de l’action. On parle d’action individuelle ou collective, et de la manière dont elle se « déploie ». Par exemple, on peut penser l’action selon plusieurs angles de vue : la décision, le choix, les déterminant cognitifs, la rationalité, mais aussi la manière dont l’action peut être contrainte, normée, obéissant à une éthique, consciente ou inconsciente, etc. En sociologie ou en anthropologie, on peut dire que l’action est le plus souvent vue comme soumise à des contraintes (les institutions, les organisations sociales, les traditions).

Parmi les élément rationnels qui guident l’action, on peut mentionner les savoirs, mais aussi les éléments culturels qui ne sont pas vraiment des savoirs (au sens de connaissances ou de savoir-faire) mais sont de l’ordre des éléments de construction des représentations. Une vue de l’extérieur de l’environnement social contraint. Pour David Lyon, il y a les utopies (ou les dystopies) qui, comme œuvres artistiques constituent autant d’accroches à une éthique de l’action. De mon côté, j’ai pu voir à quel point, effectivement, depuis 50 ans, l’œuvre 1984 d’Orwell est systématiquement utilisée, presque de manière méthodologique, pour justifier des réflexions sur la société de surveillance. Ce faisant, on peut alors effectivement penser la société en fonction de ces représentations et orienter des actions de résistance, par exemple en fonction de valeurs que l’on confronte aux normes imposées. C’est tout l’objet de cette conférence d’Alain Damasio au Festival de la CNT en 2015.

Par exemple, je reprendrai uniquement cette citation d’Arthur R. Miller, écrite dans son célèbre ouvrage Assault on Privacy: Computers, Data Banks and Dossiers en 1971, et qui donne immédiatement la saveur des débats qui avaient lieu à ce moment-là :

Il y a à peine dix ans, on aurait pu considérer avec suffisance Le meilleur des mondes de Huxley ou 1984 d’Orwell comme des ouvrages de science-fiction excessifs qui ne nous concerneraient pas et encore moins ce pays. Mais les révélations publiques répandues au cours des dernières années au sujet des nouvelles formes de pratiques d’information ont fait s’envoler ce manteau réconfortant mais illusoire.

L’informatisation de la société a provoqué des changements évidents dans les contraintes sociales. Institutions, organisations, cadres juridiques, hiérarchies, tout s’est en quelque sorte enrichi d’une puissance calculatoire et combinatoire qu’est l’informatique. C’est dans ce contexte (et le terme contexte est important ici) qu’il faut penser la théorie de l’action. Et j’estime que les penseurs post-modernes, à l’époque même de l’informatisation de la société, n’ont pas vraiment pris la mesure du problème de la captation des données et de la transformation de l’économie. Certes, il y a toujours Deleuze et sa fameuse « société de contrôle », mais comme d’autres il ne pouvait pas penser qu’allait émerger une culture de la surveillance car il pensait d’abord en termes de contraintes sociales imposées (par les institutions, d’abord, ou par les organisations comme les banques) et, dans tout cela, l’individu en recherche impossible d’émancipation parce que tout est bouclé par le discours, une impossibilité d’énoncer l’alternative.

Revenons alors à la théorie de l’action. L’individu (doté d’un capital de savoirs spécifique à chacun) serait toujours sujet soumis aux forces, aux contraintes de l’environnement (géographie, économie, politique, anthropologie…) dans lequel il se situe. C’est en quelque sorte l’héritage de la sociologie de Bourdieu, celle de la reproduction des hiérarchies sociales mais aussi celle d’une théorie de l’action selon laquelle les stratégies des individus sont des habitus adaptés au monde social dans lequel il évoluent dans les contraintes de compétitions, de structures et de violence symbolique. En somme, l’individu est fondamentalement soumis aux règles dictées par les hiérarchies sociales et l’environnement social construit pour lui dans lequel il doit lui aussi essayer d’exister socialement. Mais dans ce contexte, l’individu n’est pas pleinement conscient de ses pratiques. Elles lui sont soit naturelles soit subies, mais elles sont aussi ce qui le structure comme un individu. À la nécessité de déployer ces pratiques correspond comme une sorte de prolétarisation de l’être : ce savoir-être qu’il n’a pas (dont on le prive) et qui se résout à n’être qu’un ploiement face aux normes.

Un peu dans le même ordre d’idée, l’individu chez Michel Foucault est soumis aux pratiques de décisions des institutions. C’est flagrant dans Surveiller et Punir, toutes ces procédures, administrations et techniques forment un ordre du pouvoir. Il peut être la tentative de rétablir un système de relations sociales normées (dans l'Histoire de la Folie), ou une force disciplinaire qui circonscrit l’espace à un espace cellulaire universel (le même pour tous) et permet le contrôle social.

Mais n’y a-t-il pas d’autre méthode que de réduire tout le fonctionnement social à une procédure dominante qui serait le contrôle et la surveillance ?

Chez Michel de Certeau, l’ordre des choses est loin d’être aussi simple, et ce n’est pas vraiment un ordre (au sens d’ordonnancement ou au sens du pouvoir donneur d’ordres). C’est la question du rapport entre pensée et action. D’abord, son point de vue sur le sujet est beaucoup plus optimiste puisqu’il le dote d’une certaine puissance. Cette puissance se traduit par le fait qu’il est tout à fait conscient de sa résistance à l’ordre imposé et même, M. de Certeau décompose l’ordre et la résistance en distinguant deux démarches différentes : stratégies et tactiques. Dans L’invention du quotidien, M. de Certeau analyse cela sous l’angle d’une réflexion sur le quotidien et s’oppose en quelque sorte à la seule logique du discours qui, chez Foucault est quasiment la seule logique qui explique les rapports de pouvoir. Pour M. de Certeau, le discours, c’est le contexte, c’est-à-dire que l’énonciation d’un état de choses, d’un ordre, est toujours relative au contexte, un temps et un espace, dans lequel on exprime. L’énonciation peut alors avoir deux niveaux. Le premier est la représentation, c’est un calcul, une stratégie où le sujet fait de volonté et de pouvoir (intention, délibération, exécution, etc.) observe de l’extérieur et détermine les choix rationnels : le sujet en question peut être aussi bien un individu qu’une institution ou une entreprise, peu importe. Par l’ingéniosité, la stratégie permet alors de saisir des occasions (avec une prudence toute aristotélicienne) qui font basculer les choix dans l’intérêt du sujet (ou pas…). Déjà, là, nous sommes loin de Bourdieu et sa théorie dispositionnelle où c’est à l’intérieur de l’individu, dans sa structure cognitive, qu’entrent en jeu les dispositions qui orientent son action dans un contexte donné. Avec M. de Certeau, ce n’est pas qu’on réfute l’idée que la cognition ne joue pas un rôle, mais on ajoute quelque chose de très pertinent : l’occasion, qui au fond est la mesure de la pertinence de l’action. La stratégie est d’ordre topologique, elle exprime un rapport essentiellement à l’espace, qu’elle cherche non seulement à mesurer et calculer mais aussi contrôler sous les trois piliers que sont la prospective (prévoir), la théorie (savoir) et la domination (pouvoir).

Le second niveau de l’énonciation, ce sont les tactiques. Elles sont propres aux individus mais ne sont en aucun lieu déterminé puisqu’elles s’expriment selon les occasions sur le terrain ou la loi imposés par le stratège, celui qui a décidé (voir paragraphe précédent), qui a pu envisager l’ordre de l’extérieur et le designer. Ces tactiques relèvent d’une pratique du temps, ce sont des actes et des usages. Elles n’organisent pas de discours, elles sont « purement » pratiques et surtout créatrices. Elles explorent le territoire, mais sont autant de résistances à la loi imposée. Ce sont des « manières de faire », des « ruses ». En d’autre termes, là où le commandement implique une stabilité et une identification précise et fixe des lieux (par exemple l’institution Républicaine qui a des lieux précis, préfectures, et administrations), résistance et tactiques jouent des circonstances et créent des usages qui ne sont pas forcément raccord avec l’ordre déterminé stratégiquement. En fait, c’est même tout leur objet, de ne pas être raccord, puisqu’elles sont un art de vivre, des savoir-vivre.

Pour illustrer cela on peut se reporter au rapport entre lecture et écriture. C’est un exemple de M. de Certeau. La lecture déstabilise toujours l’écrit là où on l’on pensait au contraire que la réception de l’écrit est universelle et balisée, au contraire une lecture diffère toujours d’une autre, elle « déterritorialise » l’écrit. On peut encore illustrer en reprenant la manière dont la chercheuse Anne Cordier fait référence à Michel de Certeau dans son livre Grandir connectés, les adolescents et la recherche d’information en mentionnant la manière dont les élèves élaborent des tactiques dans l’environnement contraint du CDI ou de l’institution pour satisfaire l’enseignant lors de la recherche d’information (montrer ostensiblement qu’on ne va pas sur Wikipédia tout en contournant la règle pour y récupérer des informations).

On comprend peut-être mieux à quel point les utopies (ou les dystopies) sont en soit des actes de résistance. Puisqu’elles détournent les stratégies pour être des matrices créatrices de nouveaux usages. Le détour du tacticien par l’utopie lui permet d’imaginer un autre ordre possible que le territoire qui lui est donné. Et de cette occasion-là, il peut se servir pour changer le quotidien.

Cette manière de penser l’action est un peu le contre-pied du point de vue de Bernard Stiegler. Pour ce dernier, les GAFAM ont entrepris un vaste projet de prolétarisation des savoirs (savoir-être et savoir-vivre) et il nous appartient de chercher à se déprolétariser en fondant une économie de la contribution, qui soit le contraire d’une économie de la consommation-extraction-des-données où nous sommes les produits et les agents consommateurs. Mais dans ce point de vue, on en reste à l’idée que la résistance ne peut se faire qu’un revendiquant, de manière révolutionnaire, notre libération de ces contraintes. Cela me fait penser à Jean Baudrillard qui oppose société de consommation (où notre objectif consiste à satisfaire nos egos et nous distinguer des autres) et société de non consommation (la Chine de Mao ?). Faire cette distinction revient à penser que le consumérisme, pilier du libéralisme, est une affaire de choix individuels (au pluriel, les agents rationnels de l’économie) et s’oppose au choix collectif qui pourrait nous mener vers une société meilleure (le choix social communiste ?). Mais, selon moi, c’est oublier que le choix consumériste, libéral ou néolibéral, est d’abord et avant tout un choix politique, donc collectif ! Penser l’individu en tant qu’un éternel sujet soumis aux contraintes, aux normes ou à ses appétences non maîtrisées de petit élève consommateur… cela implique que des sachants viennent enfin lui expliquer comment sortir de son état prolétaire. Mais il y a déjà des tactiques à l’œuvre et nous sommes tous individuellement des résistants conscients de leurs résistances. En tout cas au moins depuis les Lumières où nous nous sommes sortis des carcans et des prescriptions… cf. Kant. Je ne veux pas opposer ici la philosophie kantienne mais, tout de même, l’anthropologie et la sociologie nous montrent bien tout cela. Si on prend le simple exemple de Wikipédia, c’est sur ce genre de tactique que s’est monté l’un des plus vastes mouvements d’émancipation de savoirs au monde (hors du cadre académique).

La culture de la surveillance, ce n’est pas seulement être habitué à être surveillé et même à y trouver des avantages (les gens se rendent sur Facebook par envie et par plaisir) ou contourner la surveillance pour son propre avantage (piratage de films contre le cadre Hadopi). La culture de la surveillance, c’est aussi la mise en pratique de toutes ces tactiques qui sont rendues possibles avec Internet parce qu’Internet fourni aussi les outils de résistance et de formulation de contre-ordre, de contre-culture.

Si nous en revenons au capitalisme de surveillance, finalement de quoi s’agit-il ? s’il s’agit d’un ordre économique et politique qui nous est imposé, et il est imposé parce que les données avec lesquelles il élabore la stratégie sont en grande partie des données issues non pas de notre quotidien (qui est la dynamique de nos tactiques, nous inventons notre quotidien) mais une extraction de notre quotidienneté, c’est à dire, comme le disait Henri Lefevre dans sa Critique de la vie quotidienne4, la banalité inconsciente et inconséquente de nos actions (tout le monde chez Mac Do, tout le monde regarde Netflix, tout le monde achète sur Amazon…) l’insignifiance de nos gestes… Une insignifiance dans le sens ou, pour reprendre M. de Certeau, il s’agit de la part non tacticienne de soumission au stratège : notre obéissance à l’ordre. Et donc la captation de nos données consiste à une extrapolation de ce que nous sommes, en tant qu’individus, une re-construction théorique. Nos doubles numériques sont eux-mêmes doublement construits : re-construction des données (par inférence, recoupement, calcul, combinaisons et algorithme), et re-construction théorique de notre quotidienneté. Mais tout cela n’est pas notre quotidien.

Nous sommes des résistants.

Le problème est de savoir si nos tactiques, nos résistances à l’ordre du capitalisme de surveillance doivent se résoudre à n’être qu’individuelles. Ce serait là une grossière erreur. D’abord parce que, comme le montre l’exemple de Wikipédia, mais aussi tous les mouvements ouverts, les collectifs, les zads, les libristes (et j’en passe) sont bien des actions collectives qui détournent, contournent l’ordre des institutions et créent de nouvelles structures, repensent la démocratie, et le tout dans une dynamique où la méthode est presque aussi importante que les actes. On peut difficilement faire plus conscient que cela. Et si ces mouvements se créent par des logiques tacticiennes, souvent par spontanéité, c’est parce que les cadres et les institutions n’emportent plus l’adhésion générale. Si bien que l’ensemble des tactiques fait monter la pression entre le cadre et le désir, et se créent alors des espaces de violence.

Le souhait le plus ardent des stratèges, en faisant la bonne figure d’un capitalisme régulé (régulé par la loi, donc la politique, donc soi-disant par tous) est donc de réduire les tactiques à la seule dimension individuelle. L’individu responsable, donc libre de disposer de soi dans les limites de la loi et du contrat social. Un contrat qui ne fait qu’imposer la logique d’un modèle unique de démocratie élective (parfois pas) et libérale. Donc lutter contre le capitalisme de surveillance par la revendication des libertés individuelles, en prônant l’idée que la vie privée est d’abord un concept qui garanti les choix individuels, c’est en quelque sorte conforter le cadre stratégique de l’aliénation et revenir à définir la résistance sociale à la somme des résistances individuelles. C’est l’échec, à mon avis.

Menons encore une petite prospective. Comme on parle de Michel de Certeau, généralement, la théologie et le mysticisme ne sont pas loin. Je pense à la théologie de la libération, ce courant christiano-marxiste porté notamment en Amérique du Sud dans les années 1970 puis à travers tout ce qu’on a appelé le « Tiers monde ». Ce qui me plaît là-dedans, ce n’est pas le message théologique, mais l’idée que dans le mouvement de résistance, en particulier face aux dictatures, c’est à la base des hiérarchies sociales, donc les plus pauvres généralement, que se situe l’appropriation des savoirs (ici la parole divine, les évangiles, etc.), à la fois pour se libérer des conditions sociales imposées, mais aussi des conditions religieuses imposées par les colonisateurs et classes dominantes pour se créer leur propre cadre religieux chrétien. On dépasse le cadre de la charité pour permettre aux pauvres d’agir eux-mêmes pour améliorer leur condition. Et si la théologie de la libération a pu trouver un échos dans les classes sociales, c’est parce qu’elle cristallisait au bon moment les tactiques de contournement des masses à l’ordre social imposé. Des tactiques que d’aucun aurait pu juger qu’il s’agissait de l’effacement de la personnalité au profit de l’humilité face aux blancs colonisateurs… jusqu’au jour où le colonisateur se prenant une balle perdue au milieu de la pampa, l’illumination sur la réalité sociale se fait.

Évidemment, on parle ici de guérillas et de répressions. Mais le plus important pour mon propos est de constater qu’il s’agit bien d’une réflexion sur l’action. Ce que certains, à la même époque d’ailleurs, on appelé l’action directe. L’action directe n’est pas d’emblée une action violente (elle est même souhaitable, c’est ce que je dis ci-dessous) mais elle contribue fatalement à augmenter la pression entre les tactiques et le cadre imposé. Et souvent la violence ne vient pas « d’en-bas ».

Alors comment ? Comment faire pour favoriser la résistance collective ? Déjà il faut comprendre qu’elle est déjà-là. Il faut surtout la comprendre et formuler ses formes idéales qui, selon moi, doivent prendre deux aspects : la préfiguration et l’archipélisation.

Pour ce qui concerne la préfiguration, j’ai déjà écrit ce billet. Je répéterai simplement qu’il s’agit d’une voie de l’avènement de pratiques collectives, non uniformisées, dont la diversité dans les organisations et les actions fait la force, en lutte contre les oppressions et de manière générale contre les cadres imposés qui n’emportent plus l’adhésion ou la supposée adhésion. Dès lors, ces pratiques sont toujours en mode préfiguratif : elles n’attendent ni validation ni autorisation des institutions. C’est l’idée du faire, faire sans eux, faire contre eux. À mon sens c’est une attitude résolument anarchiste.

Quant à l’achipélisation, c’est un concept qui revient à Édouard Glissant. Elle permet d’inclure ce qui manque dans la réflexion précédente (même si en affirmant qu’il s’agit d’anarchie, je l’inclus évidemment) : le rôle de l’autre, notre relation à l’autre. C’est en cela que la préfiguration, comme action de tactique collective, est d’abord un mouvement altruiste. Je copie ici un paragraphe de la conclusion de Affaires Privées :

Si le mouvement d’émancipation est d’essence anarchique, la cartographie des initiatives est celle d’un archipel. Cette métaphore insulaire, nous la reprenons du philosophe Edouard Glissant. On peut en effet prendre exemple sur l’imprévisible pluralité créole chère à ce grand penseur antillais (martiniquais). Elle montre que la richesse langagière, culturelle, sociale et sans doute politique ne réside ni dans le pouvoir et l’ordre ni dans la centralisation (continentale) mais dans le jeu de l’échange et du partage, au point que chaque individu possède en lui une pensée-archipel qui permet d’entrer en relation avec l’autre. L’archipélisation permet d’englober cela de manière à voir une cohérence dans l’insularité des imaginaires et des initiatives, et les regrouper dans une inter-insularité coopérative. La démarche préfigurative peut donc être anarchique, mais la concevoir dans un monde-archipel permet de penser l’inattendu de l’expérimentation, l’indétermination des alternatives au monde-continent. Ainsi, toutes les initiatives ne sont pas censées adhérer à des principes anarchistes, se reconnaître comme telles, ou même seulement penser à l’être. On ne compte plus les mouvements qui se revendiquent de l’autogestion, de la gestion collective, de l’initiative libre, de la participation ouverte, ou qui se présentent comme des collectifs, d’associations pluri-représentatives, des groupes informels, des groupes anonymes… en somme tout cela est finalement très cohérent puisque les normes structurelles existantes n’emportent plus l’adhésion.

Pour conclure ce billet un peu foutraque, tout cela mérite d’être amplement retravaillé, révisé, et sans doute mieux compris. Car je ne cache pas que les pensées de tous les auteurs cités ici sont loin de me mettre à l’aise. Je pense néanmoins ne pas être si éloigné que cela des problématiques actuelles que pose le capitalisme de surveillance et auxquelles je souhaiterais répondre par une forme de théorie de l’émancipation, histoire de sortir un peu de la sempiternelle plainte à l’encontre des pratiques des GAFAM et des États à la sauce start-up-nation-de-contrôle. Une plainte qui, sans être accompagnée de la recherche au moins théorique d’une porte de sortie, ne fait que tourner en rond depuis les premiers âges de l’informatisation de la société.


  1. Voir « La » revue de référence en la matière : Surveillance & Society. ↩︎

  2. Didier Bigo, Engin Isin, Evelyn Ruppert, Data Politics. Worlds, Subjects, Rights, London : Routledge, 2019. ↩︎

  3. Zuboff, Shoshana & Möllers, Norma & Murakami Wood, David & Lyon, David. (2019). « Surveillance Capitalism: An Interview with Shoshana Zuboff », Surveillance & Society, 17, 2019, p. 257-266. ↩︎

  4. Henri Lefebvre, Critique de la vie quotidienne, Paris, L’Arche, 1958. ↩︎

36 / 161
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
Blogs persos du Diplo
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Fabrice NICOLINO
Timothée PARRIQUE
Emmanuel PONT
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓