09.02.2025 à 01:00
L'ère de la déstabilisation
La récente élection de Donald Trump fut en même temps l’occasion d’affichage au grand jour de l’oligarchie techno-capitaliste qui l’accompagne. Nous constatons en même temps à quel point, avec l’aide active des politiciens, ces gens se radicalisent et basculent dans une idéologie libertarienne qui fait beaucoup plus que de créer une concentration des richesses. Elle assume complètement sa puissance destructrice.
Dans ce billet, je voudrais vous entretenir d’une idée, ou plutôt d’une lecture des évènements qui cherche à dépasser la seule analyse des transformations du capitalisme. Ce texte reflète mes lectures du moment, c’est un essai, une tentative un peu anachronique qui commence par l’Antiquité, fait un bond dans le temps pour parler de techno-capitalisme aujourd’hui et revient sur Proudhon.
Table des matières
Cimon
Les régimes politiques ont tous leurs bienfaiteurs. Et cela depuis au moins l’Antiquité. Ce fut le cas de Cimon (510-450) à Athènes. Courageux stratège (plusieurs fois élu !) victorieux, il illustra sa vie d’actes de bravoure, qui, entre conquêtes et chasse aux pirates, lui permirent d’amasser une fortune colossale au point de subir l’ostracisme. On retient de la vie de Cimon, rapportée notamment par Plutarque, une certaine ambivalence où l’enrichissement personnel et sans limite égale la générosité reconnue du personnage, qui alla jusqu’à transformer sa maison en une sorte d’auberge hippie avant l’heure, et sa propension à la magnanimité financière. En tant qu’homme d’État et de parti, sa défense de l’aristocratie contre la démocratie s’incarnait en lui comme la démonstration que peu d’hommes, pourvus qu’ils soient bien nés et entreprenants, sont aptes à diriger un pays.
À son propos, Plutarque écrit (Vies (parallèles), tome VII, trad. Facelière et Chambry, 1972) :
« Mais Cimon, en transformant sa maison en prytanée commun aux citoyens, et en laissant les étrangers goûter et prendre dans ses domaines les prémices des fruits mûrs et tout ce que les saisons apportent de bon avec elles, ramena en quelque sorte dans la vie humaine la communauté des biens que la fable situe au temps de Cronos. Ceux qui prétendaient malignement que c’était là flatter la foule et agir en démagogue étaient réfutés par la nature de sa politique, qui était aristocratique et laconisante. Il était, en effet, avec Aristide, l’adversaire de Thémistocle, qui exaltait à l’excès la démocratie. Et plus tard il combattit Éphialtes, qui, pour plaire à la multitude, voulait abolir le Conseil de l’Aréopage. Il avait beau voir tous les autres, sauf Aristide et Éphialtes, se gorger de ce qu’ils prenaient au trésor public, il se montra jusqu’à la fin incorruptible… »
Plutarque n’était pas un démocrate acharné, on le sait bien. Ses récits de vies servent un projet plus culturel qu’historique. Ce faisant il pose une question pertinente : comment en effet corrompre un homme immensément riche comme Cimon ? l’aristocratie n’est-elle pas le meilleur atout d’Athènes ? En tant que stratège, Cimon avait des armées à disposition pour servir le développement et les intérêts d’Athènes aussi bien que pour s’enrichir lui-même. Et que pouvaient réellement lui coûter quelques largesses débonnaires, sinon un peu de temps pour s’assurer que les athéniens ne versent pas trop dans la démocratie et remettent en question les décisions de l’Aréopage le concernant pour le titre de stratège ? Quant à l’auberge espagnole de son domaine, on peut sans trop se tromper deviner qu’il s’agissait plutôt d’une réminiscence de l’âge d’or (l’abondance du temps de Chronos, dit-on) où les hommes n’avaient pas besoin de travailler pour vivre… soit un banquet permanent ouvert à une certaine élite aristocratique, y compris non athénienne. Dans cet entre-soi bien organisé, se jouaient des accords, en particulier avec Sparte, la célèbre cité laconienne et pour laquelle Cimon, pourtant partisan du développement d’Athènes, revendiquait de bonnes relations diplomatiques.
J’extrapole un peu. On ne connaît Cimon que par écrits interposés à plusieurs centaines d’années de distance. Mais le personnage vaut notre attention aujourd’hui. Les riches bienfaiteurs au service de l’impérialisme de leur pays se nomment oligarques. Cimon vient de la noblesse, certes, mais par ses actions (héroïques) et ses largesses, sa popularité (et sa chute) c’est comme oligarque qu’il se présente. De notre point de vue contemporain, même si le statut social de Cimon est bien différent, nous n’avons jamais vraiment cessé de croire en des hommes (ce sont souvent des hommes) providentiels dont le leadership, les visions et le pouvoir que leur conférait la richesse, promettaient l’essor et le développement de toute la société.
Pourtant les Athéniens de l’époque de Cimon ont fini par laisser de côté son conservatisme pour se tourner vers des réformes « démocratiques » et surtout davantage de répit (la guerre permanente, cela n’épuise pas seulement les corps, mais aussi les esprits). Nous avons néanmoins appris qu’il n’y a pas d’oligarchie sans conservatisme ni populisme. Car ce sont sur ces ressorts politiques que l’auto-proclamation des oligarques cherche toujours sa légitimité. Il n’y a pas d’oligarchie sans un pouvoir politique qui leur délègue ses prérogatives. Lorsque les alliés d’Athènes commencèrent à se désengager des guerres, c’est Cimon qu’on envoie les mettre au pas. Pour lutter contre la piraterie en mer Égée, c’est Cimon qu’on envoie. Lorsque Sparte fait face à une révolte des hoplites, c’est encore Cimon qu’on envoie en médiateur.
Pour justifier ce pouvoir oligarchique, il faut l’appuyer sur quelque chose de tangible que le corps des citoyens est prêt à accepter, jusqu’à un certain point. Dans le cas de Cimon, c’est sa position aristocratique, mais en tant que telle, elle ne suffisait pas à cause des tensions politiques à l’intérieur d’Athènes, et c’est bien pourquoi Cimon faisait preuve d’autant de largesses. Bien naïf qui irait croire qu’un tel homme, aussi glorieux soit-il, aurait distribué ses richesses sans arrière-pensée. Ainsi, nombre de citoyens d’Athènes voyaient en lui un homme providentiel, et partageaient avec lui les mêmes valeurs conservatrices, à la mesure de leurs propres intérêts individuels. Comme l’écrit l’helléniste D. Bonnano à propos de Cimon (et des Philaïdes en général), « le patronage privé créait un système de réciprocité qui plaçait le bénéficiaire – en ce cas, la communauté civique athénienne – en situation de dette et apportait à son auteur prestige et privilèges ». En retour, un point d’équilibre s’établit entre le pouvoir politique et l’oligarchie : plus on a besoin d’oligarques, plus le conservatisme se justifie de lui-même par l’octroi des privilèges, excluant toute forme de contre-pouvoir. Ainsi, c’est en partie par ruse que Éphialtès a dû faire voter ses réformes, profitant de l’absence de Cimon, envoyé à Sparte, et de l’affaiblissement de ses amis de l’Aréopage (les citoyens les plus riches), pour en distribuer les pouvoirs à l’Assemblée et aux organes judiciaires.
La déstabilisation
Pourquoi parler de Cimon aujourd’hui ? Posons la question sans plus tergiverser : peut-on comparer Cimon et Elon Musk sous la présidence de Donald Trump ? La réponse est non. D’abord parce que la comparaison entre deux personnalités à 2500 ans d’intervalle pose des questions méthodologiques que je n’ai pas envie d’essayer de résoudre. Ensuite parce que faire appel à l’Antiquité à chaque fois qu’un problème contemporain se pose, c’est un peu trop facile. À ce compte-là, toutes les connaissances remontent à Aristote, et tout est donc déjà dit.
Ce qu’on peut retenir, par contre, ce sont les principes : pas d’oligarchie sans conservatisme, pas de conservatisme sans populisme. Qu’est-ce que le populisme ? C’est l’antipluralisme, c’est ne voir le peuple que comme quelque chose d’indifférencié. Soudoyer, faire miroiter, raconter des salades, en politique, c’est considérer que la congruence idéologique entre les masses électoralistes et les candidats se mesure à l’aune des positions respectives lorsque celle des candidats change en fonction des discours que les masses sont supposées attendre. Celles-ci ont intériorisé (ou plutôt sont supposées avoir intériorisé) une certaine lecture de l’idéologie néolibérale qui leur fait accepter qu’une petite élite de privilégiés pourra leur garantir un avenir meilleur. En retour, toute différenciation politique, tout avis nuancé, toute contradiction et toute forme de contre-pouvoir, c’est-à-dire toute forme de dialogue démocratique, est considérée comme contraire à l’intérêt général. C’est pourquoi le conservatisme, qui vise à garantir à l’oligarchie sa légitimité, se dote d’une posture autoritaire.
La différence entre Cimon et Elon Musk, c’est que ce dernier n’a pas besoin d’essayer de soudoyer le peuple par des largesses d’ordre monétaire, à part subventionner la campagne politique de Trump. Il n’est pas élu, il est plébiscité et nommé. Il lui suffit de promettre. Sa grande richesse justifie d’elle-même sa position élitiste : il a « réussi » dans l’économie néolibérale, il est « puissant », ses propriétés pèsent lourd dans l’économie. À l’heure des technologies numériques, la stratégie de communication est devenue assez simple, en somme : bombarder les réseaux sociaux de discours réactionnaires, viser juste ce qu’il faut pour gagner les masses, submerger les médias par des discours plus abscons les uns que les autres pour brouiller les formes de contre-pouvoir qui pourraient s’exprimer.
Mais dans quel but, alors ? L’exemple des États-Unis est frappant aujourd’hui, mais il se retrouve dans bien d’autres pays. La différence entre les gens comme Peter Thiel et Elon Musk et les anciennes oligarchies industrielles (Carnegie, Rockefeller), c’est que les plus anciens voulaient changer la société par une idéologie du progrès technique dans la production de biens (de consommation, notamment) pour pouvoir faire plus de profit, là où les oligarques des big tech cherchent à changer désormais notre manière de penser notre rapport à la technologie. Un rapport de dépendance à leurs technologies, une dette.
Ce changement du rapport à la technique consiste à exclure une partie de la population de toute association à l’innovation et de toute amélioration socio-technique, parce que la valeur aujourd’hui n’est plus issue de la production mais de l’innovation dans les processus de production, là où le temps de travail devient une variable de rentabilité.
Le capitalisme a muté en un système qui ne fait qu’anticiper la valeur future sur le marché boursier. On parle de capital fictif, de spéculation, d’obligations et d’actions. L’économie réelle est sous perfusion permanente de l’industrie financière. Par exemple, les grandes entreprises qui intègrent l’IA privilégient massivement l’automatisation (remplacer les personnes) à l’augmentation du travail (rendre les personnes plus productives), en visant une rentabilité à court terme. Vous allez me dire : c’est pas nouveau. Certes. Mais on estime aujourd’hui que la moitié des emplois essuieront les effets de l’intégration de l’IA en faveur d’un gain de productivité potentiel. Si bien qu’on est arrivé à ce que Marx pensait être une impossibilité : l’homme finit par se situer en dehors du processus de production. C’est paradoxal, puisque ce n’est plus compatible avec le capitalisme. Mais alors comment le ce dernier survit-il ? Par une économie monopoliste des innovations et des services où, comme le montrait T. Piketty, les revenus du capital se reproduisent plus rapidement que ce que le travail peu engendrer. Derrière les stratégies de monopoles technologiques se situe toujours la propriété de l’innovation, la propriété des techniques, et la maîtrise des cas d’usage pour assurer un autre monopole, celui sur les pratiques.
C’est ce que j’appelle l’âge de la déstabilisation. La déstabilisation de l’économie politique à laquelle nous étions habitués avant l’apparition de cette nouvelle oligarchie. Plusieurs processus sont engagés.
Naomi Klein avait déjà identifié une première forme de stratégie, la stratégie du choc, celle qui consiste à instrumentaliser les crises pour substituer le marché à la démocratie.
Une autre stratégie consiste à organiser, par une « offensive technologique », une situation d’assignation et d’assujettissement. Les écrits de Barbara Stiegler sont éclairants sur ce point. Citons en vrac : les techniques de nudging, la manipulation informationnelle, les effets normatifs du rating & scoring des médias sociaux, les politiques d’austérité qui remplacent les relations sociales par des algorithmes et de l’IA avec pour résultat le démantèlement des structures (santé et aide sociale notamment) ainsi que la désolidarisation dans la société, l’évaluation permanente par plateformes interposées dans le monde du travail, le solutionnisme technologique proposé systématiquement en remplacement de toute initiative participative et concertive, etc.
Je reprends l’expression « offensive technologique » à Detlef Hartmann qu’on ne connaît pas assez en France, en raison notamment d’une méconnaissance du mouvement autonome allemand qui a plusieurs facettes parfois difficiles à lire. En fait, encore une autre stratégie de déstabilisation peut se retrouver dans la définition de ce que D. Hartmann à nommé offensive technologique tout au début des années 1980. Il s’agit de l’accaparement des subjectivités par la logique capitaliste. Il y a quelque chose qui nous rappelle la description de l’électronicisiation du travail par Shoshana Zuboff dans In The Age Of The Smart Machine (1988), sauf que Zuboff ne se place pas du point de vue politique (et elle a tort).
Logique formelle du capital
D. Hartmann a écrit en 1981 Die Alternative: Leben als Sabotage. Dans ce livre, il montre combien le capitalisme impose de concevoir la société, les relations sociales et les comportements selon une logique formelle qui efface les subjectivités. Pour lui, le cadre principal de l’effacement de la subjectivité au travail est la taylorisation et elle s’est étendue à toute la société avec les nouvelles technologies (et au début des années 1980, il s’agit en gros des ordinateurs). Keine alternative. On a transformé les processus de travail (y compris intellectuel) de telle sorte que les travailleurs ne puissent plus le contrôler eux-mêmes. Et il en est de même dans les rapports sociaux : l’activité de l’individu est dominée par des structures formelles. Or, les sentiments, les émotions, la capacité à avoir une opinion puis en changer, le souci de soi et des autres, tout cela ne peut pas entrer dans le cadre de cette logique formelle. C’est pourquoi D. Hartmann nous parle aussi d’une « violence technologique » car la technologie échoue à transformer en logique formelle ce qui échappe par essence au contrôle formel (l’intuition, le savoir-être, le pressentiment, etc.). Dès lors, l’application d’une logique formelle aux comportements est toujours une violence car elle vise toujours à restreindre la liberté d’action, et aussi l’imagination, la prise de conscience que d’autres possibilités sont envisageables. D. Hartmann nous propose le choix : soit le sabotage, comme le luddisme, dont il évoque les limites, soit l’opposition d’un principe vital, une expression de l’individualité (ou des individualités en collectif) qui feraient éclater ce cadre formel capitaliste.
C’est à dire que le capitalisme se méfie énormément de ce qui en nous est résistant, imprévisible, intuitif et qui échappe à la détermination de la logique formelle à l’œuvre (les tactiques dont parlait Michel de Certeau ? ou peut-être ce qui fait de chacun de nous des êtres fondamentalement ingouvernables, comme anarchistes). Et ce faisant, de manière paradoxale, le capitalisme les met à jour en tant que force constructrice de la subjectivité persistante du travailleur et de l’homme tout court. Non, nous ne sommes pas entièrement prolétarisés (comme disait Bernard Stiegler), il y a de la résistance. Ce qui est perçu comme un dysfonctionnement du point de vue de la logique capitaliste est désormais perceptible dans la lutte de classe (ce n’est plus la conscience de classe, c’est la résistance de vie, comme dit D. Hartmann).
On en est donc réduit à cela : même si nous avons toujours cette capacité de résistance, elle ne se déclare plus dans un rapport de force, mais dans un rapport de soumission totale par la violence technologique : la seule chose qui nous maintient en vie, c’est encore ce qui échappe à la logique formelle. Que va-t-il arriver avec l’IA qui, justement, dépasse la logique formelle ? Wait and see.
En termes marxistes, on peut alors suivre Detlef Hartmann dans le constat, en 1981, que la numérisation de la société à fait sortir hors du seul domaine de la production la taylorisation et la formalisation du quotidien. Cette quotidienneté formalisée a restructuré le rapport de classe mais la violence technologique à l’œuvre a été occultée. La nouvelle classe moyenne et les prétentions de ce qu’Outre-Atlantique on a nommé la Nouvelle Gauche ont permis de mettre à jour les peurs liées à l’informatisation Orwellienne de l’État mais en les mettant au même niveau que d’autres revendications : environnementalisme, militantisme pour la paix, pour les droits humains, etc. Si on approfondit, la différence avec ces justes et nobles causes, c’est que les technologies de l’information ont permis aux capitalistes de casser les rapports systémiques qui stabilisaient la domination politique par des phases de négociation avec la classe ouvrière. L’apparition d’une « classe moyenne » que l’on réduit à son comportement statistique et formel, d’un côté, et les projets d’informatisation et de rationalisation de l’État et des organisations productives, de l’autre côté, ont annulé progressivement la dialectique de domination et de lutte de classe. La centralisation du capital et l’État ont accaparé les données comportementales en désintégrant (en presque totalité) les structures sociales intermédiaires et cherche à empêcher l’apparition d’une nouvelle subjectivité de classe.
Le piège socialiste
Lorsqu’on pense la technologie, et plus particulièrement en tant que libriste, on cherche à y voir son potentiel d’émancipation. Personnellement, j’ai toujours pensé que ce potentiel émancipateur ne pouvait fonctionner que dans une perspective libertaire. C’est pourquoi dans un texte en octobre 2023 je soutiens, en reprenant quelques idées de Sam Dolgoff, que :
« Le potentiel libertaire du logiciel libre a cette capacité de réarmement technologique des collectifs car nous évoluons dans une société de la communication où les outils que nous imposent les classes dominantes sont toujours autant d’outils de contrôle et de surveillance. Il a aussi cette capacité de réarmement conceptuel dans la mesure où notre seule chance de salut consiste à accroître et multiplier les communs, qu’ils soient numériques ou matériels. Or, la gestion collective de ces communs est un savoir-faire que les mouvements libristes possèdent et diffusent. Ils mettent en pratique de vieux concepts comme l’autogestion, mais savent aussi innover dans les pratiques coopératives, collaboratives et contributives. »
Encore faut-il préciser qu’il s’agit bien d’instituer des pratiques collectives ou, pour reprendre l’idée de D. Hartmann, d’affirmer des individualités collectives, un principe vital face à la formalisation de nos quotidiens. Il ne faut pas tomber dans le piège du positivisme qui a bercé l’anarchisme classique (fin 19e) : croire que l’intelligence technologique pouvait permettre, à elle seule et pourvu que les connaissances en soient diffusées (par l’éducation populaire), de se libérer des mécanismes de domination.
L’autre solution consisterait à partir du principe qu’une « technologie bienveillante » pourrait être à l’œuvre dans un projet politique plus vaste qui consisterait à renverser le pouvoir capitaliste sur la production. Cela s’apparente en fait à du solutionnisme, celui prôné par les techno-optimistes de la Silicon Valley de la première heure inspirés par une vision hippie de la technologie rédemptrice, capable d’améliorer le monde par le partage. Ces idées sont mortes de toute façon : ce n’est pas ainsi qu’a évolué le néolibéralisme, mais bien plutôt par l’exclusion, la centralisation des capitaux et l’accaparement des technologies.
C’est là qu’il faut sortir d’une idée de lutte de classe. Si D. Hartmann reste sur le même vocabulaire, c’est toutefois pour réviser la vision historique de cette dynamique. Pour lui, la technologie a changé la donne et nous ne sommes plus sur l’opposition classique du socialisme entre le travailleur et le capitaliste qui accapare les produits de la production. C’est la technologie qui est devenue un rapport social dans ce qu’elle impose comme formalisme à nos subjectivités. Il existerait donc toujours une lutte de classe, entre les propriétaires des technologies et les politiques qui les plébiscitent, d’une part, et ceux qui en sont exclus, d’autre part.
Selon ma perspective, il est nécessaire de souligner qu’une lutte de classe implique, de part et d’autre, l’existence de populations suffisamment nombreuses pour justifier une catégorisation. La lutte de classe ne peut être entendue que dans un contexte où les groupes sociaux sont suffisamment vastes et distincts pour qu’on puisse les identifier comme des classes. Toutefois, aujourd’hui, cette lutte semble se structurer différemment. Elle oppose d’un côté l’ensemble de la société, et de l’autre un nombre restreint d’individus : un mélange complexe d’oligarques et de politiciens, qui partagent un intérêt commun à imposer des logiques de rentabilité (comme nous l’avons vu, le cœur du processus n’est plus l’exploitation du travail en tant que tel, mais la concentration de la propriété de l’innovation et de sa rentabilité dans le cadre du processus de production). Cette réalité nous éloigne, d’une certaine manière, des solutions politiques traditionnelles, telles que le socialisme ou le communisme, du moins dans leur conception classique.
En effet, l’idée d’un État socialiste qui exercerait un monopole sur les moyens de production en expropriant la bourgeoisie, est une idée obsolète. Elle ne permet plus de réfléchir à l’expropriation des travailleurs de leurs subjectivités. Il ne s’agit plus tellement de moyen de production, mais de l’annihilation des subjectivités. Pour en donner un exemple, il suffit de voir à quel point le capitalisme de surveillance cherche à contrôler nos comportements et nos pensées, annihilant toute forme de créativité autonome.
Cet État socialiste, envisagé comme une solution politique, ressemble davantage à une mégamachine qui, loin de libérer, imposerait à son tour une logique formelle rigide, qu’il s’agisse d’une bureaucratie centralisée ou d’une technologie apparemment bienveillante. Même si l’on imaginait un système constitué de collectifs d’autogestion, ces derniers risqueraient de se retrouver absorbés et uniformisés par cette logique. La véritable autogestion est celle qui, au lieu de les harmoniser en les regroupant, fédère les initiatives et reflète un maximum d’alternatives possibles. Bref, qui laisse un imaginaire intact et vivant.
Or, ce que le capitalisme à l’ère des technologies de l’information accomplit depuis plusieurs décennies, c’est précisément la destruction systématique de cet imaginaire. Les capitalistes, pour leur part, défendent l’idée qu’aucune alternative n’existe à leur système. En réponse, il est impératif de répéter que, pour nous, aucune conciliation n’est envisageable entre leur monde et le nôtre. Cela implique qu’aucun compromis ne doit être accepté, qu’il s’agisse d’une mégamachine socialiste ou d’un régime oligarchique.
Bref, le problème, c’est bien le pouvoir : je ne vous fais pas l’article ici.
Déstabilisation par combinaisons
Une dernière forme de déstabilisation est cette fois non plus une stratégie, mais une submersion de combinaisons entre des technologies et des postures économiques et idéologiques. Ces combinaisons ne sont pas pensées en tant que telles mais en tant que stratégies de profit ad hoc et ont néanmoins toutes été identifiées et qualifiées par les observateurs.
Un exemple typique connu de tous est l’entreprise Uber qui a donné son nom à une série de modèles visant à ajouter une couche technologique à une économie classique de production de service, pour transformer les modèles. Cette transformation se fait toujours en défaveur de la société (travailleurs - consommateurs) selon des principes d’exploitation et des postures idéologique. D’une part, il s’agit d’organiser une plus grande flexibilité de la main d’œuvre, œuvrer pour une dérégulation du droit du travail, proposer une tarification variable basée sur l’offre et la demande. D’autre part, il s’agit de promouvoir la liberté individuelle et l’autonomie pour encourager la vision néolibérale de la responsabilité individuelle, proposer une économie dite collaborative pour maximiser la mise en commun des ressources et réduire les coûts d’exploitation, vanter les mérites de la plateformisation pour confondre l’efficacité avec la précarisation croissante des travailleurs.
Les combinaisons sont multiples et se définissent toutes selon le point de vue dans lequel on se place : idéologie, macro-économie, politique, sociologie. Voici un florilège :
- Techno-capitalisme : concentration du pouvoir économique, transformation du travail, capitalisme de surveillance.
- Techno-césarisme : érosion de la souveraineté étatique par les dirigeants des big tech, personnalisation du pouvoir par ces derniers, dépendance aux grandes plateformes.
- Tech-bros : culture de l’exclusion dans le monde des big tech (entre-soi, masculinisme, sexisme), libertarianisme numérique (exemple: cryptomonnaie et blockchain pour se passer de la médiation des institutions de l’État), transhumanisme.
- Techno-optimisme : absence de point de vue critique sur les technologies (par exemple : l’IA menace le climat mais elle seule pourra nous aider à lutter contre les effets du changement climatique), volonté de maintenir les structures telles qu’elles sont (conservatisme) car elles nous mèneraient nécessairement à la croissance.
- Solutionnisme technologique : plus besoin de démocratie car les technologies permettent déjà de prendre les bonnes décisions, remplacer les politiques publiques réputées inefficaces par l’efficacité supposée des technologies numériques.
- Capitalisme de surveillance : assujettir les organisations à la rentabilité des données numériques, influencer et contrôler les comportements, restreindre les limites de la vie privée et de l’autonomie individuelle, subvertir les subjectivités (marchandisation de l’attention).
- Économie de plateformes : médiatisation des relations par des plateformes numériques, concentration des marchés autour de quelques plateformes, précarisation du travail, privatisation d’infrastructures publiques (notamment les relations entre les citoyens et les services publics).
- Techno-féodalisme : organisation de l’asymétrie des pouvoirs par les big tech qui régissent les coûts d’entrée sur les marchés, et soumettent le pouvoir politique (et la démocratie) aux exigences de ces marchés.
- Crypto-anarchisme : annihiler les régulations (par exemple en décentralisant les finances par les crypto-monnaies afin d’empêcher des organismes de contrôles de vérifier les échanges), déresponsabilisation totale au nom de la liberté, abattre les institutions traditionnelles qu’elles soient étatiques ou sociales.
- Capitalisme cognitif : privatisation des connaissances, fatigue informationnelle.
- etc.
Tout cela fait penser au travail qu’avait effectué le sociologue Gary T. Marx qui a beaucoup œuvré dans les surveillance studies et avait écrit un article fondateur sur ce champ de recherche spécifique en dénombrant les multiples approches qui légitimaient par conséquent ce domaine de recherche (voir . G. T. Marx, « Surveillance Studies »). J’ignore si un jour on pourra de la même manière rassembler ces approches en une seule définition cohérente, une something study, mais je pense que l’analyse des rapports entre technologie et société devraient accroître bien davantage les études systématiques sur les rapports entre technologies et pouvoir afin de donner des instruments politiques de lutte et de résistance.
La propriété c’est le vol
De nombreuses publications ces dernières années analysent les technologies numériques sous l’angle du vol : vol de nos intimités, vol de la démocratie, rapt d’internet (cf. C. Doctorow). Ou bien, s’il n’est pas question de vol, on parle d’accaparement, de concentration, de privation, d’appropriation. Tout le monde s’accorde sur le fait que dans ces pratiques qu’on associe essentiellement aux big tech, il y a quelque chose d’illégitime, voire de contraire à la morale, en plus d’être déstabilisant pour la société à bien d’autres égards.
Toutefois, il est notable que s’il l’on se contente de cette approche, on n’en reste malheureusement qu’à un constat qui pourrait tout aussi bien se faire, rétrospectivement, au sujet de l’avènement historique du capitalisme (par exemple les enclosures), du capitalisme industriel et du néolibéralisme. En fait, on reproche au capitalisme et ses avatars toujours la même chose : l’accumulation primitive. Expropriation, colonisation, esclavage, féodalisme, endettement : tout cela a déjà été identifié depuis longtemps par la critique marxienne. Pour quels succès exactement ? J’entends d’ici le gros soupir du Père Karl.
Et d’après-vous, pourquoi je vous parlais de Cimon au début de ce billet ? Pas uniquement pour parler d’Elon Musk. C’est une question de domination, pas seulement de propriété et d’accumulation.
Je recommande vivement l’acquisition de l’excellent ouvrage de Catherine Malabou, intitulé Il n’y a pas eu de révolution (Rivages, 2024). Dans ce livre, l’auteure propose une lecture particulièrement pertinente de Proudhon. Elle revient notamment sur la maxime « la propriété, c’est le vol ». Il est ici inutile de mentionner la distinction entre propriété et possession, car il est désormais bien compris que la caricature de l’anarchisme fondée sur cette phrase est dénuée de sens. Parlons sérieusement. Cette citation est un point clé aujourd’hui car nous avons longtemps sous-estimé la portée de l’œuvre de Proudhon sur La propriété. Cela s’explique en partie par l’analyse de Marx, qui a proposé une lecture alternative concernant presque exclusivement la propriété des moyens de production, lecture qui a largement prédominé. D’autre part, le matérialisme historique marxiste postule que, pour qu’il y ait vol, il doit d’abord exister de la propriété. C’est l’œuf et la poule.
Sauf que… si Proudhon n’est pas toujours un exemple d’une grande clarté, il est loin d’être le brouillon que Marx a tenté de dépeindre. C. Malabou nous montre que pour Proudhon, la propriété est un acte performatif. Proudhon écrivait : « la propriété est impossible, parce que de rien elle exige quelque chose ». Il n’y a pas d’enchaînement de cause à effet : la propriété ne devrait pas être considérée comme un état, mais comme un acte violent qui s’interpose à l’usage, entre le mot et la chose. C’est là qu’une critique de la Révolution peut vraiment se faire.
En effet, la propriété comme droit naturel, c’est imaginer un monde comme celui de la fable de Cronos (cf. première section de ce billet) où tout serait en commun pour une certaine partie de la population (les dieux, d’abord, les nobles ensuite, et ceux qui, par les dieux ! le méritent bien, les aristocrates). Et ce que nous dit Proudhon, en parlant de la Révolution Française, c’est que l’abolition des privilèges qui aurait dû en théorie faire advenir cette fable pour que tout le monde puisse en profiter des fruits, n’a en réalité rien aboli du tout. Il y a toujours des pauvres et des exclus malgré l’affirmation du droit à la propriété privée et c’est même pire depuis que Napoléon a fait de la propriété un droit absolu dans le Code Civil.
Pour enfin résumer à grands traits ce que nous dit C. Malabou (lisez le livre, c’est mieux), c’est que Proudhon nous livre en fait une analyse de la raison pour laquelle la société n’est jamais sortie de son état de soumission. Sont toujours d’actualité les pratiques médiévales telles que le droit d’aubaine, la main-morte ou le droit de naufrage. Le point commun n’est pas seulement que le seigneur réclame un dû pour en dépouiller les plus pauvres, c’est que ces droits nient à la personne la possibilité même de transmettre le bien (à ses enfants ou à autrui). C’est un régime d’exclusion. Et ce régime d’exclusion, nous n’en sommes pas sortis en raison de la tendance, par le truchement de la sacralisation de la propriété, à la concentration des moyens de production, des richesses et donc des pouvoirs.
Que faire des technologies numériques ? le premier grand jeu auquel se sont livrés les tenants de l’idéologie néolibérale, c’est de chercher à maîtriser la propriété des usages, c’est-à-dire le code informatique. Ce n’est pas pour rien que ce fut un Bill Gates qui a le premier (par sa Lettre ouverte aux hobbyistes) cherché à faire valoir un titre de propriété sur des ensembles d’algorithmes permettant de faire fonctionner un paquet de câbles et de tôles. Et c’est pour cela que les licences libres et les logiciels libres sont des modèles puissants permettant d’opposer la logique des communs à celle du néolibéralisme, pour autant que cette opposition puisse enfin assumer sa logique libertaire (et pas libertarienne, attention).
L’oligarchie actuelle, visible dans les médias, démontre par l’absurde à travers des figures comme Trump et ses alliés, mais aussi de manière plus subtile dans d’autres pays, y compris en Europe, que l’objectif reste fondamentalement le même : concentrer la propriété des technologies pour mieux dominer les marchés, et donc l’ensemble de la société. C’est pourquoi l’IA est si plébiscitée par ces néolibéraux, car elle touche à tous les secteurs productifs et aux moyens de production. Ceux qui pensaient que le capital avait évolué, que le monde était devenu plus collaboratif et horizontal, n’ont en réalité fait que jouer le jeu de la domination, notamment celui de l’économie « collaborative ».
La seule voie des communs, malgré ce que peuvent en dire Dardot et Laval, consiste à s’opposer à toute forme de pouvoir, même si ce dernier semble bienveillant sur le papier. La convivialité et l’émancipation offertes par les technologies, ce que j’appelle leur potentiel libertaire, ne doivent plus jamais être perçues comme des conditions d’un marché ouvert, mais plutôt comme des conditions pour affirmer les subjectivités, individuelles et collectives, contre les pouvoirs et (donc) la propriété.
07.01.2025 à 01:00
Je suis allé faire un tour sur les GCP à la mode... et j'en suis revenu
La gestion des connaissances personnelles (personal knowledge management) est une activité issue des sciences de gestion et s’est peu à peu diffusée dans les sphères privées…
🔔 L’idée qui sous-tend cette approche des connaissances est essentiellement productiviste. Elle a donc des limites dont il faut être assez conscient pour organiser ses connaissances en définissant les objectifs recherchés et ceux qui, de toute façon, ne sont pas à l’ordre du jour. Mais à l’intérieur de ces limites, il existe toute une économie logicielle et une offre face à laquelle il est possible de perdre pied. Cela m’est arrivé, c’est pourquoi j’écris ce billet.
On peut définir les objectifs de la GCP grosso modo ainsi :
- Intégrer ses connaissances dans un ensemble cohérent afin de les exploiter de manière efficace (c’est pourquoi la connexion entre les connaissances est importante)
- Définir stratégiquement un cadre conceptuel permettant de traiter l’information
- Permettre l’acquisition de nouvelles connaissances qui enrichissent l’ensemble (ce qui suppose que le cadre doit être assez résilient pour intégrer ces nouvelles connaissances, quelle que soit leur forme).
La première information importante, c’est qu’on a tendance à réduire la plupart des logiciels en question à de simples outils de gestion de « notes », alors qu’ils permettent bien davantage que d’écrire et classer des notes. Si on regarde attentivement leurs présentations sur les sites officiel, chacun se présente avec des spécificités bien plus larges et nous incite davantage à organiser nos pensées et nos connaissances qu’à écrire des notes. Pour comparer deux outils propriétaires, là où un Google Keep est vraiment fait pour des notes simples, Microsoft Onenote contrairement à son nom, permet une vraie gestion dans le cadre d’une organisation.
Une autre information importante concerne la difficulté qu’il y a à choisir un logiciel adapté à ses usages. Surtout lorsqu’on utilise déjà un outil et qu’on a de multiples écrits à gérer. Changer ses pratiques suppose de faire de multiples tests, souvent décevants. Ainsi, un logiciel fera exactement ce que vous recherchez… à l’exception d’une fonctionnalité dont vous avez absolument besoin.
⚠️ Aucun logiciel de GCP ne fera exactement ce que vous recherchez : préparez-vous à devoir composer avec l’existant.
À la recherche du bon logiciel
Je vais devoir ici expliquer mon propre cas, une situation que j’ai déjà présentée ici. Pour résumer : j’adopte une méthode Zettelkasten, j’ai des textes courts et longs, il s’agit de travaux académiques pour l’essentiel (fiches de lecture, notes de synthèse, fiches propectives, citations… etc.). Parmi ces documents, une grande part n’a pas pour objectif d’être communiquée ou publiée. Or, comme l’un de mes outils est Zettlr, et que ce dernier se présente surtout comme un outil de production de notes et de textes structurés, je me suis naturellement posé la question de savoir si mes notes n’auraient pas un intérêt à être travaillées avec un outil différent (tout en conservant Zettlr pour des travaux poussés).
Par ailleurs :
- Le markdown doit impérativement être utilisé, non seulement en raison de sa facilité d’usage, mais aussi pour sa propension à pouvoir être exporté dans de multiples formats,
- La synchronisation des notes entre plusieurs appareils est importante : ordinateur (pour écrire vraiment), smartphone (petites notes, marque-page, liste de tâches) et tablette (écrire aussi, notamment en déplacement),
- Les solutions d’export sont fondamentales, à la fois pour permettre un archivage et pour permettre une exploitation des documents dans d’autres contextes.
Le couple Zettlr - Pandoc m’a appris une chose très importante : éditer des fichiers markdown est une chose, les éditer en vue de les exploiter en est une autre. D’où la valeur ajoutée de Pandoc et des en-têtes Yaml qui permettent d’enrichir les fichiers et, justement, les exploiter de manière systématique.
Je suis donc parti, youkaïdi youkaïda, avec l’idée de trouver un logiciel d’exploitation de notes présentant des fonctionnalités assez conviviales pour faciliter leur accès, et aussi m’ouvrir à des solutions innovantes en la matière.
Je n’ai pas été déçu
Non, je n’ai pas été déçu car il faut reconnaître que, une fois qu’on a compris l’approche de chaque logiciel, leurs promesses sont généralement bien tenues.
Je suis allé voir :
- Dans les logiciels pas libres du tout, Obsidian et Workflowy.
- Dans les open source (et encore c’est beaucoup dire) : Logseq, Anytype.
- Dans le libre : Joplin (et Zettlr que je connaissais déjà très bien).
Je ne vais pas présenter pour chacun toutes leurs fonctionnalités, ce serait trop long. Mais voici ce que j’ai trouvé.
Premier étonnement, c’est que c’est du côté open source ou privateur qu’on trouve les fonctionnalités les plus poussées de vue par graphe, et autres possibilités de requêtes customisables / automatisables, ou encore des analyse de flux (par exemple pour voir quel objet est en lien avec d’autres selon un certain contexte).
Second étonnement, concernant la gestion des mots-clé et des liens internes, points communs de tous les logiciels, il faut reconnaître que certains le font de manière plus agréable que d’autres. Ainsi on accorde beaucoup d’importance aux couleurs et aux contrastes, ce qui rend la consultation des notes assez fluide et efficace.
Bref, ça brille de mille feux. Les interfaces sont la plupart du temps bien pensées.
Anytype, le plus jeune, et qui a retenu le plus mon attention, a bénéficié pour son développement des critiques sur les limites des autres logiciels. Par exemple Obsidian qui est victime de ses trop nombreux plugins, reste finalement assez terne en matière de fonctions de base, là où Anytype propose d’emblée d’intégrer des documents, de manipuler des blocs, avec des couleurs, de créer des modèles de notes (on dit « objet » dans le vocabulaire de Anytype), des collections, etc.
Alors, qu’est-ce qui coince ?
En tant que libriste, je me suis intéressé surtout à des logiciels open source prometteurs. Exit Obsidian, et concentration sur Logseq et Anytype.
Dans les deux cas, la cohérence a un prix, pour moi bien trop cher : on reste coincé dedans ! L’avantage d’écrire en markdown, comme je l’ai dit, est de pouvoir exploiter les connaissances dans d’autres systèmes, par exemple le traitement de texte lorsqu’il s’agit de produire un résultat final. Et comme il s’agit de texte, la pérennité du format est un atout non négligeable.
Or, que font ces logiciels en matière d’export ? Du PDF peu élaboré mais dont on pourrait se passer s’il était possible d’exploiter correctement une sortie markdown… mais l’export markdown, en réalité, appauvrit le document au lieu de l’enrichir. Vous avez bien lu, oui 🙂
Exemple – Avec Anytype, j’ai voulu créer des modèles de fiches de lecture avec des champs couvrant des métadonnées comme : l’auteur, l’URL de la source, la date de publication, le lien avec d’autres fiches, les tags, etc. Tout cela avec de jolies couleurs… À l’export markdown, toutes ces données disparaissent et ne reste plus que la fiche dans un markdown approximatif. Résultat : mon fichier n’est finalement qu’un contenant et toutes les informations de connexion ou d’identification sont perdues si je l’exporte. À moins d’entrer ces informations en simple texte, ce qui rend alors inutiles les fonctions proposées. (Une difficulté absente avec Obsidian qui laisse les fichiers dans un markdown correct et ajoute des en-têtes yaml utiles, à condition d’être rigoureux).
Avec Logseq comme avec Anytype, vous pouvez avoir une superbe présentation de vos notes avec mots-clés, liens internes, rangement par collection, etc… sans que cela puisse être exploitable en dehors de ces logiciels. L’export markdown reste succinct, parfois mal fichu comme Anytype : des espaces inutiles, des sauts de lignes négligés, élimination des liens internes, plus de mots clé, et surtout aucun ajout pertinent comme ce que pourrait apporter un en-tête Yaml qui reprendrait les éléments utilisés dans le logiciel pour le classement.
Vous allez me dire : ce n’est pas le but de ces logiciels. Certes, mais dans la mesure où, pour exploiter un document, je dois me retaper la syntaxe markdown pour la corriger, autant rester avec Zettlr qui possède déjà des fonctions de recherche et une gestion des tags tout en permettant d’utiliser les en-têtes Yaml qui enrichissent les documents. Ha… c’est moins joli, d’accord, mais au moins, c’est efficace.
Et c’est aussi pourquoi Joplin reste encore un modèle du genre. On reste sur du markdown pur et dur. Là où Joplin est critiquable, c’est sur le choix de l’interface : des panneaux parfois encombrants et surtout une alternance entre d’un côté un éditeur Wysiwyg et de l’autre un éditeur markdown en double panneau, très peu pratique (alors que la version Android est plutôt bien faite).
Joplin et Zettlr n’ont pas de fioritures et n’offrent pas autant de solutions de classements que les autres logiciels… mais comme on va le voir ces « solutions » ne le sont qu’en apparence. Il y a une bonne dose de technosolutionnisme dans les logiciels de GCP les plus en vogue.
La synchronisation et le partage
Pouvoir accéder à ses notes depuis plusieurs dispositifs est, me semble-t-il, une condition de leur correcte exploitation. Sauf que… non seulement il faut un système de synchronisation qui soit aussi sécurisé, mais en plus de cela, il faut aussi se demander en qui on a confiance.
Anytype propose une synchronisation chiffrée et P2P par défaut, avec 1Go offert pour un abonnement gratuit et d’autres offres sont ou seront disponibles. Logseq propose une synchronisation pour les donateurs. Quant à Obsidian, il y a depuis longtemps plusieurs abonnements disponibles. On peut noter que tous proposent de choisir le stockage local (et gratuitement) sans synchronisation.
En fait, la question se résume surtout au chiffrement des données. Avec ces abonnements, même si Anytype propose une formule plutôt intéressante, vous restez dépendant•e d’un tiers en qui vous avez confiance… ou pas. Le principal biais dans ces opportunités, c’est que si vous pouvez stocker vos coffres de notes sur un système comme Nextcloud (à l’exception de Anytype), accéder aux fichiers via une autre application est déconseillé : indexation, relations, champs de formulaires… bricoler les fichiers par un autre moyen est source d’erreurs. Par ailleurs, sur un système Android, Anytype, Obsidian ou Logseq n’offrent pas la possibilité d’interagir avec un coffre situé dans votre espace Nextcloud.
⚠️ (màj) Dans ce fil de discussion sur Mastodon, un utilisateur a testé différents logiciels de GCP et a notamment analysé les questions de confidentialité des données. Le moins que l’on puisse dire est que Anytype remporte une palme. Je cite @loadhigh : « Le programme enregistre toutes vos actions et les envoie toutes les quelques minutes à Amplitude, une société d’analyse commerciale. Cela est mentionné dans la documentation, mais il n’y a pas de consentement ni même de mention dans le programme lui-même ou dans la politique de confidentialité. Il communique également en permanence avec quelques instances AWS EC2, probablement les nœuds IPFS qu’il utilise pour sauvegarder votre coffre-fort (crypté) de documents. (…) Le fait qu’il n’y ait pas d’option de refus, ni de demande de consentement, ni même d’avertissement est inacceptable à mes yeux. Pour une entreprise qui aime parler de confiance, il est certain qu’elle n’a aucune idée de la manière de la gagner. » Je souscris totalement à cette analyse !
De fait, la posture « local first » est en vérité la meilleure qui soit. Vous savez où sont stockés vos documents, vous en maîtrisez le stockage, et c’est ensuite seulement que vous décidez de les transporter ou de les modifier à distance.
Sur ce point Joplin a la bonne attitude. En effet, Joplin intègre non seulement une synchronisation Nextcloud, y compris dans la version pour Android, mais en plus de cela, il permet de choisir une formule de chiffrement. On peut aussi stocker sur d’autres cloud du genre Dropbox ou prendre un petit abonnement « Joplin cloud ». En somme, vous savez où vous stockez vos données et vous y accédez ensuite. Si on choisi de ne pas chiffrer (parce que votre espace Nextcloud peut être déjà chiffré), il est toujours possible d’accéder aux fichiers de Joplin et les modifier via une autre application. Joplin a même, dans l’application elle-même, une option permettant d’ouvrir une application externe de son choix pour éditer les fichiers.
Local first
Il m’a fallu du temps pour accepter ces faits. J’avais même commencé à travailler sérieusement avec Anytype… et c’est lorsque j’ai commencé à vouloir exporter que cela s’est vraiment compliqué. Sans compter la pérennité des classements : si demain Anytype, Logseq ou même Obsidian ferment leurs portes, on aura certes toujours accès à l’export markdown (quoique dans un état peu satisfaisant) mais il faudra tout recommencer.
Que faire ? je me suis mis à penser un peu plus sérieusement à mes pratiques et comme je dispose déjà d’un espace Nextcloud, j’ai choisi de le rentabiliser. La solution peut paraître simpliste, mais elle est efficace.
Elle consiste en deux dossiers principaux (on pourrait n’en choisir qu’un, mais pour séparer les activités, j’en préfère deux) :
- un dossier
Zettel
où j’agis comme d’habitude avec Zettlr (et pour les relations, comme expliqué dans la documentation) en mettant davantage l’accent sur les mots-clé et en exploitant de manière plus systématique les fonctions de recherche. - Un dossier
Notes
destiné à la prise de notes courtes, comme on peut le faire avec un téléphone portable.
En pratique :
- Les deux dossiers sont synchronisés avec Nextcloud.
- Sur Zettlr en local, j’ouvre les deux dossiers comme deux espaces de travail et je peux agir simultanément sur tous les fichiers.
- Depuis le smartphone et la tablette, j’ai accès à ces deux dossiers pour modifier et créer des fichiers via l’application Notes de Nextcloud, tout simplement, et toujours en markdown. Je fais aussi pointer l’application Nextcloud Notes précisément sur le dossier
Notes
. - Sachant que ces fichiers contiennent eux-mêmes les tags et qu’on peut ajouter d’autres données via un en-tête Yaml, je dispose des informations suffisantes pour chaque fichier et je peux aussi en ajouter, que j’utilise Zettlr ou toute autre application.
Les limites :
- Sur smartphone ou tablette je n’ai pas l’application Zettlr et ne peut donc pas exploiter ma base de connaissances comme je le ferais sur ordinateur. Mais… aucun de ces dispositifs n’est fait pour un travail long de consultation.
- Sur un autre ordinateur, je peux accéder à l’interface en ligne de Nextcloud et travailler dans ces dossiers, mais là aussi, c’est limité. Par contre je peux utiliser la fonction de recherche unifiée.
- Gérer les liens de connexion entre les fichiers (par lien internes ou tags) demande un peu plus de rigueur avec Zettlr, mais reste très efficace.
Ce qui manque aux autres, je le trouve dans zettlr
Quant à Zettlr, il me permet tout simplement de faire ce que les autres applications ne permettent pas (ou alors avec des plugins plus ou moins mal fichus) :
- utiliser une base de donnée bibliographique (et Zotero),
- réaliser des exports multiformats avec de la mise en page (et avec Pandoc intégré),
- les détails, comme une gestion correcte des notes de bas de page,
- les modèles « snippets » qui simplifient les saisies répétitives,
- l’auto-correction à la carte,
- les volets de Zettlr (table des matières, fichiers connexes, biblio, fonction recherche etc.)
Les tâches et Kanban
C’est sans doute les point les plus tendancieux.
La plupart des logiciels de GCP intègrent un système de gestion de liste de tâches. Il s’agit en fait de pousser la fonction markdown - [ ] tâche bidule
en lui ajoutant deux types d’éléments :
- l’adjonction automatique de date et de tags (à faire, en cours, réalisé, etc…)
- le classement par requêtes permettant de gérer les tâches et tenir à jour ces listes.
Le tout est complété par l’automatisation de tableaux type Kanban, très utiles dans la réalisation de projets.
C’est ce qui fait que ces logiciels de GCP se dotent de fonctions qui, selon moi, ne sont pas de la GCP mais de la gestion de projet. Si l’on regarde de près les systèmes privateurs intégrés comme chez Microsoft on constate que le jeu consiste à utiliser plusieurs logiciels qui interopèrent entre eux (et qui rendent encore plus difficile toute migration). Mais de la même manière, selon moi, un logiciel de gestion de projet ne devrait faire que cela, éventuellement couplé à une gestion de tâches.
On peut néanmoins réaliser facilement un fichier de tâches en markdown, ainsi (selon le rendu markdown du logiciel, les cases à cocher seront interactives) :
- [ ] penser à relire ce texte 🗓️15/12/2025
- [x] acheter des légumes 🗓️ aujourd'hui
- [ ] etc.
Mais qu’en est-il de la synchronisation de ces tâches sur un smartphone, par exemple ? N’est-il pas plus sage d’utiliser un logiciel dédié ? Si par contre les tâches concernent exclusivement des opérations à effectuer dans le processus de GCP, alors le markdown devrait suffire.
Sobriété
OK… C’est pas bling-bling et ni Zettlr ni Notes pour Nextcloud n’ont prétendu être la solution ultime pour la GCP. Par exemple, ma solution n’est sans doute pas appropriée dans un milieu professionnel. Dans ce dernier cas, cependant, il conviendra de s’interroger sérieusement sur la pérennité des données : si le logiciel que vous utilisez a une valeur ajoutée, il faudrait pouvoir la retrouver dans l’export et la sauvegarde. Aucun logiciel n’est assuré de durer éternellement.
Si, en revanche, vous êtes attiré•e par un logiciel simple permettant d’écrire des notes sans exigence académique, des compte-rendus de réunion, des notes de lectures et sans chercher à exploiter trop intensément les tags et autres liens internes, alors je dirais que Joplin est le logiciel libre idéal : il fonctionne parfaitement avec Nextcloud pour la synchronisation, le markdown est impeccable, l’application pour Android fonctionne très bien. Et il y a du chiffrement. Ne cherchez pas à utiliser les plugins proposés, car ils n’apportent que peu de chose. Quant à l’interface, elle souffre, je pense, d’un manque de choix assumés et gagnerait à n’utiliser que le markdown enrichi (à la manière de Zettlr) et sans double volet.
Pour ma part, après ce tour d’horizon – qui m’a néanmoins donné quelques idées pour l’élaboration de mes propres notes –, Zettlr reste encore mon application favorite… même si elle est exigeante. 😅 Pour les passionnés de Vim ou Emacs et de Org-mode… oui, je sais, ce sera difficile de faire mieux…
18.11.2024 à 01:00
Moi aussi je peux écrire un livre sur l'IA
Chez Framasoft, on se torture les méninges. Alors quand on parle d’Intelligence Artificielle, on préfère essayer de gratter un peu sous la surface pour comprendre ce qui se trame. Comme le marronnier éditorial du moment est l’IA dans tous ses états, je me suis dis que finalement, moi aussi…
C’est un petit projet, comme ça en passant. Il ne prétend par faire un tour exhaustif de ce qu’on entend exactement par « apprentissage automatique », mais au moins il m’a donné l’opportunité de réviser mes cours sur les dérivées… ha, ha !
Majpeulsia : Moi aussi je peux écrire un livre sur l’IA !
Ma manière à moi de comprendre des concepts, c’est d’en écrire des pages. J’ai pensé que cela pouvait éventuellement profiter à tout le monde. En premier lieu les copaing•nes de Framasoft mais pas que…
L’objectif consiste à développer les concepts techniques de l’apprentisage automatique et les enjeux du moment autour de cela. Pourquoi faire ? par exemple, lorsque l’Open Source Initiative a sorti a sorti sa définition d’une IA open source (voir mon billet précédent sur ce blog), il a été aussitôt question du statut des données d’entraînement. Mais… c’est quoi des données d’entraînement ? et surtout comment entraîne-t-on une IA ?
Vous allez me dire : ok, quand je conduis une voiture, je n’ai pas besoin de connaître la théorie du moteur à explosion. Oui, certes, mais connaître un peu de mécanique, c’est aussi assurer un minimum de sécurité. Alors, voilà, c’est ce minimum que je propose.
Cela se présente sous la forme d’un MKDocs à cette adresse (j’ai pas pris la peine d’un nom de domaine), et les sources sont ici. Le travail est lancé et il sera toujours en cours :)
Bonne lecture !
02.11.2024 à 01:00
Que serait une IA libre ?
Fin octobre 2024, l’OSI a publié sa définition d’une IA open source. Ce faisant, elle remet en question les concepts d’ouverture et de partage. Il devient urgent d’imaginer ce que devrait être une IA libre. Je propose ici un court texte en réaction à cette publication. Sans doute vais-je un peu trop vite, mais je pense qu’il y a une petite urgence, là.
Nous savons que la définition d’un logiciel libre implique un ouverture et un accès complet au code. Il ne peut y avoir de faux-semblant : le code doit être lisible, il doit être accessible, et tout programmeur devrait pouvoir l’utiliser, le modifier et partager cette version modifiée. C’est encore mieux si la licence libre qui accompagne le programme est dite copyleft, c’est-à-dire qu’elle oblige tout partage du code à adopter la même licence.
Dans le domaine de l’IA, cela se complique un peu. D’abord, ce qu’on appelle « une IA » est un système composé :
- le code qui permet de structurer le réseau neuronal. Par exemple un programme écrit en Python.
- les paramètres : ce sont les poids qui agissent dans le réseau et déterminent les connexions qui dessinent le modèle d’IA. On peut aussi y adjoindre les biais qui sont utilisés volontairement pour affiner le rôle les poids.
Donc pour définir la licence d’un système d’IA, il faut qu’elle porte non seulement sur le code mais aussi sur les paramètres.
Fin octobre 2024, l’Open Source Initiative (l’OSI) a donné sa définition (1.0) de ce qu’est une IA open source. Elle indique bien cette importance donnée aux paramètres. On constate de même que pour la première fois dans l’histoire du logiciel libre ou open source, une licence d’un système porte à la fois sur du code et sur les paramètres qui permettent d’obtenir une manière particulière de faire tourner ce code.
Or, nous savons aussi qu’un système d’IA n’est rien (ou beaucoup moins) sans son entraînement. L’OSI a donc naturellement pensé à ces données d’entraînement, c’est-à-dire les jeux de données d’entrées et de sortie qui ont servi à paramétrer le système. Ainsi, la définition de l’OSI nous donne une liste des « informations suffisamment détaillées » requises au sujet de ces données d’entrainement.
Dans un article intitulé « L’IA Open Source existe-t-elle vraiment ? », Tante nous explique que cette définition de l’OSI nous embarque dans un régime d’exception problématique car le niveau de détail déclaré « suffisant » risque bien de ne jamais l’être. Par exemple on de dit pas qu’un code open source serait suffisamment ouvert : il est ouvert ou il ne l’est pas. C’est non seulement une question pratique (ai-je accès au code pour pouvoir l’inspecter et le modifier ?) mais aussi de confiance : irai-je faire tourner un programme si certains éléments, même décrits, me restent cachés ? En admettant que je puisse modifier les parties ouvertes du programme, puis-je repartager un tel programme contenant une boîte noire à laquelle personne ne peut avoir accès ?
De surcroît, la définition de l’OSI nous indique :
- que pour « les données d’entraînement qui ne sont pas partageables », il suffirait de les décrire ;
- que l’objectif de ce partage, à défaut de reproduire exactement le même système, consiste à obtenir un système seulement « similaire ».
Ainsi en cherchant à définir l’ouverture des systèmes d’IA, l’OSI cherche à modifier la conception même de ce qu’est l’ouverture. L’idée n’est plus de partager un commun numérique, mais de partager une méthode pour en reproduire un équivalent. Cette concession faite aux producteurs de systèmes d’IA déclarés open source implique un net recul par rapport aux avancées des dernières années au sujet des communs numériques. Là où l’ouverture du code pouvait servir de modèle pour partager toutes sortes d’oeuvres et ainsi contribuer au partage de la connaissance et de l’art, voici qu’un commun numérique n’a plus besoin d’être partagé dans son intégralité et peut même contenir ou dépendre d’éléments non ouverts et non accessibles (pourvu qu’ils soient « décrits »).
L’ouverture se distinguerait alors du partage. On tolèrerait des éléments rivaux dans les communs numériques, là où normalement tout partage implique l’enrichissement mutuel par l’abondance qu’implique ce partage. L’OSI conçoit alors l’ouverture des systèmes d’IA comme une sorte de partage inaboutit, un mieux-que-rien laissé dans le pot commun sans réel avantage. Sans l’intégralité des données d’entraînement, non seulement le système n’est plus le même mais encore faut il trouver les ressources suffisantes ailleurs pour en obtenir une alternative de niveau équivalent.
A contrario, un système d’IA libre devrait être fondé :
- sur du code libre,
- sur des données d’entraînement libres et accessibles à tous (elles peuvent être elles-mêmes sous licence libre ou dans le domaine public),
- sur des algorithmes d’entraînement libres (bon, c’est des maths normalement), publiés et accessibles,
- et le tout, pour mieux faire, sous Copyleft.
Mais ce n’est pas tout, il faut que les données soit décrites ainsi que la manière de les utiliser (l’étiquetage, par exemple). En effet, que les données soient libres n’est pas en soi suffisant. Tout dépend de l’usage : si j’entraîne une IA sur des données libres ou publiques il faut encore les évaluer. Par exemple si elles ne contiennent que des contenus racistes le résultat sera très différent que si je l’entraine sur des contenus dont on a évalué la teneur et que cette évaluation ai dûment été renseignée. Ici se joue la confiance dans le système et plus seulement la licence !
La question n’est pas de savoir s’il est aujourd’hui possible de réunir tous ces points. La question est de savoir ce que nous voulons réellement avec les systèmes d’IA.
Par ailleurs, l’OSI nous donne une définition qui intervient a posteriori par rapport aux systèmes d’IA existants et distribués d’emblée sous le drapeau open source. Un peu comme si l’OSI prenait simplement acte d’une pratique déjà mise en place par les acteurs des grands modèles d’IA, à l’Instar d’OpenAI qui soutenait qu’il n’était pas possible d’entraîner des systèmes d’IA sans matériel copyrighté (Ars Technica, 09/01/2024). Ce à quoi Huggingface a répondu quelques mois plus tard, en novembre 2024, en proposant une large base de données sous licences permissives (open source, domaine public, libre… la liste est sur ce dépôt).
En France, le Peren (le Pôle d’Expertise de la Régulation Numérique) est intervenu juste après l’annonce de l’OSI pour proposer un classement des système d’IA selon cette définition. Et ce classement s’accomode très bien avec la conception de l’ouverture des Big AI : tout est plus ou moins ouvert, plus ou moins accessible, voilà tout. Il n’y a aucune valeur performative de la définition de l’OSI là où une approche libriste cherche au contraire à imposer les éléments de probité inhérents aux libertés d’usage, de partage et de modification.
Est-ce vraiment étonnant ? Récemment Thibaul Prevost a publié un ouvrage passionant au sujet du cadre narratif des Big AI (Les prophètes de l’IA - Pourquoi la Silicon Valley nous vend l’apocalypse). On y apprend que, selon le Corporate Europe Observatory dans un communiqué édifiant intitulé Byte by byte. How Big Tech undermined the AI Act les Big AI se sont livrés à un lobbying de choc (plus qu’intensif, il était exclusif) dans le cadre des négociations de l'AI Act en 2023, jusqu’aux plus hauts sommets des intitutions européennes pour « faire supprimer du texte les obligations de transparence, de respect du copyright des données d’entraînement et d’évaluation de l’impact environnemental de leurs produits » (chap. 4). Avec sa définition, ce que fait l’OSI, c’est approuver la stratégie de maximisation des profits des Big AI pour donner blanc seing à cette posture de fopen source (avec un f) qui valide complètement le renversement de la valeur de l’ouverture dans les communs numériques, en occultant la question des sources.
On voit aussi l’enjeu que pourrait représenter une conception altérée de l’ouverture dans plusieurs domaines. En sciences par exemple, l’utilisation d’un système d’IA devrait absolument pouvoir reposer sur des garanties bien plus sérieuses quant à l’accessibilité des sources et la reproductibilité du système. Il en va du statut de la preuve scientifique.
Plus largement dans le domaine de la création artistique, le fait que des données non partageables aient pu entraîner une IA revient à poser la question de l’originalité même de l’oeuvre, puisqu’il serait impossible de dire si la part de l’oeuvre dûe à l’IA est attribuable à l’artiste ou à quelqu’un d’autre dont le travail se trouve ainsi dérivé.
Il y a encore du travail.
13.09.2024 à 02:00
Cybersyn : limites du mythe
Vous avez sans doute remarqué le nombre de publications ces dernières années à propos du grand projet Cybersyn au Chili entre 1970 et 1973. C’est plus qu’un marronnier, c’est un mythe, et cela pose tout de même quelques questions…
Le 11 septembre est un double anniversaire pour deux événements qui ont marqué profondément l’histoire politique mondiale. Le premier en termes de répercutions désastreuses sur le monde fut le 11 septembre 2001. Celleux qui, comme moi, en ont le souvenir, savent à peu près ce qu’ils étaient en train de faire à ce moment-là, étant donné la rapidité de propagation de l’information dans notre société médiatique. Le second est plus lointain et plus circonscrit dans l’espace et le temps, bien que désastreux lui aussi. C’est le coup d’état au Chili par Pinochet et sa junte militaire, soutenue en douce par Nixon et la CIA.
Commémorer le triste anniversaire du coup d’état de Pinochet revient parfois à embellir le projet socialiste de Allende et ses compagnons. Un projet dont les bases étaient fragiles, fortement ébranlées par l’hostilité américaine (qui a attisé l’opposition politique et la sédition de l’armée) et le jeu de dupes joué par les soviétiques. Au-delà de la question géopolitique, le socialisme de Allende reposait sur un bloc, l’Unité Populaire, qui a fini par se diviser (pour des socialistes, rien d’étonnant, direz-vous) entre une voie institutionnelle et une voie radicale-révolutionnaire. La voie institutionnelle s’est dirigée vers un vaste programme de nationalisation (par ex. les banques, les industries, surtout en matières premières), la promotion de la co-gestion avec les travailleurs dans les entreprises, et une réforme agraire dont le but consistait surtout à mettre fin au manque de rendement des exploitations latifundiaires. Dans les faits, le mouvement populaire échappait quelque peu à la voie institutionnelle. Par exemple dans les campagnes, des conseils paysans virent le jour et lancèrent des plan d’occupation des exploitations en dehors de tout cadre réglementaire. Les contestations n’étaient pas seulement des reproches de l’aile révolutionnaire à l’aile plus « démocrate-chrétienne » de Allende, mais poussaient souvent trop loin l’élan populaire jusqu’à parfois faire des compromis avec l’opposition. Bref, c’est important de le rappeler, après l’arrivée de l’Union Populaire au pouvoir, le moment démocratique du Chili amorcé en 1970 était aussi un moment de divergence de points de vue. Cela aurait pu se résoudre dans les urnes, mais c’était sans compter Pinochet et les années de cauchemar qui suivirent. Car ce général était appuyé par un mouvement d’opposition très fort, lui-même radicalisé, anti-communiste et souvent violent, prenant la constitution comme faire-valoir. Pire encore, l’opposition était aussi peuplée des capitalistes chefs d’entreprise qui allèrent jusqu’à organiser un lock-out du pays pour faire baisser volontairement la production. Tout cela a largement contrecarré les plans de Allende.
Pourquoi je m’attarde avec ce (trop) bref aperçu de la situation politique du Chili entre 1970 et 1973 ? Et quel rapport avec cette date d’anniversaire ?
Vous avez sans doute remarqué le nombre de publications ces dernières années à propos du grand projet Cybersyn. Il s’agit du projet de contrôle cybernétique de l’économie planifiée chilienne initié par le gouvernement Allende, et sur les conseils du grand cybernéticien britannique Stafford Beer. Le 11 septembre dernier, cela n’a pas loupé, le marronnier était assuré cette fois par Le Grand Continent, avec l’article « Un ordinateur pour le socialisme : Allende, le 11 septembre et l’autre révolution numérique ». Entendons-nous bien, ce type de publication est toujours intéressant. Non pas qu’il soit capable d’expliquer ce qu’était le projet Cybersyn (comme nous allons le voir, les tenants et aboutissants sont assez compliqués à vulgariser) mais parce qu’il s’attache essentiellement à perpétuer un story telling, lui-même initié par Evgeny Morozov (que l’article d’hier cite abondamment) via un célèbre podcast et un petit livre fort instructif, Les Santiago Boys, dont j’invite à la lecture (Morozov 2015 ; Morozov 2024).
Pourquoi un story telling ?
Deux principales raisons à cela.
La première : une démarche de type investigation journalistique n’est pas une démarche historique. Ce que montrent en fait les nombreuses publications grand public sur le projet Cybersyn ces dernières années, c’est qu’elles constituent une réponse anachronique à la prise de conscience de notre soumission au capitalisme de surveillance. Il s’agit de faire de Cybersyn un message d’espoir : envers et contre tout, surmontant les difficultés techniques (réseaux, télécoms, ordinateurs) et l’impérialisme américain, un pays armé de ses ingénieurs a réussi à mettre en place un système général de contrôle cybernétique socialiste. C’est beau. Et c’est un peu vrai. Il suffit de se pencher sur les détails, par exemple un certain niveau du système intégrait bel et bien la possibilité de la co-gestion dans les boucles de rétroaction, et bien qu’on ai souvent accusé ce projet d’avoir une tendance au contrôle totalitaire, le fait est que non, dans ses principes, la décision collective était une partie intégrée. S’interroger aujourd’hui sur Cybersyn, c’est poser la possibilité qu’il existe une réponse au solutionnisme numérique auquel se soumettent nos décideurs politique tout en abandonnant la souveraineté technologique. Cette réponse consiste à poser que dans la mesure où la technologie numérique est inévitable dans tout système décisionnaire et de contrôle de production, il est possible de faire en sorte que les systèmes numériques puissent avoir une dimension collective dans un usage par le peuple et pour le peuple. Un usage social des technologie numériques de gouvernement est possible. Comme message d’espoir, il faut reconnaître que ce n’est déjà pas si mal.
La seconde : nous avons besoin d’une alternative au système de gouvernance « par les nombres », pour reprendre les termes d’Alain Supiot (Supiot 2015). À une culture de l’évaluation et de la mise en compétition des individus, une réponse peut être apportée, qui consiste à impliquer le collectif dans la décision en distribuant la responsabilité sans se défausser sur la technocratie bureaucratique. Or, une planification économique « au nom du peuple » fait toujours doublement peur. D’abord elle fait peur aux capitalistes ; c’est pourquoi Freidrich Hayek s’est efforcé de démontrer que la planification est irrationnelle là où le marché est seul capable d’équilibrer l’économie (Hayek 2013). Elle fait peur aussi aux anti-capitalistes et aux anarchistes, car, comme le montre James Scott dans L’Œil de l’État, cela ne fonctionne jamais, ou plus exactement cela fonctionne parce que les gens survivent à la planification par les arrangements qu’ils peuvent faire à l’insu de l’État sans quoi, le plus souvent, ils meurent de faim (Scott 2024). De fait, c’est bien ce qu’il se passait avec Cybersyn : les entreprises ou petites exploitations locales devaient remonter dans le système les éléments d’information au sujet de leur production. Or, lorsque vous ne voulez pas d’ennui et qu’un manquement à la production prévue implique pour vous un changement dans vos routines, vous bidouillez les comptes, vous vous arrangez avec la réalité. Cybersyn est un système qui, en pratique, n’offrait qu’une vision biaisée de la réalité économique dont il était censé permettre le contrôle.
En somme, dans le petit monde intellectuel numérique d’aujourd’hui, et depuis une bonne dizaine d’années, le 11 septembre est (aussi) considéré comme une date anniversaire de la fin brutale du projet Cybersyn et le moment privilégié pour s’essayer à l’imaginaire positif d’une réconciliation entre politique, économie, technologie et société. J’ai moi même déjà parlé de Cybersyn.
Du reste, il est assez frappant que le projet Cybersyn ai laissé un tel héritage aujourd’hui alors qu’on ne parle presque jamais du projet URUCIB en Urugay au milieu des années 1980 (Ganón 2022). Du point de vue des objectifs (intégrer les principes de la cybernétique à un système automatisé de contrôle économique d’un pays), il s’agissait du même projet, avec Stafford Beer cette fois conseiller du président Julio Maria Sanguinetti. Sur l’ordre des événements, c’est presque l’exact opposé de Cybersyn : après une dictature et pas avant, et sur la base d’un système d’information exécutif déjà existant y compris au niveau technique. Il faut dire que Stafford Beer a « conseillé » pas mal de monde.
Si l’on veut connaître l’histoire de Cybersyn (Synco en espagnol), le meilleur ouvrage que je puisse conseiller est celui de Eden Medina écrit en 2011, traduit en français en 2017, Le Projet Cybersyn. La cybernétique socialiste dans le Chili de Salvador Allende (Medina 2011). E. Medina a travaillé longemps sur Cybersyn (entre autre). C’est en 2006 qu’elle publie déjà un article à ce propos (Medina 2006). Je ne crois pas me tromper en affirmant qu’elle fut la première à publier une monographie sur ce sujet. Il y eu bien quelques articles, écrits notamment par les membres des Santiago Boys alors exilés, comme celui de Herman Schwember en 1977 (Schwember 1977) qui revient en détail sur le projet, ou bien Raul Espejo qui revient périodiquement sur la question en 1980, 1991, 2009, 2022… (Espejo 2022) Il y a une bibliographie dans le livre de Eden Medina, mais l’essentiel est surtout tiré de ses rencontres avec les acteurs du projet.
C’est quoi le gouvernementalisme cybernétique ?
Si je me suis attardé sur la politique de Allende en introduction, c’est pour mieux faire comprendre dans quel état d’esprit politique se situe le projet Cybersyn. Je ne vais pas en refaire l’histoire, je vous invite pour cela à lire les références ci-dessous. En revanche, j’invite à prendre un moment pour se pencher sur les aspects épistémologiques et politique de ce projet.
D’après Hermann Schwember, un physicien qui a activement participé au projet, le problème auquel faisait face le gouvernement Chilien en 1970 consistait à établir un ordre socialiste tout en changeant les mentalités mais aussi en rendant compétitive une économie socialiste planifiée qui nécessitait une science du contrôle beaucoup plus étendue que le système précédent de Frei Montalva qui avait pourtant déjà nationalisé et effectué quelques réformes importantes, mais sur un mode keynésien. Par ailleurs, la modernisation du Chili devait se poursuivre sur bien des points : donc un système de contrôle devait intégrer aussi, par apprentissage, les transformations même de l’économie, en somme être capable d’apprentissage.
À l’époque, la mode était à la cybernétique. Le britannique Stafford Beer avait publié une dizaine d’années auparavant des travaux remarquable dans le domaine des sciences de gestion. Pour lui la cybernétique comme étude des systèmes d’information et science du contrôle (comme l’avait théorisé Norbert Wiener) pouvait être appliquée dans le domaine du management des organisations et dans les processus décisionnels. De fait, toute l’histoire de l’informatique des années 1950 et 1960 tourne autour de l’application des principes de la cybernétique à la gestion par le support numérique. En missionnant S. Beer auprès de la présidence, le gouvernement Chilien ne faisait que tenter de mettre sur pied un système de gouvernement cybernétique. Hermann Schwember résume ainsi la manière dont, avec Stafford Beer, la problématique fut posée (Schwember 1977) :
Dans le cas d’un système complexe appelé industrie nationalisée, soumis à des changements très rapides (taille, conception des produits, politique des prix, etc.), inséré dans un système plus large (l’économie nationale, insérée à son tour dans l’ensemble de la vie sociopolitique nationale) et soumis à des conditions limites politiques très spécifiques, il est nécessaire de développer sa structure et son flux d’informations afin que la prise de décision, la planification et les opérations réelles répondent de manière satisfaisante à un programme de demandes externes et que le système reste viable.
La viabilité d’un système, ce n’est pas son efficacité, c’est sa capacité évoluer dans un environnement changeant. Tout résidait dans la capacité à imbriquer des sous-systèmes et imaginer des boucles de rétroaction, des réseaux de signaux faibles ou forts, indiquant l’état de santé de ce système. En d’autres termes, si on pense le monde comme un gigantesque système de traitement d’information, alors on peut imaginer des systèmes d’interaction informationnels capable de changer l’état du monde tout en s’adaptant aux externalités variables qui ne sont elles-mêmes que des informations.
On a beaucoup critiqué ces modèles cybernétiques en raison de leur tendance au réductionnisme. Le fait est que le modèle de Cybersyn (pour être plus exact, il y a plusieurs modèles dans le projet Cybersyn) est une tentative de sortir de la cuve.
Qu’est-ce que cette histoire de cuve ? Comme le disait Hilary Putnam (Putnam 2013), tout modèle économique (capitaliste ou autre), possède des lois dont les bases sont physiques (comme le besoin de manger) mais qui ne peuvent pas être déduites des lois de la physique, parce que les concordances sont accidentelles, par exemple la variété des structures sociales. H. Putnam se sert de cet exemple pour illustrer sa réfutation de l’unité de « la » science. Mais H. Putnam est aussi l’auteur d’une expérience de pensée, un cerveau dans une cuve qui recevrait toute ses expériences par impulsions électriques : dans ce cas aucun cerveau n’est capable de dire de manière cohérente qu’il est effectivement un cerveau dans une cuve, car aucune connaissance ne peut être dérivée uniquement de processus de réflexion internes. Hé bien le projet Cybersyn consiste à sortir l’économie de la cuve. Par rapport au néolibéralisme (celui du Mont Pélerin et des Chicago Boys qui viendront aider Pinochet par la suite), c’est une bonne méthode puisque ce modèle tourne littéralement en rond en considérant que seul le marché décide de l’équilibre économique tout en considérant les limites énergétiques, les structures sociales, et la pauvreté comme des externalités au marché. Le néolibéralisme est une économie dans une cuve : il ne sait pas dire de manière cohérente pourquoi il y a des inégalités et sait encore moins y remédier. En prenant le pari d’imaginer un système qui appliquerait les principes de la cybernétique à la complexité du système social chilien, toutes ses organisations et leurs changements, le projet Cybersyn proposait une planification économique non linéaire et adaptative par des boucles de rétroaction entre la complexité du réel et la décision publique.
Mais… il y a toujours un « mais ». La conception cybernétique de Stafford Beer est par définition réductionniste. Non pas un réductionnisme visant à ramener le complexe au simple mais plutôt à transposer un système dans un autre pour en simplifier la compréhension et faciliter la décision. On pourrait dire plutôt : un mécanicisme. Il fallait donc le théoriser. Stafford Beer l’a fait dès 1959, par le concept de réducteur de complexité (variety reducer). Qu’est-ce qu’un système complexe ? Cybersyn est un système complexe : il accroît une complexité dans le processus décisionnel (réseau, transmission d’information, ordinateurs, etc.) pour réduire la complexité (ou pour simplifier) le management de l’économie. On imaginera ainsi une salle des commandes dans le palais présidentiel, avec des tableaux permettant de visualiser en temps réel l’état de l’économie pour prendre des décisions et en transmettant des ordres par de simples appuis sur des boutons.
En quoi ce story telling pose problème ?
Le résultat est exactement celui décrit par James Scott (Scott 2024) : dans la mesure où le contrôle revient à un effort de standardisation et de normalisation, Cybersyn ne rend « conviviale » que la sphère de commandement d’un Léviathan algorithmique. Par voie de conséquence, même avec la dimension d’apprentissage du système pour l’adapter à la complexité sociale, il serait faux d’affirmer que les sous-systèmes soient réellement capables d’intégrer efficacement toute la complexité possible.
Comme dit l’adage : « on ne donne pas à boire à un âne qui n’a pas soif ». Cybersyn était une utopie, mais une utopie qui en dit long sur la différence entre l’élection au pouvoir et la capacité de gouvernance. La vague réformiste de Allende a trouvé assez vite ses obstacles, qu’ils soient d’origine ouvrière, de la part des chef d’entreprise de droite ou par l’ingérence de la CIA. Les grèves organisées dans le but d’affaiblir l’économie ne pouvaient par définition pas être intégrées dans les sous-systèmes de Cybersyn, en revanche elles constituaient bel et bien des signaux fort sur l’état de viabilité. La principale limite du gouvernementalisme cybernétique, c’est d’ignorer la dimension politique de la recherche du pouvoir chez l’homme. Stafford Beer ira même jusqu’à étudier la possibilité d’une cybernétique des systèmes sociaux… tout en oubliant que les finalités d’un groupe dans un système peuvent aller jusqu’à subordonner le système lui-même. Cela peut même relever d’un choix collectif (de l’ensemble du système lui-même), par servitude volontaire ou propagande populiste. Le concept de résilience des systèmes sociaux a lui aussi ses limites. Encore en d’autres termes, l’information ne peut être le seul élément sur lequel on base une décision.
Mais outre la bureaucratisation, le concept même de rétroaction d’un tel système efface assez radicalement plusieurs dimensions pourtant essentielles dans la société. Prenons la créativité et l’initiative. Qu’elles soient individuelles ou collectives, ne pas les prendre en compte revient à nier l’existence de communs préexistants au systèmes et qui lui survivront peut-être (ou pas). Les communs sont des modes de gestion collectifs créatifs et basés sur l’initiative collective. Il s’agit de gérer des ressources en dehors de la mainmise de l’État ou d’autres organisations qui les accapareraient. Mais les communs sont bien davantage, c’est un ensemble de pratiques qui elles mêmes forment un système changeant, complexe, mais en tout cas dont la gestion revient aux pratiquant et non à une entité extérieure. Un gouvernement cybernétique revient à nier cette capacité d’exploitation en pratique des collectifs, qui bien souvent est géographiquement située, locale et non nationale. Ou s’il s’agit de communs de la connaissance (ou encore numériques) un gouvernementalisme cybernétique revient à imposer un modèle de réduction de la complexité contre un autre : un modèle d’auto-organisation. C’est d’ailleurs ce qu’Henri Atlan défend à l’encontre du mécanicisme de la cybernétique dès 1972 (Atlan 1972) en proposant l’idée de complexité par le bruit ou l’émergence des propriétés d’un système. Mais sans aller encore vers un autre modèle, plus simplement, il n’y a pas un système mais plusieurs. Imaginer qu’un gouvernementalisme cybernétique soit possible, socialiste ou non, cela revient à une fascination pour une conception mécanique de la politique. L’arrivée aujourd’hui des modèles qu’on appelle « Intelligence artificielle » peut renvoyer, par leurs capacités de haute statistique, une image plus édulcorée aux reflets d’adaptabilité à la complexité des système sociaux. Ne serait-ce pas une nouvelle religion, celle qui croit que la viabilité (au sens de Stafford Beer) d’un système n’est finalement que technique ?
Enfin, pour parler de la technique, rappelons-nous les travaux d’Ivan Illich. La non-neutralité de la technique (cf. J. Ellul) provient entre autre du fait qu’elle transforme les pratiques et influence la gestion et la structure des organisations. C’est pourquoi la gestion de la production est sans doute le premier défi que doit relever un système planifié gouverné de manière algorithmique. Et là, on peut lire avec un œil assez critique la tentative de Hermann Schwember d’opposer à la thèse d’Illich l’idée d’un socialisme convivial. C’est ce qu’il fait en 1973 (Schwember 1973) peu de temps avant le coup d’état. Pour Illich, la société est face à un choix entre productivisme et convivialité (ou post-industrialisme). À partir de quand un outil ou une production sont nécessaires et à partir de quand on atteint le limites du système ? H. Schwember, comme les autres, fait partie d’un monde productiviste. C’est tout l’objet de Cybersyn, et le Chili devait bien entendu « rattraper » le reste du monde dans la course à la productivité et la rentabilité. C’est pourquoi H. Schwember conclu son article en accusant Illich de vouloir soutenir une thèse de limitation de la croissance. En somme, socialisme ou non, l’important serait de produire. On en voit le résultat aujourd’hui, à l’heure où l’on se demande si le rôle de l’ingénierie est de toujours innover davantage par la croissance et la production ou au contraire d’innover par la convivialité, justement. C’est la question des low techs, et au-delà la question de la limitation de l’énergie, du réchauffement climatique et des inégalités sociales.
Cybersyn est un projet purement productiviste, et selon moi, digne d’un très grand intérêt historique, mais bien loin de constituer la belle utopie dont on se gargarise aujourd’hui. Je préfère me concentrer sur les milliers d’assassinats de Pinochet et les tortures de son régime, autant expressions du néolibéralisme le plus violent qui, par contraste font effectivement passer le rêve du contrôle socialiste productiviste pour un petit moment d’apaisement (à défaut de paix sociale).
ATLAN, Henri, 1972. Du bruit comme principe d’auto-organisation. Communications. 1972. Vol. 18, n° 1, pp. 21‑36. URL.
ESPEJO, Raul, 2022. Cybersyn, big data, variety engineering and governance. AI & SOCIETY. 1/9/2022. Vol. 37, n° 3, pp. 1163‑1177. URL.
GANÓN, Víctor, 2022. URUCIB: a technological revolution in post-dictatorship Uruguay (1986–88). AI & SOCIETY URL.
HAYEK, Friedrich, 2013. La route de la servitude (1944). 1944. Paris : PUF.
MEDINA, Eden, 2006. Desiging Freedom, Regulating a Nation: Socialist Cybernetics in Allende’s Chile. Journal of Latin American Studies [en ligne]. 2006. Vol. 38, pp. 571‑606.
MEDINA, Eden, 2011. Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile. Boston : MIT Press.
MOROZOV, Evgeny, 2015. Big Brother. Cybersyn, une machine à gouverner le Chili. Vanity Fair France. 19/1/2015. URL.
MOROZOV, Evgeny, 2024. Les « Santiago Boys »: des ingénieurs utopistes face aux big techs et aux agences d’espionnage. Paris, France : Éditions divergences.
PUTNAM, Hilary, 2013. Le réductionnisme et la nature de la psychologie. In : AMBROISE, Bruno et CHAUVIRÉ, Christiane (éd.), Le mental et le social [en ligne]. Paris : Éditions de l’École des hautes études en sciences sociales. pp. 67‑84. Raisons pratiques. URL.
SCHWEMBER, Hermann, 1973. Convivialité et socialisme. Esprit. 7/1973. Vol. 426, pp. 39‑66.
SCHWEMBER, Hermann, 1977. Cybernetics in Government: Experience With New Tools for Management in Chile 1971-1973. In : BOSSEL, Hartmut (éd.), Concepts and Tools of Computer Based Policy Analysis. Basel : Birkhäuser - Springer Basel AG. pp. 79‑138. Interdisciplinary Systems Research.
SCOTT, James Campbell, 2024. L’œil de l’État: Moderniser, uniformiser, détruire. Paris, France : la Découverte. ISBN 978-2-348-08312-9.
SUPIOT, Alain, 2015. La gouvernance par les nombres. Cours au Collège de France (2012-2014). Paris : Fayard.
27.08.2024 à 02:00
Politique, surveillance, résistances
Voici billet un peu foutraque où j’aborde plusieurs problématiques qui peuvent trouver une résolution dans le concept de mètis, selon une lecture de James Scott et de Certeau. Il faudra auparavant aborder longuement le rapport entre l’État et le capitalisme de surveillance. Quel est ce pouvoir normatif que le capitalisme de surveillance cherche à imposer aux institutions comme aux individus, et quelles sont les portes de sortie ? il y a des résistances inaltérables, présentes depuis toujours, et qui font du pouvoir une sorte d’illusion. Nous sommes tous des hackers, reste à comprendre pourquoi.
Table des matières
« Homme augmenté » : c’est ainsi que, dès les débuts des recherches en informatique appliquée dans les années 1960, on pensait le rapport entre l’homme et les machines. Les témoignages se sont généralement tous suivis sur ce modèle. Tantôt ils dévoilaient les promesses d’un monde meilleur où, partant d’une approche exclusivement computationnelle, l’esprit et le monde tout entier pouvaient être compris comme des machines de traitement d’information. Selon cette approche, si l’univers entier, y compris la pensée humaine sont compréhensibles par l’analogie mécanique (même si nous n’en connaissons pas tous les rouages), alors l’explication du monde est algorithmique et nos limites cognitives ne sont que celles que la technologie nous impose. Tantôt ils étaient plus pragmatiques en situant la machine dans le processus de l’évolution humaine. Une évolution externalisée dont ce qu’on appelait déjà l’IA et les big data représentaient le stade le plus élevé de l’augmentation des capacités humaines. Mais jusqu’à très récemment, avec la critique générale au sujet des GAFAM, la problème qui restait en suspend, le tabou si crucial, fut finalement dévoilé : qu’est-ce qui fut augmenté, exactement, au bout de 50 années de développement ?
Je vais vous le dire : la production et les profits du capital, la puissance de contrôle de l’État, l’influence sur nos comportements (qu’il s’agisse de nos comportements économiques ou de nos comportements politiques). Un premier écueil est tombé : ce n’est pas l’Humain (avec un grand H) qui a été augmenté avec l’informatisation de la société, ce sont ses capacités productives par l’algorithmisation des tâches que nous faisions et de celles que nous n’étions alors pas capables de faire, ainsi que la surveillance et le contrôle des processus de production et de décision (par l’analyse statistique).
Mais jusqu’à présent, nous n’avons pas réfléchi à l’État (avec un grand E). Dans tous ces discours technophiles, l’État n’a finalement jamais été réduit qu’à n’être au pire un passage obligé de l’autorité et du financement de projets (des centaines de milliards ont été injectés dans la recherche et le développement numérique), au mieux une caution pratique et un promoteur de stratégies économiques. Nous parlons de l’État, de son rôle dans ce rapport que nous entretenons avec les machines, mais il reste une boîte noire lorsqu’il s’agit d’analyser sa structure et ses institutions dans leur rapport avec le capitalisme de surveillance. Certes, nous avons une idée désormais extrêmement fine au sujet de la manière dont l’État utilise (s’augmente pourrait-on dire) les technologies d’automatisation pour récolter de l’information et contrôler la population, mais lorsqu’il s’agit de capitalisme de surveillance, nous avons tendance à nous concentrer sur les entreprises et la politique en général…
Capitalisme de surveillance et politique
Il est vrai que la question est d’abord politique. Un récent article d’AOC par le sociologue O. Alexandre (Alexandre, 2024) fait le point sur la manière dont les entreprises de la Silicon Valley retournent peu à peu leur veste, partant du soutien au parti démocrate américain pour aboutir, par l’adhésion à l’idéologie libertarienne, au conservatisme le plus dur. Selon cet auteur, cela ne concerne pas seulement la Silicon Valley, mais bel et bien l’ensemble des entreprises de la tech, y compris dans la France de la start-up nation macroniste : « pour chaque promesse de la révolution Internet des années 1990 (société de l’information, désintermédiation, dématérialisation, enrichissement) correspond aujourd’hui une tendance inverse (désinformation, domination des Big Tech, coûts environnementaux, croissance des inégalités) ». Mais la thèse soutenue consiste à affirmer que ces entreprises n’assument pas la « portée sociale » de leurs activités et que si l’État est aveugle, c’est parce que le problème se situe entre politique et entreprises.
Dans mon livre Affaires privées (Masutti, 2020) je pense avoir démontré à quel point, depuis les débuts de l’informatisation de la société, il y a un gouffre entre le discours émancipateur et le capitalisme de surveillance qui est devenu le modèle économique dominant, supplantant aujourd’hui en termes financiers les plus grandes industries historiques. D’autres l’avaient démontré encore mieux que moi. Il y eu d’abord Fred Turner, par l’étude de cas qu’il a consacré à Stewart Brand, démontrant ainsi combien l’idéologie hippie a été dévoyée sur l’autel du capitalisme numérique (Turner, 2012) au nom de la liberté et des idéaux de transformation sociale. Il y eu encore J. B. Foster et R. W. McChesney dans la Monthly Review qui montrent combien le capitalisme de surveillance s’appuie sur la logique impérialiste des États-Unis depuis la Guerre Froide et s’est accentuée par la surfinanciarisation à dessein des multinationales du numérique (Foster, McChesney, 2014). En somme, qu’on se situe sur le plan de la sociologie ou de la géopolitique, rien n’a jamais réellement plaidé en faveur d’une émancipation de l’homme par l’économie numérique si ce ne sont les discours tenus par les entreprises concernées elles-mêmes, relayés par les politiques pour justifier les stratégies de développement.
Si l’on y réfléchit bien, le mouvement pour le logiciel libre qui, dans ses principes, plaide en faveur d’une liberté d’usage, de partage et de création pour l’utilisateur et le programmeur, a été lancé en réaction justement à la tournure que prenait l’économie numérique en adoptant les pires archétypes de la propriété intellectuelle, et verrouillant l’accès au code. Il n’a pas fallu longtemps pour que d’autres réagissent au nom de la conciliation et du compromis capitaliste avec l'open source et il a fallu toutefois un peu plus de temps pour que ce soient les mêmes grandes entreprises qui collaborent le plus à la création de code libre afin d’alimenter un commun dont elles tirent le plus grand profit.
Toujours est-il que, dans cette longue histoire, l’État est rarement envisagé comme un acteur proactif du capitalisme de surveillance. Certes, il encourage, mais il encourage une sorte d’état de fait. Par exemple, depuis la fin des années 1960 aux États-Unis, les courtiers de données tels Demographics/Acxiom ont des relations privilégiées avec les politiques, notamment le parti démocrate, tout simplement parce que leurs services ont toujours démontré leur fiabilité dans le démarchage politique et le profilage en contexte électoral (Masutti, 2021). Les renvois d’ascenseur en termes de placement stratégique sont évidents. C’est ainsi que Charles D. Morgan, CEO d’Acxiom, basé en Arkansas, sera un grand ami intime des Clinton. L’approche peut avoir de quoi surprendre du point de vue européen, mais il ne faut pas oublier que la culture économique américaine est beaucoup plus pragmatique. Si les programmes politiques promettent des financements, c’est aussi parce que ces mêmes programmes sont encouragés par les capitalistes eux-mêmes, avec force donations et promotions, quel que soit le discours politique en vogue, progressiste ou conservateur, quitte à racler les fonds de poubelles pour convaincre les électeurs.
La passivité des institutions n’est toutefois qu’apparente. Dès les années 1970, le sénat américain lance des enquêtes approfondies sur les bases de données et leurs emplois, le concept de privacy est de plus en plus défini et employé dans les lois encadrant l’usage des bases de données, et très vite les dispositions juridiques de protection de la vie privée se déploient en Europe jusqu’à aujourd’hui. Et c’est un travail laborieux, le rocher de Sisyphe. De même, lorsqu’il s’agit de contrôle de la population ou d’équipement militaire, les finalités capitalistes et les objectifs de gouvernement convergent souvent. Les institutions de l’État ne se privent pas pour passer des marchés douteux avec les principales entreprises. C’est ainsi qu’en matière d’espionnage de masse il fut démontré, notamment par les révélations d’E. Sowden, les accointances manifestes des grandes multinationales du numérique avec la NSA dans l’espionnage de masse au niveau mondial. Mais ce scandale n’est pas isolé, loin de là, et de nombreux noms de programmes d’espionnage de masse et de contre-propagande ont fait surface dans l’histoire des États-Unis (Conus Intel, Cointelpro, Minaret, Echelon…).
Si on compare cependant avec la France, force est de constater que, mise à part la tentative maladroite de l’affaire SAFARI (révélée en 1974), l’espionnage des Français est mené par les services appropriés (type DGSE), avec plus ou moins de légitimité, de morale et de pertinence sur des cibles souvent fort discutables (comme récemment les militants environnementalistes) mais l’histoire française retient finalement peu de scandales proprement dits en matière d’espionnage de masse. Au lieu de cela, ce qui se produit, aux yeux d’un public attentif, à bas bruit mais de manière assez publique, c’est le recours systématique à la surveillance sur le mode solutionniste de l’externalisation à des entreprises pour des équipements et des logiciels à des fins d’espionnage. C’est-à-dire la légitimation croissante, par décrets et loi scélérates interposés (le pouvoir administratif supplantant le pouvoir judiciaire), de la surveillance de masse et de la mobilisation des finances de l’État à cette fin, la technopolice.
C’est là que se situe le vrai sujet : même dans ses efforts pour tenter de contrôler la population — disons plutôt surveiller et réprimer, car de contrôle par les dispositifs numériques il n’y a pas, à moins de doter les caméras de surveillance de grands bras mécaniques ou d’agir de manière prédictive, ce qui n’est pas exclu — l’État abandonne ses devoirs moraux et ses prérogatives : par l’automatisation de la décision de justice (c’est la bureaucratisation du pouvoir administratif) et par l’automatisation de la surveillance dont le savoir-faire appartient aux acteurs économiques qui, par lobbying auprès des institutions, engrangent les profits sur les deniers publics.
Une précision toutefois : il est faux de dire qu’il n’y a pas de contrôle, à part le contrôle réglementaire (police — justice — matraque). Il y a d’abord l’effet panoptique de la surveillance : plus on est surveillé plus on contrôle ses faits et gestes pour les conformer à l’attente (supposée ou réelle) de l’autorité (Bentham, 1789 ; Foucault, 1975). Il y a aussi le contrôle par influence, c’est l’application de la théorie néolibérale du nudge (Stiegler, 2019) (qui a fait long feu), la désinformation, l’astro-turfing, etc. bref toutes ces stratégies de communication dont les effets sont à la mesure de la surveillance de nos comportements par récolte de données et profilage marketing au service du politique.
Les États, les capitalistes, la surveillance
Au lieu de parler de l’État, parlons plutôt des États. Notamment parce que cela permet d’avoir une vision beaucoup plus fine de ce qu’est le capitalisme de surveillance. Par exemple, dans l’histoire de la privacy tous les États n’ont pas réagi de la même manière, au point que ce concept, aujourd’hui encore, est loin de signifier la même chose selon le pays dans lequel on se trouve. Les différences ne sont pas seulement continentales mais vraiment territoriales, car elles sont relatives à l’histoire des dispositifs juridiques (c’est pourquoi le RGPD en Europe ne peut jamais être qu’une harmonisation à bas niveau) et à leur confrontation avec les enjeux économiques.
Ensuite, il faut se poser la question de la méthode. La plupart des approches de la surveillance souffrent d’un biais assez gênant qui consiste à s’interroger d’abord sur les conséquences sociales de la surveillance sans se poser la question de ce qui rend effectivement possible la surveillance. Par exemple S. Zuboff se concentre sur la question de la division du savoir et du pouvoir que cela confère aux « capitalistes de la surveillance », ce qui lui permet de conclure la toute puissance de ces derniers qui détiennent, grâce au marché et à la concurrence, un pouvoir instrumentarien de modification des comportements. Dans cette affaire, l’État ne peut que tâcher de réguler, mais aucune critique n’est faite sur la manière dont ce pouvoir instrumentarien est en réalité partie intégrante de l’appareillage politique, notamment américain, et s’inscrit dans une suite de problématiques de pouvoirs au pluriel : géopolitique, clientélisme, militarisme, stratégie de financiarisation, choix économiques. En somme, l’idéologie néolibérale à la source de la connivence entre les acteurs capitalistes et les politiques n’est pas vraiment questionnée chez Zuboff. Ce qui l’est, c’est la moralité de ce capitalisme de surveillance.
D’autres points ne sont pas souvent questionnés à leur juste mesure dans les surveillance studies. D’abord, la technique et son histoire. Je me répète, mais il est plus qu’évident que la question de la surveillance ne peut être détachée des choix collectifs qui ont été faits dans l’histoire quant aux usages des techniques numériques de stockage, de base de données, et autres dispositifs. Ce furent des choix collectifs, dont la responsabilité ne peut être imputée à tels ou tels acteurs, simplement, l’appropriation de ces innovations et leur intégration dans les pratiques des entreprises, qu’il s’agisse de la production ou du marketing, sont autant de marqueurs qui font que la surveillance a une histoire technique qui ne « flotte » pas au-dessus de l’économie, mais répond à des choix réfléchis. En somme la surveillance n’est pas une simple idée qui consisterait à appliquer des techniques préexistantes dans le but de surveiller les comportements, monitorer des process, influencer les décisions : l’informatisation de la société est fondamentalement le choix collectif de la surveillance.
Partant de là, on peut donner (pas entièrement) raison à A. Giddens et sa critique du matérialisme historique dans The Nation State and Violence (Giddens, 1985) lorsqu’il affirme que les caractéristiques de la société capitaliste ne sont pas toutes visibles dans l’histoire marxiste de la production, de la lutte sociale et du capitalisme, mais que ce qui fait une société capitaliste, c’est la jonction entre son profil industriel, les formes de surveillance et de contrôle de sa population et le rôle qu’elle joue en tant qu’État-Nation dans sa confrontation concurrentielle aux autres. Autrement dit, le rapport social que nous entretenons avec les techniques de surveillance s’inscrit dans une configuration de l’État selon laquelle c’est le choix du capitalisme de surveillance qui a été fait, et pas un autre. Et il s’étend par la mondialisation des techniques et des pratiques (politiques, institutionnelles, économiques).
Autre aspect : les données de l’État et les données pour l’État. Dans un article passionnant, l’historienne Kerstin Brückweh étudie le cas de la Grande Bretagne et la manière dont les données de recensement ont consolidé la vision conservatrice d’une société de classes (c’était le Registrar General’s Social Classes, RGSC : upper class, upper middle class, lower middle class) en créant un tri social avec une granularité fine (Brückweh, 2016). Ces données des recensements ont alors permis, par leur mise à disposition publique, des méthodes de collecte et d’analyse de données, d’abord développées et utilisées par les entreprises à des fins d’études de marché et d’opinion, puis adoptées par les gouvernements pour gérer les populations et distribuer les ressources publiques. Il s’avère que pour des études statistiques bien menées, le RGSC ne correspond que très difficilement à la réalité sociale, mais tout le travail des statisticiens britanniques d’après-guerre consista à rechercher les meilleurs modèles de tri social, ne remettant aucunement en cause le paradigme dominant. Une politique de royalties fut mise en place, permettant au gouvernement de valoriser ces données lorsqu’elles étaient utilisées à des fins commerciales. Avec l’apparition de l’informatique, et les méthodes de la géodémographie, la classification par grade fut remise en cause, et des nouvelles classifications virent le jour, à la fois très malléables et qui confirmaient de plus en plus les fournisseurs externes dans leur savoir-faire. Mais la montée en charge et en valorisation des entreprises spécialisées laissa aussi la possibilité au gouvernement néolibéral de M. Thatcher d’externaliser complètement le recensement. Comme le montre K. Brückweh, c’est justement cette externalisation qui confirma une sorte de démission du gouvernement britannique de sa tâche de classification sociale : le néolibéralisme thatcherien niait complètement la société au profit d’une vision extrêmement individualiste, ce qui rendait finalement inutile la tâche gouvernementale de garantir la cohésion sociale, même si la classification par tranche a ses limites et son intérêt faible en termes de contrôle populationnel. Au-delà de cette étude, K. Brückweh montre que l’analyse du travail de l’État, par la standardisation et la simplification ou l’abstraction, comme le décrit James Scott dans L’œil de l’État, constitue une bonne approche dans la mesure où le tri social permet effectivement d’appliquer des décisions publiques.
Ce que j’en conclus, c’est que lorsque ce tri social devient complexe, qu’il acquiert une telle technicité que la seule solution consiste à l’externaliser, ce qui a fini par se produire avec l’informatisation. Ce travail n’est plus une simplification mais une opportunité de valorisation et de services : sondages et influence d’opinion deviennent les clés non plus de la décision publique, mais du placement politique et de l’acceptation de l’idéologie néolibérale. Ce qu’on pourrait appeler les « démissions » de l’État n’en sont donc que les corollaires, et c’est là encore un autre aspect du rapport entre surveillance et État. Si l’on regarde l’État français, les exemples ne manquent pas où les institutions publiques semblent abandonner leurs prérogatives au profit d’acteurs privés, alors qu’il s’agit en réalité de la même face d’une même pièce.
Prenons le cas de Doctolib : sous couvert de service à la population (le concept d’entreprise à mission) le monitoring des transactions sanitaires relève d’un acteur privé. Ce faisant, l’État contrôle mieux les dépenses publiques médicales et leur rentabilité, par exemple lorsque Doctolib propose de surveiller les « lapins » posés par les patients à leurs médecins, ou bien encore dans la mesure où Doctolib noue des contrats très rentables avec les hôpitaux qui ainsi ont l’opportunité de faire valoir leur offre de soins, d’autant plus que Doctolib prend le monopole de ce type de service. L’État transforme l’essai et les patients peuvent y trouver leur intérêt… sauf que le capitalisme rattrape toujours les situations qui lui échappent. Ainsi en Allemagne, Doctolib a déjà été pris la main dans le sac à valoriser les données à des fins publicitaires en utilisant des cookies tiers. De même, jouant le jeu des GAFAM, il a été reconnu que Doctolib héberge ses données, immenses et prometteuses, sur Amazon, bien le Conseil d’État ai jugé que Doctolib apportait les garanties suffisantes en matière de protection des données ; le contraire aurait été étonnant. Ce qui est moins étonnant, c’est que Doctolib a récemment annoncé qu’il allait entraîner de l’IA sur la base des profils utilisateurs, ceci de manière à mettre son nez dans le parcours de soin et même les pratiques médicales. Bref, la pression du besoin de rentabiliser les données est si forte qu’elle dépasse même les simples problèmes de sécurité comme la perte de données ou le chiffrement, et que Doctolib devra toujours s’y conformer. Lorsqu’il sera arrivé au bout de son modèle économique somme toute classique (vendre un service et devenir monopoliste dans le parcours patient auprès des institutions publiques et des structures privées), les données anonymisées, les données de fonctionnement, sans qu’il soit forcément question de données médicales ou de données personnelles au sens du RGPD, finiront par être transmises à des tiers, qui eux-mêmes savent très bien comment les traiter pour leur donner de la valeur à des fins d’influence comportementale, ce qui dans le domaine de la santé pose de grave questions éthiques autant qu’économiques.
Il serait intéressant d’envisager comment, dans certaines configurations politiques, qu’on pourrait nommer « démocraties autoritaires » pour prendre le cas de la France de ces dernières années, l’État devient une machine à transformer la surveillance en contrôle. L’exemple-type en la matière, c’est la pandémie de Covid durant laquelle la mobilité des citoyens était largement mise en question. Quel est l’impact réel d’un déplacement massif, par exemple lorsque la population aisée d’Ile-de-France se carapate en campagne pour écouter les petits oiseaux alors que les « premiers de cordée » continuent à prendre des risques sanitaires pour faire tourner la boutique ? En 2020, l’INSERM dévoile une étude à partir des données du fournisseur téléphonique Orange sur ses abonnés de téléphonie, pour voir quels modèles épidémiologiques il possible d’observer. Mais au fond, c’est exactement ce qu’avait demandé la Commission Européenne à tous les opérateurs téléphoniques. Comprendre l’épidémie, adapter la décision publique à la situation, que l’intention soit justifiée ou plus discutable, là n’est pas le propos : tout cela nécessite évidemment l’absorption de données issues de la surveillance par des entreprises privées qui en ont le pouvoir et la capacité. Cela n’est pas nouveau, mais la question sous-jacente est celle-ci : à quel point les données de la surveillance comportementale produite par des entreprises privées pour des objectifs de marketing et d’influence économique, peuvent aussi servir de nouvelles finalités de contrôle par l’État, démultipliant ainsi son pouvoir d’observation et de prédictibilité statistique tout en organisant sa propre dépendance vis-à-vis de ces acteurs privés, et donc de leurs intérêts ?
Tiens, encore un exemple, plus ancien : on parle peu de l’Association Auxiliaire de l’Automobile, qui durant longtemps se chargeait d’émettre des statistiques sur le secteur économique de l’automobile. Forte d’une base de données énorme spécialisée dans ce secteur industriel et ses filiales, l’AAA était le pendant associatif du Comité des Constructeurs Français d’Automobiles (CCFA) qui avait, jusqu’à la création du Système d’immatriculation des véhicules (SIV) en 2009, le monopole de la gestion du fichier national des immatriculations. Il s’agit d’un vieux fichier sous la responsabilité du ministère des Transports qui, au début des années 1980, en contrepartie de différents services (dont les services de gestion de flotte de véhicules, par exemple) en avait confié la gestion à l’AAA qui s’en servait notamment à des fins de marketing personnalisé. La CNIL n’avait pas trouvé grand-chose à redire à ce propos, mentionnant que « la fourniture d’informations à ces utilisateurs privés qui s’inscrit dans le cadre des activités industrielles ou commerciales du secteur automobile, répond à un intérêt général en assurant la promotion d’un secteur clé de l’économie nationale » (voir la délibération de 1983). La convention qui liait l’AAA et l’État a pris plus ou moins fin en 2009 avec la création du SIV, et quoi qu’il en soit les informations du SIV sont, depuis la directive européenne du 20 juin 2019, complètement ouvertes à des autorisations de réutilisations à des fins de prospection commerciale. Toujours est-il que, pendant des décennies, l’AAA a engrangé des données et développé un savoir-faire, avec l’œil bienveillant de l’État et pour le bien de l’industrie automobile. Aujourd’hui l’AAA est devenue une société à part entière, nommée AAA-Data, filiale du CCFA, elle exploite toujours les données d’immatriculation, et reste un acteur incontournable dans la gestion de données industrielles en France. En 2015, AAA-data a annoncé un partenariat avec Acxiom dans le but de créer un service destiné aux annonceurs, dans le cadre de programmes marketing. Autant dire que la libéralisation de ce marché de la donnée d’immatriculation a surtout fonctionné pour le plus grand bien d’AAA-Data qui, non seulement conserve un certain monopole, mais en plus peut se permettre de monétiser les données d’immatriculation en parfaite légalité, et en toute conformité RGPD, bien sûr.
Quant à Acxiom, cette entreprise américaine domine aujourd’hui en France comme ailleurs en Europe le marché du courtage de données. Elle a racheté des sociétés comme Claritas et Consodata et là où elle ne parvient pas à prendre le contrôle, elle multiplie les partenariats (comme avec AAA-Data, par exemple). Cela pose évidemment un problème de souveraineté sur les données de consommation1. En d’autres termes, avec la libéralisation des fichiers de données publiques (du type SIV, ou les données de recensement, etc.), les pays européens se sont eux-mêmes enfoncés dans un marasme dont il sera difficile de sortir. Bien que tout cela soit évidemment conforme au RGPD, il reste que les données fournies par les puissances publiques sont (ont toujours été) des mines pour les courtiers de données. La différence, aujourd’hui, c’est que non seulement le courtage de données connaît une phase monopoliste dominée par les multinationales américaines, mais en plus sont capables de fournir des solutions marketing (tel le CRM-Onboarding2) dont la puissance d’influence comportementale pose (devrait poser) des problèmes de gouvernance démocratique.
Sauf que ces problèmes de gouvernance sont, dans beaucoup de pays, largement dépassés par l’intérêt des États à traiter avec les courtiers de données. Il s’agit en quelque sorte d’un retour sur investissement (que cet investissement soit celui de la participation des fonds publics à l’économie numérique ou carrément de la fourniture de données publiques). Aux États-Unis, tantôt des sociétés fournissent aux autorités des données de géolocalisation durant la pandémie (Veraset), tantôt elles s’investissent du pouvoir de protéger le droit à l’avortement en choisissant de ne pas stocker les informations relatives aux centres IVG (Google), tantôt elles proposent la reconnaissance faciale pour lutter contre l’immigration illégale (Amazon), ou ciblent les personnes susceptibles de commettre un crime dans le cadre du traitement de données juridiques (LexisNexis), ou encore surveillent pour l’État les passagers aériens (Acxiom post 11/9 et ses grands contrats de surveillance au risque du piratage)…
En France, nous n’en sommes pas encore là… diraient les plus candides. Le site Technopolice dévoile cependant une petite partie de l’écosystème de partenariat public/privé dans le domaine de la surveillance et de la répression des populations. L’accessibilité des données publiques est le faire-valoir de façade : dans le contexte de la smart city, publier des données publiques revient à encourager et rendre plus efficiente la numérisation de la société, et en même temps facilite grandement la mise sous monitoring permanent de la société. Ceci est d’autant plus pertinent que nous avons en France une politique des plus efficaces de gestion et de captation des données par les services publics : la start-up nation du président Macron n’a pas d’autre but que de favoriser ces partenariats public-privés, quelle que soit leur finalité… bienvenue si, en plus, elle permet d’accroître les capacités d’action de la force publique ou de servir les intérêts bourgeois.
En matière de politique, les partis eux-mêmes ont en France déjà largement franchi le pas en matière de profilage à des fins électoralistes, tout comme dans la majorité des pays dans le monde. Moyennant quelques euros, il n’est aujourd’hui pas très difficile d’élaborer une banque de profils. La question n’est plus vraiment de porter l’opprobre sur les utilisateurs des médias sociaux qui dévoilent toute leur vie privée, nous n’en sommes plus là : les techniques élaborées par les courtiers de données, par le pompage tentaculaire d’une pléthore de banque de données publiques et privées, permettent un profilage bien plus pertinent et implacable que les seules données de l’ingénierie sociale (d’ailleurs largement automatisée depuis longtemps).
Spécialiste en études de surveillance, Colin Bennett montre dans une étude comparative, que ce sont les gouvernements néo-conservateurs qui sont le plus susceptibles d’adopter des solutions de surveillance algorithmique avec le concours des entreprises de courtage de données, y compris les Gafam. Si la surveillance comprend aujourd’hui la totalité des processus de production et de consommation, ce n’est pas parce que ces technologies de surveillance sont apparues sur le marché qu’elles furent adoptées comme une fatalité. C’est parce que la décision publique s’est orientée sciemment vers cette tendance. Selon David Lyon (Lyon, 2001, p. 74), les sociétés capitalistes sont les plus enclines à développer des pratiques de gestion de risque (pour pallier aux incertitudes économiques ou aux externalités) ainsi que des pratiques de contrôle identitaire (dans une société capitaliste, le contrat est la forme juridique principale de relation, il faut donc toujours identifier la personne avec le plus d’exactitude). Or, le contrôle identitaire comme la gestion des risques reposent aujourd’hui sur des organisations tierces, autres que l’État. Il y a donc des interrelations rendues nécessaires dans toutes les démocraties libérales pour lesquelles le modèle capitaliste est réputé indépassable, mais avec quelques nuances. Comme l’exprime Collin Bennett :
« Le développement précoce et généralisé de ces techniques aux États-Unis s’explique en partie par un système politique plus fragmenté que dans les régimes parlementaires. La faiblesse et l’incertitude des lignes d’autorité hiérarchique du Congrès et de la présidence permettent une multitude de liens horizontaux complexes et entrelacés entre les fonctionnaires de niveau inférieur. Ces issue networks facilitent le partage de toutes sortes de données et d’informations sur les politiques publiques. L’appariement informatique prospère entre et au sein de l’ensemble d’agences diverses, non intégrées, incohérentes et décentralisées qui constituent la bureaucratie fédérale américaine. » (Bennett, 1992, p. 255)
De manière générale, dans tous les pays, le degré de surveillance dépend pour beaucoup de la qualité des frontières entre l’État et la société civile. Plus les frontières sont floues, plus des acteurs privés tendent à assurer des fonctions normalement publiques, plus il y a de partenariats entre public et privé, moins la protection des libertés civiles est assurée à l’encontre des velléités de contrôle des populations et de l’influence comportementale. La notion de liberté dans le Contrat Social, réputée au fondement des démocraties libérales, n’est donc pas seulement menacée par le capitalisme de surveillance, elle est menacée parce que les institutions et les structures gouvernementales viennent à dépendre de ce capitalisme et œuvrent pour lui.
En façade, toutes les réglementations risquent de ne jamais suffire. Pour reprendre encore C. Bennett :
« Cette étude comparative de la dataveillance a mis en évidence les limites de la réglementation procédurale. Les nouvelles formes de dataveillance mettent à rude épreuve la crédibilité de la théorie de la protection de la vie privée, des lois sur la protection des données qu’elle sous-tend et des agences chargées de faire appliquer ces lois. Dans le meilleur des cas, ces agences ne peuvent réagir qu’au niveau individuel. Elles peuvent assurer une certaine transparence du processus, établir des règles pour la qualité et l’intégrité des données, insister sur des analyses coûts-avantages crédibles avant de procéder à des rapprochements de données, recevoir et résoudre des plaintes individuelles, mais elles ne peuvent pas mettre un terme à la dataveillance. » (Bennett, 1992, p. 256)
Mètis et tactiques : la résistance, de Scott à de Certeau
Face à l’algorithmisation de la décision publique qui impose ses propres rationalités en instaurant un « État-plateforme » et encourage l’action des multinationales du numérique (Mabi, 2019), face au pouvoir des courtiers de données, qui font bien peu les objets d’études sérieuses, certains plaident en faveur d’un nouveau Contrat Social (Reviglio, 2022). Est-ce suffisant ? ou plutôt : est-ce encore pertinent ? Après tout, l’idéologie libertarienne des magnats de la Silicon Valley s’accommode très bien des partis les plus conservateurs et réactionnaires, les subventionne, même. La raison est que, avec de telles idéologies politiques, le profit ne manquera pas à ceux qui proposeront les solutions techniques qui permettent de désengager l’État le plus possible. Le sempiternel refrain du coût exagéré des services publics trouve toujours des oreilles attentives. C’est par exemple la raison pour laquelle la blockchain est tellement plébiscitée, en dépit de son impact écologique : il suffit de comprendre que la blockchain permet au fond de transformer notre rapport au droit. Les notions de propriété ou d’obligation, une fois contractualisée en blockchain peuvent devenir des actifs dont le contrôle n’est plus relatif aux institutions mais à la technologie. Au lieu de réinvestir la parole publique dans le code comme le préconisait L. Lessig (Lessig, 2000), il s’agit non plus d’accepter mais de voir comme une fatalité que le code fait loi, c’est-à-dire créer une société où il n’y aurait plus de négociation mais uniquement la rigidité des contrats et l’inscription de nos relations dans une chaîne algorithmique (supposée) éternelle3. Plus besoin d’institutions.
D’aucuns pourraient alors se réfugier dans le rejet technophobe. Comme je l’ai déjà dit, c’est à la fois une erreur (c’est méconnaître la puissance des technologies de surveillance à moins de se retirer complètement du monde), et une défaite mainte fois explorée, sans issue. Oui, il faut réinvestir socialement les technologies et cela peut se faire de multiples façons. Mais quel est le moteur de cette appropriation sociale ? Hé bien c’est une manière de réviser notre rapport avec l’État, c’est-à-dire opposer à l’État ce qu’il y a de proprement ingouvernable et qui donc échappe par définition à la surveillance.
Qu’est-ce donc qui soit si ingouvernable dans la société, et par extension hors d’atteinte des algorithmes ? Ce sont les sommes de savoirs et savoir-faire que justement nous gardons hors du gouvernement (ou de la bureaucratie privée) parce que nous savons que les y abandonner serait une forme de suicide social. Les définir revient à discuter de deux manières de les concevoir, la première est celle de James Scott, la seconde celle de Michel de Certeau. Dans les deux cas, savoir ce qu’on veut en faire est une question éminemment anarchiste.
Avant d’aborder cette question, faisons un petit détour par le regretté Bernard Stiegler. Pour lui, il y a un concept qui résume bien le fait de priver les individus de savoir et de savoir-faire, c’est la déprolétarisation. C’est la perte, dans la société, de la capacité de l’individu à produire ses modes d’existence et son rapport aux choses. Dans le système productif, c’est la perte de son autonomisation au travail, en particulier par l’automatisation des processus productifs. Et aujourd’hui, cette question ne touche plus seulement l’ouvrier mais tout le monde. C’est ce que Graeber a formulé dans son livre Bullshitjobs (Graeber, 2018), cette perte de sens au travail qui finalement fait aussi écho à la prolétarisation de nos vies en général : la bureaucratisation, si longtemps décriée (au moins depuis Max Weber), a pris des proportions telles que nos vies entières sont soumises à des processus qui en font perdre le sens, mais il s’agit aussi de nos états psychiques, nos désirs, nos relations interpersonnelles, toutes soumises à la fois à l’algorithmisation des « services » numériques et à leur enshitification.
Mais ce que Bernard Stiegler appelle les savoirs et savoir-faire sont en fait ceux qui sont sujets à l’automatisation, c’est-à-dire ces savoirs et savoir-faire que l’on peut définir, mesurer statistiquement, et qui correspondent à des stéréotypes auxquels soit nous essayons de nous conformer, parce que nous influencés dans ce sens, ou auxquels nous sommes contraints au risque de l’exclusion sociale. Et il est vrai que cette conformisation est d’autant plus forte que nos vies se numérisent, car hors du calcul, point de salut.
Cependant, il demeure que les savoirs et savoir-faire sont un puits sans fond. Il existe une foule de choses que savons et faisons, quitte à les inventer ad hoc, qui échappent à la surveillance, et même à la formulation, et par lesquelles néanmoins, la société « se tient »… parce que nous le décidons ainsi. Qui n’a pas constaté par exemple, dans une organisation faite de procédures dûment renseignées et définies, combien le fait de respecter à la lettre ces procédures conduit tout droit à une situation erratique, là où justement, conscient que les procédures ne peuvent jamais couvrir l’infinité des situations possibles, la décision de ne justement pas les respecter permet au système de perdurer. Ce savoir-là, cette manière de faire, issue à la fois de l’expérience et de la théorie sans en être toutefois la déduction, c’est ce que les grecs appelaient la mètis et que James Scott situe au plus haut de l’organisation sociale.
La mètis, c’est Ulysse trompant le Cyclope par la ruse et Ulysse capable de redonner espoir à ses marins tout en réparant le bateau… parce qu’il est Ulysse. Ce n’est pas seulement la ruse, c’est la ruse d’Ulysse, ce n’est pas du management, c’est la manière d’être d’Ulysse, ce n’est pas du bricolage, c’est la capacité d’Ulysse à réparer le bateau. Rien dans ces situations ne peut être préalablement documenté (il n’y a pas de manuel d’odyssée pour marins perdus), rien ne sera documenté ou théorisé si ce n’est l’histoire que l’on raconte (et qui change sans cesse), et c’est justement pourquoi Ulysse plus qu’un autre est capable de rentrer à Ithaque.
On a très souvent confondu la mètis avec la ruse. Cette idée est plutôt une interprétation des écrits d’Aristote, qui la compare à la feinte, à la manière rapide de faire quelque chose et a trait à la contingence, l’indeterminé. Ceci par opposition à un savoir, qu’il soit issu de l’expérience ou de la théorie, mais qui puisse être explicité. Pour rester chez Aristote, ce n’est pas non plus la phronèsis cette « prudence » qu’on pourrait dénommer « sagesse pratique », juste équilibre entre l’excès et lemanque. D’un autre côté, on a aussi traduit mètis par « intelligence pratique », ce qui n’arrange pas vraiment nos affaires. Il faut lire sur ce point le travail remarquable fait au début des années 1970 par M. Detienne et J.-P. Vernant (Detienne, Vernant, 2018) sur la polysémie de la mètis et qui montre combien les grecs y accordaient une grande importance, aussi bien qu’au logos qui s’énonce clairement.
J. Scott, dans L’Œil de l’État, prend une définition qui n’est pas du ressort du logos et en même temps reste une forme de prudence. Pour lui, la mètis ce sont des savoirs et savoir-faire « aussi précis et concis que nécessaires ». Elle s’adapte aux situations toujours différentes. Elle se situe entre le génie (ou le talent) et le savoir codifié. Enfin, elle est toujours locale, relative à un contexte donné, et surtout elle dépend aussi des conditions sociales, par exemple des savoirs et savoir-faire transmis sur plusieurs générations. Il faut une « communauté d’intérêt, un stock d’informations cumulées et des expérimentations continuelles ». La mètis est donc à la fois individuelle – elle dépend d’un « tour de main », et aussi collective – la structure sociale en détermine le besoin pourrait-on dire.
Ceci étant dit, que fait James Scott dans L’Œil de l’État ? il passe en revue une pléthore de cas où l’État finalement échoue dans ses projets de gouvernement ou bien lorsque l’entreprise échoue dans sa tentative de vouloir gouverner les processus de production. Il explique cela en deux temps. Premièrement, le fait que tout projet de gouvernement tend à vouloir simplifier et standardiser, qu’il s’agisse du gouvernement soviétique dans sa volonté de planifier l’agriculture ou l’industrie, ou (avant que les thuriféraires de Hayeck ne se pointent) la standardisation et la simplification du marché libéral (la circulation de l’information économique est une simplification du monde ce qui explique les crises capitalistes et la volonté de ne jamais voir les « externalités »). C’est la même chose selon James Scott. Et deuxièmement, la raison de cet échec, c’est justement la mètis, c’est-à-dire le fait que dans tout projet, chaque acteur au plus bas de l’échelle, chaque non-décisionnaire, n’est jamais déprolétarisé entièrement. Il subsiste toujours une manière de procéder qui est mise en œuvre à bas bruit, à l’échelle locale, qui permet justement que l’ensemble que l’on croit ainsi gouverner, puisse tenir malgré tout. C’est l’exemple de l’agriculture soviétique qui, selon James Scott (car la réalité n’est jamais aussi nette), ne tenait que parce que les paysans dépossédés de leurs terres, conservaient malgré tout un semblant d’économie agricole locale par des petits jardins discrets et des petits échanges, autant de temps de travail et d’espaces géographiques« volés » à l’État central et maintenaient l’ensemble plus ou moins fonctionnel.
C’est cette mètis que James Scott oppose à la gouvernementalité. C’est-à-dire, qu’il y a toujours de l’ingouvernable et que c’est justement ce qui permet aux structures sociales de tenir. Pour J. Scott,ce n’est pas l’information qui stabilise l’ordre du monde, c’est la mètis. Or, l’usine tout comme l’ordre administratif, par leur volonté de simplifier, de standardiser, d’uniformiser, en usant de la violence bien souvent, cherchent justement à briser la mètis :
« Le véritable génie des méthodes modernes de production de masse que fut Frédérick Taylor perçu avec une grande acuité le problème de la destruction de la mètis et de la transformation d’une population d’artisans quasi-autonomes et réfractaire en unité plus aisément contrôlable à savoir les ouvriers. » (Scott, 2024, p. 9)
La conclusion de James Scott, va encore plus loin. Pour lui, la mètis joue un rôle non seulement structurant, mais supérieur au gouvernement des choses. Économies collectivistes ou usines capitalistes dépendent d’une économie informelle étrangère aux schémas simplifiés :
« Tous les systèmes socialement élaborés sont en fait les sous-systèmes d’un système plus vaste dont ils sont au bout du compte dépendants voire parasitaires »
Je peux concéder que ce « vaste système », cette part d’ingouvernable en chacun de nous et qui construit nos relations sociales, souvent il est vrai en réaction à l’autoritarisme de l’État ou de l’entreprise, est aussi l’objet de convoitise. Ne sont-ce pas les partis politiques qui souvent instrumentalisent notre ingouvernabilité pour mieux la canaliser et organiser la congruence idéologique qui permet de détenir le pouvoir dans les régimes (prétendus) démocratiques ? Ceci tendrait à prouver le bien-fondé de la pensée de James Scott. Mais d’un autre côté, lorsque ces mêmes partis politique usent et abusent du profilage numérique pour mieux manœuvrer l’opinion publique, n’est-ce pas aussi une manière de considérer le talon d’Achille de ce « vaste système » ? N’est-ce pas faire la part trop belle à la solidité de cette mètis si universelle que de penser qu’échappant aux statistiques, elle serait à ce point hors de contrôle ?
Pour poursuivre dans la même veine, on pourrait dire que le profilage dans l’économie numérique d’aujourd’hui tend de la même manière à simplifier et standardiser, mais la différence est que l’exercice du pouvoir que cela confère devient total parce que justement il y a abandon. Abandon des prérogatives de l’État par son reniement du Contrat Social (nous l’avons vu plus haut), ou abandon des individus happés qu’ils sont d’un côté par l’administration de leurs vies et de l’autre par leur propre abandon de leurs savoirs et savoir-faire au profit du confort bourgeois que l’on promet à tous. Non, pas tous : je rappelle qu’ici nous parlons exclusivement des sociétés capitalistes, et que le confort bourgeois est celui que l’on envie, pas forcément celui que l’on a…
L’algorithmisation de nos vies est sans doute le plus haut degré de destruction de la mètis. Au point que je pense sincèrement qu’elle est passée d’une forme de structuration (révolutionnaire possiblement) à une forme de résistance. Elle n’est plus supra mais infra sociale.
C’est là qu’une lecture de Michel de Certeau, réactualisée à l’aune de l’économie numérique, peut s’avérer profitable. C’est à cet exercice que se sont récemment livrés B. Latini et J. Rostand (Latini, Rostand, 2022). Je vous laisse découvrir ce dernier texte dont vous trouverez la référence en bibliographie.
Disons pour faire simple que Michel de Certeau est le contrepoint de la pensée post-structuraliste des Foucault et compagnie. Contrepoint, et non opposition. S’il existe des structures qui permettent de comprendre un état social, ce dernier n’en est pas pour autant le prisonnier, et les individus qui composent les « masses », ne sont jamais entièrement déterminés par la structure, les institutions ou les modèles d’interactions. Il est plus facile, en effet, de penser notre assujettissement à l’économie (numérique ou autre) que de penser les manières dont, en pratique, nous nous organisons dans ce terrain hostile.
Peut-être est-ce là la raison de la relative discrétion du travail de M.de Certeau aujourd’hui, à un moment où sa lecture pourrait être profitable. En effet, là où Foucault proposait une critique des institutions pour démontrer les modes d’assujettissement, on a cru voir, en une comparaison trop rapide, un lien évident entre la surveillance et le contrôle panoptique. La lecture de Surveiller et punir est en ce sens une sorte de poncif, surtout lorsqu’on ne tient pas compte la critique du néolibéralisme déjà plus qu’en germe chez Foucault, mais dans d’autres livres.
Là où M. de Certeau se situe, c’est sur un autre plan : nous ne sommes pas que des sujets. Nous sommes capables de nous exprimer de manière autonome, et M. de Certeau nous emmène sur le terrain du quotidien, là où nous opérons nos pratiques et nos créativités, par le fait même que nous trouvons dans ce quotidien la raison créatrice et finalement émancipatrice. Michel de Certeau voit son champ de recherche situé « dans un ensemble de précédents et de voisinages, par exemple les recherches récentes sur l'« intelligence pratique » (la mètis) des grecs ou sur le « sens pratique » et les « stratégies » kabyles et béarnaises » (Certeau, 1990, p. 35). Si l’auteur se réfère explicitement à P. Bourdieu, il ne s’embarque pas pour autant vers la théorie de la pratique. Son objet est de concevoir quels sont les modèles d’action des « gens », ces consommateurs qui sont en réalité les dominés sans toutefois être « ni passifs ni dociles », et comment « le quotidien s’invente avec mille manières de braconner ».
Dans l’économie numérique, il y a de nombreuses figurent qui illustrent très bien ce braconnage. Un autre mot a été utilisé : le bricolage du hacker. La figure historique du hacker est bien celle qui se réapproprie des outils pour en tirer autre chose, pas seulement l’améliorer, mais le transformer pour son usage et le partager, par un processus créatif. Pour autant, nous ne sommes pas tous des hackers, et nous rejoignons là l’idée de James Scott : il y a une inégalité de distribution des « tour de main », des manières de faire et des manières de voir. Par exemple,un hacker évolue dans un milieu social qui rend ses hacks pertinents et sans une communauté de hacker, il est difficile de se reconnaître et d’agir comme tel.
La pensée de M. de Certeau va un peu plus loin que cela. Ce n’est pas la communauté qui est importante, car elle ne sert finalement qu’à prendre conscience de soi. En fait, ce que nous dit de Certeau, c’est qu’en dehors d’un système de représentation et d’identification, nous usons des objets de mille manières différentes, quelles que soient les modes d’utilisation qui nous seraient imposés.
Se souvenant d’une visite dans un village reconstitué, de Certeau envisage les outils anciens exposés dans les maisons, des outils déjà utilisés et marqués par les usages :
« Comme les outils, les proverbes, ou autres discours, sont marqués par des usages ; ils présentent à l’analyse les empreintes d’actes ou de procès d’énonciation ; ils signifient les opérations dont ils ont été l’objet, opérations relatives à des situations et envisageables comme des modalisations conjoncturelles de l’énoncé ou de la pratique ; plus largement, ils indiquent donc une historicité sociale dans laquelle les systèmes de représentations ou les procédés de fabrication n’apparaissent plus seulement comme des cadres normatifs mais comme des outils manipulés par des utilisateurs. » (de Certeau, 1990, p. 39)
Dans le quotidien, les objets ont « mille combinaisons d’existence », et c’est cette presqu’infinité des modes d’usage qui marque la créativité des utilisateurs. Critiquant l’anthropologie et la sociologie institutionnalisée par des paradigmes ou même des dogmes, de Certeau montre qu’elles ont tendance à faire oublier ces infinités de mode d’être, reproduisant ainsi ce que l’ordre bureaucratique, le cadre normatif des institutions, cherchent eux aussi à faire oublier par des artifices comme la « valeur commune », l'« ordre naturel », ou « immémorial » : la résistance naturelle de la métis sort systématiquement de tout cadre normatif :
« L’ordre effectif des choses est justement ce que les tactiques « populaires » détournent à des fins propres, sans l’illusion qu’il va changer de sitôt. Alors qu’il est exploité par un pouvoir dominant, ou simplement dénié par un discours idéologique, ici l’ordre est joué par un art. Dans l’institution à servir, s’insinuent ainsi un style d’échanges sociaux, un style d’inventions techniques et un style de résistance morale, c’est-à-dire une économie du « don » (des générosités à charge de revanche), une esthétique de « coups » (des opérations d’artistes) et une éthique de la ténacité (mille manières de refuser à l’ordre établi le statut de loi, de sens ou de fatalité). La culture « populaire », ce serait cela, et non un corps tenu pour étranger, mis en pièces afin d’être exposé, traité et « cité » par un système qui redouble, avec les objets, la situation qu’il fait aux vivants. » (de Certeau, 1990, p. 46)
Nous bricolons tous, nous sommes tous des braconniers, et nous réagissons par des résistances au pouvoir. La pensée de M. de Certeau permet de mettre en perspective la toute puissance de la surveillance et l’influence comportementale. Les objets numériques font partie de notre quotidien : ce seul constat suffit à faire prendre conscience que nous réagissons toujours à contre-courant de l’illusion normative que l’économie numérique cherche à nous imposer.
Il serait faux de prétendre que, parce que nous consentons de temps à autre à ces contraintes, la société serait devenue amorphe et toute perméable à l’assujettissement algorithmique. Au contraire, il ne faut pas seulement regarder les communautés qui ont conscience de leurs propres efforts de résistance et développent des outils en conséquence. Il faut aussi regarder la manière dont les usages quotidiens recèlent des capacités de résistance. Il existe une culture populaire numérique à laquelle il faut aussi penser lorsque, nantis d’une mission d’évangélisation libriste, nous aimerions que les usages se transforment en vertu d’une autre normativité que nous aimerions voir advenir, celle des libertés numériques. Que voulons-nous vraiment en réalité ? organiser l’opposition frontale avec le capitalisme de surveillance ? ne serait-il pas finalement plus profitable de détourner, machiner, braconner, bricoler, et diffuser ces manières de faire, ces tactiques de résistances ? C’est de guérilla et de subversion dont il s’agit, pas d’une guerre de classes. Au lieu de vouloir un ordre nouveau et créer de nouvelles normativités, il est peut-être plus intéressant de contrefaire l’ordre que l’on veut nous imposer.
Bibliographie
ALEXANDRE, Olivier, 2024. « La Tech sur les chemins d’une contre-révolution ». AOC [en ligne]. 10/7/2024. [Consulté le 19/8/2024]. URL.
BENNETT, Colin J., 1992. Regulating Privacy: Data Protection and Public Policy in Europe and the United States. Ithaca : Cornell University Press.
BENTHAM, Jeremy, 1789. An Introduction to the Principles of Morals and Legislation. London : T. Payne.
BRÜCKWEH, Kerstin, 2016. « Das Eigenleben der Methoden. Eine Wissensgeschichte britischer Konsumenten-klassifikationen im 20. Jahrhundert ». Geschichte und Gesellschaft. Vol. 42, pp. 86‑112.
CERTEAU, Michel de, 1990. L’invention du quotidien. Paris, France : Gallimard.
DETIENNE, Marcel et VERNANT, Jean-Pierre, 2018. Les ruses de l’intelligence: la mètis des Grecs. Paris, France : Flammarion.
FOSTER, John Bellamy et MCCHESNEY, Robert W., 2014. « Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age ». Monthly Review [en ligne]. 7/2014. Vol. 66. URL.
FOUCAULT, Michel, 1975. Surveiller et punir. Naissance de la prison. Paris : Gallimard.
GIDDENS, Anthony, 1981. A contemporary critique of historical materialism. Vol. 1. Power, Property and the State. London : McMillan.
GIDDENS, Anthony, 1985. A contemporary critique of historical materialism. Vol. 2. The Nation State and Violence. Cambridge : Polity.
GRAEBER, David, 2018. Bullshit jobs. Paris, France : Éditions les Liens qui libèrent.
LATINI, Beatrice et ROSTAND, Jules, 2022. « La libre navigation. Michel de Certeau à l’épreuve du numérique ». Esprit [en ligne]. 2022. Vol. Janvier-Février, n° 1-2, pp. 109‑117. [Consulté le 4/5/2023]. DOI 10.3917/espri.2201.0109. URL.
LESSIG, Lawrence, 2000. « Le code fait loi – De la liberté dans le cyberespace ». Framablog [en ligne]. 2000. URL.
LYON, David, 2001. Surveillance society: monitoring everyday life. Buckingham, Open University Press.
MABI, Clément, 2019. « Gouverner l’État avec le numérique ». Dans : Algorithmes et décision publique. CNRS Éditions. Paris. Les essentiels d’Hermès.
MASUTTI, Christophe, 2020. Affaires privées. Aux sources du capitalisme de surveillance. Paris : C&F Éditions. URL.
MASUTTI, Christophe, 2021. « En passant par l’Arkansas. Ordinateurs, politique et marketing au tournant des années 1970 ». Zilsel [en ligne]. 2021. Vol. 9, n° 2, pp. 29‑70. URL.
REVIGLIO, Urbano, 2022. « The untamed and discreet role of data brokers in surveillance capitalism: a transnational and interdisciplinary overview ». Internet Policy Review [en ligne]. 4/8/2022. Vol. 11, n° 3. [Consulté le 25/8/2024]. URL.
SCOTT, James Campbell, 2024. L’œil de l’État: Moderniser, uniformiser, détruire. Paris, France : la Découverte.
STIEGLER, Barbara, 2019. « Il faut s’adapter » : sur un nouvel impératif politique. Paris, France : Gallimard.
TURNER, Fred, 2012. Aux sources de l’utopie numérique : De la contre culture à la cyberculture. Stewart Brand, un homme d’influence. Caen : C&F Editions.
Notes
-
Cela dit, d’après Wikipédia, « en juillet 2018, Interpublic annonce l’acquisition Acxiom Marketing Solutions, une filiale d’Acxiom, pour 2,3 milliards de dollars. Acxiom Marketing Solutions, représente les 3/4 des revenus d’Acxiom qui ne garde que son unité LiveRamp ». En France par exemple, Acxiom France semble désormais s’appeler Liveramp France depuis 2021. Il va falloir d’ici peu revoir la toile des courtiers de données, et c’est à mon avis Liveramp qui va tenir la barre. ↩︎
-
Voir cette video très simple qui explique le CRM onboarding, concernant la Redoute et Liveramp. ↩︎
-
Ecoutez le podcast (et sa conclusion) de l’excellente émission de Xavier de La Porte, Le Code a changé, « À qui profite le Bitcoin ? », France Inter, septembre 2023. ↩︎
- Persos A à L
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Blogs persos du Diplo
- LePartisan.info
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Romain MIELCAREK
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Fabrice NICOLINO
- Timothée PARRIQUE
- Emmanuel PONT
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- Numérique
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD