09.04.2025 à 02:00
Demain, il faudra toujours pédaler
L’acquisition d’un VTT dans le cadre d’une pratique sportive n’est pas une décision facile. Cet achat suppose une sélection soigneuse, notamment en raison de l’augmentation constante des prix au cours des dernières années, tandis que la qualité n’a pas connu de progrès significatifs. En effet, la période de forte dynamique d’innovation dans ce secteur s’étend des années 1990 aux années 2010. Cependant, ces dernières années, le marché du VTT semble stagner en matière d’innovations décisives, et aucune avancée technologique majeure n’en a vraiment redéfini les caractéristiques fondamentales. Si vous deviez acheter un VTT aujourd’hui (j’en ai fait un long billet précédemment), il faudrait le faire avec un petit recul historique pour affiner le choix sans craindre une trop rapide obsolescence.
Un vosgien à vélo
Vers la fin des années 1980, passée la vague des Mountain Bike Peugeot dont l’usage était plutôt destiné à une pratique tout chemin, arrivèrent les VTT dans une accessibilité « grand public ». Pour les fans de vélo, c’était à celui qui pouvait avoir le dernier Scott, ou le dernier Gary Fisher. Du coup, c’est ça qu’on achetait (on bossait un peu l’été pour grappiller des sous, et les parents mettaient au bout… si on avait eu les fameuses « bonnes notes à l’école »).
C’était une époque intéressante. Personne dans votre entourage proche ne connaissait vraiment quelque chose en VTT, et les recettes de l’oncle Marcel pour entretenir un biclou… n’étaient plus vraiment adaptées à une pratique sportive. Les géométries de cadre étaient toute vraiment très différentes : on savait qu’il ne fallait pas se tromper à l’achat, surtout compte-tenu du prix. Et pourtant le magasin le plus proche ne proposait pas 36 modèles.
C’est comme ça que, après une période collège ou je montais sur un superbe vélo de course équipé d’un compteur de vitesse et kilométrique (s’il vous plaît), je me suis retrouvé en été 1989 avec un VTT Gary Fisher typé « semi-descente ». Du moins c’est comme ça qu’on l’appelait. En réalité il s’agissait d’un cadre très allongé avec un cintre monstrueux couplé à une potence super longue… j’étais littéralement couché sur le vélo. Le tout avec un centre de gravité tellement bas, que j’entamais des descentes sans trop réfléchir sur le granit vosgien. Et le dérailleur… un système Shimano SIS, s’il vous plaît, le top du top à l’époque, que je graissais à outrance car j’ignorais totalement comment on entretien une transmission.
Finalement, j’ai donc roulé un peu plus de trois ans – mes années lycée – avec ce VTT tout rigide tandis que les copains crânaient avec leurs amortisseurs. Parce que oui, à peine un an après mon bel achat, arrivèrent sur le marché grand public les fourches suspendues. Fallait-il envisager un nouvel achat complet, sachant que les transmission elles aussi allaient changer ? ou changer seulement la fourche mais que choisir, sachant que certaine valaient déjà le prix d’un vélo.
Comme je n’avais pas vraiment d’argent à dépenser, j’en suis resté là. Avec une obsolescence somme toute relative. Cette joie de pouvoir aller loin dans la montagne, en autonomie, avec ou sans les copains, est une joie difficilement descriptible, et elle ne vous quitte pas malgré les années de pratique, quel que soit le matériel. Et pour ma part, il y a une certaine nostalgie du tout rigide, parce que les sensations sont très authentiques, voyez-vous…
Les années passèrent, et finalement, je n’ai pas acheté beaucoup de VTT. C’est un sport qui demande de la disponibilité et un peu d’argent. Ce n’est que ces dix dernières années que je m’y suis sérieusement remis, passées mes années de trail. Je dois dire une chose : les VTT on connu d’énormes progrès, quels que soient les composants. Cela a rendu toujours extrêmement difficile le choix de l’achat d’un VTT, qu’il s’agisse du premier ou du dixième (rare).
Il faut expliquer cependant aux non pratiquants ce risque d’obsolescence. Après tout, regarder avec envie le dernier modèle de fourche sur le VTT de son copain, est-ce de l’envie, de la jalousie ou est-ce que la différence technique est vraiment significative ? Il faut avouer que la lecture des magazines VTT et l’ambiance très masculiniste qui en émanait faisait (et fait encore) des ravages : tout est fait pour s’imaginer être le champion de la forêt et par conséquent mériter ce qui se fait de mieux en technique. La vraie différence sur les performances ? aucune. C’est ce qui fait qu’on rencontre bien souvent des amateurs sur-équipés, relativement à la grosseur de leur porte-monnaie, et que bien plus rares sont les amateurs plus éclairés, dont les choix ne sont pas forcément dernier cri, mais sont des choix logiques. Je ne voudrais pas me vanter, mais mon choix de rester en semi-rigide dans les montagnes vosgiennes me semble être non seulement logique mais aussi performant (et moins cher).
Quelque chose me dit qu’avec le ralentissement des innovations en VTT (je ne parle pas des VTTAE), il y a comme un vent de Low-tech qui commence à souffler dans ce domaine, et ce n’est peut-être pas plus mal. Pourrions-nous enfin nous contenter de pédaler et de piloter ?
Géométrie, design
La première évidence, c’est que le marché du VTT s’est d’abord concentré sur les matériaux et la géométrie. Aborder des descentes de sentiers et monter de forts dénivelés sur des terrains humides et glissants, tout cela ne pouvait clairement pas se faire en adaptant simplement l’existant. C’est depuis la fin des années 1970 que les premiers Mountain Bike Californiens arrivèrent, c’est-à-dire des vélos tout terrain modifiés : géométrie longue, renforts soudés. Ces adaptations ont notamment été réalisées par Gary Fisher, qui est parti sur une base de vélo tout terrain anciens des années 1940 (oui, les vélos ont toujours été tout-terrain, vu qu’ils sont là depuis bien avant qu’on fiche du bitume partout).
C’est Peugeot qui fut la première marque française à vendre de tels vélos sur le territoire en 1984. Avec une géométrie très inspirée du travail de Gary Fisher. Lorsque Peugeot a commencé à les commercialiser à grande échelle, ce fut vécu comme l’arrivée tant attendue d’un VTT accessible et fiable. Aujourd’hui, on pourrait plutôt les comparer à des VTC (vélo tout chemin) : guidon haut (col de cygne), jantes larges et pneus solides, et surtout triple plateau avant, 18 vitesses… C’était le top. Sauf qu’avec l’arrivée des autres acteurs historiques du marché tels Gary Fisher et Specialized pour les américains, Scott pour la Suisse, Giant pour les Taïwannais, etc. non seulement la concurrence était rude, mais le lot de nouvelles géométries, beaucoup plus sportives, associées à des prix plus abordables, finirent par imposer ces nouvelles marques dans le secteur (et elles avaient déjà bien occupé celui du vélo de route).
La course au design a poursuivi une lancée assez spectaculaire jusqu’environ 2010, où les géométries ont commencé à se stabiliser. Les grandes gammes de chaque constructeur se sont mises à être déclinées plutôt que remplacées. Soit donc 20 années de développement pour obtenir les formes des VTT que chacun a l’habitude de voir aujourd’hui.
Pour qui regarde de temps en temps les catalogues de fabricants, il y a un signe qui ne trompe pas : les géométries sont les mêmes depuis plus de 10 ans, d’ailleurs les noms des gammes ne change guère, ou alors s’ils changent, en regardant de près, c’est surtout une question de marketing. Ces géométries changent à la marge sur le créneau des VTT à assistance électrique, par la force des choses (et du poids), bien que la tendance soit aujourd’hui à une intégration de plus en plus fine des batteries et des moteurs.
Transmission
La polymultiplication, c’est une longue histoire de dérailleurs sur les vélos. Cela fait presque un siècle que les premiers dérailleurs (français !) ont vu le jour. Shimano, créé en 1921, a amené un savoir-faire (y compris en terme commercial) pour créer des groupes de transmission fiables et avec un coût modéré. Il finirent pas exercer une sorte de monopole agressif. SRAM est arrivé bien après,vers 1986-87.
Sur les VTT, qu’il s’agisse des gammes de transmission Shimano ou SRAM, les tableaux des gammes n’ont pas beaucoup changé depuis.… très longtemps. La gamme Deore XT de Shimano date de… 1982. En fait c’est la série qui équipe les VTT grand public depuis le début, sauf qu’aujourd’hui le Deore XT est le haut de gamme (avec XTR) tandis qu’on a vu Shimano décliner jusqu’au bas de gamme (Altus, Tourney) pour la fabrication de VTT premiers prix abordables. En réalité, si on roule sur un VTT pour en avoir une pratique sportive, il y a de fortes chances qu’il soit déjà équipé d’une très bonne transmission dite « haut de gamme ».
Donc en termes de transmission, il ne faut pas s’attendre ces prochaines années à quoique ce soit de révolutionnaire : on a déjà fait le tour depuis bien des années. La seule chose qui change, en gros, c’est le nombre de pignons sur la cassette arrière et les matériaux.
À ce propos, justement, il y a eu un changement récent, qui date des années 2018-2019. La plupart des bons VTT aujourd’hui sont vendus avec un mono-plateau et cassettes 12 vitesses. En fait, il aura fallu du temps pour passer du paradigme multi-plateau au mono-plateau. Je pense que c’est surtout dû au fait qu’on a toujours associé le double ou triple plateau à l’efficacité de la polymutiplication. Or, l’innovation permettant de caser un maximum de pignons sur une largeur de cassette raisonnable, couplé à des plateaux plus petits, on a finalement pu avoir un choix de braquets tout à fait polyvalents, du très grand au très petit. Le mono plateau permet aussi de maintenir la chaîne de manière plus efficace, ceci associé aux systèmes de blocage de chape de dérailleurs qui sont maintenant très courants : en théorie, on déraille beaucoup moins et la chaîne est bien moins sujette aux distorsions dues aux soubresauts dans les descentes. L’arrivée du mono-plateau marque en même temps la fin du dérailleur avant, donc moins cher à la fabrication, moins de matériel embarqué, et un entretien plus facile.
Suspensions et freins
Il s’agit sans doute des deux changements les plus spectaculaires de l’histoire du VTT.
Les fourches suspendues et leur démocratisation sont sans doute ce qui fait qu’aujourd’hui, même les vélos de ville en sont pourvus. Par contre peu de gens comprennent que l’objectif d’une suspension sur un vélo ne consiste pas à faire moins mal au dos ou aux poignets, même si cela ajoute un confort évident. Le premier objectif est de permettre à la roue de coller le plus possible au sol devant ses irrégularités : il s’agit de garantir le contrôle du vélo. Les fourches suspendues sont aujourd’hui de deux types : à ressort pneumatique (c’est l’air qui fait ressort) ou à ressort hélicoïdal. Pas beaucoup de changement sur ce point depuis 20 ans, en réalité. Par contre, l’arrivée des suspensions arrières, qui nécessitent le montage d’une bielle pour l’articulation des haubans et des bases, a profondément changé la composition des VTT, y compris dans la discipline Cross Country. C’est le VTT de descente qui a amené tout ce lot d’innovation, tant concernant les capacités de débattement des suspensions que sur les matériaux utilisés. Même si, en Cross Country, une suspension arrière n’est absolument pas nécessaire (je dirais même superflu, mais ce n’est que mon avis), une fois dans le très haut de gamme, les performances deviennent excellentes.
Les freins, eux, ont connu une transformation radicale fin des années 1990 : les freins à disques. C’est sans doute ce qui a permit de sécuriser le VTT et donc le démocratiser encore plus. Ayant commencé avec des freins V-Brake, j’aime autant vous dire que sur terrain humide, il fallait avoir parfois le cœur accroché. Les commentaires sont superflus : l’arrivée des freins à disque sur les vélos de course n’est que très récente (parce qu’on a trouvé le moyen de rendre l’ensemble assez léger pour le faire). En la matière, une innovation a permit de rendre le freinage encore plus sûr : l’arrivée des systèmes hydrauliques pour rendre le freinage encore plus puissant et réactif. Les technologies se sont améliorées depuis lors et ont rendu les systèmes toujours plus efficaces et légers, mais là aussi : pas de bouleversement depuis 30 ans (et ce serait difficile de mieux faire que les freins à disque, je suppose).
Les pneus
Quelle que soit la discipline cycliste, le choix des pneus est crucial. En VTT, les fabricants ont du s’adapter à trois types de demandes :
- Adapter la largeur des pneus aux types de terrains et faire en sorte que les pneus larges puissent avoir une capacité de traction accrue. Cela a nécessité un effort créatif, tant dans le choix des matériaux (composés en caoutchouc), que dans le choix des géométries (crampons directionnels, géométrie adaptée aux terrains boueux, sec, etc.)
- Adapter les pneus aux dimensions voulues, le passage généralisé du 27,5 pouces au 29 pouce est assez récent.
- Lutter contre les crevaisons : technologies Tubeless, résistance des matériaux et renforts latéraux.
On peut même ajouter à cela l’arrivée de la technologie radiale sur les pneus, ce qui améliore la capacité de roulement et l’absorption des chocs.
Que nous réserve demain ?
Il faut d’abord constater que tout à tendance aujourd’hui à se concentrer sur le VTTAE… parce que dès qu’on amène des technologies électriques ou électroniques dans un objet, il y a toujours moyen d’ajouter de la « performance ». En l’occurrence, batteries et moteurs sont toujours améliorables là où les technologies dites « musculaires » en resteront toujours aux contraintes d’adaptabilité morphologiques. Ainsi le VTTAE est en train de changer assez radicalement le marché du VTT au point de changer le produit lui-même.
Dans le domaine automobile, le passage de la manivelle au démarreur, l’arrivée des essuie-glace électriques et le GPS, les moteurs électriques ou hybrides, tous ces éléments ont transformé la voiture. En revanche il s’agit d’évolution. La pratique automobile, elle, n’a pas changé (et c’est d’ailleurs un problème à l’heure du réchauffement climatique). Le VTTAE, en revanche, ne propose pas d’évolution du VTT : il change radicalement la pratique. Il est de bon ton de ne pas juger, certes. Mais de quoi parle-t-on ? de vélomoteur. Autant en matière de mode de déplacement, mettre un moteur sur un vélo ne me semble pas être une innovation bouleversante (souvenons-nous du cyclomoteur VéloSolex !), mais en matière de pratique sportive, pardon, on ne joue plus du tout dans le même camp. Je ferai sans doute un billet plus tard sur la question du rapport entre pratique sportive et pratique du VTTAE (spoiler : je ne suis pas fan du tout). Pour l’instant, évacuons donc les VTTAE, et regardons objectivement quelles sont les perspectives futures des VTT.
Si on prend en compte les différents historiques rapides ci-dessus, on ne devrait pas s’attendre à de grand bouleversements, à moins de réinventer le vélo (la roue !).
Des tentatives ont pourtant eu lieu :
- Moyeu à vitesses intégrées : c’est très bien pour le vélo de ville, mais pour un VTT, il faut compter jusqu’à un kilo de plus. Les dérailleurs, eux, même s’ils sont exposés à l’humidité, peuvent toujours être nettoyés. La gradation et le passage des vitesses sera toujours plus souple avec un dérailleur. En revanche, il y a quelques possibilités intéressantes pour les VTTAE.
- transmission par courroie : c’est surtout adapté pour les vitesses intégrées et pour une utilisation citadine. Le nombre de ventes à ce jour n’est cependant pas probant.
- dérailleur électrique à commande bluetooth : c’est pas une blague, ça existe vraiment. C’est bien : parce que le boîtier peut aussi commander les positions de rigidité des suspensions. C’est nul : parce qu’il faut des batteries chargées : batterie à plat ? c’est mort, en plein milieu de votre circuit. Le bon vieux câble reste indispensable. Là encore, c’est plutôt réservé aux VTTAE.
- j’ai aussi vu passer une histoire de suspension magnétique, mais je n’ai pas assez d’infos là-dessus.
En fait, la plupart des innovations techniques se sont tellement concentrées sur les VTTAE que les VTT n’ont pas vraiment bougé. D’un autre côté : en ont-ils vraiment besoin aujourd’hui ? N’est-on pas arrivé à un point où il n’y a plus grand chose à changer ?
Les suspensions
Étant donné la complexité des équipements de suspension, et la nécessité de les rendre plus performants à cause des VTTAE, il faut s’attendre peut-être à quelques changements dans le futur en rétroaction sur les VTT. Je pense notamment aux pièces fragiles des VTT tout-suspendus. Pivots et roulements de cadre, par exemple, sont autant de points de fragilités des VTT qui ne peuvent qu’être améliorés.
De même, les modèles de cinématiques dans les suspensions n’ont pas dit leur dernier mot. Il s’agira de sélectionner différents types de positions adaptées au terrain tout au long de la pratique, et pour cela on voit déjà arriver sur le marché les technologies électroniques « brain » qui permettent de jouer sur la rigidité des suspensions avec des capteurs. Les fourches comme les suspensions arrières seront dans un futur proche bardées d’électronique : est-ce souhaitable ? le VTT amateur en a-t-il réellement besoin ? L’avantage que j’y vois, c’est que de très bonnes fourches aujourd’hui sans électronique passeront peut-être à des prix beaucoup plus abordables. D’autre part, la géométrie pourra peut-être se simplifier au profit d’une technologie suspensive adaptée au Cross Country. Je ne vois cependant pas de tendance claire chez les fabricants sur ce dernier point.
Du côté des fourches, l’enjeu est depuis longtemps le fameux effet de pompage. Cela se règle aujourd’hui par un entretien régulier, une compression adaptée au poids du pilote, et par les outils de blocage à la demande permettant de rigidifier plus ou moins la fourche selon le terrain. On a vu que ces dispositifs de blocage pourraient passer d’un contrôle manuel à un contrôle automatique et électronique. Cependant quelques entreprises tentent aujourd’hui de se passer carrément de ce besoin de réglage en créant des fourche dont le système de suspension est rendu selon un schéma parallélogramme. Les fourches à parallélogramme ne sont pas nouvelles dans l’histoire du VTT mais le fait que certains constructeurs outsider s’évertuent à y travailler est peut-être le signe que des nouveautés vont voir le jour d’ici peu.
Intégration et matériaux
De larges efforts ont été réalisé dans l’intégration du câblage dans les cadres. Il s’agit là de bien plus qu’une simple question esthétique : mettre les câbles à l’abri des conditions extérieures est une manière de conserver leur efficacité. Il reste encore des efforts à faire, notamment au niveau des cintres, ou dans l’intégration des câbles de frein avant dans les fourches. Aucun doute là-dessus, il faut s’attendre bientôt à voir arriver des VTT où presque plus rien ne dépassera.
Côté matériaux, on connaît déjà le carbone, mais celui-ci souffre d’un problème d’alignement dans les moyennes gammes : il est parfois encore beaucoup plus intéressant, pour le même prix (en dessous 1500 €) d’acheter un cadre aluminium de bonne facture et allégé, plutôt qu’un cadre carbone bas de gamme et trop fragile. Par ailleurs la fragilité des cadres carbone laisse encore trop à désirer, y compris dans le haut de gamme. Donc là encore, il faut s’attendre à ce que les fabricants commencent à bouger les lignes à ce niveau.
Et alors ?
Comme on vient de le voir, aucune des innovations actuellement en vue ne va changer radicalement le VTT. Nous sommes arrivés à un point où, durant une longue période d’hibernation, les seuls changements consisteront essentiellement à améliorer les caractéristiques existantes. Si on se concentre sur les VTT semi-rigides, à l’heure où j’écris ce billet, les dernières nouveautés parmi les constructeurs les plus connus se ressemblent de manière plus qu’étonnante, y compris dans le choix des fourches et des groupes de transmission et de freins.
La période Covid a laissé de graves carences, notamment en matière de gestion de stock et de pénurie de matériels. Cela a sans aucun doute joué sur le rythme de la multiplication des offres et les effets seront durables. Chercher à innover tant que les modèles ne sont pas épuisés est un non sens économique. Toujours est-il que, ces considérations à part, on constate une concentration des efforts sur les VTTAE (qui finiront un jour aussi par se ressembler) et beaucoup moins d’attention accordée aux VTT dont les améliorations en prévision ne porteront guère que sur les matériaux et quelques choix de design.
En d’autres termes, acheter un VTT aujourd’hui, dès lors qu’il correspond effectivement à votre pratique, ne devrait absolument pas être influencé par la crainte d’une obsolescence rapide. Je pense ne pas me tromper en affirmant qu’un VTT semi-rigide de bonne facture, cadre aluminium ou carbone, bien équipé et bien entretenu, pourrait durer facilement 6 ou 7 ans sans qu’une quelconque nouveauté ne vienne ternir son usage. Par ailleurs, conserver le cadre, changer la fourche si elle se casse, changer régulièrement la transmission et différentes pièces devraient même devenir des arguments de rentabilité là où on hésitait auparavant à changer tout le vélo. C’est sans doute ces raisons qui poussent certains pratiquants à revenir sur des modèles minimalistes, y compris en Enduro. Pour ma part, même nostalgique, je ne reviendrai certainement pas au tout rigide, je tiens trop à mon pilotage. Cela étant dit, il ne reste donc plus qu’à pédaler.
09.02.2025 à 01:00
L'ère de la déstabilisation
La récente élection de Donald Trump fut en même temps l’occasion d’affichage au grand jour de l’oligarchie techno-capitaliste qui l’accompagne. Nous constatons en même temps à quel point, avec l’aide active des politiciens, ces gens se radicalisent et basculent dans une idéologie libertarienne qui fait beaucoup plus que de créer une concentration des richesses. Elle assume complètement sa puissance destructrice.
Dans ce billet, je voudrais vous entretenir d’une idée, ou plutôt d’une lecture des évènements qui cherche à dépasser la seule analyse des transformations du capitalisme. Ce texte reflète mes lectures du moment, c’est un essai, une tentative un peu anachronique qui commence par l’Antiquité, fait un bond dans le temps pour parler de techno-capitalisme aujourd’hui et revient sur Proudhon.
Table des matières
Cimon
Les régimes politiques ont tous leurs bienfaiteurs. Et cela depuis au moins l’Antiquité. Ce fut le cas de Cimon (510-450) à Athènes. Courageux stratège (plusieurs fois élu !) victorieux, il illustra sa vie d’actes de bravoure, qui, entre conquêtes et chasse aux pirates, lui permirent d’amasser une fortune colossale au point de subir l’ostracisme. On retient de la vie de Cimon, rapportée notamment par Plutarque, une certaine ambivalence où l’enrichissement personnel et sans limite égale la générosité reconnue du personnage, qui alla jusqu’à transformer sa maison en une sorte d’auberge hippie avant l’heure, et sa propension à la magnanimité financière. En tant qu’homme d’État et de parti, sa défense de l’aristocratie contre la démocratie s’incarnait en lui comme la démonstration que peu d’hommes, pourvus qu’ils soient bien nés et entreprenants, sont aptes à diriger un pays.
À son propos, Plutarque écrit (Vies (parallèles), tome VII, trad. Facelière et Chambry, 1972) :
« Mais Cimon, en transformant sa maison en prytanée commun aux citoyens, et en laissant les étrangers goûter et prendre dans ses domaines les prémices des fruits mûrs et tout ce que les saisons apportent de bon avec elles, ramena en quelque sorte dans la vie humaine la communauté des biens que la fable situe au temps de Cronos. Ceux qui prétendaient malignement que c’était là flatter la foule et agir en démagogue étaient réfutés par la nature de sa politique, qui était aristocratique et laconisante. Il était, en effet, avec Aristide, l’adversaire de Thémistocle, qui exaltait à l’excès la démocratie. Et plus tard il combattit Éphialtes, qui, pour plaire à la multitude, voulait abolir le Conseil de l’Aréopage. Il avait beau voir tous les autres, sauf Aristide et Éphialtes, se gorger de ce qu’ils prenaient au trésor public, il se montra jusqu’à la fin incorruptible… »
Plutarque n’était pas un démocrate acharné, on le sait bien. Ses récits de vies servent un projet plus culturel qu’historique. Ce faisant il pose une question pertinente : comment en effet corrompre un homme immensément riche comme Cimon ? l’aristocratie n’est-elle pas le meilleur atout d’Athènes ? En tant que stratège, Cimon avait des armées à disposition pour servir le développement et les intérêts d’Athènes aussi bien que pour s’enrichir lui-même. Et que pouvaient réellement lui coûter quelques largesses débonnaires, sinon un peu de temps pour s’assurer que les athéniens ne versent pas trop dans la démocratie et remettent en question les décisions de l’Aréopage le concernant pour le titre de stratège ? Quant à l’auberge espagnole de son domaine, on peut sans trop se tromper deviner qu’il s’agissait plutôt d’une réminiscence de l’âge d’or (l’abondance du temps de Chronos, dit-on) où les hommes n’avaient pas besoin de travailler pour vivre… soit un banquet permanent ouvert à une certaine élite aristocratique, y compris non athénienne. Dans cet entre-soi bien organisé, se jouaient des accords, en particulier avec Sparte, la célèbre cité laconienne et pour laquelle Cimon, pourtant partisan du développement d’Athènes, revendiquait de bonnes relations diplomatiques.
J’extrapole un peu. On ne connaît Cimon que par écrits interposés à plusieurs centaines d’années de distance. Mais le personnage vaut notre attention aujourd’hui. Les riches bienfaiteurs au service de l’impérialisme de leur pays se nomment oligarques. Cimon vient de la noblesse, certes, mais par ses actions (héroïques) et ses largesses, sa popularité (et sa chute) c’est comme oligarque qu’il se présente. De notre point de vue contemporain, même si le statut social de Cimon est bien différent, nous n’avons jamais vraiment cessé de croire en des hommes (ce sont souvent des hommes) providentiels dont le leadership, les visions et le pouvoir que leur conférait la richesse, promettaient l’essor et le développement de toute la société.
Pourtant les Athéniens de l’époque de Cimon ont fini par laisser de côté son conservatisme pour se tourner vers des réformes « démocratiques » et surtout davantage de répit (la guerre permanente, cela n’épuise pas seulement les corps, mais aussi les esprits). Nous avons néanmoins appris qu’il n’y a pas d’oligarchie sans conservatisme ni populisme. Car ce sont sur ces ressorts politiques que l’auto-proclamation des oligarques cherche toujours sa légitimité. Il n’y a pas d’oligarchie sans un pouvoir politique qui leur délègue ses prérogatives. Lorsque les alliés d’Athènes commencèrent à se désengager des guerres, c’est Cimon qu’on envoie les mettre au pas. Pour lutter contre la piraterie en mer Égée, c’est Cimon qu’on envoie. Lorsque Sparte fait face à une révolte des hoplites, c’est encore Cimon qu’on envoie en médiateur.
Pour justifier ce pouvoir oligarchique, il faut l’appuyer sur quelque chose de tangible que le corps des citoyens est prêt à accepter, jusqu’à un certain point. Dans le cas de Cimon, c’est sa position aristocratique, mais en tant que telle, elle ne suffisait pas à cause des tensions politiques à l’intérieur d’Athènes, et c’est bien pourquoi Cimon faisait preuve d’autant de largesses. Bien naïf qui irait croire qu’un tel homme, aussi glorieux soit-il, aurait distribué ses richesses sans arrière-pensée. Ainsi, nombre de citoyens d’Athènes voyaient en lui un homme providentiel, et partageaient avec lui les mêmes valeurs conservatrices, à la mesure de leurs propres intérêts individuels. Comme l’écrit l’helléniste D. Bonnano à propos de Cimon (et des Philaïdes en général), « le patronage privé créait un système de réciprocité qui plaçait le bénéficiaire – en ce cas, la communauté civique athénienne – en situation de dette et apportait à son auteur prestige et privilèges ». En retour, un point d’équilibre s’établit entre le pouvoir politique et l’oligarchie : plus on a besoin d’oligarques, plus le conservatisme se justifie de lui-même par l’octroi des privilèges, excluant toute forme de contre-pouvoir. Ainsi, c’est en partie par ruse que Éphialtès a dû faire voter ses réformes, profitant de l’absence de Cimon, envoyé à Sparte, et de l’affaiblissement de ses amis de l’Aréopage (les citoyens les plus riches), pour en distribuer les pouvoirs à l’Assemblée et aux organes judiciaires.
La déstabilisation
Pourquoi parler de Cimon aujourd’hui ? Posons la question sans plus tergiverser : peut-on comparer Cimon et Elon Musk sous la présidence de Donald Trump ? La réponse est non. D’abord parce que la comparaison entre deux personnalités à 2500 ans d’intervalle pose des questions méthodologiques que je n’ai pas envie d’essayer de résoudre. Ensuite parce que faire appel à l’Antiquité à chaque fois qu’un problème contemporain se pose, c’est un peu trop facile. À ce compte-là, toutes les connaissances remontent à Aristote, et tout est donc déjà dit.
Ce qu’on peut retenir, par contre, ce sont les principes : pas d’oligarchie sans conservatisme, pas de conservatisme sans populisme. Qu’est-ce que le populisme ? C’est l’antipluralisme, c’est ne voir le peuple que comme quelque chose d’indifférencié. Soudoyer, faire miroiter, raconter des salades, en politique, c’est considérer que la congruence idéologique entre les masses électoralistes et les candidats se mesure à l’aune des positions respectives lorsque celle des candidats change en fonction des discours que les masses sont supposées attendre. Celles-ci ont intériorisé (ou plutôt sont supposées avoir intériorisé) une certaine lecture de l’idéologie néolibérale qui leur fait accepter qu’une petite élite de privilégiés pourra leur garantir un avenir meilleur. En retour, toute différenciation politique, tout avis nuancé, toute contradiction et toute forme de contre-pouvoir, c’est-à-dire toute forme de dialogue démocratique, est considérée comme contraire à l’intérêt général. C’est pourquoi le conservatisme, qui vise à garantir à l’oligarchie sa légitimité, se dote d’une posture autoritaire.
La différence entre Cimon et Elon Musk, c’est que ce dernier n’a pas besoin d’essayer de soudoyer le peuple par des largesses d’ordre monétaire, à part subventionner la campagne politique de Trump. Il n’est pas élu, il est plébiscité et nommé. Il lui suffit de promettre. Sa grande richesse justifie d’elle-même sa position élitiste : il a « réussi » dans l’économie néolibérale, il est « puissant », ses propriétés pèsent lourd dans l’économie. À l’heure des technologies numériques, la stratégie de communication est devenue assez simple, en somme : bombarder les réseaux sociaux de discours réactionnaires, viser juste ce qu’il faut pour gagner les masses, submerger les médias par des discours plus abscons les uns que les autres pour brouiller les formes de contre-pouvoir qui pourraient s’exprimer.
Mais dans quel but, alors ? L’exemple des États-Unis est frappant aujourd’hui, mais il se retrouve dans bien d’autres pays. La différence entre les gens comme Peter Thiel et Elon Musk et les anciennes oligarchies industrielles (Carnegie, Rockefeller), c’est que les plus anciens voulaient changer la société par une idéologie du progrès technique dans la production de biens (de consommation, notamment) pour pouvoir faire plus de profit, là où les oligarques des big tech cherchent à changer désormais notre manière de penser notre rapport à la technologie. Un rapport de dépendance à leurs technologies, une dette.
Ce changement du rapport à la technique consiste à exclure une partie de la population de toute association à l’innovation et de toute amélioration socio-technique, parce que la valeur aujourd’hui n’est plus issue de la production mais de l’innovation dans les processus de production, là où le temps de travail devient une variable de rentabilité.
Le capitalisme a muté en un système qui ne fait qu’anticiper la valeur future sur le marché boursier. On parle de capital fictif, de spéculation, d’obligations et d’actions. L’économie réelle est sous perfusion permanente de l’industrie financière. Par exemple, les grandes entreprises qui intègrent l’IA privilégient massivement l’automatisation (remplacer les personnes) à l’augmentation du travail (rendre les personnes plus productives), en visant une rentabilité à court terme. Vous allez me dire : c’est pas nouveau. Certes. Mais on estime aujourd’hui que la moitié des emplois essuieront les effets de l’intégration de l’IA en faveur d’un gain de productivité potentiel. Si bien qu’on est arrivé à ce que Marx pensait être une impossibilité : l’homme finit par se situer en dehors du processus de production. C’est paradoxal, puisque ce n’est plus compatible avec le capitalisme. Mais alors comment le ce dernier survit-il ? Par une économie monopoliste des innovations et des services où, comme le montrait T. Piketty, les revenus du capital se reproduisent plus rapidement que ce que le travail peu engendrer. Derrière les stratégies de monopoles technologiques se situe toujours la propriété de l’innovation, la propriété des techniques, et la maîtrise des cas d’usage pour assurer un autre monopole, celui sur les pratiques.
C’est ce que j’appelle l’âge de la déstabilisation. La déstabilisation de l’économie politique à laquelle nous étions habitués avant l’apparition de cette nouvelle oligarchie. Plusieurs processus sont engagés.
Naomi Klein avait déjà identifié une première forme de stratégie, la stratégie du choc, celle qui consiste à instrumentaliser les crises pour substituer le marché à la démocratie.
Une autre stratégie consiste à organiser, par une « offensive technologique », une situation d’assignation et d’assujettissement. Les écrits de Barbara Stiegler sont éclairants sur ce point. Citons en vrac : les techniques de nudging, la manipulation informationnelle, les effets normatifs du rating & scoring des médias sociaux, les politiques d’austérité qui remplacent les relations sociales par des algorithmes et de l’IA avec pour résultat le démantèlement des structures (santé et aide sociale notamment) ainsi que la désolidarisation dans la société, l’évaluation permanente par plateformes interposées dans le monde du travail, le solutionnisme technologique proposé systématiquement en remplacement de toute initiative participative et concertive, etc.
Je reprends l’expression « offensive technologique » à Detlef Hartmann qu’on ne connaît pas assez en France, en raison notamment d’une méconnaissance du mouvement autonome allemand qui a plusieurs facettes parfois difficiles à lire. En fait, encore une autre stratégie de déstabilisation peut se retrouver dans la définition de ce que D. Hartmann à nommé offensive technologique tout au début des années 1980. Il s’agit de l’accaparement des subjectivités par la logique capitaliste. Il y a quelque chose qui nous rappelle la description de l’électronicisiation du travail par Shoshana Zuboff dans In The Age Of The Smart Machine (1988), sauf que Zuboff ne se place pas du point de vue politique (et elle a tort).
Logique formelle du capital
D. Hartmann a écrit en 1981 Die Alternative: Leben als Sabotage. Dans ce livre, il montre combien le capitalisme impose de concevoir la société, les relations sociales et les comportements selon une logique formelle qui efface les subjectivités. Pour lui, le cadre principal de l’effacement de la subjectivité au travail est la taylorisation et elle s’est étendue à toute la société avec les nouvelles technologies (et au début des années 1980, il s’agit en gros des ordinateurs). Keine alternative. On a transformé les processus de travail (y compris intellectuel) de telle sorte que les travailleurs ne puissent plus le contrôler eux-mêmes. Et il en est de même dans les rapports sociaux : l’activité de l’individu est dominée par des structures formelles. Or, les sentiments, les émotions, la capacité à avoir une opinion puis en changer, le souci de soi et des autres, tout cela ne peut pas entrer dans le cadre de cette logique formelle. C’est pourquoi D. Hartmann nous parle aussi d’une « violence technologique » car la technologie échoue à transformer en logique formelle ce qui échappe par essence au contrôle formel (l’intuition, le savoir-être, le pressentiment, etc.). Dès lors, l’application d’une logique formelle aux comportements est toujours une violence car elle vise toujours à restreindre la liberté d’action, et aussi l’imagination, la prise de conscience que d’autres possibilités sont envisageables. D. Hartmann nous propose le choix : soit le sabotage, comme le luddisme, dont il évoque les limites, soit l’opposition d’un principe vital, une expression de l’individualité (ou des individualités en collectif) qui feraient éclater ce cadre formel capitaliste.
C’est à dire que le capitalisme se méfie énormément de ce qui en nous est résistant, imprévisible, intuitif et qui échappe à la détermination de la logique formelle à l’œuvre (les tactiques dont parlait Michel de Certeau ? ou peut-être ce qui fait de chacun de nous des êtres fondamentalement ingouvernables, comme anarchistes). Et ce faisant, de manière paradoxale, le capitalisme les met à jour en tant que force constructrice de la subjectivité persistante du travailleur et de l’homme tout court. Non, nous ne sommes pas entièrement prolétarisés (comme disait Bernard Stiegler), il y a de la résistance. Ce qui est perçu comme un dysfonctionnement du point de vue de la logique capitaliste est désormais perceptible dans la lutte de classe (ce n’est plus la conscience de classe, c’est la résistance de vie, comme dit D. Hartmann).
On en est donc réduit à cela : même si nous avons toujours cette capacité de résistance, elle ne se déclare plus dans un rapport de force, mais dans un rapport de soumission totale par la violence technologique : la seule chose qui nous maintient en vie, c’est encore ce qui échappe à la logique formelle. Que va-t-il arriver avec l’IA qui, justement, dépasse la logique formelle ? Wait and see.
En termes marxistes, on peut alors suivre Detlef Hartmann dans le constat, en 1981, que la numérisation de la société à fait sortir hors du seul domaine de la production la taylorisation et la formalisation du quotidien. Cette quotidienneté formalisée a restructuré le rapport de classe mais la violence technologique à l’œuvre a été occultée. La nouvelle classe moyenne et les prétentions de ce qu’Outre-Atlantique on a nommé la Nouvelle Gauche ont permis de mettre à jour les peurs liées à l’informatisation Orwellienne de l’État mais en les mettant au même niveau que d’autres revendications : environnementalisme, militantisme pour la paix, pour les droits humains, etc. Si on approfondit, la différence avec ces justes et nobles causes, c’est que les technologies de l’information ont permis aux capitalistes de casser les rapports systémiques qui stabilisaient la domination politique par des phases de négociation avec la classe ouvrière. L’apparition d’une « classe moyenne » que l’on réduit à son comportement statistique et formel, d’un côté, et les projets d’informatisation et de rationalisation de l’État et des organisations productives, de l’autre côté, ont annulé progressivement la dialectique de domination et de lutte de classe. La centralisation du capital et l’État ont accaparé les données comportementales en désintégrant (en presque totalité) les structures sociales intermédiaires et cherche à empêcher l’apparition d’une nouvelle subjectivité de classe.
Le piège socialiste
Lorsqu’on pense la technologie, et plus particulièrement en tant que libriste, on cherche à y voir son potentiel d’émancipation. Personnellement, j’ai toujours pensé que ce potentiel émancipateur ne pouvait fonctionner que dans une perspective libertaire. C’est pourquoi dans un texte en octobre 2023 je soutiens, en reprenant quelques idées de Sam Dolgoff, que :
« Le potentiel libertaire du logiciel libre a cette capacité de réarmement technologique des collectifs car nous évoluons dans une société de la communication où les outils que nous imposent les classes dominantes sont toujours autant d’outils de contrôle et de surveillance. Il a aussi cette capacité de réarmement conceptuel dans la mesure où notre seule chance de salut consiste à accroître et multiplier les communs, qu’ils soient numériques ou matériels. Or, la gestion collective de ces communs est un savoir-faire que les mouvements libristes possèdent et diffusent. Ils mettent en pratique de vieux concepts comme l’autogestion, mais savent aussi innover dans les pratiques coopératives, collaboratives et contributives. »
Encore faut-il préciser qu’il s’agit bien d’instituer des pratiques collectives ou, pour reprendre l’idée de D. Hartmann, d’affirmer des individualités collectives, un principe vital face à la formalisation de nos quotidiens. Il ne faut pas tomber dans le piège du positivisme qui a bercé l’anarchisme classique (fin 19e) : croire que l’intelligence technologique pouvait permettre, à elle seule et pourvu que les connaissances en soient diffusées (par l’éducation populaire), de se libérer des mécanismes de domination.
L’autre solution consisterait à partir du principe qu’une « technologie bienveillante » pourrait être à l’œuvre dans un projet politique plus vaste qui consisterait à renverser le pouvoir capitaliste sur la production. Cela s’apparente en fait à du solutionnisme, celui prôné par les techno-optimistes de la Silicon Valley de la première heure inspirés par une vision hippie de la technologie rédemptrice, capable d’améliorer le monde par le partage. Ces idées sont mortes de toute façon : ce n’est pas ainsi qu’a évolué le néolibéralisme, mais bien plutôt par l’exclusion, la centralisation des capitaux et l’accaparement des technologies.
C’est là qu’il faut sortir d’une idée de lutte de classe. Si D. Hartmann reste sur le même vocabulaire, c’est toutefois pour réviser la vision historique de cette dynamique. Pour lui, la technologie a changé la donne et nous ne sommes plus sur l’opposition classique du socialisme entre le travailleur et le capitaliste qui accapare les produits de la production. C’est la technologie qui est devenue un rapport social dans ce qu’elle impose comme formalisme à nos subjectivités. Il existerait donc toujours une lutte de classe, entre les propriétaires des technologies et les politiques qui les plébiscitent, d’une part, et ceux qui en sont exclus, d’autre part.
Selon ma perspective, il est nécessaire de souligner qu’une lutte de classe implique, de part et d’autre, l’existence de populations suffisamment nombreuses pour justifier une catégorisation. La lutte de classe ne peut être entendue que dans un contexte où les groupes sociaux sont suffisamment vastes et distincts pour qu’on puisse les identifier comme des classes. Toutefois, aujourd’hui, cette lutte semble se structurer différemment. Elle oppose d’un côté l’ensemble de la société, et de l’autre un nombre restreint d’individus : un mélange complexe d’oligarques et de politiciens, qui partagent un intérêt commun à imposer des logiques de rentabilité (comme nous l’avons vu, le cœur du processus n’est plus l’exploitation du travail en tant que tel, mais la concentration de la propriété de l’innovation et de sa rentabilité dans le cadre du processus de production). Cette réalité nous éloigne, d’une certaine manière, des solutions politiques traditionnelles, telles que le socialisme ou le communisme, du moins dans leur conception classique.
En effet, l’idée d’un État socialiste qui exercerait un monopole sur les moyens de production en expropriant la bourgeoisie, est une idée obsolète. Elle ne permet plus de réfléchir à l’expropriation des travailleurs de leurs subjectivités. Il ne s’agit plus tellement de moyen de production, mais de l’annihilation des subjectivités. Pour en donner un exemple, il suffit de voir à quel point le capitalisme de surveillance cherche à contrôler nos comportements et nos pensées, annihilant toute forme de créativité autonome.
Cet État socialiste, envisagé comme une solution politique, ressemble davantage à une mégamachine qui, loin de libérer, imposerait à son tour une logique formelle rigide, qu’il s’agisse d’une bureaucratie centralisée ou d’une technologie apparemment bienveillante. Même si l’on imaginait un système constitué de collectifs d’autogestion, ces derniers risqueraient de se retrouver absorbés et uniformisés par cette logique. La véritable autogestion est celle qui, au lieu de les harmoniser en les regroupant, fédère les initiatives et reflète un maximum d’alternatives possibles. Bref, qui laisse un imaginaire intact et vivant.
Or, ce que le capitalisme à l’ère des technologies de l’information accomplit depuis plusieurs décennies, c’est précisément la destruction systématique de cet imaginaire. Les capitalistes, pour leur part, défendent l’idée qu’aucune alternative n’existe à leur système. En réponse, il est impératif de répéter que, pour nous, aucune conciliation n’est envisageable entre leur monde et le nôtre. Cela implique qu’aucun compromis ne doit être accepté, qu’il s’agisse d’une mégamachine socialiste ou d’un régime oligarchique.
Bref, le problème, c’est bien le pouvoir : je ne vous fais pas l’article ici.
Déstabilisation par combinaisons
Une dernière forme de déstabilisation est cette fois non plus une stratégie, mais une submersion de combinaisons entre des technologies et des postures économiques et idéologiques. Ces combinaisons ne sont pas pensées en tant que telles mais en tant que stratégies de profit ad hoc et ont néanmoins toutes été identifiées et qualifiées par les observateurs.
Un exemple typique connu de tous est l’entreprise Uber qui a donné son nom à une série de modèles visant à ajouter une couche technologique à une économie classique de production de service, pour transformer les modèles. Cette transformation se fait toujours en défaveur de la société (travailleurs - consommateurs) selon des principes d’exploitation et des postures idéologique. D’une part, il s’agit d’organiser une plus grande flexibilité de la main d’œuvre, œuvrer pour une dérégulation du droit du travail, proposer une tarification variable basée sur l’offre et la demande. D’autre part, il s’agit de promouvoir la liberté individuelle et l’autonomie pour encourager la vision néolibérale de la responsabilité individuelle, proposer une économie dite collaborative pour maximiser la mise en commun des ressources et réduire les coûts d’exploitation, vanter les mérites de la plateformisation pour confondre l’efficacité avec la précarisation croissante des travailleurs.
Les combinaisons sont multiples et se définissent toutes selon le point de vue dans lequel on se place : idéologie, macro-économie, politique, sociologie. Voici un florilège :
- Techno-capitalisme : concentration du pouvoir économique, transformation du travail, capitalisme de surveillance.
- Techno-césarisme : érosion de la souveraineté étatique par les dirigeants des big tech, personnalisation du pouvoir par ces derniers, dépendance aux grandes plateformes.
- Tech-bros : culture de l’exclusion dans le monde des big tech (entre-soi, masculinisme, sexisme), libertarianisme numérique (exemple: cryptomonnaie et blockchain pour se passer de la médiation des institutions de l’État), transhumanisme.
- Techno-optimisme : absence de point de vue critique sur les technologies (par exemple : l’IA menace le climat mais elle seule pourra nous aider à lutter contre les effets du changement climatique), volonté de maintenir les structures telles qu’elles sont (conservatisme) car elles nous mèneraient nécessairement à la croissance.
- Solutionnisme technologique : plus besoin de démocratie car les technologies permettent déjà de prendre les bonnes décisions, remplacer les politiques publiques réputées inefficaces par l’efficacité supposée des technologies numériques.
- Capitalisme de surveillance : assujettir les organisations à la rentabilité des données numériques, influencer et contrôler les comportements, restreindre les limites de la vie privée et de l’autonomie individuelle, subvertir les subjectivités (marchandisation de l’attention).
- Économie de plateformes : médiatisation des relations par des plateformes numériques, concentration des marchés autour de quelques plateformes, précarisation du travail, privatisation d’infrastructures publiques (notamment les relations entre les citoyens et les services publics).
- Techno-féodalisme : organisation de l’asymétrie des pouvoirs par les big tech qui régissent les coûts d’entrée sur les marchés, et soumettent le pouvoir politique (et la démocratie) aux exigences de ces marchés.
- Crypto-anarchisme : annihiler les régulations (par exemple en décentralisant les finances par les crypto-monnaies afin d’empêcher des organismes de contrôles de vérifier les échanges), déresponsabilisation totale au nom de la liberté, abattre les institutions traditionnelles qu’elles soient étatiques ou sociales.
- Capitalisme cognitif : privatisation des connaissances, fatigue informationnelle.
- etc.
Tout cela fait penser au travail qu’avait effectué le sociologue Gary T. Marx qui a beaucoup œuvré dans les surveillance studies et avait écrit un article fondateur sur ce champ de recherche spécifique en dénombrant les multiples approches qui légitimaient par conséquent ce domaine de recherche (voir . G. T. Marx, « Surveillance Studies »). J’ignore si un jour on pourra de la même manière rassembler ces approches en une seule définition cohérente, une something study, mais je pense que l’analyse des rapports entre technologie et société devraient accroître bien davantage les études systématiques sur les rapports entre technologies et pouvoir afin de donner des instruments politiques de lutte et de résistance.
La propriété c’est le vol
De nombreuses publications ces dernières années analysent les technologies numériques sous l’angle du vol : vol de nos intimités, vol de la démocratie, rapt d’internet (cf. C. Doctorow). Ou bien, s’il n’est pas question de vol, on parle d’accaparement, de concentration, de privation, d’appropriation. Tout le monde s’accorde sur le fait que dans ces pratiques qu’on associe essentiellement aux big tech, il y a quelque chose d’illégitime, voire de contraire à la morale, en plus d’être déstabilisant pour la société à bien d’autres égards.
Toutefois, il est notable que s’il l’on se contente de cette approche, on n’en reste malheureusement qu’à un constat qui pourrait tout aussi bien se faire, rétrospectivement, au sujet de l’avènement historique du capitalisme (par exemple les enclosures), du capitalisme industriel et du néolibéralisme. En fait, on reproche au capitalisme et ses avatars toujours la même chose : l’accumulation primitive. Expropriation, colonisation, esclavage, féodalisme, endettement : tout cela a déjà été identifié depuis longtemps par la critique marxienne. Pour quels succès exactement ? J’entends d’ici le gros soupir du Père Karl.
Et d’après-vous, pourquoi je vous parlais de Cimon au début de ce billet ? Pas uniquement pour parler d’Elon Musk. C’est une question de domination, pas seulement de propriété et d’accumulation.
Je recommande vivement l’acquisition de l’excellent ouvrage de Catherine Malabou, intitulé Il n’y a pas eu de révolution (Rivages, 2024). Dans ce livre, l’auteure propose une lecture particulièrement pertinente de Proudhon. Elle revient notamment sur la maxime « la propriété, c’est le vol ». Il est ici inutile de mentionner la distinction entre propriété et possession, car il est désormais bien compris que la caricature de l’anarchisme fondée sur cette phrase est dénuée de sens. Parlons sérieusement. Cette citation est un point clé aujourd’hui car nous avons longtemps sous-estimé la portée de l’œuvre de Proudhon sur La propriété. Cela s’explique en partie par l’analyse de Marx, qui a proposé une lecture alternative concernant presque exclusivement la propriété des moyens de production, lecture qui a largement prédominé. D’autre part, le matérialisme historique marxiste postule que, pour qu’il y ait vol, il doit d’abord exister de la propriété. C’est l’œuf et la poule.
Sauf que… si Proudhon n’est pas toujours un exemple d’une grande clarté, il est loin d’être le brouillon que Marx a tenté de dépeindre. C. Malabou nous montre que pour Proudhon, la propriété est un acte performatif. Proudhon écrivait : « la propriété est impossible, parce que de rien elle exige quelque chose ». Il n’y a pas d’enchaînement de cause à effet : la propriété ne devrait pas être considérée comme un état, mais comme un acte violent qui s’interpose à l’usage, entre le mot et la chose. C’est là qu’une critique de la Révolution peut vraiment se faire.
En effet, la propriété comme droit naturel, c’est imaginer un monde comme celui de la fable de Cronos (cf. première section de ce billet) où tout serait en commun pour une certaine partie de la population (les dieux, d’abord, les nobles ensuite, et ceux qui, par les dieux ! le méritent bien, les aristocrates). Et ce que nous dit Proudhon, en parlant de la Révolution Française, c’est que l’abolition des privilèges qui aurait dû en théorie faire advenir cette fable pour que tout le monde puisse en profiter des fruits, n’a en réalité rien aboli du tout. Il y a toujours des pauvres et des exclus malgré l’affirmation du droit à la propriété privée et c’est même pire depuis que Napoléon a fait de la propriété un droit absolu dans le Code Civil.
Pour enfin résumer à grands traits ce que nous dit C. Malabou (lisez le livre, c’est mieux), c’est que Proudhon nous livre en fait une analyse de la raison pour laquelle la société n’est jamais sortie de son état de soumission. Sont toujours d’actualité les pratiques médiévales telles que le droit d’aubaine, la main-morte ou le droit de naufrage. Le point commun n’est pas seulement que le seigneur réclame un dû pour en dépouiller les plus pauvres, c’est que ces droits nient à la personne la possibilité même de transmettre le bien (à ses enfants ou à autrui). C’est un régime d’exclusion. Et ce régime d’exclusion, nous n’en sommes pas sortis en raison de la tendance, par le truchement de la sacralisation de la propriété, à la concentration des moyens de production, des richesses et donc des pouvoirs.
Que faire des technologies numériques ? le premier grand jeu auquel se sont livrés les tenants de l’idéologie néolibérale, c’est de chercher à maîtriser la propriété des usages, c’est-à-dire le code informatique. Ce n’est pas pour rien que ce fut un Bill Gates qui a le premier (par sa Lettre ouverte aux hobbyistes) cherché à faire valoir un titre de propriété sur des ensembles d’algorithmes permettant de faire fonctionner un paquet de câbles et de tôles. Et c’est pour cela que les licences libres et les logiciels libres sont des modèles puissants permettant d’opposer la logique des communs à celle du néolibéralisme, pour autant que cette opposition puisse enfin assumer sa logique libertaire (et pas libertarienne, attention).
L’oligarchie actuelle, visible dans les médias, démontre par l’absurde à travers des figures comme Trump et ses alliés, mais aussi de manière plus subtile dans d’autres pays, y compris en Europe, que l’objectif reste fondamentalement le même : concentrer la propriété des technologies pour mieux dominer les marchés, et donc l’ensemble de la société. C’est pourquoi l’IA est si plébiscitée par ces néolibéraux, car elle touche à tous les secteurs productifs et aux moyens de production. Ceux qui pensaient que le capital avait évolué, que le monde était devenu plus collaboratif et horizontal, n’ont en réalité fait que jouer le jeu de la domination, notamment celui de l’économie « collaborative ».
La seule voie des communs, malgré ce que peuvent en dire Dardot et Laval, consiste à s’opposer à toute forme de pouvoir, même si ce dernier semble bienveillant sur le papier. La convivialité et l’émancipation offertes par les technologies, ce que j’appelle leur potentiel libertaire, ne doivent plus jamais être perçues comme des conditions d’un marché ouvert, mais plutôt comme des conditions pour affirmer les subjectivités, individuelles et collectives, contre les pouvoirs et (donc) la propriété.
07.01.2025 à 01:00
Je suis allé faire un tour sur les GCP à la mode... et j'en suis revenu
La gestion des connaissances personnelles (personal knowledge management) est une activité issue des sciences de gestion et s’est peu à peu diffusée dans les sphères privées…
🔔 L’idée qui sous-tend cette approche des connaissances est essentiellement productiviste. Elle a donc des limites dont il faut être assez conscient pour organiser ses connaissances en définissant les objectifs recherchés et ceux qui, de toute façon, ne sont pas à l’ordre du jour. Mais à l’intérieur de ces limites, il existe toute une économie logicielle et une offre face à laquelle il est possible de perdre pied. Cela m’est arrivé, c’est pourquoi j’écris ce billet.
On peut définir les objectifs de la GCP grosso modo ainsi :
- Intégrer ses connaissances dans un ensemble cohérent afin de les exploiter de manière efficace (c’est pourquoi la connexion entre les connaissances est importante)
- Définir stratégiquement un cadre conceptuel permettant de traiter l’information
- Permettre l’acquisition de nouvelles connaissances qui enrichissent l’ensemble (ce qui suppose que le cadre doit être assez résilient pour intégrer ces nouvelles connaissances, quelle que soit leur forme).
La première information importante, c’est qu’on a tendance à réduire la plupart des logiciels en question à de simples outils de gestion de « notes », alors qu’ils permettent bien davantage que d’écrire et classer des notes. Si on regarde attentivement leurs présentations sur les sites officiel, chacun se présente avec des spécificités bien plus larges et nous incite davantage à organiser nos pensées et nos connaissances qu’à écrire des notes. Pour comparer deux outils propriétaires, là où un Google Keep est vraiment fait pour des notes simples, Microsoft Onenote contrairement à son nom, permet une vraie gestion dans le cadre d’une organisation.
Une autre information importante concerne la difficulté qu’il y a à choisir un logiciel adapté à ses usages. Surtout lorsqu’on utilise déjà un outil et qu’on a de multiples écrits à gérer. Changer ses pratiques suppose de faire de multiples tests, souvent décevants. Ainsi, un logiciel fera exactement ce que vous recherchez… à l’exception d’une fonctionnalité dont vous avez absolument besoin.
⚠️ Aucun logiciel de GCP ne fera exactement ce que vous recherchez : préparez-vous à devoir composer avec l’existant.
À la recherche du bon logiciel
Je vais devoir ici expliquer mon propre cas, une situation que j’ai déjà présentée ici. Pour résumer : j’adopte une méthode Zettelkasten, j’ai des textes courts et longs, il s’agit de travaux académiques pour l’essentiel (fiches de lecture, notes de synthèse, fiches propectives, citations… etc.). Parmi ces documents, une grande part n’a pas pour objectif d’être communiquée ou publiée. Or, comme l’un de mes outils est Zettlr, et que ce dernier se présente surtout comme un outil de production de notes et de textes structurés, je me suis naturellement posé la question de savoir si mes notes n’auraient pas un intérêt à être travaillées avec un outil différent (tout en conservant Zettlr pour des travaux poussés).
Par ailleurs :
- Le markdown doit impérativement être utilisé, non seulement en raison de sa facilité d’usage, mais aussi pour sa propension à pouvoir être exporté dans de multiples formats,
- La synchronisation des notes entre plusieurs appareils est importante : ordinateur (pour écrire vraiment), smartphone (petites notes, marque-page, liste de tâches) et tablette (écrire aussi, notamment en déplacement),
- Les solutions d’export sont fondamentales, à la fois pour permettre un archivage et pour permettre une exploitation des documents dans d’autres contextes.
Le couple Zettlr - Pandoc m’a appris une chose très importante : éditer des fichiers markdown est une chose, les éditer en vue de les exploiter en est une autre. D’où la valeur ajoutée de Pandoc et des en-têtes Yaml qui permettent d’enrichir les fichiers et, justement, les exploiter de manière systématique.
Je suis donc parti, youkaïdi youkaïda, avec l’idée de trouver un logiciel d’exploitation de notes présentant des fonctionnalités assez conviviales pour faciliter leur accès, et aussi m’ouvrir à des solutions innovantes en la matière.
Je n’ai pas été déçu
Non, je n’ai pas été déçu car il faut reconnaître que, une fois qu’on a compris l’approche de chaque logiciel, leurs promesses sont généralement bien tenues.
Je suis allé voir :
- Dans les logiciels pas libres du tout, Obsidian et Workflowy.
- Dans les open source (et encore c’est beaucoup dire) : Logseq, Anytype.
- Dans le libre : Joplin (et Zettlr que je connaissais déjà très bien).
Je ne vais pas présenter pour chacun toutes leurs fonctionnalités, ce serait trop long. Mais voici ce que j’ai trouvé.
Premier étonnement, c’est que c’est du côté open source ou privateur qu’on trouve les fonctionnalités les plus poussées de vue par graphe, et autres possibilités de requêtes customisables / automatisables, ou encore des analyse de flux (par exemple pour voir quel objet est en lien avec d’autres selon un certain contexte).
Second étonnement, concernant la gestion des mots-clé et des liens internes, points communs de tous les logiciels, il faut reconnaître que certains le font de manière plus agréable que d’autres. Ainsi on accorde beaucoup d’importance aux couleurs et aux contrastes, ce qui rend la consultation des notes assez fluide et efficace.
Bref, ça brille de mille feux. Les interfaces sont la plupart du temps bien pensées.
Anytype, le plus jeune, et qui a retenu le plus mon attention, a bénéficié pour son développement des critiques sur les limites des autres logiciels. Par exemple Obsidian qui est victime de ses trop nombreux plugins, reste finalement assez terne en matière de fonctions de base, là où Anytype propose d’emblée d’intégrer des documents, de manipuler des blocs, avec des couleurs, de créer des modèles de notes (on dit « objet » dans le vocabulaire de Anytype), des collections, etc.
Alors, qu’est-ce qui coince ?
En tant que libriste, je me suis intéressé surtout à des logiciels open source prometteurs. Exit Obsidian, et concentration sur Logseq et Anytype.
Dans les deux cas, la cohérence a un prix, pour moi bien trop cher : on reste coincé dedans ! L’avantage d’écrire en markdown, comme je l’ai dit, est de pouvoir exploiter les connaissances dans d’autres systèmes, par exemple le traitement de texte lorsqu’il s’agit de produire un résultat final. Et comme il s’agit de texte, la pérennité du format est un atout non négligeable.
Or, que font ces logiciels en matière d’export ? Du PDF peu élaboré mais dont on pourrait se passer s’il était possible d’exploiter correctement une sortie markdown… mais l’export markdown, en réalité, appauvrit le document au lieu de l’enrichir. Vous avez bien lu, oui 🙂
Exemple – Avec Anytype, j’ai voulu créer des modèles de fiches de lecture avec des champs couvrant des métadonnées comme : l’auteur, l’URL de la source, la date de publication, le lien avec d’autres fiches, les tags, etc. Tout cela avec de jolies couleurs… À l’export markdown, toutes ces données disparaissent et ne reste plus que la fiche dans un markdown approximatif. Résultat : mon fichier n’est finalement qu’un contenant et toutes les informations de connexion ou d’identification sont perdues si je l’exporte. À moins d’entrer ces informations en simple texte, ce qui rend alors inutiles les fonctions proposées. (Une difficulté absente avec Obsidian qui laisse les fichiers dans un markdown correct et ajoute des en-têtes yaml utiles, à condition d’être rigoureux).
Avec Logseq comme avec Anytype, vous pouvez avoir une superbe présentation de vos notes avec mots-clés, liens internes, rangement par collection, etc… sans que cela puisse être exploitable en dehors de ces logiciels. L’export markdown reste succinct, parfois mal fichu comme Anytype : des espaces inutiles, des sauts de lignes négligés, élimination des liens internes, plus de mots clé, et surtout aucun ajout pertinent comme ce que pourrait apporter un en-tête Yaml qui reprendrait les éléments utilisés dans le logiciel pour le classement.
Vous allez me dire : ce n’est pas le but de ces logiciels. Certes, mais dans la mesure où, pour exploiter un document, je dois me retaper la syntaxe markdown pour la corriger, autant rester avec Zettlr qui possède déjà des fonctions de recherche et une gestion des tags tout en permettant d’utiliser les en-têtes Yaml qui enrichissent les documents. Ha… c’est moins joli, d’accord, mais au moins, c’est efficace.
Et c’est aussi pourquoi Joplin reste encore un modèle du genre. On reste sur du markdown pur et dur. Là où Joplin est critiquable, c’est sur le choix de l’interface : des panneaux parfois encombrants et surtout une alternance entre d’un côté un éditeur Wysiwyg et de l’autre un éditeur markdown en double panneau, très peu pratique (alors que la version Android est plutôt bien faite).
Joplin et Zettlr n’ont pas de fioritures et n’offrent pas autant de solutions de classements que les autres logiciels… mais comme on va le voir ces « solutions » ne le sont qu’en apparence. Il y a une bonne dose de technosolutionnisme dans les logiciels de GCP les plus en vogue.
La synchronisation et le partage
Pouvoir accéder à ses notes depuis plusieurs dispositifs est, me semble-t-il, une condition de leur correcte exploitation. Sauf que… non seulement il faut un système de synchronisation qui soit aussi sécurisé, mais en plus de cela, il faut aussi se demander en qui on a confiance.
Anytype propose une synchronisation chiffrée et P2P par défaut, avec 1Go offert pour un abonnement gratuit et d’autres offres sont ou seront disponibles. Logseq propose une synchronisation pour les donateurs. Quant à Obsidian, il y a depuis longtemps plusieurs abonnements disponibles. On peut noter que tous proposent de choisir le stockage local (et gratuitement) sans synchronisation.
En fait, la question se résume surtout au chiffrement des données. Avec ces abonnements, même si Anytype propose une formule plutôt intéressante, vous restez dépendant•e d’un tiers en qui vous avez confiance… ou pas. Le principal biais dans ces opportunités, c’est que si vous pouvez stocker vos coffres de notes sur un système comme Nextcloud (à l’exception de Anytype), accéder aux fichiers via une autre application est déconseillé : indexation, relations, champs de formulaires… bricoler les fichiers par un autre moyen est source d’erreurs. Par ailleurs, sur un système Android, Anytype, Obsidian ou Logseq n’offrent pas la possibilité d’interagir avec un coffre situé dans votre espace Nextcloud.
⚠️ (màj) Dans ce fil de discussion sur Mastodon, un utilisateur a testé différents logiciels de GCP et a notamment analysé les questions de confidentialité des données. Le moins que l’on puisse dire est que Anytype remporte une palme. Je cite @loadhigh : « Le programme enregistre toutes vos actions et les envoie toutes les quelques minutes à Amplitude, une société d’analyse commerciale. Cela est mentionné dans la documentation, mais il n’y a pas de consentement ni même de mention dans le programme lui-même ou dans la politique de confidentialité. Il communique également en permanence avec quelques instances AWS EC2, probablement les nœuds IPFS qu’il utilise pour sauvegarder votre coffre-fort (crypté) de documents. (…) Le fait qu’il n’y ait pas d’option de refus, ni de demande de consentement, ni même d’avertissement est inacceptable à mes yeux. Pour une entreprise qui aime parler de confiance, il est certain qu’elle n’a aucune idée de la manière de la gagner. » Je souscris totalement à cette analyse !
De fait, la posture « local first » est en vérité la meilleure qui soit. Vous savez où sont stockés vos documents, vous en maîtrisez le stockage, et c’est ensuite seulement que vous décidez de les transporter ou de les modifier à distance.
Sur ce point Joplin a la bonne attitude. En effet, Joplin intègre non seulement une synchronisation Nextcloud, y compris dans la version pour Android, mais en plus de cela, il permet de choisir une formule de chiffrement. On peut aussi stocker sur d’autres cloud du genre Dropbox ou prendre un petit abonnement « Joplin cloud ». En somme, vous savez où vous stockez vos données et vous y accédez ensuite. Si on choisi de ne pas chiffrer (parce que votre espace Nextcloud peut être déjà chiffré), il est toujours possible d’accéder aux fichiers de Joplin et les modifier via une autre application. Joplin a même, dans l’application elle-même, une option permettant d’ouvrir une application externe de son choix pour éditer les fichiers.
Local first
Il m’a fallu du temps pour accepter ces faits. J’avais même commencé à travailler sérieusement avec Anytype… et c’est lorsque j’ai commencé à vouloir exporter que cela s’est vraiment compliqué. Sans compter la pérennité des classements : si demain Anytype, Logseq ou même Obsidian ferment leurs portes, on aura certes toujours accès à l’export markdown (quoique dans un état peu satisfaisant) mais il faudra tout recommencer.
Que faire ? je me suis mis à penser un peu plus sérieusement à mes pratiques et comme je dispose déjà d’un espace Nextcloud, j’ai choisi de le rentabiliser. La solution peut paraître simpliste, mais elle est efficace.
Elle consiste en deux dossiers principaux (on pourrait n’en choisir qu’un, mais pour séparer les activités, j’en préfère deux) :
- un dossier
Zettel
où j’agis comme d’habitude avec Zettlr (et pour les relations, comme expliqué dans la documentation) en mettant davantage l’accent sur les mots-clé et en exploitant de manière plus systématique les fonctions de recherche. - Un dossier
Notes
destiné à la prise de notes courtes, comme on peut le faire avec un téléphone portable.
En pratique :
- Les deux dossiers sont synchronisés avec Nextcloud.
- Sur Zettlr en local, j’ouvre les deux dossiers comme deux espaces de travail et je peux agir simultanément sur tous les fichiers.
- Depuis le smartphone et la tablette, j’ai accès à ces deux dossiers pour modifier et créer des fichiers via l’application Notes de Nextcloud, tout simplement, et toujours en markdown. Je fais aussi pointer l’application Nextcloud Notes précisément sur le dossier
Notes
. - Sachant que ces fichiers contiennent eux-mêmes les tags et qu’on peut ajouter d’autres données via un en-tête Yaml, je dispose des informations suffisantes pour chaque fichier et je peux aussi en ajouter, que j’utilise Zettlr ou toute autre application.
Les limites :
- Sur smartphone ou tablette je n’ai pas l’application Zettlr et ne peut donc pas exploiter ma base de connaissances comme je le ferais sur ordinateur. Mais… aucun de ces dispositifs n’est fait pour un travail long de consultation.
- Sur un autre ordinateur, je peux accéder à l’interface en ligne de Nextcloud et travailler dans ces dossiers, mais là aussi, c’est limité. Par contre je peux utiliser la fonction de recherche unifiée.
- Gérer les liens de connexion entre les fichiers (par lien internes ou tags) demande un peu plus de rigueur avec Zettlr, mais reste très efficace.
Ce qui manque aux autres, je le trouve dans zettlr
Quant à Zettlr, il me permet tout simplement de faire ce que les autres applications ne permettent pas (ou alors avec des plugins plus ou moins mal fichus) :
- utiliser une base de donnée bibliographique (et Zotero),
- réaliser des exports multiformats avec de la mise en page (et avec Pandoc intégré),
- les détails, comme une gestion correcte des notes de bas de page,
- les modèles « snippets » qui simplifient les saisies répétitives,
- l’auto-correction à la carte,
- les volets de Zettlr (table des matières, fichiers connexes, biblio, fonction recherche etc.)
Les tâches et Kanban
C’est sans doute les point les plus tendancieux.
La plupart des logiciels de GCP intègrent un système de gestion de liste de tâches. Il s’agit en fait de pousser la fonction markdown - [ ] tâche bidule
en lui ajoutant deux types d’éléments :
- l’adjonction automatique de date et de tags (à faire, en cours, réalisé, etc…)
- le classement par requêtes permettant de gérer les tâches et tenir à jour ces listes.
Le tout est complété par l’automatisation de tableaux type Kanban, très utiles dans la réalisation de projets.
C’est ce qui fait que ces logiciels de GCP se dotent de fonctions qui, selon moi, ne sont pas de la GCP mais de la gestion de projet. Si l’on regarde de près les systèmes privateurs intégrés comme chez Microsoft on constate que le jeu consiste à utiliser plusieurs logiciels qui interopèrent entre eux (et qui rendent encore plus difficile toute migration). Mais de la même manière, selon moi, un logiciel de gestion de projet ne devrait faire que cela, éventuellement couplé à une gestion de tâches.
On peut néanmoins réaliser facilement un fichier de tâches en markdown, ainsi (selon le rendu markdown du logiciel, les cases à cocher seront interactives) :
- [ ] penser à relire ce texte 🗓️15/12/2025
- [x] acheter des légumes 🗓️ aujourd'hui
- [ ] etc.
Mais qu’en est-il de la synchronisation de ces tâches sur un smartphone, par exemple ? N’est-il pas plus sage d’utiliser un logiciel dédié ? Si par contre les tâches concernent exclusivement des opérations à effectuer dans le processus de GCP, alors le markdown devrait suffire.
Sobriété
OK… C’est pas bling-bling et ni Zettlr ni Notes pour Nextcloud n’ont prétendu être la solution ultime pour la GCP. Par exemple, ma solution n’est sans doute pas appropriée dans un milieu professionnel. Dans ce dernier cas, cependant, il conviendra de s’interroger sérieusement sur la pérennité des données : si le logiciel que vous utilisez a une valeur ajoutée, il faudrait pouvoir la retrouver dans l’export et la sauvegarde. Aucun logiciel n’est assuré de durer éternellement.
Si, en revanche, vous êtes attiré•e par un logiciel simple permettant d’écrire des notes sans exigence académique, des compte-rendus de réunion, des notes de lectures et sans chercher à exploiter trop intensément les tags et autres liens internes, alors je dirais que Joplin est le logiciel libre idéal : il fonctionne parfaitement avec Nextcloud pour la synchronisation, le markdown est impeccable, l’application pour Android fonctionne très bien. Et il y a du chiffrement. Ne cherchez pas à utiliser les plugins proposés, car ils n’apportent que peu de chose. Quant à l’interface, elle souffre, je pense, d’un manque de choix assumés et gagnerait à n’utiliser que le markdown enrichi (à la manière de Zettlr) et sans double volet.
Pour ma part, après ce tour d’horizon – qui m’a néanmoins donné quelques idées pour l’élaboration de mes propres notes –, Zettlr reste encore mon application favorite… même si elle est exigeante. 😅 Pour les passionnés de Vim ou Emacs et de Org-mode… oui, je sais, ce sera difficile de faire mieux…
18.11.2024 à 01:00
Moi aussi je peux écrire un livre sur l'IA
Chez Framasoft, on se torture les méninges. Alors quand on parle d’Intelligence Artificielle, on préfère essayer de gratter un peu sous la surface pour comprendre ce qui se trame. Comme le marronnier éditorial du moment est l’IA dans tous ses états, je me suis dis que finalement, moi aussi…
C’est un petit projet, comme ça en passant. Il ne prétend par faire un tour exhaustif de ce qu’on entend exactement par « apprentissage automatique », mais au moins il m’a donné l’opportunité de réviser mes cours sur les dérivées… ha, ha !
Majpeulsia : Moi aussi je peux écrire un livre sur l’IA !
Ma manière à moi de comprendre des concepts, c’est d’en écrire des pages. J’ai pensé que cela pouvait éventuellement profiter à tout le monde. En premier lieu les copaing•nes de Framasoft mais pas que…
L’objectif consiste à développer les concepts techniques de l’apprentisage automatique et les enjeux du moment autour de cela. Pourquoi faire ? par exemple, lorsque l’Open Source Initiative a sorti a sorti sa définition d’une IA open source (voir mon billet précédent sur ce blog), il a été aussitôt question du statut des données d’entraînement. Mais… c’est quoi des données d’entraînement ? et surtout comment entraîne-t-on une IA ?
Vous allez me dire : ok, quand je conduis une voiture, je n’ai pas besoin de connaître la théorie du moteur à explosion. Oui, certes, mais connaître un peu de mécanique, c’est aussi assurer un minimum de sécurité. Alors, voilà, c’est ce minimum que je propose.
Cela se présente sous la forme d’un MKDocs à cette adresse (j’ai pas pris la peine d’un nom de domaine), et les sources sont ici. Le travail est lancé et il sera toujours en cours :)
Bonne lecture !
02.11.2024 à 01:00
Que serait une IA libre ?
Fin octobre 2024, l’OSI a publié sa définition d’une IA open source. Ce faisant, elle remet en question les concepts d’ouverture et de partage. Il devient urgent d’imaginer ce que devrait être une IA libre. Je propose ici un court texte en réaction à cette publication. Sans doute vais-je un peu trop vite, mais je pense qu’il y a une petite urgence, là.
Nous savons que la définition d’un logiciel libre implique un ouverture et un accès complet au code. Il ne peut y avoir de faux-semblant : le code doit être lisible, il doit être accessible, et tout programmeur devrait pouvoir l’utiliser, le modifier et partager cette version modifiée. C’est encore mieux si la licence libre qui accompagne le programme est dite copyleft, c’est-à-dire qu’elle oblige tout partage du code à adopter la même licence.
Dans le domaine de l’IA, cela se complique un peu. D’abord, ce qu’on appelle « une IA » est un système composé :
- le code qui permet de structurer le réseau neuronal. Par exemple un programme écrit en Python.
- les paramètres : ce sont les poids qui agissent dans le réseau et déterminent les connexions qui dessinent le modèle d’IA. On peut aussi y adjoindre les biais qui sont utilisés volontairement pour affiner le rôle les poids.
Donc pour définir la licence d’un système d’IA, il faut qu’elle porte non seulement sur le code mais aussi sur les paramètres.
Fin octobre 2024, l’Open Source Initiative (l’OSI) a donné sa définition (1.0) de ce qu’est une IA open source. Elle indique bien cette importance donnée aux paramètres. On constate de même que pour la première fois dans l’histoire du logiciel libre ou open source, une licence d’un système porte à la fois sur du code et sur les paramètres qui permettent d’obtenir une manière particulière de faire tourner ce code.
Or, nous savons aussi qu’un système d’IA n’est rien (ou beaucoup moins) sans son entraînement. L’OSI a donc naturellement pensé à ces données d’entraînement, c’est-à-dire les jeux de données d’entrées et de sortie qui ont servi à paramétrer le système. Ainsi, la définition de l’OSI nous donne une liste des « informations suffisamment détaillées » requises au sujet de ces données d’entrainement.
Dans un article intitulé « L’IA Open Source existe-t-elle vraiment ? », Tante nous explique que cette définition de l’OSI nous embarque dans un régime d’exception problématique car le niveau de détail déclaré « suffisant » risque bien de ne jamais l’être. Par exemple on de dit pas qu’un code open source serait suffisamment ouvert : il est ouvert ou il ne l’est pas. C’est non seulement une question pratique (ai-je accès au code pour pouvoir l’inspecter et le modifier ?) mais aussi de confiance : irai-je faire tourner un programme si certains éléments, même décrits, me restent cachés ? En admettant que je puisse modifier les parties ouvertes du programme, puis-je repartager un tel programme contenant une boîte noire à laquelle personne ne peut avoir accès ?
De surcroît, la définition de l’OSI nous indique :
- que pour « les données d’entraînement qui ne sont pas partageables », il suffirait de les décrire ;
- que l’objectif de ce partage, à défaut de reproduire exactement le même système, consiste à obtenir un système seulement « similaire ».
Ainsi en cherchant à définir l’ouverture des systèmes d’IA, l’OSI cherche à modifier la conception même de ce qu’est l’ouverture. L’idée n’est plus de partager un commun numérique, mais de partager une méthode pour en reproduire un équivalent. Cette concession faite aux producteurs de systèmes d’IA déclarés open source implique un net recul par rapport aux avancées des dernières années au sujet des communs numériques. Là où l’ouverture du code pouvait servir de modèle pour partager toutes sortes d’oeuvres et ainsi contribuer au partage de la connaissance et de l’art, voici qu’un commun numérique n’a plus besoin d’être partagé dans son intégralité et peut même contenir ou dépendre d’éléments non ouverts et non accessibles (pourvu qu’ils soient « décrits »).
L’ouverture se distinguerait alors du partage. On tolèrerait des éléments rivaux dans les communs numériques, là où normalement tout partage implique l’enrichissement mutuel par l’abondance qu’implique ce partage. L’OSI conçoit alors l’ouverture des systèmes d’IA comme une sorte de partage inaboutit, un mieux-que-rien laissé dans le pot commun sans réel avantage. Sans l’intégralité des données d’entraînement, non seulement le système n’est plus le même mais encore faut il trouver les ressources suffisantes ailleurs pour en obtenir une alternative de niveau équivalent.
A contrario, un système d’IA libre devrait être fondé :
- sur du code libre,
- sur des données d’entraînement libres et accessibles à tous (elles peuvent être elles-mêmes sous licence libre ou dans le domaine public),
- sur des algorithmes d’entraînement libres (bon, c’est des maths normalement), publiés et accessibles,
- et le tout, pour mieux faire, sous Copyleft.
Mais ce n’est pas tout, il faut que les données soit décrites ainsi que la manière de les utiliser (l’étiquetage, par exemple). En effet, que les données soient libres n’est pas en soi suffisant. Tout dépend de l’usage : si j’entraîne une IA sur des données libres ou publiques il faut encore les évaluer. Par exemple si elles ne contiennent que des contenus racistes le résultat sera très différent que si je l’entraine sur des contenus dont on a évalué la teneur et que cette évaluation ai dûment été renseignée. Ici se joue la confiance dans le système et plus seulement la licence !
La question n’est pas de savoir s’il est aujourd’hui possible de réunir tous ces points. La question est de savoir ce que nous voulons réellement avec les systèmes d’IA.
Par ailleurs, l’OSI nous donne une définition qui intervient a posteriori par rapport aux systèmes d’IA existants et distribués d’emblée sous le drapeau open source. Un peu comme si l’OSI prenait simplement acte d’une pratique déjà mise en place par les acteurs des grands modèles d’IA, à l’Instar d’OpenAI qui soutenait qu’il n’était pas possible d’entraîner des systèmes d’IA sans matériel copyrighté (Ars Technica, 09/01/2024). Ce à quoi Huggingface a répondu quelques mois plus tard, en novembre 2024, en proposant une large base de données sous licences permissives (open source, domaine public, libre… la liste est sur ce dépôt).
En France, le Peren (le Pôle d’Expertise de la Régulation Numérique) est intervenu juste après l’annonce de l’OSI pour proposer un classement des système d’IA selon cette définition. Et ce classement s’accomode très bien avec la conception de l’ouverture des Big AI : tout est plus ou moins ouvert, plus ou moins accessible, voilà tout. Il n’y a aucune valeur performative de la définition de l’OSI là où une approche libriste cherche au contraire à imposer les éléments de probité inhérents aux libertés d’usage, de partage et de modification.
Est-ce vraiment étonnant ? Récemment Thibaul Prevost a publié un ouvrage passionant au sujet du cadre narratif des Big AI (Les prophètes de l’IA - Pourquoi la Silicon Valley nous vend l’apocalypse). On y apprend que, selon le Corporate Europe Observatory dans un communiqué édifiant intitulé Byte by byte. How Big Tech undermined the AI Act les Big AI se sont livrés à un lobbying de choc (plus qu’intensif, il était exclusif) dans le cadre des négociations de l'AI Act en 2023, jusqu’aux plus hauts sommets des intitutions européennes pour « faire supprimer du texte les obligations de transparence, de respect du copyright des données d’entraînement et d’évaluation de l’impact environnemental de leurs produits » (chap. 4). Avec sa définition, ce que fait l’OSI, c’est approuver la stratégie de maximisation des profits des Big AI pour donner blanc seing à cette posture de fopen source (avec un f) qui valide complètement le renversement de la valeur de l’ouverture dans les communs numériques, en occultant la question des sources.
On voit aussi l’enjeu que pourrait représenter une conception altérée de l’ouverture dans plusieurs domaines. En sciences par exemple, l’utilisation d’un système d’IA devrait absolument pouvoir reposer sur des garanties bien plus sérieuses quant à l’accessibilité des sources et la reproductibilité du système. Il en va du statut de la preuve scientifique.
Plus largement dans le domaine de la création artistique, le fait que des données non partageables aient pu entraîner une IA revient à poser la question de l’originalité même de l’oeuvre, puisqu’il serait impossible de dire si la part de l’oeuvre dûe à l’IA est attribuable à l’artiste ou à quelqu’un d’autre dont le travail se trouve ainsi dérivé.
Il y a encore du travail.
13.09.2024 à 02:00
Cybersyn : limites du mythe
Vous avez sans doute remarqué le nombre de publications ces dernières années à propos du grand projet Cybersyn au Chili entre 1970 et 1973. C’est plus qu’un marronnier, c’est un mythe, et cela pose tout de même quelques questions…
Le 11 septembre est un double anniversaire pour deux événements qui ont marqué profondément l’histoire politique mondiale. Le premier en termes de répercutions désastreuses sur le monde fut le 11 septembre 2001. Celleux qui, comme moi, en ont le souvenir, savent à peu près ce qu’ils étaient en train de faire à ce moment-là, étant donné la rapidité de propagation de l’information dans notre société médiatique. Le second est plus lointain et plus circonscrit dans l’espace et le temps, bien que désastreux lui aussi. C’est le coup d’état au Chili par Pinochet et sa junte militaire, soutenue en douce par Nixon et la CIA.
Commémorer le triste anniversaire du coup d’état de Pinochet revient parfois à embellir le projet socialiste de Allende et ses compagnons. Un projet dont les bases étaient fragiles, fortement ébranlées par l’hostilité américaine (qui a attisé l’opposition politique et la sédition de l’armée) et le jeu de dupes joué par les soviétiques. Au-delà de la question géopolitique, le socialisme de Allende reposait sur un bloc, l’Unité Populaire, qui a fini par se diviser (pour des socialistes, rien d’étonnant, direz-vous) entre une voie institutionnelle et une voie radicale-révolutionnaire. La voie institutionnelle s’est dirigée vers un vaste programme de nationalisation (par ex. les banques, les industries, surtout en matières premières), la promotion de la co-gestion avec les travailleurs dans les entreprises, et une réforme agraire dont le but consistait surtout à mettre fin au manque de rendement des exploitations latifundiaires. Dans les faits, le mouvement populaire échappait quelque peu à la voie institutionnelle. Par exemple dans les campagnes, des conseils paysans virent le jour et lancèrent des plan d’occupation des exploitations en dehors de tout cadre réglementaire. Les contestations n’étaient pas seulement des reproches de l’aile révolutionnaire à l’aile plus « démocrate-chrétienne » de Allende, mais poussaient souvent trop loin l’élan populaire jusqu’à parfois faire des compromis avec l’opposition. Bref, c’est important de le rappeler, après l’arrivée de l’Union Populaire au pouvoir, le moment démocratique du Chili amorcé en 1970 était aussi un moment de divergence de points de vue. Cela aurait pu se résoudre dans les urnes, mais c’était sans compter Pinochet et les années de cauchemar qui suivirent. Car ce général était appuyé par un mouvement d’opposition très fort, lui-même radicalisé, anti-communiste et souvent violent, prenant la constitution comme faire-valoir. Pire encore, l’opposition était aussi peuplée des capitalistes chefs d’entreprise qui allèrent jusqu’à organiser un lock-out du pays pour faire baisser volontairement la production. Tout cela a largement contrecarré les plans de Allende.
Pourquoi je m’attarde avec ce (trop) bref aperçu de la situation politique du Chili entre 1970 et 1973 ? Et quel rapport avec cette date d’anniversaire ?
Vous avez sans doute remarqué le nombre de publications ces dernières années à propos du grand projet Cybersyn. Il s’agit du projet de contrôle cybernétique de l’économie planifiée chilienne initié par le gouvernement Allende, et sur les conseils du grand cybernéticien britannique Stafford Beer. Le 11 septembre dernier, cela n’a pas loupé, le marronnier était assuré cette fois par Le Grand Continent, avec l’article « Un ordinateur pour le socialisme : Allende, le 11 septembre et l’autre révolution numérique ». Entendons-nous bien, ce type de publication est toujours intéressant. Non pas qu’il soit capable d’expliquer ce qu’était le projet Cybersyn (comme nous allons le voir, les tenants et aboutissants sont assez compliqués à vulgariser) mais parce qu’il s’attache essentiellement à perpétuer un story telling, lui-même initié par Evgeny Morozov (que l’article d’hier cite abondamment) via un célèbre podcast et un petit livre fort instructif, Les Santiago Boys, dont j’invite à la lecture (Morozov 2015 ; Morozov 2024).
Pourquoi un story telling ?
Deux principales raisons à cela.
La première : une démarche de type investigation journalistique n’est pas une démarche historique. Ce que montrent en fait les nombreuses publications grand public sur le projet Cybersyn ces dernières années, c’est qu’elles constituent une réponse anachronique à la prise de conscience de notre soumission au capitalisme de surveillance. Il s’agit de faire de Cybersyn un message d’espoir : envers et contre tout, surmontant les difficultés techniques (réseaux, télécoms, ordinateurs) et l’impérialisme américain, un pays armé de ses ingénieurs a réussi à mettre en place un système général de contrôle cybernétique socialiste. C’est beau. Et c’est un peu vrai. Il suffit de se pencher sur les détails, par exemple un certain niveau du système intégrait bel et bien la possibilité de la co-gestion dans les boucles de rétroaction, et bien qu’on ai souvent accusé ce projet d’avoir une tendance au contrôle totalitaire, le fait est que non, dans ses principes, la décision collective était une partie intégrée. S’interroger aujourd’hui sur Cybersyn, c’est poser la possibilité qu’il existe une réponse au solutionnisme numérique auquel se soumettent nos décideurs politique tout en abandonnant la souveraineté technologique. Cette réponse consiste à poser que dans la mesure où la technologie numérique est inévitable dans tout système décisionnaire et de contrôle de production, il est possible de faire en sorte que les systèmes numériques puissent avoir une dimension collective dans un usage par le peuple et pour le peuple. Un usage social des technologie numériques de gouvernement est possible. Comme message d’espoir, il faut reconnaître que ce n’est déjà pas si mal.
La seconde : nous avons besoin d’une alternative au système de gouvernance « par les nombres », pour reprendre les termes d’Alain Supiot (Supiot 2015). À une culture de l’évaluation et de la mise en compétition des individus, une réponse peut être apportée, qui consiste à impliquer le collectif dans la décision en distribuant la responsabilité sans se défausser sur la technocratie bureaucratique. Or, une planification économique « au nom du peuple » fait toujours doublement peur. D’abord elle fait peur aux capitalistes ; c’est pourquoi Freidrich Hayek s’est efforcé de démontrer que la planification est irrationnelle là où le marché est seul capable d’équilibrer l’économie (Hayek 2013). Elle fait peur aussi aux anti-capitalistes et aux anarchistes, car, comme le montre James Scott dans L’Œil de l’État, cela ne fonctionne jamais, ou plus exactement cela fonctionne parce que les gens survivent à la planification par les arrangements qu’ils peuvent faire à l’insu de l’État sans quoi, le plus souvent, ils meurent de faim (Scott 2024). De fait, c’est bien ce qu’il se passait avec Cybersyn : les entreprises ou petites exploitations locales devaient remonter dans le système les éléments d’information au sujet de leur production. Or, lorsque vous ne voulez pas d’ennui et qu’un manquement à la production prévue implique pour vous un changement dans vos routines, vous bidouillez les comptes, vous vous arrangez avec la réalité. Cybersyn est un système qui, en pratique, n’offrait qu’une vision biaisée de la réalité économique dont il était censé permettre le contrôle.
En somme, dans le petit monde intellectuel numérique d’aujourd’hui, et depuis une bonne dizaine d’années, le 11 septembre est (aussi) considéré comme une date anniversaire de la fin brutale du projet Cybersyn et le moment privilégié pour s’essayer à l’imaginaire positif d’une réconciliation entre politique, économie, technologie et société. J’ai moi même déjà parlé de Cybersyn.
Du reste, il est assez frappant que le projet Cybersyn ai laissé un tel héritage aujourd’hui alors qu’on ne parle presque jamais du projet URUCIB en Urugay au milieu des années 1980 (Ganón 2022). Du point de vue des objectifs (intégrer les principes de la cybernétique à un système automatisé de contrôle économique d’un pays), il s’agissait du même projet, avec Stafford Beer cette fois conseiller du président Julio Maria Sanguinetti. Sur l’ordre des événements, c’est presque l’exact opposé de Cybersyn : après une dictature et pas avant, et sur la base d’un système d’information exécutif déjà existant y compris au niveau technique. Il faut dire que Stafford Beer a « conseillé » pas mal de monde.
Si l’on veut connaître l’histoire de Cybersyn (Synco en espagnol), le meilleur ouvrage que je puisse conseiller est celui de Eden Medina écrit en 2011, traduit en français en 2017, Le Projet Cybersyn. La cybernétique socialiste dans le Chili de Salvador Allende (Medina 2011). E. Medina a travaillé longemps sur Cybersyn (entre autre). C’est en 2006 qu’elle publie déjà un article à ce propos (Medina 2006). Je ne crois pas me tromper en affirmant qu’elle fut la première à publier une monographie sur ce sujet. Il y eu bien quelques articles, écrits notamment par les membres des Santiago Boys alors exilés, comme celui de Herman Schwember en 1977 (Schwember 1977) qui revient en détail sur le projet, ou bien Raul Espejo qui revient périodiquement sur la question en 1980, 1991, 2009, 2022… (Espejo 2022) Il y a une bibliographie dans le livre de Eden Medina, mais l’essentiel est surtout tiré de ses rencontres avec les acteurs du projet.
C’est quoi le gouvernementalisme cybernétique ?
Si je me suis attardé sur la politique de Allende en introduction, c’est pour mieux faire comprendre dans quel état d’esprit politique se situe le projet Cybersyn. Je ne vais pas en refaire l’histoire, je vous invite pour cela à lire les références ci-dessous. En revanche, j’invite à prendre un moment pour se pencher sur les aspects épistémologiques et politique de ce projet.
D’après Hermann Schwember, un physicien qui a activement participé au projet, le problème auquel faisait face le gouvernement Chilien en 1970 consistait à établir un ordre socialiste tout en changeant les mentalités mais aussi en rendant compétitive une économie socialiste planifiée qui nécessitait une science du contrôle beaucoup plus étendue que le système précédent de Frei Montalva qui avait pourtant déjà nationalisé et effectué quelques réformes importantes, mais sur un mode keynésien. Par ailleurs, la modernisation du Chili devait se poursuivre sur bien des points : donc un système de contrôle devait intégrer aussi, par apprentissage, les transformations même de l’économie, en somme être capable d’apprentissage.
À l’époque, la mode était à la cybernétique. Le britannique Stafford Beer avait publié une dizaine d’années auparavant des travaux remarquable dans le domaine des sciences de gestion. Pour lui la cybernétique comme étude des systèmes d’information et science du contrôle (comme l’avait théorisé Norbert Wiener) pouvait être appliquée dans le domaine du management des organisations et dans les processus décisionnels. De fait, toute l’histoire de l’informatique des années 1950 et 1960 tourne autour de l’application des principes de la cybernétique à la gestion par le support numérique. En missionnant S. Beer auprès de la présidence, le gouvernement Chilien ne faisait que tenter de mettre sur pied un système de gouvernement cybernétique. Hermann Schwember résume ainsi la manière dont, avec Stafford Beer, la problématique fut posée (Schwember 1977) :
Dans le cas d’un système complexe appelé industrie nationalisée, soumis à des changements très rapides (taille, conception des produits, politique des prix, etc.), inséré dans un système plus large (l’économie nationale, insérée à son tour dans l’ensemble de la vie sociopolitique nationale) et soumis à des conditions limites politiques très spécifiques, il est nécessaire de développer sa structure et son flux d’informations afin que la prise de décision, la planification et les opérations réelles répondent de manière satisfaisante à un programme de demandes externes et que le système reste viable.
La viabilité d’un système, ce n’est pas son efficacité, c’est sa capacité évoluer dans un environnement changeant. Tout résidait dans la capacité à imbriquer des sous-systèmes et imaginer des boucles de rétroaction, des réseaux de signaux faibles ou forts, indiquant l’état de santé de ce système. En d’autres termes, si on pense le monde comme un gigantesque système de traitement d’information, alors on peut imaginer des systèmes d’interaction informationnels capable de changer l’état du monde tout en s’adaptant aux externalités variables qui ne sont elles-mêmes que des informations.
On a beaucoup critiqué ces modèles cybernétiques en raison de leur tendance au réductionnisme. Le fait est que le modèle de Cybersyn (pour être plus exact, il y a plusieurs modèles dans le projet Cybersyn) est une tentative de sortir de la cuve.
Qu’est-ce que cette histoire de cuve ? Comme le disait Hilary Putnam (Putnam 2013), tout modèle économique (capitaliste ou autre), possède des lois dont les bases sont physiques (comme le besoin de manger) mais qui ne peuvent pas être déduites des lois de la physique, parce que les concordances sont accidentelles, par exemple la variété des structures sociales. H. Putnam se sert de cet exemple pour illustrer sa réfutation de l’unité de « la » science. Mais H. Putnam est aussi l’auteur d’une expérience de pensée, un cerveau dans une cuve qui recevrait toute ses expériences par impulsions électriques : dans ce cas aucun cerveau n’est capable de dire de manière cohérente qu’il est effectivement un cerveau dans une cuve, car aucune connaissance ne peut être dérivée uniquement de processus de réflexion internes. Hé bien le projet Cybersyn consiste à sortir l’économie de la cuve. Par rapport au néolibéralisme (celui du Mont Pélerin et des Chicago Boys qui viendront aider Pinochet par la suite), c’est une bonne méthode puisque ce modèle tourne littéralement en rond en considérant que seul le marché décide de l’équilibre économique tout en considérant les limites énergétiques, les structures sociales, et la pauvreté comme des externalités au marché. Le néolibéralisme est une économie dans une cuve : il ne sait pas dire de manière cohérente pourquoi il y a des inégalités et sait encore moins y remédier. En prenant le pari d’imaginer un système qui appliquerait les principes de la cybernétique à la complexité du système social chilien, toutes ses organisations et leurs changements, le projet Cybersyn proposait une planification économique non linéaire et adaptative par des boucles de rétroaction entre la complexité du réel et la décision publique.
Mais… il y a toujours un « mais ». La conception cybernétique de Stafford Beer est par définition réductionniste. Non pas un réductionnisme visant à ramener le complexe au simple mais plutôt à transposer un système dans un autre pour en simplifier la compréhension et faciliter la décision. On pourrait dire plutôt : un mécanicisme. Il fallait donc le théoriser. Stafford Beer l’a fait dès 1959, par le concept de réducteur de complexité (variety reducer). Qu’est-ce qu’un système complexe ? Cybersyn est un système complexe : il accroît une complexité dans le processus décisionnel (réseau, transmission d’information, ordinateurs, etc.) pour réduire la complexité (ou pour simplifier) le management de l’économie. On imaginera ainsi une salle des commandes dans le palais présidentiel, avec des tableaux permettant de visualiser en temps réel l’état de l’économie pour prendre des décisions et en transmettant des ordres par de simples appuis sur des boutons.
En quoi ce story telling pose problème ?
Le résultat est exactement celui décrit par James Scott (Scott 2024) : dans la mesure où le contrôle revient à un effort de standardisation et de normalisation, Cybersyn ne rend « conviviale » que la sphère de commandement d’un Léviathan algorithmique. Par voie de conséquence, même avec la dimension d’apprentissage du système pour l’adapter à la complexité sociale, il serait faux d’affirmer que les sous-systèmes soient réellement capables d’intégrer efficacement toute la complexité possible.
Comme dit l’adage : « on ne donne pas à boire à un âne qui n’a pas soif ». Cybersyn était une utopie, mais une utopie qui en dit long sur la différence entre l’élection au pouvoir et la capacité de gouvernance. La vague réformiste de Allende a trouvé assez vite ses obstacles, qu’ils soient d’origine ouvrière, de la part des chef d’entreprise de droite ou par l’ingérence de la CIA. Les grèves organisées dans le but d’affaiblir l’économie ne pouvaient par définition pas être intégrées dans les sous-systèmes de Cybersyn, en revanche elles constituaient bel et bien des signaux fort sur l’état de viabilité. La principale limite du gouvernementalisme cybernétique, c’est d’ignorer la dimension politique de la recherche du pouvoir chez l’homme. Stafford Beer ira même jusqu’à étudier la possibilité d’une cybernétique des systèmes sociaux… tout en oubliant que les finalités d’un groupe dans un système peuvent aller jusqu’à subordonner le système lui-même. Cela peut même relever d’un choix collectif (de l’ensemble du système lui-même), par servitude volontaire ou propagande populiste. Le concept de résilience des systèmes sociaux a lui aussi ses limites. Encore en d’autres termes, l’information ne peut être le seul élément sur lequel on base une décision.
Mais outre la bureaucratisation, le concept même de rétroaction d’un tel système efface assez radicalement plusieurs dimensions pourtant essentielles dans la société. Prenons la créativité et l’initiative. Qu’elles soient individuelles ou collectives, ne pas les prendre en compte revient à nier l’existence de communs préexistants au systèmes et qui lui survivront peut-être (ou pas). Les communs sont des modes de gestion collectifs créatifs et basés sur l’initiative collective. Il s’agit de gérer des ressources en dehors de la mainmise de l’État ou d’autres organisations qui les accapareraient. Mais les communs sont bien davantage, c’est un ensemble de pratiques qui elles mêmes forment un système changeant, complexe, mais en tout cas dont la gestion revient aux pratiquant et non à une entité extérieure. Un gouvernement cybernétique revient à nier cette capacité d’exploitation en pratique des collectifs, qui bien souvent est géographiquement située, locale et non nationale. Ou s’il s’agit de communs de la connaissance (ou encore numériques) un gouvernementalisme cybernétique revient à imposer un modèle de réduction de la complexité contre un autre : un modèle d’auto-organisation. C’est d’ailleurs ce qu’Henri Atlan défend à l’encontre du mécanicisme de la cybernétique dès 1972 (Atlan 1972) en proposant l’idée de complexité par le bruit ou l’émergence des propriétés d’un système. Mais sans aller encore vers un autre modèle, plus simplement, il n’y a pas un système mais plusieurs. Imaginer qu’un gouvernementalisme cybernétique soit possible, socialiste ou non, cela revient à une fascination pour une conception mécanique de la politique. L’arrivée aujourd’hui des modèles qu’on appelle « Intelligence artificielle » peut renvoyer, par leurs capacités de haute statistique, une image plus édulcorée aux reflets d’adaptabilité à la complexité des système sociaux. Ne serait-ce pas une nouvelle religion, celle qui croit que la viabilité (au sens de Stafford Beer) d’un système n’est finalement que technique ?
Enfin, pour parler de la technique, rappelons-nous les travaux d’Ivan Illich. La non-neutralité de la technique (cf. J. Ellul) provient entre autre du fait qu’elle transforme les pratiques et influence la gestion et la structure des organisations. C’est pourquoi la gestion de la production est sans doute le premier défi que doit relever un système planifié gouverné de manière algorithmique. Et là, on peut lire avec un œil assez critique la tentative de Hermann Schwember d’opposer à la thèse d’Illich l’idée d’un socialisme convivial. C’est ce qu’il fait en 1973 (Schwember 1973) peu de temps avant le coup d’état. Pour Illich, la société est face à un choix entre productivisme et convivialité (ou post-industrialisme). À partir de quand un outil ou une production sont nécessaires et à partir de quand on atteint le limites du système ? H. Schwember, comme les autres, fait partie d’un monde productiviste. C’est tout l’objet de Cybersyn, et le Chili devait bien entendu « rattraper » le reste du monde dans la course à la productivité et la rentabilité. C’est pourquoi H. Schwember conclu son article en accusant Illich de vouloir soutenir une thèse de limitation de la croissance. En somme, socialisme ou non, l’important serait de produire. On en voit le résultat aujourd’hui, à l’heure où l’on se demande si le rôle de l’ingénierie est de toujours innover davantage par la croissance et la production ou au contraire d’innover par la convivialité, justement. C’est la question des low techs, et au-delà la question de la limitation de l’énergie, du réchauffement climatique et des inégalités sociales.
Cybersyn est un projet purement productiviste, et selon moi, digne d’un très grand intérêt historique, mais bien loin de constituer la belle utopie dont on se gargarise aujourd’hui. Je préfère me concentrer sur les milliers d’assassinats de Pinochet et les tortures de son régime, autant expressions du néolibéralisme le plus violent qui, par contraste font effectivement passer le rêve du contrôle socialiste productiviste pour un petit moment d’apaisement (à défaut de paix sociale).
ATLAN, Henri, 1972. Du bruit comme principe d’auto-organisation. Communications. 1972. Vol. 18, n° 1, pp. 21‑36. URL.
ESPEJO, Raul, 2022. Cybersyn, big data, variety engineering and governance. AI & SOCIETY. 1/9/2022. Vol. 37, n° 3, pp. 1163‑1177. URL.
GANÓN, Víctor, 2022. URUCIB: a technological revolution in post-dictatorship Uruguay (1986–88). AI & SOCIETY URL.
HAYEK, Friedrich, 2013. La route de la servitude (1944). 1944. Paris : PUF.
MEDINA, Eden, 2006. Desiging Freedom, Regulating a Nation: Socialist Cybernetics in Allende’s Chile. Journal of Latin American Studies [en ligne]. 2006. Vol. 38, pp. 571‑606.
MEDINA, Eden, 2011. Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile. Boston : MIT Press.
MOROZOV, Evgeny, 2015. Big Brother. Cybersyn, une machine à gouverner le Chili. Vanity Fair France. 19/1/2015. URL.
MOROZOV, Evgeny, 2024. Les « Santiago Boys »: des ingénieurs utopistes face aux big techs et aux agences d’espionnage. Paris, France : Éditions divergences.
PUTNAM, Hilary, 2013. Le réductionnisme et la nature de la psychologie. In : AMBROISE, Bruno et CHAUVIRÉ, Christiane (éd.), Le mental et le social [en ligne]. Paris : Éditions de l’École des hautes études en sciences sociales. pp. 67‑84. Raisons pratiques. URL.
SCHWEMBER, Hermann, 1973. Convivialité et socialisme. Esprit. 7/1973. Vol. 426, pp. 39‑66.
SCHWEMBER, Hermann, 1977. Cybernetics in Government: Experience With New Tools for Management in Chile 1971-1973. In : BOSSEL, Hartmut (éd.), Concepts and Tools of Computer Based Policy Analysis. Basel : Birkhäuser - Springer Basel AG. pp. 79‑138. Interdisciplinary Systems Research.
SCOTT, James Campbell, 2024. L’œil de l’État: Moderniser, uniformiser, détruire. Paris, France : la Découverte. ISBN 978-2-348-08312-9.
SUPIOT, Alain, 2015. La gouvernance par les nombres. Cours au Collège de France (2012-2014). Paris : Fayard.
- Persos A à L
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Blogs persos du Diplo
- LePartisan.info
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Romain MIELCAREK
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Timothée PARRIQUE
- Thomas PIKETTY
- PLOUM
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- Numérique
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD