LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Christophe MASUTTI
Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft

STATIUM


▸ les 165 dernières parutions

04.05.2025 à 02:00

Docilités numériques

L’illusion du progrès numérique masque une réalité brutale : celle d’un monde où chaque geste alimente des systèmes de contrôle, de surveillance et d’exploitation. Ce n’est pas seulement l’intelligence artificielle, mais tout un modèle technologique, celui des plateformes, de la capture de l’attention, de l’extractivisme numérique, qu’il faut interroger. Ce texte n’invite ni à fuir ni à consentir : il appelle à politiser nos usages et à réarmer nos pratiques.

(Billet publié sur le Framablog le 29/04/2025)

Rhétorique du renoncement

Vers la vingt-deuxième minute de cet entretien matinal sur France Inter, le 09 avril 2025, la journaliste Léa Salamé faisait dire à F. Ruffin qu’il n’y a pas d’alternatives aux GAFAM. « Vous utilisez Google Doc, vous ? ». Tout le monde utilise les outils des GAFAM, on ne peut pas faire autrement…

En écoutant ces quelques secondes, et en repassant mentalement les quelques vingt dernières années passées à militer pour le logiciel libre avec les collègues de Framasoft, je me disais que décidément, le refrain sans cesse ânonné du there is no alternative concernant les outils numériques, n’est pas un argument défaitiste, ce n’est pas non plus un constat et encore moins une lamentation, c’est un sophisme. « Vu que tout le monde les utilise, on ne peut pas faire autrement que d’utiliser soi-même les logiciels des GAFAM » est une phrase qui a une valeur contraignante : elle situe celui ou celle qui la prononce en figure de sachant et exclut la possibilité du contre-argument du logiciel libre et des formats ouverts. Elle positionne l’interlocuteur en situation de renoncement car mentionner les logiciels libres et les formats ouverts suppose un argumentaire pseudo-technique dont le coût cognitif de l’explication l’emporte sur les bénéfices potentiels de l’argument. Face aux sophismes, on est souvent démuni. Ici, il s’agit de l'argumentum ad populum : tout le monde accepte l’affirmation parce qu’un nombre suffisamment important de la population est censé la considérer comme vraie. Et il est clair que dans le bus ou entre le café et la tartine du petit déjeuner, à l’heure de l’interview dont nous parlons ici, beaucoup de personnes ont dû se sentir légitimées et ont abordé leur journée comme ces pauvres prisonniers au fond de la caverne, dans un état de cécité intellectuelle heureuse (mais quand même un peu coupable).

20 ans (et même un peu plus) ! 20 ans que Framasoft démontre, littéralement par A+B que non seulement les alternatives aux outils des GAFAM existent, mais en plus sont utilisables, fiables, souvent conviviales. Depuis que nous avons annoncé que nous n’irions plus prendre le thé à l’Éducation Nationale, nous avons vu passer des pseudo politiques publiques qui tendent vers un semblant de lueur d’espoir : de la confiance dans l’économie numérique, des directives pour les formats ouverts, des débats parlementaires où pointe parfois la question du logiciel libre dans une vague conception de la souveraineté… auxquelles répondent, tout aussi inlassablement des contrats open bar Microsoft dans les fonctions publiques (1, 2, 3), quand il ne s’agit pas carrément du pantouflage de nos ex-élus politiques chez les GAFAM. Comme on dit de l’autre côté du Rhin : Einen Esel, der keinen Durst hat, kann man nicht zum Trinken bringen, que l’Alsacien par chez moi raccourcit ainsi : « on ne donne pas à boire à un âne qui n’a pas soif », autre version de l’historique « laisse béton ». Le salut ne viendra pas des élus. Il ne viendra pas de l’économie libérale, celle-là même qui veut nous faire croire que l’échec tient surtout de nos motivations personnelles, d’un manque de performance, d’un manque de proposition.

Violence capitaliste

Si le logiciel libre n’était pas performant, il ne serait pas présent absolument partout. Il suffit d’ouvrir de temps en temps le capot. Mais comme je l’ai écrit l’année dernière, c’est une situation tout aussi confortable que délétère que de pouvoir compter sur les communs sans y contribuer, ou au contraire d’y contribuer activement comme le font les multinationales pour s’octroyer des bénéfices privés sur le dos des communs. En quelques années, les transformations du monde numérique n’ont pas permis au grand public de s’approprier les outils numériques que de nouvelles frontières, floutées, sont apparues. L’une des raisons principales de l’adoption des logiciels libres dans le domaine de la bureautique personnelle consistait à tenter de s’émanciper de la logique hégémonique des grandes entreprises mondialisées qui imposent leurs pratiques au détriment des besoins réels pour se gaver des données personnelles. Or, l’intégration des services numériques et la puissance de calcul mobilisée, aux dépends de l’environnement naturel comme de nos libertés, ont crée une attraction telle que la question stratégique des pratiques personnelles est passée au second plan. Ce qui importe maintenant, ce n’est plus seulement de savoir ce que deviennent nos données personnelles ou si les logiciels nous émancipent, mais de savoir comment s’extraire du cauchemar de la production frénétique de contenus assistée par IA. Nous perdons pied.

Cette logique productiviste numérique est au sommet de la logique formelle du capital. Elle a une histoire dont la prise de conscience collective date des années 1980, contemporaine de celle du logiciel libre. C’est Detlef Hartmann (il y a bien d’autres auteurs) qui nous en livre l’une des formulations que je trouve assez simple à comprendre. Dans Die Alternative: Leben als Sabotage (1981), D. Hartmann procède à une critique de l’idéologie capitaliste en montrant comment celle-ci tend à subsumer l’ensemble des rapports sociaux sous une logique instrumentale, formelle, qui nie les subjectivités concrètes. C’est un processus d’aliénation généralisée : ce que le capitalisme fait au travailleur dans l’atelier taylorisé, il le reproduit à l’échelle de toute la société à travers l’expansion de technologies façonnées par les intérêts du capital. La taylorisation, qu’on peut résumer en une intensification de la séparation entre conception et exécution, devient paradigmatique d’un mode de domination : elle dépouille les individus de leur autonomie, les rendant étrangers à leur propre activité. À partir des années 1970-1980, cette logique d’aliénation se déplace du seul domaine de la production industrielle vers celui de la production symbolique et intellectuelle, via l’informatisation des tâches, toujours au service du contrôle et de la rationalisation capitalistes. Dans cette perspective, ce que Hartmann appelle la « violence technologique » s’inscrit dans le prolongement de la violence structurelle du capital : elle consiste à tenter de formater les dimensions qualitatives de l’existence humaine (l’intuition, l’émotion, l’imaginaire) selon les exigences d’un ordre rationnel formel, celui du capital abstrait. Cette normalisation est une violence parce que, au profit d’une logique d’accumulation et de contrôle, elle nie la richesse des facultés humaines, elle réduit les besoins humains à des catégories qui ne représentent pas l’ensemble des possibilités humaines1. Ce faisant, elle entrave les pratiques d’émancipation, c’est-à-dire la capacité collective à transformer consciemment le monde.

Contrôle et productivisme

La violence technologique capitaliste s’incarne à la perfection dans la broligarchie qui a contaminé notre monde numérique. Ce monde que, par excès d’universalisme autant que de positivisme, nous pensions qu’il allait réussir à connecter les peuples. Cette broligarchie joue désormais le jeu de la domination anti-démocratique. Elle foule même au pied la démocratie libérale dont pourtant nous avions compris les limites tant en termes d’inégalités que d’assujettissement des gouvernements aux intérêts économiques de quelques uns. Pour ces techbros, le combat est le même que le gouvernement chinois ou russe : le contrôle et les systèmes de contrôle ne sont pas des sujets démocratiques, il n’y a pas plus de contrat social et les choix politiques se réduisent à des choix techniques. Et il n’y a aucune raison que nous soyons exemptés dans notre start-up nation française.

Quelles sont les manifestations concrètes de ce productivisme dans nos vies ? il y a d’abord les algorithmes de contrôle qui relèvent du vieux rêve de l’automatisation généralisée dont je parlais déjà dans mon livre. Comme le montre H. Guillaud, ces systèmes décisionnels automatisés influencent les services publics, tout comme les banques ou les assurances avec une efficacité si mauvaise, entraînant des injustices, que l’erreur loin d’être corrigée devient partie intégrante du système. Le droit au recours, la nécessité démocratique du contrôle de ces systèmes, tout cela est nié parce que ces systèmes automatisés sont considérés comme des solutions, et non des problèmes. L’IA arrive alors comme le Graal tant attendu, surfant sur le boom du développement des IA génératives, les projets d'emmerdification maximale des services publics deviennent des projets d’avenir : si les caisses sont vides pour entretenir des services publics performants, utilisez l’IA pour les rendre plus productifs ! Comme l’écrit H. Guillaud  :

« Dans l’administration publique, l’IA est donc clairement un outil pour supprimer des emplois, constate le syndicat. L’État est devenu un simple prestataire de services publics qui doit produire des services plus efficaces, c’est-à-dire rentables et moins chers. Le numérique est le moteur de cette réduction de coût, ce qui explique qu’il soit devenu omniprésent dans l’administration, transformant à la fois les missions des agents et la relation de l’usager à l’administration. Il s’impose comme un « enjeu de croissance », c’est-à-dire le moyen de réaliser des gains de productivité. »

Outre la question antédiluvienne du contrôle, cela fait bien longtemps que nous avons intériorisé l’idée que nous ne sommes pas seulement des usagers, mais surtout des produits. Ce constat ne relève plus de la révélation. Comme le montre David Lyon, c’est un choix culturel, une absorption sociale. En acceptant sans sourciller l’économie des plateformes, nous avons scellé un pacte implicite avec le capitalisme de surveillance, troquant nos données personnelles contre des services dont la pertinence est souvent discutable, dans des contrats où la vie privée se monnaie à vil prix. Ce choix, pour beaucoup, s’est imposé comme une fatalité, tant l’alternative semble absente ou inaccessible : renoncer à ces services reviendrait à se marginaliser et se priver de certains bienfaits structurels.

Pire : nous avons également intégré, souvent sans résistance, le modèle économique des plateformes parasites dont la logique repose sur l’intermédiation. Ces plateformes ne produisent rien : elles captent, organisent, et exploitent la relation entre des prestataires précaires et des clients captifs. Elles génèrent du profit non pas en créant de la valeur, mais en prélevant leur dîme sur chaque interaction. Et pourtant nous continuons à alimenter ces circuits toxiques : d’un côté, une généralisation du travail sous contrainte algorithmique, mal payé, pressurisé, de l’autre, un mode de consommation séduisant qui reconduit en fait une exploitation des travailleurs qu’on croyait enterrée avec le siècle d’Émile Zola.

De l’émancipation

Dans sa conception classique, le logiciel libre se proposait d’effacer autant que faire se peut la distinction entre producteur et consommateur. Programmer n’est pas seulement une réponse à une demande industrielle, mais un moyen puissant d’expression personnelle et de possibilités créatives. Utiliser des programmes libres est tout autant créatif car cela renforce l’idée que l’utilisateur ne partage pas seulement un programme mais des savoirs, des rapports complexes avec les machines, au sein d’une communauté d’utilisateurs, dont font aussi partie les programmeurs.

L’efficacité et la durabilité de cette approche obéissent à une logique de « pratique réflexive ». La qualité d’un logiciel libre émerge d’une forme de « dogfooding », c’est-à-dire de la consommation directe du produit par son propre producteur, un processus d’amélioration continue. Cette pratique assure une dynamique auto-correctrice. Au sein de la communauté, la qualité du logiciel est d’autant plus renforcée par un feedback interne, où l’utilisateur se transforme en agent critique, capable d’identifier et de rectifier les dysfonctionnements de manière autonome. Il en résulte une production plus cohérente, car motivée par des intérêts personnels et collectifs qui orientent la création. Le code n’est pas seulement un produit technique, mais aussi un produit socialement inscrit dans une logique de désirs et de partage.

« Code is law »

Lawrence Lessig

« Privacy is power »

Carole Cadwalladr

Épuisement

C’est beau, non ? Dans ces principes, oui. Mais les barrières sont de plus en plus efficaces, soit pour élever le ticket d’entrée dans les communautés d’utilisateur-ices de logiciels libres, soit pour conserver la dynamique libriste au sein même de la production de logiciels « communautaires ».

Pour le ticket d’entrée, il suffit de se mettre à la place des utilisateurs. Là où il était encore assez facile, il y a une dizaine d’années, de promouvoir l’utilisation de logiciels libres dans la bureautique personnelle, le cadre a radicalement changé : l’essentiel de nos communications et de nos productions numériques passe aujourd’hui par des services en ligne. Cela pose la question du maintien des infrastructures techniques qui sous-tendent ces services. Il y a dix ans, Nadia Eghbal constatait que, au fil du temps, le secteur de l’open source a une tendance à l’épuisement par une attitude productiviste :

« Cette dernière génération de développeurs novices emprunte du code libre pour écrire ce dont elle a besoin, mais elle est rarement capable, en retour, d’apporter des contributions substantielles aux projets. Beaucoup sont également habitués à se considérer comme des « utilisateurs » de projets open source, davantage que comme les membres d’une communauté. »

Aujourd’hui, cette attitude s’est radicalisée avec les outils à base d’IA générative qui se sont largement gavés de code open source. Mais en plus de cela, cela a conduit les utilisateurs à s’éloigner de plus en plus des pratiques réflexives que je mentionnais plus haut, car il est devenu aujourd’hui quasi impossible de partager des connaissances tant l’usage des services s’est personnalisé : les services d’hébergement de cloud computing, l’intégration toujours plus forte des services à base d’IA dans les smartphones, l’appel toujours plus contraignant à produire et utiliser des contenus sur des plateformes, tout cela fait que les logiciels qu’on installe habituellement sur une machine deviennent superflus. Ils existent toujours mais sont rendus invisibles sur ces plateformes. Ces dernières vivent de ces communs numériques. Elles y contribuent juste ce qu’il faut, créent au besoin des fondations ou les subventionnent fortement, mais de communautés il n’y a plus, ou alors à la marge : celleux qui installent encore des distributions GNU/Linux sur des ordinateurs personnels, celleux qui veulent encore maîtriser l’envoi et la réception de leurs courriels… Dans les usages personnels (hors cadre professionnel), tout est fait pour que l’ordinateur personnel devienne superflu. Trop subversif, sans doute. Et ainsi s’envolent les rêves d’émancipation numérique.

Même les logiciels dont on pouvait penser qu’il participaient activement à une certaine convivialité d’Internet commencent à emmerdifier les utilisateurs. Par exemple : qui a convaincu la fondation Mozilla que ce dont avaient besoin des utilisateurs de Firefox c’est d’un outil de prévisualisation des liens dont le contenu est résumé par IA ? Que ce soit utile, efficace ou pas, n’est pas vraiment la question. La question est de savoir si les surcoûts énergétiques, environnementaux et cognitifs en valent la peine. Et la réponse est non. Dans un tel cas de figure, où est la communauté d’utilisateurs ? où sont les principes libristes ?

Vers une communauté critique

Il faut re-former des communautés d’utilisateurs, en particulier pour des services en ligne, mais pas uniquement. Avec son projet Frama.space, basé sur Nextcloud, Framasoft a annoncé haut et fort vouloir œuvrer pour « renforcer le pouvoir d’agir des associations ». L’idée mentionnée dans le billet qui était alors consacré portait essentiellement sur la capacité des associations et autres collectifs à faire face aux attaques contre les libertés associatives, la mise en concurrence des associations, les logiques de dépolitisation et de ringardisation. Avoir un espace de cloud partagé pour ne pas dépendre des plateformes n’est pas seulement une méthode pour échapper à l’hégémonie de quelques multinationales, c’est une méthode qui permet d’échapper justement aux logiques formelles qui nous obligent à la productivité, nous contraignent aux systèmes de contrôle, et nous empêchent d’utiliser des outils communs. Nextcloud n’est pas qu’un logiciel libre dont nous pourrions nous contenter d’encourager l’installation. C’est un logiciel dont le mode de partage que nous avons adopté, en mettant à disposition des serveurs payés par des donateurs, consiste justement à outiller une communauté d’utilisateurs. Et nous pouvons le faire dans une logique libriste et émancipatrice. Les communs qui peuvent s’y greffer sont par exemple des logiciels tels l’outil de supervision Argos Panoptès ou Intros, une application spécialement dédié à la prise en main de Frama.space. Ce que Framasoft encourage, ce n’est pas seulement des outils : cela reviendrait à verser dans une forme de solutionnisme infructueux. C’est l'« encapacitation » des utilisateurs.

Mais j’ai aussi écrit plus haut qu’il ne s’agissait pas seulement de services en ligne. Pourquoi avons-nous avancé quelques pions en produisant un logiciel qui utilise de l’IA comme Lokas ? Ce logiciel n’a rien de révolutionnaire. Il tourne avec une IA spécialisée, déjà entraînée, et il existe d’autres logiciels qui font la même chose. Qu’espérons-nous ? Constituer une communauté critique et autonome autour de la question de l’IA. Lokas n’est qu’un exemple : que souhaitons-nous en faire ? Si des modèles d’IA existent, quel avenir voulons nous avec eux ou à côté d’eux ? L’enjeu consiste à construire les conditions d’émancipation numérique face à l’envahissement des pratiques qui nous contraignent à produire des contenus sans en maîtriser la cognition.

J’ai affirmé ci-dessus la raison pour laquelle nous sommes embarqués de force dans un monde où les IA génératives connaissent un tel succès, quasiment sans aucune perspective critique : elles sont considérées comme les outils ultimes de la mise en production des subjectivités, leur dés-autonomisation. Les possibilités sont tellement alléchantes dans une perspective capitaliste que tout argument limitatif comme les questions énergétiques, climatiques, sociales, politiques, éthiques sont sacrifiées d’emblée sur l’autel de la rentabilité start-upeuse au profit de l’impérialisme fascisant des techbros les plus en vue. Ce que nous souhaitons opposer à cela, tout comme Framasoft avait opposé des outils alternatifs pour « dégoogliser Internet », c’est de voir si une alternative à l'« IA über alles » est possible. La question n’est pas de savoir si nous apporterons une réponse à la pertinence de chaque outil basé sur de l’IA générative ou spécialisée. La question que nous soulevons est de savoir quelles sont nos capacités critiques et notre degré d’autonomie stratégique et collective face à des groupes d’intérêts qui nous imposent leurs propres outils de contrôle, en particulier avec des IA.

Une émancipation numérique collective

Il y a vingt ans déjà, nous avions compris que culpabiliser les utilisateurs de Windows constituait non seulement une stratégie inefficace, mais surtout contre-productive, dans la mesure où elle nuisait directement à la promotion et à la légitimation des logiciels libres. Cette attitude moralisatrice présupposait une liberté de choix que la réalité technologique, sociale et économique ne garantit pas à tous. L’environnement numérique est souvent imposé par défaut, par des logiques industrielles, éducatives ou institutionnelles. La posture libriste ne peut être qu’une posture située, consciente des rapports de force et des contraintes concrètes qui pèsent sur les individus.

À l’heure de l’IA générative omniprésente, le rapport de force s’est accentué et l’enfermement technologique est aggravé. Les systèmes d’exploitation en deviennent eux-mêmes les vecteurs, comme le montre la prochaine version de Windows, où la mise à jour n’est plus un choix mais une obligation, dissimulant des logiques de captation des usages et des données.

Dans ce contexte, proposer des alternatives « sans » IA devient de plus en plus difficile – et pourrait s’avérer, à terme, irréaliste. Dans la mesure où l’environnement numérique est colonisé par les intérêts d’acteurs surpuissants, il ne s’agit plus de rejeter globalement l’IA, mais de re-politiser son usage : distinguer entre les instruments de domination et les instruments d’émancipation.

Il serait malhonnête de nier en bloc toute forme d’utilité aux systèmes d’IA. Automatiser certaines tâches, c’est un vieux rêve de l’informatique, bien antérieur à l’essor actuel de l’IA générative. Il arrive que des IA fassent ce qu’on attend d’elles, surtout dans des environnements et des rôles restreints. Lorsqu’on regarde l’histoire des techniques numériques dans l’entreprise dans la seconde moitié du XXe siècle, on constate autant de victoires que de défaites, sociales ou économiques. Mais les usages supposément vertueux sont devenus l’argument marketing préféré des entreprises de l’IA d’aujourd’hui : une vitrine bien propre, bien lisse, pour faire oublier les ravages sociaux, environnementaux et politiques que ces technologies engendrent ailleurs. Comme si quelques cas d’usage médical, par exemple en médecine personnalisée, pouvaient suffire à justifier l’opacité des systèmes, la dépendance aux infrastructures privées, la capture des données sensibles et l’accroissement des inégalités. Ce n’est pas parce qu’une technologie peut parfois servir qu’elle sert le bien commun2.

De même que la promotion des logiciels libres n’avait pas vocation à se cristalliser dans un antagonisme stérile entre Windows (ou Mac) et GNU Linux, la question d’une informatique émancipatrice ne peut aujourd’hui se réduire à un débat binaire « pour ou contre l’IA ». Il faut reconnaître la diversité des IA – génératives, prescriptives, symboliques, décisionnelles, etc. – et la pluralité de leurs usages. L’enjeu est de comprendre leur place dans les systèmes techniques, reflets des rapports socio-économiques, et des visions du monde. Les IA nouvelles, notamment génératives, connaîtront un cycle d’adoption : après l’euphorie initiale et les sur-promesses, viendra probablement une phase de décantation, une redescente vers un usage plus mesuré, plus intégré, moins spectaculaire. Selon moi, cette marche forcée prendra fin. Mais ce qui restera – les infrastructures, les dépendances, les cultures d’usage – dépendra largement de ce que nous aurons su construire en parallèle : des communautés numériques solidaires, résilientes, capables de reprendre la main sur leurs outils et de refuser les logiques de dépossession. Quelle résilience pouvons-nous opposer à la violence technologique que nous subissons ? Il ne s’agit pas d’imaginer un monde d’après, neutre ou apaisé, mais de préparer les conditions de notre autonomie dans un monde où la violence technologique est déjà notre quotidien.


  1. J’emprunte cette formulation à Agnès Heller, La théorie des besoins chez Marx, Paris, Les Éditions sociales, 2024, p.51. ↩︎

  2. Pour continuer avec l’exemple de la médecine, souvent employé par les thuriféraires de l’IA-partout, on voit poindre régulièrement les mêmes problèmes que soulève depuis longtemps la surveillance algorithmique. Ainsi ce récent article dans Science relate de graves biais relatifs aux groupes sociaux (femmes et personnes noires, essentiellement) dans la recherche diagnostique lorsqu’on utilise une aide à l’analyse d’imagerie assistée par IA. ↩︎

09.04.2025 à 02:00

Demain, il faudra toujours pédaler

L’acquisition d’un VTT dans le cadre d’une pratique sportive n’est pas une décision facile. Cet achat suppose une sélection soigneuse, notamment en raison de l’augmentation constante des prix au cours des dernières années, tandis que la qualité n’a pas connu de progrès significatifs. En effet, la période de forte dynamique d’innovation dans ce secteur s’étend des années 1990 aux années 2010. Cependant, ces dernières années, le marché du VTT semble stagner en matière d’innovations décisives, et aucune avancée technologique majeure n’en a vraiment redéfini les caractéristiques fondamentales. Si vous deviez acheter un VTT aujourd’hui (j’en ai fait un long billet précédemment), il faudrait le faire avec un petit recul historique pour affiner le choix sans craindre une trop rapide obsolescence.

Un vosgien à vélo

Vers la fin des années 1980, passée la vague des Mountain Bike Peugeot dont l’usage était plutôt destiné à une pratique tout chemin, arrivèrent les VTT dans une accessibilité « grand public ». Pour les fans de vélo, c’était à celui qui pouvait avoir le dernier Scott, ou le dernier Gary Fisher. Du coup, c’est ça qu’on achetait (on bossait un peu l’été pour grappiller des sous, et les parents mettaient au bout… si on avait eu les fameuses « bonnes notes à l’école »).

C’était une époque intéressante. Personne dans votre entourage proche ne connaissait vraiment quelque chose en VTT, et les recettes de l’oncle Marcel pour entretenir un biclou… n’étaient plus vraiment adaptées à une pratique sportive. Les géométries de cadre étaient toute vraiment très différentes : on savait qu’il ne fallait pas se tromper à l’achat, surtout compte-tenu du prix. Et pourtant le magasin le plus proche ne proposait pas 36 modèles.

C’est comme ça que, après une période collège ou je montais sur un superbe vélo de course équipé d’un compteur de vitesse et kilométrique (s’il vous plaît), je me suis retrouvé en été 1989 avec un VTT Gary Fisher typé « semi-descente ». Du moins c’est comme ça qu’on l’appelait. En réalité il s’agissait d’un cadre très allongé avec un cintre monstrueux couplé à une potence super longue… j’étais littéralement couché sur le vélo. Le tout avec un centre de gravité tellement bas, que j’entamais des descentes sans trop réfléchir sur le granit vosgien. Et le dérailleur… un système Shimano SIS, s’il vous plaît, le top du top à l’époque, que je graissais à outrance car j’ignorais totalement comment on entretien une transmission.

Finalement, j’ai donc roulé un peu plus de trois ans – mes années lycée – avec ce VTT tout rigide tandis que les copains crânaient avec leurs amortisseurs. Parce que oui, à peine un an après mon bel achat, arrivèrent sur le marché grand public les fourches suspendues. Fallait-il envisager un nouvel achat complet, sachant que les transmission elles aussi allaient changer ? ou changer seulement la fourche mais que choisir, sachant que certaine valaient déjà le prix d’un vélo.

Comme je n’avais pas vraiment d’argent à dépenser, j’en suis resté là. Avec une obsolescence somme toute relative. Cette joie de pouvoir aller loin dans la montagne, en autonomie, avec ou sans les copains, est une joie difficilement descriptible, et elle ne vous quitte pas malgré les années de pratique, quel que soit le matériel. Et pour ma part, il y a une certaine nostalgie du tout rigide, parce que les sensations sont très authentiques, voyez-vous…

Les années passèrent, et finalement, je n’ai pas acheté beaucoup de VTT. C’est un sport qui demande de la disponibilité et un peu d’argent. Ce n’est que ces dix dernières années que je m’y suis sérieusement remis, passées mes années de trail. Je dois dire une chose : les VTT on connu d’énormes progrès, quels que soient les composants. Cela a rendu toujours extrêmement difficile le choix de l’achat d’un VTT, qu’il s’agisse du premier ou du dixième (rare).

Il faut expliquer cependant aux non pratiquants ce risque d’obsolescence. Après tout, regarder avec envie le dernier modèle de fourche sur le VTT de son copain, est-ce de l’envie, de la jalousie ou est-ce que la différence technique est vraiment significative ? Il faut avouer que la lecture des magazines VTT et l’ambiance très masculiniste qui en émanait faisait (et fait encore) des ravages : tout est fait pour s’imaginer être le champion de la forêt et par conséquent mériter ce qui se fait de mieux en technique. La vraie différence sur les performances ? aucune. C’est ce qui fait qu’on rencontre bien souvent des amateurs sur-équipés, relativement à la grosseur de leur porte-monnaie, et que bien plus rares sont les amateurs plus éclairés, dont les choix ne sont pas forcément dernier cri, mais sont des choix logiques. Je ne voudrais pas me vanter, mais mon choix de rester en semi-rigide dans les montagnes vosgiennes me semble être non seulement logique mais aussi performant (et moins cher).

Quelque chose me dit qu’avec le ralentissement des innovations en VTT (je ne parle pas des VTTAE), il y a comme un vent de Low-tech qui commence à souffler dans ce domaine, et ce n’est peut-être pas plus mal. Pourrions-nous enfin nous contenter de pédaler et de piloter ?

Géométrie, design

La première évidence, c’est que le marché du VTT s’est d’abord concentré sur les matériaux et la géométrie. Aborder des descentes de sentiers et monter de forts dénivelés sur des terrains humides et glissants, tout cela ne pouvait clairement pas se faire en adaptant simplement l’existant. C’est depuis la fin des années 1970 que les premiers Mountain Bike Californiens arrivèrent, c’est-à-dire des vélos tout terrain modifiés : géométrie longue, renforts soudés. Ces adaptations ont notamment été réalisées par Gary Fisher, qui est parti sur une base de vélo tout terrain anciens des années 1940 (oui, les vélos ont toujours été tout-terrain, vu qu’ils sont là depuis bien avant qu’on fiche du bitume partout).

C’est Peugeot qui fut la première marque française à vendre de tels vélos sur le territoire en 1984. Avec une géométrie très inspirée du travail de Gary Fisher. Lorsque Peugeot a commencé à les commercialiser à grande échelle, ce fut vécu comme l’arrivée tant attendue d’un VTT accessible et fiable. Aujourd’hui, on pourrait plutôt les comparer à des VTC (vélo tout chemin) : guidon haut (col de cygne), jantes larges et pneus solides, et surtout triple plateau avant, 18 vitesses… C’était le top. Sauf qu’avec l’arrivée des autres acteurs historiques du marché tels Gary Fisher et Specialized pour les américains, Scott pour la Suisse, Giant pour les Taïwannais, etc. non seulement la concurrence était rude, mais le lot de nouvelles géométries, beaucoup plus sportives, associées à des prix plus abordables, finirent par imposer ces nouvelles marques dans le secteur (et elles avaient déjà bien occupé celui du vélo de route).

La course au design a poursuivi une lancée assez spectaculaire jusqu’environ 2010, où les géométries ont commencé à se stabiliser. Les grandes gammes de chaque constructeur se sont mises à être déclinées plutôt que remplacées. Soit donc 20 années de développement pour obtenir les formes des VTT que chacun a l’habitude de voir aujourd’hui.

Pour qui regarde de temps en temps les catalogues de fabricants, il y a un signe qui ne trompe pas : les géométries sont les mêmes depuis plus de 10 ans, d’ailleurs les noms des gammes ne change guère, ou alors s’ils changent, en regardant de près, c’est surtout une question de marketing. Ces géométries changent à la marge sur le créneau des VTT à assistance électrique, par la force des choses (et du poids), bien que la tendance soit aujourd’hui à une intégration de plus en plus fine des batteries et des moteurs.

Transmission

La polymultiplication, c’est une longue histoire de dérailleurs sur les vélos. Cela fait presque un siècle que les premiers dérailleurs (français !) ont vu le jour. Shimano, créé en 1921, a amené un savoir-faire (y compris en terme commercial) pour créer des groupes de transmission fiables et avec un coût modéré. Il finirent pas exercer une sorte de monopole agressif. SRAM est arrivé bien après,vers 1986-87.

Sur les VTT, qu’il s’agisse des gammes de transmission Shimano ou SRAM, les tableaux des gammes n’ont pas beaucoup changé depuis.… très longtemps. La gamme Deore XT de Shimano date de… 1982. En fait c’est la série qui équipe les VTT grand public depuis le début, sauf qu’aujourd’hui le Deore XT est le haut de gamme (avec XTR) tandis qu’on a vu Shimano décliner jusqu’au bas de gamme (Altus, Tourney) pour la fabrication de VTT premiers prix abordables. En réalité, si on roule sur un VTT pour en avoir une pratique sportive, il y a de fortes chances qu’il soit déjà équipé d’une très bonne transmission dite « haut de gamme ».

Donc en termes de transmission, il ne faut pas s’attendre ces prochaines années à quoique ce soit de révolutionnaire : on a déjà fait le tour depuis bien des années. La seule chose qui change, en gros, c’est le nombre de pignons sur la cassette arrière et les matériaux.

À ce propos, justement, il y a eu un changement récent, qui date des années 2018-2019. La plupart des bons VTT aujourd’hui sont vendus avec un mono-plateau et cassettes 12 vitesses. En fait, il aura fallu du temps pour passer du paradigme multi-plateau au mono-plateau. Je pense que c’est surtout dû au fait qu’on a toujours associé le double ou triple plateau à l’efficacité de la polymutiplication. Or, l’innovation permettant de caser un maximum de pignons sur une largeur de cassette raisonnable, couplé à des plateaux plus petits, on a finalement pu avoir un choix de braquets tout à fait polyvalents, du très grand au très petit. Le mono plateau permet aussi de maintenir la chaîne de manière plus efficace, ceci associé aux systèmes de blocage de chape de dérailleurs qui sont maintenant très courants : en théorie, on déraille beaucoup moins et la chaîne est bien moins sujette aux distorsions dues aux soubresauts dans les descentes. L’arrivée du mono-plateau marque en même temps la fin du dérailleur avant, donc moins cher à la fabrication, moins de matériel embarqué, et un entretien plus facile.

Suspensions et freins

Il s’agit sans doute des deux changements les plus spectaculaires de l’histoire du VTT.

Les fourches suspendues et leur démocratisation sont sans doute ce qui fait qu’aujourd’hui, même les vélos de ville en sont pourvus. Par contre peu de gens comprennent que l’objectif d’une suspension sur un vélo ne consiste pas à faire moins mal au dos ou aux poignets, même si cela ajoute un confort évident. Le premier objectif est de permettre à la roue de coller le plus possible au sol devant ses irrégularités : il s’agit de garantir le contrôle du vélo. Les fourches suspendues sont aujourd’hui de deux types : à ressort pneumatique (c’est l’air qui fait ressort) ou à ressort hélicoïdal. Pas beaucoup de changement sur ce point depuis 20 ans, en réalité. Par contre, l’arrivée des suspensions arrières, qui nécessitent le montage d’une bielle pour l’articulation des haubans et des bases, a profondément changé la composition des VTT, y compris dans la discipline Cross Country. C’est le VTT de descente qui a amené tout ce lot d’innovation, tant concernant les capacités de débattement des suspensions que sur les matériaux utilisés. Même si, en Cross Country, une suspension arrière n’est absolument pas nécessaire (je dirais même superflu, mais ce n’est que mon avis), une fois dans le très haut de gamme, les performances deviennent excellentes.

Les freins, eux, ont connu une transformation radicale fin des années 1990 : les freins à disques. C’est sans doute ce qui a permit de sécuriser le VTT et donc le démocratiser encore plus. Ayant commencé avec des freins V-Brake, j’aime autant vous dire que sur terrain humide, il fallait avoir parfois le cœur accroché. Les commentaires sont superflus : l’arrivée des freins à disque sur les vélos de course n’est que très récente (parce qu’on a trouvé le moyen de rendre l’ensemble assez léger pour le faire). En la matière, une innovation a permit de rendre le freinage encore plus sûr : l’arrivée des systèmes hydrauliques pour rendre le freinage encore plus puissant et réactif. Les technologies se sont améliorées depuis lors et ont rendu les systèmes toujours plus efficaces et légers, mais là aussi : pas de bouleversement depuis 30 ans (et ce serait difficile de mieux faire que les freins à disque, je suppose).

Les pneus

Quelle que soit la discipline cycliste, le choix des pneus est crucial. En VTT, les fabricants ont du s’adapter à trois types de demandes :

  1. Adapter la largeur des pneus aux types de terrains et faire en sorte que les pneus larges puissent avoir une capacité de traction accrue. Cela a nécessité un effort créatif, tant dans le choix des matériaux (composés en caoutchouc), que dans le choix des géométries (crampons directionnels, géométrie adaptée aux terrains boueux, sec, etc.)
  2. Adapter les pneus aux dimensions voulues, le passage généralisé du 27,5 pouces au 29 pouce est assez récent.
  3. Lutter contre les crevaisons : technologies Tubeless, résistance des matériaux et renforts latéraux.

On peut même ajouter à cela l’arrivée de la technologie radiale sur les pneus, ce qui améliore la capacité de roulement et l’absorption des chocs.

Que nous réserve demain ?

Il faut d’abord constater que tout à tendance aujourd’hui à se concentrer sur le VTTAE… parce que dès qu’on amène des technologies électriques ou électroniques dans un objet, il y a toujours moyen d’ajouter de la « performance ». En l’occurrence, batteries et moteurs sont toujours améliorables là où les technologies dites « musculaires » en resteront toujours aux contraintes d’adaptabilité morphologiques. Ainsi le VTTAE est en train de changer assez radicalement le marché du VTT au point de changer le produit lui-même.

Dans le domaine automobile, le passage de la manivelle au démarreur, l’arrivée des essuie-glace électriques et le GPS, les moteurs électriques ou hybrides, tous ces éléments ont transformé la voiture. En revanche il s’agit d’évolution. La pratique automobile, elle, n’a pas changé (et c’est d’ailleurs un problème à l’heure du réchauffement climatique). Le VTTAE, en revanche, ne propose pas d’évolution du VTT : il change radicalement la pratique. Il est de bon ton de ne pas juger, certes. Mais de quoi parle-t-on ? de vélomoteur. Autant en matière de mode de déplacement, mettre un moteur sur un vélo ne me semble pas être une innovation bouleversante (souvenons-nous du cyclomoteur VéloSolex !), mais en matière de pratique sportive, pardon, on ne joue plus du tout dans le même camp. Je ferai sans doute un billet plus tard sur la question du rapport entre pratique sportive et pratique du VTTAE (spoiler : je ne suis pas fan du tout). Pour l’instant, évacuons donc les VTTAE, et regardons objectivement quelles sont les perspectives futures des VTT.

Si on prend en compte les différents historiques rapides ci-dessus, on ne devrait pas s’attendre à de grand bouleversements, à moins de réinventer le vélo (la roue !).

Des tentatives ont pourtant eu lieu :

  • Moyeu à vitesses intégrées : c’est très bien pour le vélo de ville, mais pour un VTT, il faut compter jusqu’à un kilo de plus. Les dérailleurs, eux, même s’ils sont exposés à l’humidité, peuvent toujours être nettoyés. La gradation et le passage des vitesses sera toujours plus souple avec un dérailleur. En revanche, il y a quelques possibilités intéressantes pour les VTTAE.
  • transmission par courroie : c’est surtout adapté pour les vitesses intégrées et pour une utilisation citadine. Le nombre de ventes à ce jour n’est cependant pas probant.
  • dérailleur électrique à commande bluetooth : c’est pas une blague, ça existe vraiment. C’est bien : parce que le boîtier peut aussi commander les positions de rigidité des suspensions. C’est nul : parce qu’il faut des batteries chargées : batterie à plat ? c’est mort, en plein milieu de votre circuit. Le bon vieux câble reste indispensable. Là encore, c’est plutôt réservé aux VTTAE.
  • j’ai aussi vu passer une histoire de suspension magnétique, mais je n’ai pas assez d’infos là-dessus.

En fait, la plupart des innovations techniques se sont tellement concentrées sur les VTTAE que les VTT n’ont pas vraiment bougé. D’un autre côté : en ont-ils vraiment besoin aujourd’hui ? N’est-on pas arrivé à un point où il n’y a plus grand chose à changer ?

Les suspensions

Étant donné la complexité des équipements de suspension, et la nécessité de les rendre plus performants à cause des VTTAE, il faut s’attendre peut-être à quelques changements dans le futur en rétroaction sur les VTT. Je pense notamment aux pièces fragiles des VTT tout-suspendus. Pivots et roulements de cadre, par exemple, sont autant de points de fragilités des VTT qui ne peuvent qu’être améliorés.

De même, les modèles de cinématiques dans les suspensions n’ont pas dit leur dernier mot. Il s’agira de sélectionner différents types de positions adaptées au terrain tout au long de la pratique, et pour cela on voit déjà arriver sur le marché les technologies électroniques « brain » qui permettent de jouer sur la rigidité des suspensions avec des capteurs. Les fourches comme les suspensions arrières seront dans un futur proche bardées d’électronique : est-ce souhaitable ? le VTT amateur en a-t-il réellement besoin ? L’avantage que j’y vois, c’est que de très bonnes fourches aujourd’hui sans électronique passeront peut-être à des prix beaucoup plus abordables. D’autre part, la géométrie pourra peut-être se simplifier au profit d’une technologie suspensive adaptée au Cross Country. Je ne vois cependant pas de tendance claire chez les fabricants sur ce dernier point.

Du côté des fourches, l’enjeu est depuis longtemps le fameux effet de pompage. Cela se règle aujourd’hui par un entretien régulier, une compression adaptée au poids du pilote, et par les outils de blocage à la demande permettant de rigidifier plus ou moins la fourche selon le terrain. On a vu que ces dispositifs de blocage pourraient passer d’un contrôle manuel à un contrôle automatique et électronique. Cependant quelques entreprises tentent aujourd’hui de se passer carrément de ce besoin de réglage en créant des fourche dont le système de suspension est rendu selon un schéma parallélogramme. Les fourches à parallélogramme ne sont pas nouvelles dans l’histoire du VTT mais le fait que certains constructeurs outsider s’évertuent à y travailler est peut-être le signe que des nouveautés vont voir le jour d’ici peu.

Intégration et matériaux

De larges efforts ont été réalisé dans l’intégration du câblage dans les cadres. Il s’agit là de bien plus qu’une simple question esthétique : mettre les câbles à l’abri des conditions extérieures est une manière de conserver leur efficacité. Il reste encore des efforts à faire, notamment au niveau des cintres, ou dans l’intégration des câbles de frein avant dans les fourches. Aucun doute là-dessus, il faut s’attendre bientôt à voir arriver des VTT où presque plus rien ne dépassera.

Côté matériaux, on connaît déjà le carbone, mais celui-ci souffre d’un problème d’alignement dans les moyennes gammes : il est parfois encore beaucoup plus intéressant, pour le même prix (en dessous 1500 €) d’acheter un cadre aluminium de bonne facture et allégé, plutôt qu’un cadre carbone bas de gamme et trop fragile. Par ailleurs la fragilité des cadres carbone laisse encore trop à désirer, y compris dans le haut de gamme. Donc là encore, il faut s’attendre à ce que les fabricants commencent à bouger les lignes à ce niveau.

Et alors ?

Comme on vient de le voir, aucune des innovations actuellement en vue ne va changer radicalement le VTT. Nous sommes arrivés à un point où, durant une longue période d’hibernation, les seuls changements consisteront essentiellement à améliorer les caractéristiques existantes. Si on se concentre sur les VTT semi-rigides, à l’heure où j’écris ce billet, les dernières nouveautés parmi les constructeurs les plus connus se ressemblent de manière plus qu’étonnante, y compris dans le choix des fourches et des groupes de transmission et de freins.

La période Covid a laissé de graves carences, notamment en matière de gestion de stock et de pénurie de matériels. Cela a sans aucun doute joué sur le rythme de la multiplication des offres et les effets seront durables. Chercher à innover tant que les modèles ne sont pas épuisés est un non sens économique. Toujours est-il que, ces considérations à part, on constate une concentration des efforts sur les VTTAE (qui finiront un jour aussi par se ressembler) et beaucoup moins d’attention accordée aux VTT dont les améliorations en prévision ne porteront guère que sur les matériaux et quelques choix de design.

En d’autres termes, acheter un VTT aujourd’hui, dès lors qu’il correspond effectivement à votre pratique, ne devrait absolument pas être influencé par la crainte d’une obsolescence rapide. Je pense ne pas me tromper en affirmant qu’un VTT semi-rigide de bonne facture, cadre aluminium ou carbone, bien équipé et bien entretenu, pourrait durer facilement 6 ou 7 ans sans qu’une quelconque nouveauté ne vienne ternir son usage. Par ailleurs, conserver le cadre, changer la fourche si elle se casse, changer régulièrement la transmission et différentes pièces devraient même devenir des arguments de rentabilité là où on hésitait auparavant à changer tout le vélo. C’est sans doute ces raisons qui poussent certains pratiquants à revenir sur des modèles minimalistes, y compris en Enduro. Pour ma part, même nostalgique, je ne reviendrai certainement pas au tout rigide, je tiens trop à mon pilotage. Cela étant dit, il ne reste donc plus qu’à pédaler.

09.02.2025 à 01:00

L'ère de la déstabilisation

La récente élection de Donald Trump fut en même temps l’occasion d’affichage au grand jour de l’oligarchie techno-capitaliste qui l’accompagne. Nous constatons en même temps à quel point, avec l’aide active des politiciens, ces gens se radicalisent et basculent dans une idéologie libertarienne qui fait beaucoup plus que de créer une concentration des richesses. Elle assume complètement sa puissance destructrice.

Dans ce billet, je voudrais vous entretenir d’une idée, ou plutôt d’une lecture des évènements qui cherche à dépasser la seule analyse des transformations du capitalisme. Ce texte reflète mes lectures du moment, c’est un essai, une tentative un peu anachronique qui commence par l’Antiquité, fait un bond dans le temps pour parler de techno-capitalisme aujourd’hui et revient sur Proudhon.

Table des matières


Cimon

Les régimes politiques ont tous leurs bienfaiteurs. Et cela depuis au moins l’Antiquité. Ce fut le cas de Cimon (510-450) à Athènes. Courageux stratège (plusieurs fois élu !)  victorieux, il illustra sa vie d’actes de bravoure, qui, entre conquêtes et chasse aux pirates, lui permirent d’amasser une fortune colossale au point de subir l’ostracisme. On retient de la vie de Cimon, rapportée notamment par Plutarque, une certaine ambivalence où l’enrichissement personnel et sans limite égale la générosité reconnue du personnage, qui alla jusqu’à transformer sa maison en une sorte d’auberge hippie avant l’heure, et sa propension à la magnanimité financière. En tant qu’homme d’État et de parti, sa défense de l’aristocratie contre la démocratie s’incarnait en lui comme la démonstration que peu d’hommes, pourvus qu’ils soient bien nés et entreprenants, sont aptes à diriger un pays.

À son propos, Plutarque écrit (Vies (parallèles), tome VII, trad. Facelière et Chambry, 1972) :

« Mais Cimon, en transformant sa maison en prytanée commun aux citoyens, et en laissant les étrangers goûter et prendre dans ses domaines les prémices des fruits mûrs et tout ce que les saisons apportent de bon avec elles, ramena en quelque sorte dans la vie humaine  la communauté des biens que la fable situe au temps de Cronos. Ceux qui prétendaient malignement que c’était là flatter la foule et agir en démagogue étaient réfutés par la nature de sa politique, qui était aristocratique et laconisante. Il était, en effet, avec Aristide, l’adversaire de Thémistocle, qui exaltait à l’excès la démocratie. Et plus tard il combattit Éphialtes, qui, pour plaire à la multitude, voulait abolir le Conseil de l’Aréopage. Il avait beau voir tous les autres, sauf Aristide et Éphialtes, se gorger de ce qu’ils prenaient au trésor public, il se montra jusqu’à la fin incorruptible… »

Plutarque n’était pas un démocrate acharné, on le sait bien. Ses récits de vies servent un projet plus culturel qu’historique. Ce faisant il pose une question pertinente : comment en effet corrompre un homme immensément riche comme Cimon ? l’aristocratie n’est-elle pas le meilleur atout d’Athènes ? En tant que stratège, Cimon avait des armées à disposition pour servir le développement et les intérêts d’Athènes aussi bien que pour s’enrichir lui-même. Et que pouvaient réellement lui coûter quelques largesses débonnaires, sinon un peu de temps pour s’assurer que les athéniens ne versent pas trop dans la démocratie et remettent en question les décisions de l’Aréopage le concernant pour le titre de stratège ? Quant à l’auberge espagnole de son domaine, on peut sans trop se tromper deviner qu’il s’agissait plutôt d’une réminiscence de l’âge d’or (l’abondance du temps de Chronos, dit-on) où les hommes n’avaient pas besoin de travailler pour vivre… soit un banquet permanent ouvert à une certaine élite aristocratique, y compris non athénienne. Dans cet entre-soi bien organisé, se jouaient des accords, en particulier avec Sparte, la célèbre cité laconienne et pour laquelle Cimon, pourtant partisan du développement d’Athènes, revendiquait de bonnes relations diplomatiques.

J’extrapole un peu. On ne connaît Cimon que par écrits interposés à plusieurs centaines d’années de distance. Mais le personnage vaut notre attention aujourd’hui. Les riches bienfaiteurs au service de l’impérialisme de leur pays se nomment oligarques. Cimon vient de la noblesse, certes, mais par ses actions (héroïques) et ses largesses, sa popularité (et sa chute) c’est comme oligarque qu’il se présente. De notre point de vue contemporain, même si le statut social de Cimon est bien différent, nous n’avons jamais vraiment cessé de croire en des hommes (ce sont souvent des hommes) providentiels dont le leadership, les visions et le pouvoir que leur conférait la richesse, promettaient l’essor et le développement de toute la société.

Pourtant les Athéniens de l’époque de Cimon ont fini par laisser de côté son conservatisme pour se tourner vers des réformes « démocratiques » et surtout davantage de répit (la guerre permanente, cela n’épuise pas seulement les corps, mais aussi les esprits). Nous avons néanmoins appris qu’il n’y a pas d’oligarchie sans conservatisme ni populisme. Car ce sont sur ces ressorts politiques que l’auto-proclamation des oligarques cherche toujours sa légitimité. Il n’y a pas d’oligarchie sans un pouvoir politique qui leur délègue ses prérogatives. Lorsque les alliés d’Athènes commencèrent à se désengager des guerres, c’est Cimon qu’on envoie les mettre au pas. Pour lutter contre la piraterie en mer Égée, c’est Cimon qu’on envoie. Lorsque Sparte fait face à une révolte des hoplites, c’est encore Cimon qu’on envoie en médiateur.

Pour justifier ce pouvoir oligarchique, il faut l’appuyer sur quelque chose de tangible que le corps des citoyens est prêt à accepter, jusqu’à un certain point. Dans le cas de Cimon, c’est sa position aristocratique, mais en tant que telle, elle ne suffisait pas à cause des tensions politiques à l’intérieur d’Athènes, et c’est bien pourquoi Cimon faisait preuve d’autant de largesses. Bien naïf qui irait croire qu’un tel homme, aussi glorieux soit-il, aurait distribué ses richesses sans arrière-pensée. Ainsi, nombre de citoyens d’Athènes voyaient en lui un homme providentiel, et partageaient avec lui les mêmes valeurs conservatrices, à la mesure de leurs propres intérêts individuels. Comme l’écrit l’helléniste D. Bonnano à propos de Cimon (et des Philaïdes en général), « le patronage privé créait un système de réciprocité qui plaçait le bénéficiaire – en ce cas, la communauté civique athénienne – en situation de dette et apportait à son auteur prestige et privilèges ».  En retour, un point d’équilibre s’établit entre le pouvoir politique et l’oligarchie : plus on a besoin d’oligarques, plus le conservatisme se justifie de lui-même par l’octroi des privilèges, excluant toute forme de contre-pouvoir. Ainsi, c’est en partie par ruse que Éphialtès a dû faire voter ses réformes, profitant de l’absence de Cimon, envoyé à Sparte, et de l’affaiblissement de ses amis de l’Aréopage (les citoyens les plus riches), pour en distribuer les pouvoirs à l’Assemblée et aux organes judiciaires.

La déstabilisation

Pourquoi parler de Cimon aujourd’hui ? Posons la question sans plus tergiverser : peut-on comparer Cimon et Elon Musk sous la présidence de Donald Trump ? La réponse est non. D’abord parce que la comparaison entre deux personnalités à 2500 ans d’intervalle pose des questions méthodologiques que je n’ai pas envie d’essayer de résoudre. Ensuite parce que faire appel à l’Antiquité à chaque fois qu’un problème contemporain se pose, c’est un peu trop facile. À ce compte-là, toutes les connaissances remontent à Aristote, et tout est donc déjà dit.

Ce qu’on peut retenir, par contre, ce sont les principes : pas d’oligarchie sans conservatisme, pas de conservatisme sans populisme. Qu’est-ce que le populisme ? C’est l’antipluralisme, c’est ne voir le peuple que comme quelque chose d’indifférencié. Soudoyer, faire miroiter, raconter des salades, en politique, c’est considérer que la congruence idéologique entre les masses électoralistes et les candidats se mesure à l’aune des positions respectives lorsque celle des candidats change en fonction des discours que les masses sont supposées attendre. Celles-ci ont intériorisé (ou plutôt sont supposées avoir intériorisé) une certaine lecture de l’idéologie néolibérale qui leur fait accepter qu’une petite élite de privilégiés pourra leur garantir un avenir meilleur. En retour, toute différenciation politique, tout avis nuancé, toute contradiction et toute forme de contre-pouvoir, c’est-à-dire toute forme de dialogue démocratique, est considérée comme contraire à l’intérêt général. C’est pourquoi le conservatisme, qui vise à garantir à l’oligarchie sa légitimité, se dote d’une posture autoritaire.

La différence entre Cimon et Elon Musk, c’est que ce dernier n’a pas besoin d’essayer de soudoyer le peuple par des largesses d’ordre monétaire, à part subventionner la campagne politique de Trump. Il n’est pas élu, il est plébiscité et nommé. Il lui suffit de promettre. Sa grande richesse justifie d’elle-même sa position élitiste : il a « réussi » dans l’économie néolibérale, il est « puissant », ses propriétés pèsent lourd dans l’économie. À l’heure des technologies numériques, la stratégie de communication est devenue assez simple, en somme : bombarder les réseaux sociaux de discours réactionnaires, viser juste ce qu’il faut pour gagner les masses, submerger les médias par des discours plus abscons les uns que les autres pour brouiller les formes de contre-pouvoir qui pourraient s’exprimer.

Mais dans quel but, alors ? L’exemple des États-Unis est frappant aujourd’hui, mais il se retrouve dans bien d’autres pays. La différence entre les gens comme Peter Thiel et Elon Musk et les anciennes oligarchies industrielles (Carnegie, Rockefeller), c’est que les plus anciens voulaient changer la société par une idéologie du progrès technique dans la production de biens (de consommation, notamment) pour pouvoir faire plus de profit, là où les oligarques des big tech cherchent à changer désormais notre manière de penser notre rapport à la technologie. Un rapport de dépendance à leurs technologies, une dette.

Ce changement du rapport à la technique consiste à exclure une partie de la population de toute association à l’innovation et de toute amélioration socio-technique, parce que la valeur aujourd’hui n’est plus issue de la production mais de l’innovation dans les processus de production, là où le temps de travail devient une variable de rentabilité.

Le capitalisme a muté en un système qui ne fait qu’anticiper la valeur future sur le marché boursier. On parle de capital fictif, de spéculation, d’obligations et d’actions. L’économie réelle est sous perfusion permanente de l’industrie financière. Par exemple, les grandes entreprises qui intègrent l’IA privilégient massivement l’automatisation (remplacer les personnes) à l’augmentation du travail (rendre les personnes plus productives), en visant une rentabilité à court terme. Vous allez me dire : c’est pas nouveau. Certes. Mais on estime aujourd’hui que la moitié des emplois essuieront les effets de l’intégration de l’IA en faveur d’un gain de productivité potentiel. Si bien qu’on est arrivé à ce que Marx pensait être une impossibilité : l’homme finit par se situer en dehors du processus de production. C’est paradoxal, puisque ce n’est plus compatible avec le capitalisme. Mais alors comment le ce dernier survit-il ? Par une économie monopoliste des innovations et des services où, comme le montrait T. Piketty, les revenus du capital se reproduisent plus rapidement que ce que le travail peu engendrer. Derrière les stratégies de monopoles technologiques se situe toujours la propriété de l’innovation, la propriété des techniques, et la maîtrise des cas d’usage pour assurer un autre monopole, celui sur les pratiques.

C’est ce que j’appelle l’âge de la déstabilisation. La déstabilisation de l’économie politique à laquelle nous étions habitués avant l’apparition de cette nouvelle oligarchie. Plusieurs processus sont engagés.

Naomi Klein avait déjà identifié une première forme de stratégie, la stratégie du choc, celle qui consiste à instrumentaliser les crises pour substituer le marché à la démocratie.

Une autre stratégie consiste à organiser, par une « offensive technologique », une situation d’assignation et d’assujettissement. Les écrits de Barbara Stiegler sont éclairants sur ce point. Citons en vrac : les techniques de nudging, la manipulation informationnelle, les effets normatifs du rating & scoring des médias sociaux, les politiques d’austérité qui remplacent les relations sociales par des algorithmes et de l’IA avec pour résultat le démantèlement des structures (santé et aide sociale notamment) ainsi que la désolidarisation dans la société, l’évaluation permanente par plateformes interposées dans le monde du travail, le solutionnisme technologique proposé systématiquement en remplacement de toute initiative participative et concertive, etc.

Je reprends l’expression « offensive technologique » à Detlef Hartmann qu’on ne connaît pas assez en France, en raison notamment d’une méconnaissance du mouvement autonome allemand qui a plusieurs facettes parfois difficiles à lire. En fait, encore une autre stratégie de déstabilisation peut se retrouver dans la définition de ce que D. Hartmann à nommé offensive technologique tout au début des années 1980. Il s’agit de l’accaparement des subjectivités par la logique capitaliste. Il y a quelque chose qui nous rappelle la description de l’électronicisiation du travail par Shoshana Zuboff dans In The Age Of The Smart Machine (1988), sauf que Zuboff ne se place pas du point de vue politique (et elle a tort).

Logique formelle du capital

D. Hartmann a écrit en 1981 Die Alternative: Leben als Sabotage. Dans ce livre, il montre combien le capitalisme impose de concevoir la société, les relations sociales et les comportements selon une logique formelle qui efface les subjectivités. Pour lui, le cadre principal de l’effacement de la subjectivité au travail est la taylorisation et elle s’est étendue à toute la société avec les nouvelles technologies (et au début des années 1980, il s’agit en gros des ordinateurs). Keine alternative. On a transformé les processus de travail (y compris intellectuel) de telle sorte que les travailleurs ne puissent plus le contrôler eux-mêmes. Et il en est de même dans les rapports sociaux : l’activité de l’individu est dominée par des structures formelles. Or, les sentiments, les émotions, la capacité à avoir une opinion puis en changer, le souci de soi et des autres, tout cela ne peut pas entrer dans le cadre de cette logique formelle. C’est pourquoi D. Hartmann nous parle aussi d’une « violence technologique » car la technologie échoue à transformer en logique formelle ce qui échappe par essence au contrôle formel (l’intuition, le savoir-être, le pressentiment, etc.). Dès lors, l’application d’une logique formelle aux comportements est toujours une violence car elle vise toujours à restreindre la liberté d’action, et aussi l’imagination, la prise de conscience que d’autres possibilités sont envisageables. D. Hartmann nous propose le choix : soit le sabotage, comme le luddisme, dont il évoque les limites, soit l’opposition d’un principe vital, une expression de l’individualité (ou des individualités en collectif) qui feraient éclater ce cadre formel capitaliste.

C’est à dire que le capitalisme se méfie énormément de ce qui en nous est résistant, imprévisible, intuitif et qui échappe à la détermination de la logique formelle à l’œuvre (les tactiques dont parlait Michel de Certeau ? ou peut-être ce qui fait de chacun de nous des êtres fondamentalement ingouvernables, comme anarchistes). Et ce faisant, de manière paradoxale, le capitalisme les met à jour en tant que force constructrice de la subjectivité persistante du travailleur et de l’homme tout court. Non, nous ne sommes pas entièrement prolétarisés (comme disait Bernard Stiegler), il y a de la résistance. Ce qui est perçu comme un dysfonctionnement du point de vue de la logique capitaliste est désormais perceptible dans la lutte de classe (ce n’est plus la conscience de classe, c’est la résistance de vie, comme dit D. Hartmann).

On en est donc réduit à cela : même si nous avons toujours cette capacité de résistance, elle ne se déclare plus dans un rapport de force, mais dans un rapport de soumission totale par la violence technologique : la seule chose qui nous maintient en vie, c’est encore ce qui échappe à la logique formelle. Que va-t-il arriver avec l’IA qui, justement, dépasse la logique formelle ? Wait and see.

En termes marxistes, on peut alors suivre Detlef Hartmann dans le constat, en 1981, que la numérisation de la société à fait sortir hors du seul domaine de la production la taylorisation et la formalisation du quotidien. Cette quotidienneté formalisée a restructuré le rapport de classe mais la violence technologique à l’œuvre a été occultée. La nouvelle classe moyenne et les prétentions de ce qu’Outre-Atlantique on a nommé la Nouvelle Gauche ont permis de mettre à jour les peurs liées à l’informatisation Orwellienne de l’État mais en les mettant au même niveau que d’autres revendications : environnementalisme, militantisme pour la paix, pour les droits humains, etc. Si on approfondit, la différence avec ces justes et nobles causes, c’est que les technologies de l’information ont permis aux capitalistes de casser les rapports systémiques qui stabilisaient la domination politique par des phases de négociation avec la classe ouvrière. L’apparition d’une « classe moyenne » que l’on réduit à son comportement statistique et formel, d’un côté, et les projets d’informatisation et de rationalisation de l’État et des organisations productives, de l’autre côté, ont annulé progressivement la dialectique de domination et de lutte de classe. La centralisation du capital et l’État ont accaparé les données comportementales en désintégrant (en presque totalité) les structures sociales intermédiaires et cherche à empêcher l’apparition d’une nouvelle subjectivité de classe.

Le piège socialiste

Lorsqu’on pense la technologie, et plus particulièrement en tant que libriste, on cherche à y voir son potentiel d’émancipation. Personnellement, j’ai toujours pensé que ce potentiel émancipateur ne pouvait fonctionner que dans une perspective libertaire. C’est pourquoi dans un texte en octobre 2023 je soutiens, en reprenant quelques idées de Sam Dolgoff, que :

« Le potentiel libertaire du logiciel libre a cette capacité de réarmement technologique des collectifs car nous évoluons dans une société de la communication où les outils que nous imposent les classes dominantes sont toujours autant d’outils de contrôle et de surveillance. Il a aussi cette capacité de réarmement conceptuel dans la mesure où notre seule chance de salut consiste à accroître et multiplier les communs, qu’ils soient numériques ou matériels. Or, la gestion collective de ces communs est un savoir-faire que les mouvements libristes possèdent et diffusent. Ils mettent en pratique de vieux concepts comme l’autogestion, mais savent aussi innover dans les pratiques coopératives, collaboratives et contributives. »

Encore faut-il préciser qu’il s’agit bien d’instituer des pratiques collectives ou, pour reprendre l’idée de D. Hartmann, d’affirmer des individualités collectives, un principe vital face à la formalisation de nos quotidiens. Il ne faut pas tomber dans le piège du positivisme qui a bercé l’anarchisme classique (fin 19e) : croire que l’intelligence technologique pouvait permettre, à elle seule et pourvu que les connaissances en soient diffusées (par l’éducation populaire), de se libérer des mécanismes de domination.

L’autre solution consisterait à partir du principe qu’une « technologie bienveillante » pourrait être à l’œuvre dans un projet politique plus vaste qui consisterait à renverser le pouvoir capitaliste sur la production. Cela s’apparente en fait à du solutionnisme, celui prôné par les techno-optimistes de la Silicon Valley de la première heure inspirés par une vision hippie de la technologie rédemptrice, capable d’améliorer le monde par le partage. Ces idées sont mortes de toute façon : ce n’est pas ainsi qu’a évolué le néolibéralisme, mais bien plutôt par l’exclusion, la centralisation des capitaux et l’accaparement des technologies.

C’est là qu’il faut sortir d’une idée de lutte de classe. Si D. Hartmann reste sur le même vocabulaire, c’est toutefois pour réviser la vision historique de cette dynamique. Pour lui, la technologie a changé la donne et nous ne sommes plus sur l’opposition classique du socialisme entre le travailleur et le capitaliste qui accapare les produits de la production. C’est la technologie qui est devenue un rapport social dans ce qu’elle impose comme formalisme à nos subjectivités. Il existerait donc toujours une lutte de classe, entre les propriétaires des technologies et les politiques qui les plébiscitent, d’une part, et ceux qui en sont exclus, d’autre part.

Selon ma perspective, il est nécessaire de souligner qu’une lutte de classe implique, de part et d’autre, l’existence de populations suffisamment nombreuses pour justifier une catégorisation. La lutte de classe ne peut être entendue que dans un contexte où les groupes sociaux sont suffisamment vastes et distincts pour qu’on puisse les identifier comme des classes. Toutefois, aujourd’hui, cette lutte semble se structurer différemment. Elle oppose d’un côté l’ensemble de la société, et de l’autre un nombre restreint d’individus : un mélange complexe d’oligarques et de politiciens, qui partagent un intérêt commun à imposer des logiques de rentabilité (comme nous l’avons vu, le cœur du processus n’est plus l’exploitation du travail en tant que tel, mais la concentration de la propriété de l’innovation et de sa rentabilité dans le cadre du processus de production). Cette réalité nous éloigne, d’une certaine manière, des solutions politiques traditionnelles, telles que le socialisme ou le communisme, du moins dans leur conception classique.

En effet, l’idée d’un État socialiste qui exercerait un monopole sur les moyens de production en expropriant la bourgeoisie, est une idée obsolète. Elle ne permet plus de réfléchir à l’expropriation des travailleurs de leurs subjectivités. Il ne s’agit plus tellement de moyen de production, mais de l’annihilation des subjectivités. Pour en donner un exemple, il suffit de voir à quel point le capitalisme de surveillance cherche à contrôler nos comportements et nos pensées, annihilant toute forme de créativité autonome.

Cet État socialiste, envisagé comme une solution politique, ressemble davantage à une mégamachine qui, loin de libérer, imposerait à son tour une logique formelle rigide, qu’il s’agisse d’une bureaucratie centralisée ou d’une technologie apparemment bienveillante. Même si l’on imaginait un système constitué de collectifs d’autogestion, ces derniers risqueraient de se retrouver absorbés et uniformisés par cette logique. La véritable autogestion est celle qui, au lieu de les harmoniser en les regroupant, fédère les initiatives et reflète un maximum d’alternatives possibles. Bref, qui laisse un imaginaire intact et vivant.

Or, ce que le capitalisme à l’ère des technologies de l’information accomplit depuis plusieurs décennies, c’est précisément la destruction systématique de cet imaginaire. Les capitalistes, pour leur part, défendent l’idée qu’aucune alternative n’existe à leur système. En réponse, il est impératif de répéter que, pour nous, aucune conciliation n’est envisageable entre leur monde et le nôtre. Cela implique qu’aucun compromis ne doit être accepté, qu’il s’agisse d’une mégamachine socialiste ou d’un régime oligarchique.

Bref, le problème, c’est bien le pouvoir : je ne vous fais pas l’article ici.

Déstabilisation par combinaisons

Une dernière forme de déstabilisation est cette fois non plus une stratégie, mais une submersion de combinaisons entre des technologies et des postures économiques et idéologiques. Ces combinaisons ne sont pas pensées en tant que telles mais en tant que stratégies de profit ad hoc et ont néanmoins toutes été identifiées et qualifiées par les observateurs.

Un exemple typique connu de tous est l’entreprise Uber qui a donné son nom à une série de modèles visant à ajouter une couche technologique à une économie classique de production de service, pour transformer les modèles. Cette transformation se fait toujours en défaveur de la société (travailleurs - consommateurs) selon des principes d’exploitation et des postures idéologique. D’une part, il s’agit d’organiser une plus grande flexibilité de la main d’œuvre, œuvrer pour une dérégulation du droit du travail, proposer une tarification variable basée sur l’offre et la demande. D’autre part, il s’agit de promouvoir la liberté individuelle et l’autonomie pour encourager la vision néolibérale de la responsabilité individuelle, proposer une économie dite collaborative pour maximiser la mise en commun des ressources et réduire les coûts d’exploitation, vanter les mérites de la plateformisation pour confondre l’efficacité avec la précarisation croissante des travailleurs.

Les combinaisons sont multiples et se définissent toutes selon le point de vue dans lequel on se place : idéologie, macro-économie, politique, sociologie. Voici un florilège :

  • Techno-capitalisme : concentration du pouvoir économique, transformation du travail, capitalisme de surveillance.
  • Techno-césarisme : érosion de la souveraineté étatique par les dirigeants des big tech, personnalisation du pouvoir par ces derniers, dépendance aux grandes plateformes.
  • Tech-bros : culture de l’exclusion dans le monde des big tech (entre-soi, masculinisme, sexisme), libertarianisme numérique (exemple: cryptomonnaie et blockchain pour se passer de la médiation des institutions de l’État), transhumanisme.
  • Techno-optimisme : absence de point de vue critique sur les technologies (par exemple : l’IA menace le climat mais elle seule pourra nous aider à lutter contre les effets du changement climatique), volonté de maintenir les structures telles qu’elles sont (conservatisme) car elles nous mèneraient nécessairement à la croissance.
  • Solutionnisme technologique : plus besoin de démocratie car les technologies permettent déjà de prendre les bonnes décisions, remplacer les politiques publiques réputées inefficaces par l’efficacité supposée des technologies numériques.
  • Capitalisme de surveillance : assujettir les organisations à la rentabilité des données numériques, influencer et contrôler les comportements, restreindre les limites de la vie privée et de l’autonomie individuelle, subvertir les subjectivités (marchandisation de l’attention).
  • Économie de plateformes : médiatisation des relations par des plateformes numériques, concentration des marchés autour de quelques plateformes, précarisation du travail, privatisation d’infrastructures publiques (notamment les relations entre les citoyens et les services publics).
  • Techno-féodalisme : organisation de l’asymétrie des pouvoirs par les big tech qui régissent les coûts d’entrée sur les marchés, et soumettent le pouvoir politique (et la démocratie) aux exigences de ces marchés.
  • Crypto-anarchisme : annihiler les régulations (par exemple en décentralisant les finances par les crypto-monnaies afin d’empêcher des organismes de contrôles de vérifier les échanges), déresponsabilisation totale au nom de la liberté, abattre les institutions traditionnelles qu’elles soient étatiques ou sociales.
  • Capitalisme cognitif : privatisation des connaissances, fatigue informationnelle.
  • etc.

Tout cela fait penser au travail qu’avait effectué le sociologue Gary T. Marx qui a beaucoup œuvré dans les surveillance studies et avait écrit un article fondateur sur ce champ de recherche spécifique en dénombrant les multiples approches qui légitimaient par conséquent ce domaine de recherche (voir . G. T. Marx, « Surveillance Studies »). J’ignore si un jour on pourra de la même manière rassembler ces approches en une seule définition cohérente, une something study, mais je pense que l’analyse des rapports entre technologie et société devraient accroître bien davantage les études systématiques sur les rapports entre technologies et pouvoir afin de donner des instruments politiques de lutte et de résistance.

La propriété c’est le vol

De nombreuses publications ces dernières années analysent les technologies numériques sous l’angle du vol : vol de nos intimités, vol de la démocratie, rapt d’internet (cf. C. Doctorow). Ou bien, s’il n’est pas question de vol, on parle d’accaparement, de concentration, de privation, d’appropriation. Tout le monde s’accorde sur le fait que dans ces pratiques qu’on associe essentiellement aux big tech, il y a quelque chose d’illégitime, voire de contraire à la morale, en plus d’être déstabilisant pour la société à bien d’autres égards.

Toutefois, il est notable que s’il l’on se contente de cette approche, on n’en reste malheureusement qu’à un constat qui pourrait tout aussi bien se faire, rétrospectivement, au sujet de l’avènement historique du capitalisme (par exemple les enclosures), du capitalisme industriel et du néolibéralisme. En fait, on reproche au capitalisme et ses avatars toujours la même chose : l’accumulation primitive. Expropriation, colonisation, esclavage, féodalisme, endettement : tout cela a déjà été identifié depuis longtemps par la critique marxienne. Pour quels succès exactement ? J’entends d’ici le gros soupir du Père Karl.

Et d’après-vous, pourquoi je vous parlais de Cimon au début de ce billet ? Pas uniquement pour parler d’Elon Musk. C’est une question de domination, pas seulement de propriété et d’accumulation.

Je recommande vivement l’acquisition de l’excellent ouvrage de Catherine Malabou, intitulé Il n’y a pas eu de révolution (Rivages, 2024). Dans ce livre, l’auteure propose une lecture particulièrement pertinente de Proudhon. Elle revient notamment sur la maxime « la propriété, c’est le vol ». Il est ici inutile de mentionner la distinction entre propriété et possession, car il est désormais bien compris que la caricature de l’anarchisme fondée sur cette phrase est dénuée de sens. Parlons sérieusement. Cette citation est un point clé aujourd’hui car nous avons longtemps sous-estimé la portée de l’œuvre de Proudhon sur La propriété. Cela s’explique en partie par l’analyse de Marx, qui a proposé une lecture alternative concernant presque exclusivement la propriété des moyens de production, lecture qui a largement prédominé. D’autre part, le matérialisme historique marxiste postule que, pour qu’il y ait vol, il doit d’abord exister de la propriété. C’est l’œuf et la poule.

Sauf que… si Proudhon n’est pas toujours un exemple d’une grande clarté, il est loin d’être le brouillon que Marx a tenté de dépeindre. C. Malabou nous montre que pour Proudhon, la propriété est un acte performatif. Proudhon écrivait : « la propriété est impossible, parce que de rien elle exige quelque chose ». Il n’y a pas d’enchaînement de cause à effet : la propriété ne devrait pas être considérée comme un état, mais comme un acte violent qui s’interpose à l’usage, entre le mot et la chose. C’est là qu’une critique de la Révolution peut vraiment se faire.

En effet, la propriété comme droit naturel, c’est imaginer un monde comme celui de la fable de Cronos (cf. première section de ce billet) où tout serait en commun pour une certaine partie de la population (les dieux, d’abord, les nobles ensuite, et ceux qui, par les dieux ! le méritent bien, les aristocrates). Et ce que nous dit Proudhon, en parlant de la Révolution Française, c’est que l’abolition des privilèges qui aurait dû en théorie faire advenir cette fable pour que tout le monde puisse en profiter des fruits, n’a en réalité rien aboli du tout. Il y a toujours des pauvres et des exclus malgré l’affirmation du droit à la propriété privée et c’est même pire depuis que Napoléon a fait de la propriété un droit absolu dans le Code Civil.

Pour enfin résumer à grands traits ce que nous dit C. Malabou (lisez le livre, c’est mieux), c’est que Proudhon nous livre en fait une analyse de la raison pour laquelle la société n’est jamais sortie de son état de soumission. Sont toujours d’actualité les pratiques médiévales telles que le droit d’aubaine, la main-morte ou le droit de naufrage. Le point commun n’est pas seulement que le seigneur réclame un dû pour en dépouiller les plus pauvres, c’est que ces droits nient à la personne la possibilité même de transmettre le bien (à ses enfants ou à autrui). C’est un régime d’exclusion. Et ce régime d’exclusion, nous n’en sommes pas sortis en raison de la tendance, par le truchement de la sacralisation de la propriété, à la concentration des moyens de production, des richesses et donc des pouvoirs.

Que faire des technologies numériques ? le premier grand jeu auquel se sont livrés les tenants de l’idéologie néolibérale, c’est de chercher à maîtriser la propriété des usages, c’est-à-dire le code informatique. Ce n’est pas pour rien que ce fut un Bill Gates qui a le premier (par sa Lettre ouverte aux hobbyistes) cherché à faire valoir un titre de propriété sur des ensembles d’algorithmes permettant de faire fonctionner un paquet de câbles et de tôles. Et c’est pour cela que les licences libres et les logiciels libres sont des modèles puissants permettant d’opposer la logique des communs à celle du néolibéralisme, pour autant que cette opposition puisse enfin assumer sa logique libertaire (et pas libertarienne, attention).

L’oligarchie actuelle, visible dans les médias, démontre par l’absurde à travers des figures comme Trump et ses alliés, mais aussi de manière plus subtile dans d’autres pays, y compris en Europe, que l’objectif reste fondamentalement le même : concentrer la propriété des technologies pour mieux dominer les marchés, et donc l’ensemble de la société. C’est pourquoi l’IA est si plébiscitée par ces néolibéraux, car elle touche à tous les secteurs productifs et aux moyens de production. Ceux qui pensaient que le capital avait évolué, que le monde était devenu plus collaboratif et horizontal, n’ont en réalité fait que jouer le jeu de la domination, notamment celui de l’économie « collaborative ».

La seule voie des communs, malgré ce que peuvent en dire Dardot et Laval, consiste à s’opposer à toute forme de pouvoir, même si ce dernier semble bienveillant sur le papier. La convivialité et l’émancipation offertes par les technologies, ce que j’appelle leur potentiel libertaire, ne doivent plus jamais être perçues comme des conditions d’un marché ouvert, mais plutôt comme des conditions pour affirmer les subjectivités, individuelles et collectives, contre les pouvoirs et (donc) la propriété.

07.01.2025 à 01:00

Je suis allé faire un tour sur les GCP à la mode... et j'en suis revenu

La gestion des connaissances personnelles (personal knowledge management) est une activité issue des sciences de gestion et s’est peu à peu diffusée dans les sphères privées…

🔔 L’idée qui sous-tend cette approche des connaissances est essentiellement productiviste. Elle a donc des limites dont il faut être assez conscient pour organiser ses connaissances en définissant les objectifs recherchés et ceux qui, de toute façon, ne sont pas à l’ordre du jour. Mais à l’intérieur de ces limites, il existe toute une économie logicielle et une offre face à laquelle il est possible de perdre pied. Cela m’est arrivé, c’est pourquoi j’écris ce billet.

On peut définir les objectifs de la GCP grosso modo ainsi :

  • Intégrer ses connaissances dans un ensemble cohérent afin de les exploiter de manière efficace (c’est pourquoi la connexion entre les connaissances est importante)
  • Définir stratégiquement un cadre conceptuel permettant de traiter l’information
  • Permettre l’acquisition de nouvelles connaissances qui enrichissent l’ensemble (ce qui suppose que le cadre doit être assez résilient pour intégrer ces nouvelles connaissances, quelle que soit leur forme).

La première information importante, c’est qu’on a tendance à réduire la plupart des logiciels en question à de simples outils de gestion de « notes », alors qu’ils permettent bien davantage que d’écrire et classer des notes. Si on regarde attentivement leurs présentations sur les sites officiel, chacun se présente avec des spécificités bien plus larges et nous incite davantage à organiser nos pensées et nos connaissances qu’à écrire des notes. Pour comparer deux outils propriétaires, là où un Google Keep est vraiment fait pour des notes simples, Microsoft Onenote contrairement à son nom, permet une vraie gestion dans le cadre d’une organisation.

Une autre information importante concerne la difficulté qu’il y a à choisir un logiciel adapté à ses usages. Surtout lorsqu’on utilise déjà un outil et qu’on a de multiples écrits à gérer. Changer ses pratiques suppose de faire de multiples tests, souvent décevants. Ainsi, un logiciel fera exactement ce que vous recherchez… à l’exception d’une fonctionnalité dont vous avez absolument besoin.

⚠️ Aucun logiciel de GCP ne fera exactement ce que vous recherchez : préparez-vous à devoir composer avec l’existant.

À la recherche du bon logiciel

Je vais devoir ici expliquer mon propre cas, une situation que j’ai déjà présentée ici. Pour résumer : j’adopte une méthode Zettelkasten, j’ai des textes courts et longs, il s’agit de travaux académiques pour l’essentiel (fiches de lecture, notes de synthèse, fiches propectives, citations… etc.). Parmi ces documents, une grande part n’a pas pour objectif d’être communiquée ou publiée. Or, comme l’un de mes outils est Zettlr, et que ce dernier se présente surtout comme un outil de production de notes et de textes structurés, je me suis naturellement posé la question de savoir si mes notes n’auraient pas un intérêt à être travaillées avec un outil différent (tout en conservant Zettlr pour des travaux poussés).

Par ailleurs :

  • Le markdown doit impérativement être utilisé, non seulement en raison de sa facilité d’usage, mais aussi pour sa propension à pouvoir être exporté dans de multiples formats,
  • La synchronisation des notes entre plusieurs appareils est importante : ordinateur (pour écrire vraiment), smartphone (petites notes, marque-page, liste de tâches) et tablette (écrire aussi, notamment en déplacement),
  • Les solutions d’export sont fondamentales, à la fois pour permettre un archivage et pour permettre une exploitation des documents dans d’autres contextes.

Le couple Zettlr - Pandoc m’a appris une chose très importante : éditer des fichiers markdown est une chose, les éditer en vue de les exploiter en est une autre. D’où la valeur ajoutée de Pandoc et des en-têtes Yaml qui permettent d’enrichir les fichiers et, justement, les exploiter de manière systématique.

Je suis donc parti, youkaïdi youkaïda, avec l’idée de trouver un logiciel d’exploitation de notes présentant des fonctionnalités assez conviviales pour faciliter leur accès, et aussi m’ouvrir à des solutions innovantes en la matière.

Je n’ai pas été déçu

Non, je n’ai pas été déçu car il faut reconnaître que, une fois qu’on a compris l’approche de chaque logiciel, leurs promesses sont généralement bien tenues.

Je suis allé voir :

  • Dans les logiciels pas libres du tout, Obsidian et Workflowy.
  • Dans les open source (et encore c’est beaucoup dire) : Logseq, Anytype.
  • Dans le libre : Joplin (et Zettlr que je connaissais déjà très bien).

Je ne vais pas présenter pour chacun toutes leurs fonctionnalités, ce serait trop long. Mais voici ce que j’ai trouvé.

Premier étonnement, c’est que c’est du côté open source ou privateur qu’on trouve les fonctionnalités les plus poussées de vue par graphe, et autres possibilités de requêtes customisables / automatisables, ou encore des analyse de flux (par exemple pour voir quel objet est en lien avec d’autres selon un certain contexte).

Second étonnement, concernant la gestion des mots-clé et des liens internes, points communs de tous les logiciels, il faut reconnaître que certains le font de manière plus agréable que d’autres. Ainsi on accorde beaucoup d’importance aux couleurs et aux contrastes, ce qui rend la consultation des notes assez fluide et efficace.

Bref, ça brille de mille feux. Les interfaces sont la plupart du temps bien pensées.

Anytype, le plus jeune, et qui a retenu le plus mon attention, a bénéficié pour son développement des critiques sur les limites des autres logiciels. Par exemple Obsidian qui est victime de ses trop nombreux plugins, reste finalement assez terne en matière de fonctions de base, là où Anytype propose d’emblée d’intégrer des documents, de manipuler des blocs, avec des couleurs, de créer des modèles de notes (on dit « objet » dans le vocabulaire de Anytype), des collections, etc.

Alors, qu’est-ce qui coince ?

En tant que libriste, je me suis intéressé surtout à des logiciels open source prometteurs. Exit Obsidian, et concentration sur Logseq et Anytype.

Dans les deux cas, la cohérence a un prix, pour moi bien trop cher : on reste coincé dedans ! L’avantage d’écrire en markdown, comme je l’ai dit, est de pouvoir exploiter les connaissances dans d’autres systèmes, par exemple le traitement de texte lorsqu’il s’agit de produire un résultat final. Et comme il s’agit de texte, la pérennité du format est un atout non négligeable.

Or, que font ces logiciels en matière d’export ? Du PDF peu élaboré mais dont on pourrait se passer s’il était possible d’exploiter correctement une sortie markdown… mais l’export markdown, en réalité, appauvrit le document au lieu de l’enrichir. Vous avez bien lu, oui 🙂

Exemple – Avec Anytype, j’ai voulu créer des modèles de fiches de lecture avec des champs couvrant des métadonnées comme : l’auteur, l’URL de la source, la date de publication, le lien avec d’autres fiches, les tags, etc. Tout cela avec de jolies couleurs… À l’export markdown, toutes ces données disparaissent et ne reste plus que la fiche dans un markdown approximatif. Résultat : mon fichier n’est finalement qu’un contenant et toutes les informations de connexion ou d’identification sont perdues si je l’exporte. À moins d’entrer ces informations en simple texte, ce qui rend alors inutiles les fonctions proposées. (Une difficulté absente avec Obsidian qui laisse les fichiers dans un markdown correct et ajoute des en-têtes yaml utiles, à condition d’être rigoureux).

Clic droit pour agrandir

Avec Logseq comme avec Anytype, vous pouvez avoir une superbe présentation de vos notes avec mots-clés, liens internes, rangement par collection, etc… sans que cela puisse être exploitable en dehors de ces logiciels. L’export markdown reste succinct, parfois mal fichu comme Anytype : des espaces inutiles, des sauts de lignes négligés, élimination des liens internes, plus de mots clé, et surtout aucun ajout pertinent comme ce que pourrait apporter un en-tête Yaml qui reprendrait les éléments utilisés dans le logiciel pour le classement.

Vous allez me dire : ce n’est pas le but de ces logiciels. Certes, mais dans la mesure où, pour exploiter un document, je dois me retaper la syntaxe markdown pour la corriger, autant rester avec Zettlr qui possède déjà des fonctions de recherche et une gestion des tags tout en permettant d’utiliser les en-têtes Yaml qui enrichissent les documents. Ha… c’est moins joli, d’accord, mais au moins, c’est efficace.

Et c’est aussi pourquoi Joplin reste encore un modèle du genre. On reste sur du markdown pur et dur. Là où Joplin est critiquable, c’est sur le choix de l’interface : des panneaux parfois encombrants et surtout une alternance entre d’un côté un éditeur Wysiwyg et de l’autre un éditeur markdown en double panneau, très peu pratique (alors que la version Android est plutôt bien faite).

Joplin et Zettlr n’ont pas de fioritures et n’offrent pas autant de solutions de classements que les autres logiciels… mais comme on va le voir ces « solutions » ne le sont qu’en apparence. Il y a une bonne dose de technosolutionnisme dans les logiciels de GCP les plus en vogue.

La synchronisation et le partage

Pouvoir accéder à ses notes depuis plusieurs dispositifs est, me semble-t-il, une condition de leur correcte exploitation. Sauf que… non seulement il faut un système de synchronisation qui soit aussi sécurisé, mais en plus de cela, il faut aussi se demander en qui on a confiance.

Anytype propose une synchronisation chiffrée et P2P par défaut, avec 1Go offert pour un abonnement gratuit et d’autres offres sont ou seront disponibles. Logseq propose une synchronisation pour les donateurs. Quant à Obsidian, il y a depuis longtemps plusieurs abonnements disponibles. On peut noter que tous proposent de choisir le stockage local (et gratuitement) sans synchronisation.

En fait, la question se résume surtout au chiffrement des données. Avec ces abonnements, même si Anytype propose une formule plutôt intéressante, vous restez dépendant•e d’un tiers en qui vous avez confiance… ou pas. Le principal biais dans ces opportunités, c’est que si vous pouvez stocker vos coffres de notes sur un système comme Nextcloud (à l’exception de Anytype), accéder aux fichiers via une autre application est déconseillé : indexation, relations, champs de formulaires… bricoler les fichiers par un autre moyen est source d’erreurs. Par ailleurs, sur un système Android, Anytype, Obsidian ou Logseq n’offrent pas la possibilité d’interagir avec un coffre situé dans votre espace Nextcloud.

⚠️ (màj) Dans ce fil de discussion sur Mastodon, un utilisateur a testé différents logiciels de GCP et a notamment analysé les questions de confidentialité des données. Le moins que l’on puisse dire est que Anytype remporte une palme. Je cite @loadhigh : « Le programme enregistre toutes vos actions et les envoie toutes les quelques minutes à Amplitude, une société d’analyse commerciale. Cela est mentionné dans la documentation, mais il n’y a pas de consentement ni même de mention dans le programme lui-même ou dans la politique de confidentialité. Il communique également en permanence avec quelques instances AWS EC2, probablement les nœuds IPFS qu’il utilise pour sauvegarder votre coffre-fort (crypté) de documents. (…) Le fait qu’il n’y ait pas d’option de refus, ni de demande de consentement, ni même d’avertissement est inacceptable à mes yeux. Pour une entreprise qui aime parler de confiance, il est certain qu’elle n’a aucune idée de la manière de la gagner. » Je souscris totalement à cette analyse !

De fait, la posture « local first » est en vérité la meilleure qui soit. Vous savez où sont stockés vos documents, vous en maîtrisez le stockage, et c’est ensuite seulement que vous décidez de les transporter ou de les modifier à distance.

Sur ce point Joplin a la bonne attitude. En effet, Joplin intègre non seulement une synchronisation Nextcloud, y compris dans la version pour Android, mais en plus de cela, il permet de choisir une formule de chiffrement. On peut aussi stocker sur d’autres cloud du genre Dropbox ou prendre un petit abonnement « Joplin cloud ». En somme, vous savez où vous stockez vos données et vous y accédez ensuite. Si on choisi de ne pas chiffrer (parce que votre espace Nextcloud peut être déjà chiffré), il est toujours possible d’accéder aux fichiers de Joplin et les modifier via une autre application. Joplin a même, dans l’application elle-même, une option permettant d’ouvrir une application externe de son choix pour éditer les fichiers.

Local first

Il m’a fallu du temps pour accepter ces faits. J’avais même commencé à travailler sérieusement avec Anytype… et c’est lorsque j’ai commencé à vouloir exporter que cela s’est vraiment compliqué. Sans compter la pérennité des classements : si demain Anytype, Logseq ou même Obsidian ferment leurs portes, on aura certes toujours accès à l’export markdown (quoique dans un état peu satisfaisant) mais il faudra tout recommencer.

Que faire ? je me suis mis à penser un peu plus sérieusement à mes pratiques et comme je dispose déjà d’un espace Nextcloud, j’ai choisi de le rentabiliser. La solution peut paraître simpliste, mais elle est efficace.

Elle consiste en deux dossiers principaux (on pourrait n’en choisir qu’un, mais pour séparer les activités, j’en préfère deux) :

  • un dossier Zettel où j’agis comme d’habitude avec Zettlr (et pour les relations, comme expliqué dans la documentation) en mettant davantage l’accent sur les mots-clé et en exploitant de manière plus systématique les fonctions de recherche.
  • Un dossier Notes destiné à la prise de notes courtes, comme on peut le faire avec un téléphone portable.

En pratique :

  • Les deux dossiers sont synchronisés avec Nextcloud.
  • Sur Zettlr en local, j’ouvre les deux dossiers comme deux espaces de travail et je peux agir simultanément sur tous les fichiers.
  • Depuis le smartphone et la tablette, j’ai accès à ces deux dossiers pour modifier et créer des fichiers via l’application Notes de Nextcloud, tout simplement, et toujours en markdown. Je fais aussi pointer l’application Nextcloud Notes précisément sur le dossier Notes.
  • Sachant que ces fichiers contiennent eux-mêmes les tags et qu’on peut ajouter d’autres données via un en-tête Yaml, je dispose des informations suffisantes pour chaque fichier et je peux aussi en ajouter, que j’utilise Zettlr ou toute autre application.

Les limites :

  • Sur smartphone ou tablette je n’ai pas l’application Zettlr et ne peut donc pas exploiter ma base de connaissances comme je le ferais sur ordinateur. Mais… aucun de ces dispositifs n’est fait pour un travail long de consultation.
  • Sur un autre ordinateur, je peux accéder à l’interface en ligne de Nextcloud et travailler dans ces dossiers, mais là aussi, c’est limité. Par contre je peux utiliser la fonction de recherche unifiée.
  • Gérer les liens de connexion entre les fichiers (par lien internes ou tags) demande un peu plus de rigueur avec Zettlr, mais reste très efficace.

Ce qui manque aux autres, je le trouve dans zettlr

Quant à Zettlr, il me permet tout simplement de faire ce que les autres applications ne permettent pas (ou alors avec des plugins plus ou moins mal fichus) :

  • utiliser une base de donnée bibliographique (et Zotero),
  • réaliser des exports multiformats avec de la mise en page (et avec Pandoc intégré),
  • les détails, comme une gestion correcte des notes de bas de page,
  • les modèles « snippets » qui simplifient les saisies répétitives,
  • l’auto-correction à la carte,
  • les volets de Zettlr (table des matières, fichiers connexes, biblio, fonction recherche etc.)

Les tâches et Kanban

C’est sans doute les point les plus tendancieux.

La plupart des logiciels de GCP intègrent un système de gestion de liste de tâches. Il s’agit en fait de pousser la fonction markdown - [ ] tâche bidule en lui ajoutant deux types d’éléments :

  • l’adjonction automatique de date et de tags (à faire, en cours, réalisé, etc…)
  • le classement par requêtes permettant de gérer les tâches et tenir à jour ces listes.

Le tout est complété par l’automatisation de tableaux type Kanban, très utiles dans la réalisation de projets.

C’est ce qui fait que ces logiciels de GCP se dotent de fonctions qui, selon moi, ne sont pas de la GCP mais de la gestion de projet. Si l’on regarde de près les systèmes privateurs intégrés comme chez Microsoft on constate que le jeu consiste à utiliser plusieurs logiciels qui interopèrent entre eux (et qui rendent encore plus difficile toute migration). Mais de la même manière, selon moi, un logiciel de gestion de projet ne devrait faire que cela, éventuellement couplé à une gestion de tâches.

On peut néanmoins réaliser facilement un fichier de tâches en markdown, ainsi (selon le rendu markdown du logiciel, les cases à cocher seront interactives) :


- [ ] penser à relire ce texte 🗓️15/12/2025
- [x] acheter des légumes 🗓️ aujourd'hui
- [ ] etc.

Mais qu’en est-il de la synchronisation de ces tâches sur un smartphone, par exemple ? N’est-il pas plus sage d’utiliser un logiciel dédié ? Si par contre les tâches concernent exclusivement des opérations à effectuer dans le processus de GCP, alors le markdown devrait suffire.

Sobriété

OK… C’est pas bling-bling et ni Zettlr ni Notes pour Nextcloud n’ont prétendu être la solution ultime pour la GCP. Par exemple, ma solution n’est sans doute pas appropriée dans un milieu professionnel. Dans ce dernier cas, cependant, il conviendra de s’interroger sérieusement sur la pérennité des données : si le logiciel que vous utilisez a une valeur ajoutée, il faudrait pouvoir la retrouver dans l’export et la sauvegarde. Aucun logiciel n’est assuré de durer éternellement.

Si, en revanche, vous êtes attiré•e par un logiciel simple permettant d’écrire des notes sans exigence académique, des compte-rendus de réunion, des notes de lectures et sans chercher à exploiter trop intensément les tags et autres liens internes, alors je dirais que Joplin est le logiciel libre idéal : il fonctionne parfaitement avec Nextcloud pour la synchronisation, le markdown est impeccable, l’application pour Android fonctionne très bien. Et il y a du chiffrement. Ne cherchez pas à utiliser les plugins proposés, car ils n’apportent que peu de chose. Quant à l’interface, elle souffre, je pense, d’un manque de choix assumés et gagnerait à n’utiliser que le markdown enrichi (à la manière de Zettlr) et sans double volet.

Pour ma part, après ce tour d’horizon – qui m’a néanmoins donné quelques idées pour l’élaboration de mes propres notes –, Zettlr reste encore mon application favorite… même si elle est exigeante. 😅 Pour les passionnés de Vim ou Emacs et de Org-mode… oui, je sais, ce sera difficile de faire mieux…

18.11.2024 à 01:00

Moi aussi je peux écrire un livre sur l'IA

Chez Framasoft, on se torture les méninges. Alors quand on parle d’Intelligence Artificielle, on préfère essayer de gratter un peu sous la surface pour comprendre ce qui se trame. Comme le marronnier éditorial du moment est l’IA dans tous ses états, je me suis dis que finalement, moi aussi…


C’est un petit projet, comme ça en passant. Il ne prétend par faire un tour exhaustif de ce qu’on entend exactement par « apprentissage automatique », mais au moins il m’a donné l’opportunité de réviser mes cours sur les dérivées… ha, ha !

Majpeulsia : Moi aussi je peux écrire un livre sur l’IA !

Ma manière à moi de comprendre des concepts, c’est d’en écrire des pages. J’ai pensé que cela pouvait éventuellement profiter à tout le monde. En premier lieu les copaing•nes de Framasoft mais pas que…

L’objectif consiste à développer les concepts techniques de l’apprentisage automatique et les enjeux du moment autour de cela. Pourquoi faire ? par exemple, lorsque l’Open Source Initiative a sorti a sorti sa définition d’une IA open source (voir mon billet précédent sur ce blog), il a été aussitôt question du statut des données d’entraînement. Mais… c’est quoi des données d’entraînement ? et surtout comment entraîne-t-on une IA ?

Vous allez me dire : ok, quand je conduis une voiture, je n’ai pas besoin de connaître la théorie du moteur à explosion. Oui, certes, mais connaître un peu de mécanique, c’est aussi assurer un minimum de sécurité. Alors, voilà, c’est ce minimum que je propose.

Cela se présente sous la forme d’un MKDocs à cette adresse (j’ai pas pris la peine d’un nom de domaine), et les sources sont ici. Le travail est lancé et il sera toujours en cours :)

Bonne lecture !

02.11.2024 à 01:00

Que serait une IA libre ?

Fin octobre 2024, l’OSI a publié sa définition d’une IA open source. Ce faisant, elle remet en question les concepts d’ouverture et de partage. Il devient urgent d’imaginer ce que devrait être une IA libre. Je propose ici un court texte en réaction à cette publication. Sans doute vais-je un peu trop vite, mais je pense qu’il y a une petite urgence, là.


Nous savons que la définition d’un logiciel libre implique un ouverture et un accès complet au code. Il ne peut y avoir de faux-semblant : le code doit être lisible, il doit être accessible, et tout programmeur devrait pouvoir l’utiliser, le modifier et partager cette version modifiée. C’est encore mieux si la licence libre qui accompagne le programme est dite copyleft, c’est-à-dire qu’elle oblige tout partage du code à adopter la même licence.

Dans le domaine de l’IA, cela se complique un peu. D’abord, ce qu’on appelle « une IA » est un système composé :

  • le code qui permet de structurer le réseau neuronal. Par exemple un programme écrit en Python.
  • les paramètres : ce sont les poids qui agissent dans le réseau et déterminent les connexions qui dessinent le modèle d’IA. On peut aussi y adjoindre les biais qui sont utilisés volontairement pour affiner le rôle les poids.

Donc pour définir la licence d’un système d’IA, il faut qu’elle porte non seulement sur le code mais aussi sur les paramètres.

Fin octobre 2024, l’Open Source Initiative (l’OSI) a donné sa définition (1.0) de ce qu’est une IA open source. Elle indique bien cette importance donnée aux paramètres. On constate de même que pour la première fois dans l’histoire du logiciel libre ou open source, une licence d’un système porte à la fois sur du code et sur les paramètres qui permettent d’obtenir une manière particulière de faire tourner ce code.

Or, nous savons aussi qu’un système d’IA n’est rien (ou beaucoup moins) sans son entraînement. L’OSI a donc naturellement pensé à ces données d’entraînement, c’est-à-dire les jeux de données d’entrées et de sortie qui ont servi à paramétrer le système. Ainsi, la définition de l’OSI nous donne une liste des « informations suffisamment détaillées » requises au sujet de ces données d’entrainement.

Dans un article intitulé « L’IA Open Source existe-t-elle vraiment ? », Tante nous explique que cette définition de l’OSI nous embarque dans un régime d’exception problématique car le niveau de détail déclaré « suffisant » risque bien de ne jamais l’être. Par exemple on de dit pas qu’un code open source serait suffisamment ouvert : il est ouvert ou il ne l’est pas. C’est non seulement une question pratique (ai-je accès au code pour pouvoir l’inspecter et le modifier ?) mais aussi de confiance : irai-je faire tourner un programme si certains éléments, même décrits, me restent cachés ? En admettant que je puisse modifier les parties ouvertes du programme, puis-je repartager un tel programme contenant une boîte noire à laquelle personne ne peut avoir accès ?

De surcroît, la définition de l’OSI nous indique :

  • que pour « les données d’entraînement qui ne sont pas partageables », il suffirait de les décrire ;
  • que l’objectif de ce partage, à défaut de reproduire exactement le même système, consiste à obtenir un système seulement « similaire ».

Ainsi en cherchant à définir l’ouverture des systèmes d’IA, l’OSI cherche à modifier la conception même de ce qu’est l’ouverture. L’idée n’est plus de partager un commun numérique, mais de partager une méthode pour en reproduire un équivalent. Cette concession faite aux producteurs de systèmes d’IA déclarés open source implique un net recul par rapport aux avancées des dernières années au sujet des communs numériques. Là où l’ouverture du code pouvait servir de modèle pour partager toutes sortes d’oeuvres et ainsi contribuer au partage de la connaissance et de l’art, voici qu’un commun numérique n’a plus besoin d’être partagé dans son intégralité et peut même contenir ou dépendre d’éléments non ouverts et non accessibles (pourvu qu’ils soient « décrits »).

L’ouverture se distinguerait alors du partage. On tolèrerait des éléments rivaux dans les communs numériques, là où normalement tout partage implique l’enrichissement mutuel par l’abondance qu’implique ce partage. L’OSI conçoit alors l’ouverture des systèmes d’IA comme une sorte de partage inaboutit, un mieux-que-rien laissé dans le pot commun sans réel avantage. Sans l’intégralité des données d’entraînement, non seulement le système n’est plus le même mais encore faut il trouver les ressources suffisantes ailleurs pour en obtenir une alternative de niveau équivalent.

A contrario, un système d’IA libre devrait être fondé :

  • sur du code libre,
  • sur des données d’entraînement libres et accessibles à tous (elles peuvent être elles-mêmes sous licence libre ou dans le domaine public),
  • sur des algorithmes d’entraînement libres (bon, c’est des maths normalement), publiés et accessibles,
  • et le tout, pour mieux faire, sous Copyleft.

Mais ce n’est pas tout, il faut que les données soit décrites ainsi que la manière de les utiliser (l’étiquetage, par exemple). En effet, que les données soient libres n’est pas en soi suffisant. Tout dépend de l’usage : si j’entraîne une IA sur des données libres ou publiques il faut encore les évaluer. Par exemple si elles ne contiennent que des contenus racistes le résultat sera très différent que si je l’entraine sur des contenus dont on a évalué la teneur et que cette évaluation ai dûment été renseignée. Ici se joue la confiance dans le système et plus seulement la licence !

La question n’est pas de savoir s’il est aujourd’hui possible de réunir tous ces points. La question est de savoir ce que nous voulons réellement avec les systèmes d’IA.

Par ailleurs, l’OSI nous donne une définition qui intervient a posteriori par rapport aux systèmes d’IA existants et distribués d’emblée sous le drapeau open source. Un peu comme si l’OSI prenait simplement acte d’une pratique déjà mise en place par les acteurs des grands modèles d’IA, à l’Instar d’OpenAI qui soutenait qu’il n’était pas possible d’entraîner des systèmes d’IA sans matériel copyrighté (Ars Technica, 09/01/2024). Ce à quoi Huggingface a répondu quelques mois plus tard, en novembre 2024, en proposant une large base de données sous licences permissives (open source, domaine public, libre… la liste est sur ce dépôt).

En France, le Peren (le Pôle d’Expertise de la Régulation Numérique) est intervenu juste après l’annonce de l’OSI pour proposer un classement des système d’IA selon cette définition. Et ce classement s’accomode très bien avec la conception de l’ouverture des Big AI : tout est plus ou moins ouvert, plus ou moins accessible, voilà tout. Il n’y a aucune valeur performative de la définition de l’OSI là où une approche libriste cherche au contraire à imposer les éléments de probité inhérents aux libertés d’usage, de partage et de modification.

Est-ce vraiment étonnant ? Récemment Thibaul Prevost a publié un ouvrage passionant au sujet du cadre narratif des Big AI (Les prophètes de l’IA - Pourquoi la Silicon Valley nous vend l’apocalypse). On y apprend que, selon le Corporate Europe Observatory dans un communiqué édifiant intitulé Byte by byte. How Big Tech undermined the AI Act les Big AI se sont livrés à un lobbying de choc (plus qu’intensif, il était exclusif) dans le cadre des négociations de l'AI Act en 2023, jusqu’aux plus hauts sommets des intitutions européennes pour « faire supprimer du texte les obligations de transparence, de respect du copyright des données d’entraînement et d’évaluation de l’impact environnemental de leurs produits » (chap. 4). Avec sa définition, ce que fait l’OSI, c’est approuver la stratégie de maximisation des profits des Big AI pour donner blanc seing à cette posture de fopen source (avec un f) qui valide complètement le renversement de la valeur de l’ouverture dans les communs numériques, en occultant la question des sources.

On voit aussi l’enjeu que pourrait représenter une conception altérée de l’ouverture dans plusieurs domaines. En sciences par exemple, l’utilisation d’un système d’IA devrait absolument pouvoir reposer sur des garanties bien plus sérieuses quant à l’accessibilité des sources et la reproductibilité du système. Il en va du statut de la preuve scientifique.

Plus largement dans le domaine de la création artistique, le fait que des données non partageables aient pu entraîner une IA revient à poser la question de l’originalité même de l’oeuvre, puisqu’il serait impossible de dire si la part de l’oeuvre dûe à l’IA est attribuable à l’artiste ou à quelqu’un d’autre dont le travail se trouve ainsi dérivé.

Il y a encore du travail.

6 / 165
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓