LePartisan.info À propos Podcasts Fil web Écologie Blogs Revues Médias
Hubert Guillaud
Souscrire à ce FLUX

Hubert GUILLAUD


Journaliste et essayiste

▸ les 10 dernières parutions

25.04.2024 à 12:33

Une Silicon Valley, plus de droite que de gauche

Hubert Guillaud

En devenant enfin thématique, le 4e numéro de Tèque réussit assurément sa mue. Loup Cellard et Guillaume Heuguet y livrent une intéressante critique de l’idéologie californienne (portée notamment dans le livre éponyme de Richard Barbrook et Andy Cameron, mais également par Fred Turner dans Aux sources de l’utopie numérique). Ils rappellent fort justement que le […]
Texte intégral (1395 mots)
“Au-delà de l’idéologie de la Silicon Valley” : Tèque n°4.

En devenant enfin thématique, le 4e numéro de Tèque réussit assurément sa mue. Loup Cellard et Guillaume Heuguet y livrent une intéressante critique de l’idéologie californienne (portée notamment dans le livre éponyme de Richard Barbrook et Andy Cameron, mais également par Fred Turner dans Aux sources de l’utopie numérique). Ils rappellent fort justement que le pouvoir économique de la Silicon Valley précède de loin le moment hippie et que Barbrook et Cameron sous-estiment particulièrement le rôle de l’industrie technologique et des fonds d’investissement qui lui sont bien antérieurs. Le positionnement technologique de la Silicon Valley a d’abord été porté et est encore porté par des notables, des personnalités autoritaires, des investisseurs qui ne partagent en rien les idéaux communautaires. Les cadres de la Valley ont toujours bien plus tenus de bourgeois réactionnaires que de socialistes libertaires. Le darwinisme et l’eugénisme, c’est-à-dire le fond très réactionnaire des industriels de la Valley, n’est pas que le fait d’un Musk ou d’un Bezos, mais se retrouvent en continue chez tous ceux qui ont fait la Silicon Valley depuis le 19e siècle (comme le montrent d’ailleurs Timnit Gebru et Emile Torres dans leur dernier article pour First Monday sur l’idéologie de l’IA). Les élites californiennes ont toujours porté peu d’attention à l’égard du prolétariat qu’ils ont toujours largement exploité.

Dans ce numéro, on découvre également une belle contribution de Fred Turner qui critique la notion de prototypage, qui rappelle combien elle est enracinée dans la pratique ingénieure comme dans la théologie protestante, et combien ceux-ci permettent de produire des récits permettant de fusionner des orientations commerciales et politiques. Par le prototype, les ingénieurs deviennent des ministres du culte ingénieurial, capables de proposer des mondes sociaux idéaux, à leur propre gloire. 

Charlie Tyson dresse, lui, un passionnant portrait de Peter Thiel, symbole réactionnaire de la Silicon Valley, qui fait se rejoindre ses stratégies d’investissement et ses combats idéologiques, pour imposer au monde les uns comme les autres. 

Le sociologue de la finance, Fabien Foureault, lui, explique dans un excellent papier combien la technologie a permis de construire des machines financières pour dépasser la stagnation capitaliste, notamment en permettant de développer le capital-risque qui n’a cessé de se construire comme s’il était la seule réponse aux crises du capitalisme contemporain. Pourtant, le capital risque a intrinsèquement un caractère dysfonctionnel. Il favorise les emballements et effondrements, peine à inscrire une utilité sociale, et surtout, ses performances financières restent extrêmement médiocres selon les études longitudinales. “L’économie numérique, financée par le capital-risque, a été conçue par ces élites comme une réponse au manque de dynamisme du capitalisme tardif. Or, on constate que cette activité se développe en même temps que les tendances à la stagnation et qu’elle n’arrive pas à les contrer.” Sa contribution à la croissance semble moins forte que le crédit bancaire et le crédit public ! “Le rendement de la financiarisation et de l’innovation est de plus en plus faible : toujours plus d’argent est injecté dans le système financier pour générer une croissance en déclin sur le long-terme”

On y trouve également un extrait du livre de Ruha Benjamin (Race after technology, dont j’avais longuement parlé), qui nous rappelle que le design tient surtout d’un projet colonisateur, qui ne parvient pas à accompagner l’émancipation.

Un autre extrait de livre, celui de Orit Halpern et Robert Mitchell, The Smartness Mandate, MIT Press, 2023), vient discuter des limites de l’injonction à créer un monde parfaitement optimisé, qui vient renouveler la logique de la promesse, sans ne plus proposer aucun progrès. Ils rappellent que les machines et les algorithmes sont devenus les principes d’une gouvernance rationnelle qui cherche toujours à s’adapter aux transformations. Ils rappellent que l’optimisation ingénieuriale signifiait obtenir “la meilleure relation entre les performances minimales et maximales au sein d’un système”, c’est-à-dire une mesure relative au système étant donné ses buts et contraintes, offrant le plus de bénéfices. Mais depuis, cette optimisation pour elle-même a surtout montré ses limites et ses échecs. Elle a produit des solutions pour certains mais pas pour tous. Les deux auteurs soulignent que cette optimisation repose sur la logique de dérivation, propres aux produits dérivés financiers, c’est-à-dire, à produire des dérivés de données pour automatiser, en prenant par exemple en compte des signaux qui ne devraient pas être pris en compte pour construire des systèmes, en ajoutant ainsi aux systèmes d’information des voyageurs, des dérivés qui ne reposent pas seulement sur l’information dont on dispose sur ceux-ci pour mesurer le risque, mais sur d’autres facteurs comme le temps séparant l’achat d’un billet du départ, le fait qu’il soit réglé en espèces, etc. Les dérivés des systèmes d’information permettent “de se prémunir contre les risques sans se retrouver légalement responsables des instruments instables” produits, comme c’est le cas avec les produits dérivés financiers. 

Enfin, le recueil se termine par un inédit de Dave Karpf, sur le longtermisme. Dont je ne retiendrais qu’une phrase pour illustrer les limites des développements technologiques actuels : “Nous sommes en train de brûler la forêt tropicale pour que les ordinateurs puissent faire des dessins animés à notre place”

Ce nouveau numéro de Tèque n’a pas qu’une couverture qui passe du blanc au rouge ! Je vous le recommande chaudement !

Hubert Guillaud

A propos de Au-delà de l’idéologie de la Silicon Valley, Tèque 4, 160 pages, 16 euros. 

Je vous avais déjà parlé de Tèque : du premier numéro, du second et du troisième.

09.04.2024 à 11:33

L’aporie de la société ordinale 

Hubert Guillaud

L’essai des sociologues Marion Fourcade et Kieran Healy, The ordinal society (Harvard University Press, 2024) livre une réflexion assez générale sur les paradoxes de la numérisation de nos sociétés. C’est un peu dommage. Le livre manque souvent d’exemples, de concepts et de terrains. Reste que l’idée générale d’une société désormais ordonnée par et pour la […]
Texte intégral (3487 mots)

L’essai des sociologues Marion Fourcade et Kieran Healy, The ordinal society (Harvard University Press, 2024) livre une réflexion assez générale sur les paradoxes de la numérisation de nos sociétés. C’est un peu dommage. Le livre manque souvent d’exemples, de concepts et de terrains. Reste que l’idée générale d’une société désormais ordonnée par et pour la mesure est une évidence que l’on partage largement. Fourcade et Healy montrent que la généralisation des classements conduit à une contradiction insoluble qui invisibilise les forces sociales qui traversent chacun. Les systèmes de classements nous promettent une société où nous aurions tous les mêmes chances à l’aune de nos seuls mérites. Rien n’est moins vrai. A invisibiliser le social par l’individualisation, le risque est qu’il nous éclate à la figure. 

Couverture du livre The ordinal society.

Société ordinale, société ordonnée
Nous sommes confrontés à un monde paradoxal expliquent les deux sociologues : l’informatisation promeut à la fois une démocratisation et une hiérarchisation de nos organisations sociales. La société ordinale est une société ordonnée, gouvernée en toute chose par la mesure, qui produit des effets très concrets sur la société dans une forme de stratification inédite qui bouscule la distribution des opportunités. “Une société ordinale crée de l’ordre par le classement et l’appariement automatisés”. La puissance de ses méthodes, des hiérarchies et catégories qu’elle produit semble sans limite, alors que tout le monde n’est pas bien classé par ces outils. Ce pouvoir ordinal concentre le pouvoir de la mesure dans quelques mains, mais surtout il distille l’idée que le classement et l’appariement sont la solution à tous nos problèmes. Nous sommes passés d’un protocole de partage à un système d’organisation, d’évaluation et de contrôle remarquablement pratique qui est devenu la structure même de notre société. 

Cette grande commodité qu’apporte le numérique est à la source de notre acceptabilité de la grande transformation sociale qu’a été la numérisation. Le problème c’est qu’elle produit un système sans échappatoire. C’est là, la “tragédie politique de l’interactivité”, notre participation enthousiaste se termine par notre propre capture, dans une relation fondamentalement asymétrique, où chaque utilisateur est transformé en profit.

L’accumulation de données est devenue l’impératif, un schéma ordinal s’est mis en place pour capturer et traiter les données. Le numérique a permis à la fois de déployer une précision, un détail, une granularité des données sans précédent ainsi qu’un volume et une massification sans précédent. Tous les processus deviennent communs, comme le disait très justement la sociologue Marie-Anne Dujarier en évoquant le paradoxe de la standardisation des dispositifs par le numérique. Toutes les activités se structurent autour de mêmes activités formelles qui consistent pour l’essentiel à remplir des tableurs et produire des calculs. Les activités deviennent partout mimétiques, normalisées, standardisées. Faire de l’éducation ou du marketing revient désormais à utiliser les mêmes procédures. “La logique bureaucratique des organisations a fusionné avec la logique de calcul des machines”. Les machines sont programmées pour utiliser les données et identifier des modèles, qui sont souvent opaques voire peu interprétables à mesure que se démultiplient les données et les calculs. Les modèles statistiques étaient déjà complexes et opaques, ils le sont plus encore avec l’IA. “La combinaison de grands volumes de données, de haut niveaux de précisions et l’absence d’interprétabilité a plusieurs conséquences organisationnelles” : elles encouragent une forme d’orientation magique au profit des résultats et une déférence à leurs égards. Au risque que les calculs se rapprochent bien plus de l’alchimie ou de l’absurde qu’autre chose, les calculs produisent des résultats, comme on le montrait avec la reconnaissance faciale par exemple. Le problème, c’est que cela ne fonctionne pas toujours. Face à la complexité des calculs cependant, le risque est que nous soyons laissés avec toujours “moins de place à la compréhension et moins de moyens d’intervention”

Fourcade et Healy avancent que si nos machines classent c’est d’abord parce que nous mêmes le faisons. Pourtant, la différence avec nos classements, c’est que ceux établis par le numérique sont actionnables, et que les classifications produites à la volée, elles, invisibilisent les interprétations qui sont faites. Les distinctions sont exprimées sous forme de scores et de classements, toujours mouvants, pour nourrir les mesures les unes des autres. Mais comme les hommes, les classifications des machines ne sont pas exemptes d’erreurs, des erreurs qui se déversent d’un classement l’autre, d’autant qu’ils s’entrecroisent les uns les autres.

Dans les défaillances des calculs au risque de produire un “lumpenscoretariat”
Au final, bien souvent, les résultats se révèlent pauvres, extrêmement biaisés quand ce n’est pas profondément problématiques. “Il n’y a pas de solution technique simple à ces problèmes sociologiques”, avancent les sociologues. Fourcade et Healy prennent un exemple frappant. Pour classer des images médicales pour identifier des cas de pneumonies, des chercheurs ont utilisé 160 000 images provenant de nombreux hôpitaux américains. Mais ce que le système d’IA a le mieux identifié, c’est d’abord la différence sociale entre les hôpitaux eux-mêmes. Les hôpitaux n’avaient pas les mêmes patients ni les mêmes qualités d’images. Dans ce cas, le classifieur a surtout appris des différences entre les hôpitaux que ce à quoi une radio de pneumonie ressemble. 

Bien souvent la spécification des modèles par ces méthodes restent pauvres, puisqu’ils doivent apprendre par eux-mêmes. “En incitant les organisations à considérer toutes les données comme utiles et en développant des outils dotés d’une capacité jusqu’ici inégalée à trouver des modèles, les ingénieurs logiciels ont créé des outils dotés de pouvoirs nouveaux et quelque peu extraterrestres.” Le risque, c’est bien sûr de transformer notre monde social en modèle, mais sur des bases particulièrement opaques et avec des performances retorses et qui le sont d’autant plus que ce que l’on doit classer est problématique. Bien souvent on utilise des données inadaptées qu’on mixe à d’autres données inadaptées pour produire un calcul qui approche ce que l’on souhaite calculer. C’est ce que répète souvent Arvind Narayanan : les systèmes ne savent pas calculer ce qui n’est pas clairement défini. Dans le domaine de l’emploi, par exemple, la productivité, la performance ou la qualité d’un candidat ne sont pas des calculs faciles à produire. Et ceux qui en proposent apportent rarement la preuve que leurs calculs fonctionnent. 

Quant à savoir si le résultat est juste ou pas, c’est bien souvent encore plus difficile puisque cela dépend de qui est classé est comment, selon quels critères… ce qui devient encore plus difficile avec des données qui s’adaptent, des catégories qui se reconfigurent sans arrêts… Nous sommes inscrits dans des matrices de caractéristiques fluctuantes qui se recombinent et évoluent sans cesse, rappellent les sociologues. Les systèmes de mesures tendent à chercher une objectivité qui est difficilement atteignable. Au prétexte de pouvoir calculer tout le monde, les systèmes produisent des scores qui fonctionnent très mal pour tous. Certains publics sont mal mesurés et mal classés. C’est ceux que Marion Fourcade appelle le “lumpenscoretariat” du capitalisme numérique. Ceux qui n’entrent pas dans les cases du formulaire, ceux dont la position est trop aberrante par rapport aux données et moyennes, ceux qui vont être maltraités par les systèmes de calcul, et qui seront d’autant plus mal traités que les scores les suivent par devers eux, se répliquent, se consolident dans d’autres index, sous la forme de cascades décisionnels de l’ordinal. 

La performativité généralisée
Fourcade et Healy passent ensuite plusieurs chapitre à nous faire comprendre comment la donnée est convertie en flux de paiements et comment les plateformes assurent leurs monopoles sur les données et renforcent leurs avantages compétitifs par le grand raffinage permanent des données, comme le pratiquent les Gafams, cherchant toujours à renforcer leur propre position, leurs propres avantages. Ils expliquent comment Amazon ou Google ont exploité leur position pour améliorer leur business. Le problème, c’est qu’elles finissent par utiliser les informations qu’elles recueillent pour ajuster leurs business au détriment de leurs clients et de leurs publics, comme le constataient Tim O’Reilly, Illan Strauss et Mariana Mazzucato. Le risque est que demain, elles l’appliquent non seulement aux prix, mais aussi aux salaires, comme le font déjà les plateformes des travailleurs du clic ou les outils de planning RH. Quand toute donnée devient performative, le risque est qu’on ajuste leur performance pour les optimiser. 

Les firmes se sont accaparées les données nécessaires pour accéder à leurs services ainsi que leur propriété. Le business model du numérique tient avant tout de la rente. Les fonctionnalités que permettent l’exploitation des données ou les nouvelles fonctionnalités sont vendues en plus de votre abonnement. Dans le monde des biens non numériques, une vente signifiait un transfert de propriété. Ce n’est plus le cas avec les biens logiciels. Vous n’êtes plus que le locataire d’un service. C’est en cela que “les flux de données deviennent des flots de revenus”. Les industries du numérique, quels que soient les produits qu’elles vendent, finissent par se ressembler jusque dans leurs processus et leurs modèles économiques. “Chaque producteur de bien se transforme en compagnie technologique, chaque compagnie technologique devient un fournisseur de service, et chaque fournisseur de service devient un flux de données transformé en actif”. Avec le numérique, se diffuse d’abord une façon de penser l’économie comme un actif financier. Les données que tous les acteurs s’échangent, rendant le marché toujours plus liquide, ajustable. “L’infrastructure toute entière d’internet peut être transformée en registre qui est aussi un casino”. Tout peut être tokenisé, vendu, transformé en actif, comme l’est le langage lui-même avec l’IA générative. 

Vers une citoyenneté ordinale ?
La classification sociale et le classement quant à eux, produisent des groupes éphémères, composés à la volée, construits puis déconstruits, qui s’ajustent aux contextes, aux frontières plus floues que tranchées, mais où tout doit être hiérarchisé. Les anciennes catégories sociales sont recomposées jusqu’à composer des groupes sans personnes et des personnes sans groupes dans une forme d’individualisation exacerbée. Dans la société pensée par les technologies de classement, l’individu semble devenir auto-souverain. Pour Fourcade et Healy, le risque est que ces évolutions nous conduisent à une citoyenneté ordinale, à une société crédentialiste, c’est-à-dire qui repose uniquement sur les preuves que cette même société produit, une forme d’hyper-méritocratie par le calcul. On ne reviendra pas ici sur toutes les limites de cette vision par le seul mérite. Les mesures du mérites sont partout, sans même parvenir à imposer une mesure objective ou équitable de celui-ci. Dans cette société ordinale, organisée par et pour que ses citoyens soient classés, le rôle de l’Etat n’est plus d’organiser les objectifs de chacun, mais de “s’assurer que le marché les servent bien”. Dans cette société ordinale, les citoyens sont évalués individuellement plutôt qu’en tant que membres de groupes sociaux, sur leurs actions individuelles. Dans une société ordinale, l’important est le classement et ce classement ne permet pas de protéger les gens qui sont mal classés : il n’y a pas de compensation pour les marginalisés et les vulnérables. Nous passons d’une gestion des citoyens par catégories sociales à des gestions individuelles comportementales. Une citoyenneté ordinale, c’est une citoyenneté très individualiste et donc très contrôlée. Et les plus contrôlés sont les moins bien classés, ceux qui relèvent du lumpenscoretariat. Le classement individuel paraît à tous moins controversé et plus équitable, alors qu’il produit une trappe des déclassés, comme l’a montré Issa Kohler-Hausmann dans son livre Misdermeanorland, une enquête sur les délits mineurs, les infractions, les écarts de conduite et leurs jugements expéditifs à l’égard des plus démunis. C’est ce que montre également le philosophe Achille Mbembe quand il évoque leur éviction.  

Dans la société ordinale, chacun semble avoir ce qu’il mérite, comme si la société n’existait pas
“En approfondissant les mesures au niveau individuel, en standardisant la prise de décision grâce à des repères comportementaux de plus en plus détaillés, la collecte de données finit par reconstituer, un petit morceau à la fois, la vérité fondamentale de la structure sociale”. Alors que le développement de la citoyenneté conduit le plus souvent au déclin des différences de genre, de race, de propriété, de religion, de caste… la citoyenneté ordinale permet de contourner les lois contre les discriminations, de réinscrire les discriminations sous le voile du mérite. Même en enlevant toutes les catégories problématiques par exemple, le score de crédit demeure classiste, validiste, raciste, masculiniste… comme le montraient les travaux d’Andreas Fuster ou de Davon Norris. L’ordinalisation de la société est trompeuse. D’abord parce qu’elle transforme la structure sociale du social en choix individuels qui n’en sont pas : le fait de ne pas avoir accès au crédit n’est pas un choix individuel ! Ensuite parce que les positions de chacun sont interprétées comme un choix moral, alors que le fait de ne pas accéder au crédit ne relève pas de son seul comportement, mais bien plus des valeurs morales de la société qui donne plus de crédits à ceux qui ont le plus de moyens. Dans la société ordinale, chacun semble avoir ce qu’il mérite, comme si la société n’existait pas. 

Or, le classement et l’appariement n’ont rien de mesures objectives. En invisibilisant le social, elles le révèlent. On ne peut pas corriger les algorithmes : un système ordinal ne peut pas être ajusté ou corrigé, avancent les deux sociologues. C’est la société elle-même qui est scorée à un niveau individuel. Les outils de classement et d’appariement sont produits pour fonctionner dans certains contextes, ils sont produits au service de certains objectifs pour certaines organisations. Beaucoup de systèmes ordinaux favorisent ceux qui produisent de la valeur pour ceux qui produisent le système. Avoir un bon score de crédit par exemple nécessite d’abord d’utiliser parfaitement le système crédit, tout comme les plateformes du digital labor favorisent ceux qui y performent, ou les médias sociaux favorisent leurs meilleurs éléments (ceux qui postent beaucoup, ceux qui payent…). La stratification ordinale trouve sa justification dans le mérite alors qu’elle n’en relève pas. Le management algorithmique reste une cage invisible ou le mérite qu’il mesure reste illisible et fluctue de manière imprévisible. Deux tiers des conducteurs de Lyft et Uber en 2023 ont été désactivés brutalement à un moment ou à un autre par l’application. Le risque est que nous soyons de plus en plus confrontés à des calculs “aliens”, étranges, improbables… auxquels nous devons nous conformer sans même savoir ce qu’ils agencent ou comment ils l’agencent. Face à des processus d’évaluation opaques et complexes, chacun peut penser que ce sont ses mérites personnels qui sont évalués quand cela reste et demeure un individu et sa position sociale. Les règles de l’ordinalité peuvent changer en permanence pour qu’il soit plus difficile d’en lire ses caractéristiques, la “précarité algorithmique”, elle, s’installe pour de plus en plus en plus d’entre nous, les déclassés des systèmes. 

Se retirer des classements ?
Dans leur conclusion les deux sociologues dénoncent “l’insupportable justesse à être classé”. Les classements et appariement sont partout. Ces outils promettent d’être inclusifs, objectifs et efficaces… Mais ce n’est pas le cas. “Ces intermédiaires algorithmiques remplacent les classifications institutionnelles plus conventionnellement solidaristes ou universalistes par une esthétique de hiérarchie justifiée. Les classements et les notes, ainsi que les correspondances associées qu’ils permettent, soutiennent l’imagination d’une société ordinale.” Nous sommes dans une double vérité. A la fois nous pensons que le classement est juste et à la fois qu’il ne peut pas l’être.

En guise de perspective, les deux sociologues montrent que certaines universités américaines ont décidé de ne plus être classées dans le classement des universités américaines. Mais tout le monde ne peut pas se retirer des classements. “À mesure que la société ordinale s’étend, la recherche d’une égalité formelle sous l’œil du marché éclipse la lutte pour l’égalité substantielle sous l’ombre de l’Etat. Les biens publics et les objectifs collectifs se dissolvent dans le bain acide de l’individualisation et de la concurrence, nous laissant de plus en plus seuls dans un monde hyperconnecté dont l’ordre social est précisément mesuré et, à sa manière factice, car incontestablement « juste ». La vie dans la société ordinale pourrait bien être parfaitement insupportable”.

Pour ceux qui bataillent déjà dans les calculs du social qui sont produits sur eux, c’est déjà le cas

Hubert Guillaud

A propos du livre de Marion Fourcade et Kieran Healy, The ordinal society, Harvard University Press, 2024, 384 pages. 

22.03.2024 à 09:45

Astrocapitalisme et technocapitalisme : la promesse d’un même dépassement

Hubert Guillaud

Ce qui me frappe dans le très sérieux livre d’Irénée Régnauld et d’Arnaud Saint-Martin, Une histoire de la conquête spatiale : des fusées nazies aux astrocapitalistes du New Space (La Fabrique, 2024), c’est combien leur description des transformations de la conquête spatiale pourrait se calquer sur celles des technologies numériques. On a  l’impression d’être immergé […]
Texte intégral (1922 mots)
Couverture du livre d’Irénée Régnauld et Arnaud Saint-Martin.

Ce qui me frappe dans le très sérieux livre d’Irénée Régnauld et d’Arnaud Saint-Martin, Une histoire de la conquête spatiale : des fusées nazies aux astrocapitalistes du New Space (La Fabrique, 2024), c’est combien leur description des transformations de la conquête spatiale pourrait se calquer sur celles des technologies numériques. On a  l’impression d’être immergé dans une même continuité idéologique, politique et économique. L’espace semble un champ technologique comme les autres où la science est d’abord mise au service des intérêts de la Défense et des marchés, avec les mêmes promesses fantasques, assénées avec le même aplomb, pour mieux masquer leurs réalités économiques, extractivistes et matérialistes. Le récit fantaisiste de la conquête d’autres mondes ressemble à s’y méprendre aux promesses du monde numérique, tel qu’on l’entend beaucoup en ce moment avec la révolution de l’IA générative. Il vise, là aussi, à construire du consentement, du spectacle, de la puissance… pour produire un futur inévitable et désirable, alors qu’il produit surtout du désastre, comme toutes les conquêtes avant elle. C’est comme si l’imaginaire humain n’arrivait pas à s’extraire de son rêve de conquête, de dépassement. L’évidence spatiale est le décalque de l’évidence technologique, une idéologie qui se renouvelle à chaque nouvelle proposition technologique, dans une forme de fantasme de puissance permanent qui n’en donne pourtant qu’à ceux qui la dominent et qui en tirent profit.  

Dans leur livre, le consultant Irénée Régnauld – cofondateur du Mouton numérique et infatigable blogueur pour Mais où va le web ? – et le sociologue des sciences Arnaud Saint-Martin déconstruisent patiemment les promesses et les croyances du secteur spatial pour montrer l’intensification marchande et le durcissement de l’idéologie extractiviste. Les promesses servent surtout à lever des fonds et le fait qu’elles soient irréalistes ou fantasques semblent même permettre de lever encore plus de fonds, comme si toute rationalité avait quitté les acteurs du spatial, comme si les récits encore plus fous étaient seuls capables de dynamiser un imaginaire complètement à bout de course à force d’avoir été répété. Le vol habité, le retour sur la Lune, l’exploitation des astéroïdes, la conquête de Mars et sa terraformation… sont autant de “surenchères martiales, propagandistes, extractivistes et commerciales” qui invisibilisent le fait que cette volonté de puissance ne peut se faire qu’au prix de rendre la terre inhabitable. La promesse d’une nouvelle terre se fait en fermant les yeux sur la destruction de la nôtre, comme le montrait récemment la journaliste Celia Izoard en parlant du colonialisme minier. En lisant cette surenchère de promesses, toujours renouvelées, toujours plus découplées de leurs effets (pollution des orbites basses par exemple, développement du pseudo tourisme spatial – alors qu’on ne parle que de voyages lointains…), on a l’impression de lire un livre sur les technologies numériques qui nous noient sous leurs mythes sans jamais regarder leurs effets réels et concrets. On y lit les mêmes transformations : privatisation sur fonds publics, dérégulation tout azimut au profit du marché… tout en clamant toujours son ampleur scientifique, à l’image des nouvelles Lumières des promesses de l’IA. La lecture des quelques pages sur le déploiement de SpaceX par exemple sont particulièrement éclairantes. Les deux auteurs montrent que la capacité de lancement à bas coût de Space X n’a été possible qu’en absorbant une histoire industrielle et l’investissement public. Le New Space capitaliste n’est en rien une rupture avec le fonctionnement passé de l’économie de l’espace, expliquent-ils, mais bien son prolongement par une privatisation inédite. Le principe du réemploi des lanceurs permet certes de générer des économies, mais surtout d’accélérer la cadence des lancements. “La soutenabilité (des modèles du New Space) repose sur l’intensification du volume d’activité” qui génère une fuite en avant, à l’image des flottes de satellites de Starlink à la durée de vie très courte. Comme dans la tech avec Uber, on finance la fuite en avant par des investissements massifs malgré des revenus insuffisants. La promesse d’une nouvelle économie de l’espace repose sur les mêmes moteurs que celle de la tech : des investissements démesurés pour prendre le leadership du secteur par l’intensification de l’exploitation. Au risque de donner un pouvoir sans précédent à ces prestataires, comme c’est déjà le cas avec le fantasque et délirant Elon Musk. Régnauld et Saint-Martin pointent très bien que le secteur profite surtout de la dérégulation qu’organise le secteur public par exemple en favorisant l’investissement par des mesures d’exonérations dédiées au profit du privé et des aides et marchés que l’acteur public leur confie. On a vraiment l’impression de voir rejouer les mêmes politiques que celles qui ont fait naître la Silicon Valley

D’autres pages méritent l’attention. Comme celles qui reviennent sur la justification de l’importance du secteur spatial, à savoir la “rhétorique des retombées” économiques (ce ruissellement inexistant qui profite surtout au secteur spatial lui-même) ou celles de la justification scientifique (quand l’immense majorité des recherches sont coûteuses et inutiles), alors que la justification réelle du secteur repose bien plus sur son image innovante pour “persuader le contribuable de la validité” et de l’importance du secteur pour lui-même, que ce soit pour des questions de prestige ou d’importance géopolitique… 

Ce qui m’a frappé dans ce livre, c’est combien le développement économique du spatial est tout entier lié à sa dérégulation, qui vise bien plus à enlever les problèmes qu’à les régler. C’est l’assouplissement des règles sur l’usage commercial de l’ISS qui permet d’étendre sa commercialisation à des entreprises ou des acteurs privés. C’est l’enterrement du principe de non-appropriation par le Space Act de 2015 qui permet le déploiement d’une nouvelle économie spatiale et ouvre l’exploitation de ses ressources. Ce sont les exceptions fiscales en faveur de l’innovation qui favorisent les levées de fonds qui permettent de faire croire à la rentabilité d’un secteur fragile, comme l’est par exemple le tourisme spatial. Reste que même les promesses d’exploitation minière qui semblent la nouvelle justification de l’extension spatiale, demeurent très spéculatives, rappellent les auteurs. Les richesses des sous-sols, les promesses de l’Hélium 3 sont pour l’instant théoriques. “La mission japonaise Hayabusa 2 lancée en 2014 et revenue sur Terre en décembre 2021 a permis de ramener moins de 100 milligrammes de poussière de l’astéroïde Ryugu pour un coût de 200 millions d’euros”. Les mines spatiales semblent encore très très très loin ! 

Mais surtout, rappellent-ils, la pollution et l’encombrement orbitale pourraient à terme compromettre l’utilisation même de l’espace. Outre les satellites innombrables, les débris orbitaux sont également innombrables. La désorbitation reste non contraignante, alors que les lancements et l’obsolescence des satellites s’accélèrent. A force de dérégulation, les solutions pour nettoyer notre espace proche s’éloignent alors que leur coût s’envole. L’astrocapitalisme ressemble surtout à “château de carte”, pour ne pas dire une pyramide Ponzi ! 

Le livre d’Irénée et Arnaud est certes épais, précis, copieux, dense, très documenté, trop exigeant, mais il interroge parfaitement les idéologies qui sont à l’oeuvre (je n’aime pas le terme d’imaginaires qui, à mon sens, dépolitise les fictions qui nous sont vendues), celles qui nous vendent des espoirs d’un autre monde en invisibilisant la destruction du nôtre. Ils déconstruisent à leur tour nos rêves de colonisation lointaine, comme l’avaient fait l’astrophysicienne Sylvia Ekström et Javier Nombela dans le tout aussi excellent Nous ne vivrons pas sur Mars, ni ailleurs

Au terme du livre, on se pose une question très saine finalement. Avons-nous vraiment besoin de cette débauche de faux espoirs ? De cette débauche de rêves qui ne deviendront jamais réalité ? On se demande pourquoi autant de gens croient au dépassement de notre humanité, dans des fusées qui ne mènent nulle part comme dans des systèmes techniques comme l’IA qui nous réduisent à n’être rien ? Tout cet argent dépensé pour aller sur des cailloux qui ne peuvent rien nous promettre me font penser à tout cet argent dépensé pour barder le monde de technologies dont les promesses sont très éloignées de leurs réalisations concrètes. Qu’on s’entende néanmoins, je ne dis pas qu’il ne faut pas de technologies, mais pourrions nous garder en tête que leur développement devrait être limité et contraint, circonscrit à des réalités plus qu’à des fantasmes ? L’IA et la tech partout nous renvoient au même délire que cette conquête spatiale absolutiste. Il n’y a pas d’enjeu à envoyer des humains sur Mars, pas plus qu’il n’y a d’enjeux à développer une infrastructure numérique totale et omniprésente. Quand est-ce que les fantasmes cesseront d’alimenter notre développement technologique pour mieux prendre en compte ses limites ? 

Hubert Guillaud

A propos du livre d’Irénée Régnauld et Arnaud Saint-Martin, Une histoire de la conquête spatiale : des fusées nazies aux astrocapitalistes du New Space, La Fabrique, 2024, 288p., 20 euros.

07.03.2024 à 16:07

L’informatique ne peut pas faire d’erreur !

Hubert Guillaud

Le “scandale de la Poste britannique” n’a pas fait grand bruit chez nous (hormis notamment dans Le Monde, dès 2021, et documenté régulièrement depuis). C’est l’histoire d’un logiciel de comptabilité et d’inventaire pour gérants de petits bureaux de Poste (le logiciel Horizon, développé par Fujitsu) qui produisait des soldes comptables incorrects qui a conduit a […]
Texte intégral (593 mots)

Le “scandale de la Poste britannique” n’a pas fait grand bruit chez nous (hormis notamment dans Le Monde, dès 2021, et documenté régulièrement depuis). C’est l’histoire d’un logiciel de comptabilité et d’inventaire pour gérants de petits bureaux de Poste (le logiciel Horizon, développé par Fujitsu) qui produisait des soldes comptables incorrects qui a conduit a accuser plus de 3000 personnes de fraude, conduisant à d’innombrables drames humains : condamnations, faillites, emprisonnements, suicides… comme le résume très bien l’article de Wikipédia. La diffusion en janvier d’une série au succès spectaculaire sur les ondes britanniques sur le sujet (Mr Bates vs The Post Office) a bouleversé l’opinion et poussé jusqu’au Premier Ministre a réagir.

La série Mr Bates vs. the Post Office.

Dans l’édito que la revue Nature consacre à ce scandale, le magazine souligne que l’un des problèmes qu’a rencontré la justice britannique… était que la jurisprudence considère que l’informatique ne peut pas faire d’erreur ! En Angleterre et au Pays de Galles, les tribunaux considèrent que, en droit, les ordinateurs fonctionnent correctement, sauf preuve du contraire.

“La principale source d’injustice potentielle avec une loi qui présume que les opérations informatiques sont fondamentalement correctes est que si quelqu’un veut remettre en question ou contester les preuves informatiques… il lui incombe de produire la preuve d’une utilisation ou d’un fonctionnement inapproprié.” Or, apporter cette preuve est particulièrement difficile sans accéder au code du logiciel. Les accusés d’Horizon n’en avaient aucun moyen et il a fallu une procédure collective et opiniâtre pour qu’ils arrivent à se faire entendre par la justice et par la Poste britannique.

L’avocat britannique Paul Marshall et ses collègues estiment que la présomption de fiabilité doit être remplacée par l’exigence que les données et le code puissent être divulgués devant les tribunaux. “Si nécessaire, cette divulgation doit inclure les normes et protocoles de sécurité des informations ; les rapports d’audits de systèmes ; les preuves démontrant que les rapports d’erreurs et les modifications du système ont été gérés de manière fiable ; et les enregistrements des mesures prises pour garantir que les preuves ne soient pas falsifiées.” Si ces éléments montrent que le système est problématique, alors le juge doit pouvoir demander une inspection plus précise.

Quand ils sont mis en cause, les systèmes informatiques devraient pouvoir être inspectés par les tribunaux. Leur supposée fiabilité, comme le secret commercial, ne devraient pas être des obstacles à la vérité.

Hubert Guillaud

20.02.2024 à 13:04

Une brève histoire de l’évolution des recommandations algorithmiques

Hubert Guillaud

Le billet sur l’effondrement de l’information que je publiais en janvier a fait beaucoup réagir, notamment des journalistes – certainement parce qu’ils ont été nombreux à se retrouver dans la description, assez sombre j’en conviens, que je dressais des évolutions en cours dans le monde de l’information. Quand Steven Jambot, animateur de l’Atelier des médias […]
Texte intégral (2806 mots)

Le billet sur l’effondrement de l’information que je publiais en janvier a fait beaucoup réagir, notamment des journalistes – certainement parce qu’ils ont été nombreux à se retrouver dans la description, assez sombre j’en conviens, que je dressais des évolutions en cours dans le monde de l’information. Quand Steven Jambot, animateur de l’Atelier des médias sur RFI (cette belle émission qui a 20 ans, animée longtemps par Philippe Couve puis Julien le Bot et Ziad Maalouf…) m’a proposé de venir en parler… je n’ai pas hésité. L’émission (à écouter ici) m’a donné l’occasion de tenter de rassembler une petite histoire de l’évolution des recommandations algorithmiques.

L’exercice n’est pas facile (surtout à l’oral) et je me dis que cela vaut le coup d’essayer de caractériser simplement cette histoire. L’idée n’est pas de faire une thèse sur le sujet, juste d’essayer de faire saisir simplement les évolutions que nous avons vécu ces 20 dernières années, pour mieux saisir la situation de blocage où les ajustements algorithmiques nous ont conduit. 

L’âge de la souscription et le modèle des recommandations simples (2000-2010)
La première génération de systèmes de recommandation commence à être assez ancienne. C’est celle du filtrage collaboratif qui consiste à apparier les produits entre eux par exemple. C’est une fonction qui existe encore sur Amazon, le fameux, “les clients qui ont acheté ce produit ont également acheté tel autre produit”. C’était également le principe sous lequel fonctionnait Netflix quand il était encore une entreprise qui envoyait des DVD par la poste, qui créait une moyenne entre les notes, les genres, les nouveautés et les demandes locatives pour produire des recommandations assez simples pour orienter l’utilisateur dans les contenus à louer. Les systèmes de recommandation étaient alors sommaires, fonctionnant principalement sur la modalité de la souscription et de l’abonnement : sur les premiers médias sociaux comme dans la blogosphère, on s’abonne aux gens qui nous intéressent et on reçoit des notifications de ce qu’ils ont publié. 

Ces méthodes vont peu à peu se complexifier et s’ajuster en fonction des critères disponibles, comme la popularité, les préférences ou la qualité. Mais elles vont également être très tôt manipulées par les plateformes. Chez Amazon par exemple en exagérant la recommandation de produits similaires pour déclencher l’achat (beaucoup de gens achètent des produits dissociés, Amazon va favoriser la recommandation d’un DVD d’un même réalisateur par exemple plutôt qu’une recommandation d’un produit trop alternatif pour favoriser le passage à l’achat du produit supplémentaire). Chez Netflix en diminuant les recommandations des nouveautés au profit des titres de la longue traîne bien moins louées et bien plus disponibles. Dans les médias sociaux en recommandant les profils les plus populaires sur ceux qui le sont moins. 

On peut faire courir cette première période des années 2000 à 2010. Signalons cependant l’évolution, en 2006, de la “factorisation matricielle”, c’est-à-dire l’invention de systèmes de recommandations plus complexes. C’est le cas du concours lancé par Netflix à l’époque pour améliorer son système de recommandation qui va générer des combinaisons d’attributs pour caractériser les contenus qui vont très bien fonctionner sur des catalogues limités, mais pas du tout pour caractériser les messages infinis publiés sur les médias sociaux. 

L’âge du réseau et du modèle des propagations (2010-2016)
Dans le modèle de réseau, la propagation d’un message ne dépend plus seulement des personnes auxquelles vous êtes abonnées, mais est amplifiée ou rétrogradée par les effets de réseaux. Plus un message est relayé, plus il est amplifié. Ce sont les réactions des autres qui structurent la recommandation. C’est l’effet de la prise en compte du like, du commentaire et du partage sur Facebook avec le lancement en 2010 de l’Edge Rank qui va attribuer une note aux contenus pour les classer selon l’intérêt des utilisateurs… ou la prise en compte du commentaire et du RT sur Twitter qui vont être prédominants dans les recommandations jusqu’en 2016. Ce scoring des contenus selon l’intérêt des utilisateurs va faire monter certaines catégories de contenus, par exemple les photos et les vidéos sur FB, mais également favoriser les polémiques en faisant remonter les posts ou les tweets les plus commentés. Dans l’âge du réseau la prime va à la visibilité : on accroît la portée de ce qui fonctionne le mieux, comme l’expliquait Arvind Narayanan. En 2015, Youtube intègre à son tour l’apprentissage automatique de Google Brain ce qui va transformer les recommandations de son moteur en privilégiant le temps passé (le temps passé à regarder une vidéo devient le critère de qualité). 

L’âge algorithmique et le modèle de la similarité (2016-2021)
L’intégration d’ajustements algorithmiques prenant en compte de plus en plus de critères transforment à nouveau les moteurs de recommandation. Durant cette période, les ajustements algorithmiques sont réguliers, continus produisant des recommandations en mouvement permanent, comme l’expliquait Arvind Narayanan en observant les révélations sur le fonctionnement de Twitter, l’année dernière. Mais la transformation principale de cette période consiste à mobiliser l’apprentissage automatique pour prédire la similarité.  

Dans le modèle algorithmique, les utilisateurs ayant des intérêts similaires (tels que définis par l’algorithme sur la base de leurs engagements passés) sont représentés plus près les uns des autres. Plus les intérêts d’un utilisateur sont similaires à ceux définis, plus il est probable que le contenu lui sera recommandé. Le contenu ne dépend donc plus des gens auxquels on est connecté ou des mouvements de foule, mais d’un calcul de similarité de plus en plus complexe et mouvant. 

Cette similarité consiste à calculer le comportement, c’est-à-dire à tenter de regarder ceux qui apprécient les mêmes choses que nous pour favoriser l’engagement. Forts de données plus massives sur leurs utilisateurs, les plateformes affinent leurs recommandations. En introduisant par exemple la mesure des “interactions sociales significatives” en 2018, Facebook devient capable de prédire les contenus que vous allez liker ou commenter pour vous les proposer. Le poids de la souscription (les personnes auxquelles on est abonné) ou du réseau (les contenus viraux) sont dégradés au profit d’un calcul plus complexe qui tente de prendre en compte le sujet, sa qualité, les réactions des autres… 

Avec ces modèles, le nombre d’utilisateurs des plateformes explose… et chacune affine ses principes d’engagements valorisant des comportements très différents les uns des autres. TikTok par exemple valorise les vidéos regardées jusqu’au bout et donc des vidéos courtes, mais valorise également la pulsion, la réaction immédiate via le swipe, qui va avoir tendance à favoriser certains contenus sur d’autres. Le flux des contenus proposé est ajusté pour favoriser également de la diversité. 

Dans cette complexité nouvelle, les contenus rétrogradés sont rendus opaques et invisibles, car la portée naturelle du contenu dépend de fortes variations et les utilisateurs ne peuvent savoir si les contenus qu’ils ne voient pas ont été rétrogradés ou l’ont été parce qu’ils sont moins bons. La logique de la viralité demeure néanmoins le point fort des réseaux sociaux : la majorité des engagements proviennent toujours d’une petite fraction des contenus (20% des vidéos les plus vues font 70% des vues sur TikTok ou YouTube). Dans cette complexité, les plateformes néanmoins gardent la main : en augmentant la portée des contenus publicitaires dont elles ont de plus en plus besoin pour dégager des bénéfices et en rétrogradant certains types de contenus…   

L’âge du cynisme, des distorsions de marché et de l’emballement du modèle commercial (depuis 2021…) 
On pourrait dire que la recherche d’un engagement optimal ou idéal s’effondre en 2021. Le symbole, c’est l’éviction de Trump de FB et Twitter, mais cet engagement avait déjà été mis à mal avec la pandémie, quand les plateformes ont été contraintes de mieux qualifier leurs contenus et de produire des contenus vérifiés. Confrontées à leurs effets, les plateformes se mettent à se détourner de certains types de contenus, notamment politiques. Elles dégradent volontairement la performance de l’information (et des hyperliens) des grands sites de presse pour promouvoir des interactions qui peuvent sembler apolitiques. Elles semblent en revenir aux racines des réseaux sociaux, c’est-à-dire privilégier les discussions entre utilisateurs, à l’image du réseau social Threads. Le rachat de Twitter par Musk en 2022 et les transformations que va subir Twitter depuis vont dans le même sens, puisque sur Twitter désormais, ce sont les comptes qui payent qui vont être mis en avant. La qualité et la viralité “naturelle” sont dégradées. Les plateformes ne cherchent plus à promouvoir l’intérêt général, mais ne se focalisent plus que sur l’amplification de leur modèle commercial. En 2021, FB avait tenté de mesurer la qualité des messages qu’il proposait, mais en faisant disparaître les messages les plus négatifs qui avaient également la plus grande portée, les utilisateurs étaient insatisfaits. FB a fait marche arrière, assumant son cynisme commercial. 

C’est ce qu’explique d’ailleurs un passionnant article signé Tim O’Reilly, Illan Strauss et Mariana Mazzucato qui constate que dans les rentes d’attention algorithmiques, les plateformes se focalisent désormais sur le service aux annonceurs plus que sur la qualité de l’expérience utilisateur (qui lui, préfère l’âge de la souscription et du réseau, l’âge d’avant l’emmerdification algorithmique – “l’emmerdocène” –  comme dit Cory Doctorow, parce que ces modèles permettaient aux utilisateurs de construire des relations et d’en rester maître). Ce qui a changé, c’est que les plateformes sont désormais bien moins en concurrence qu’en situation de monopole, et qu’il est difficile pour les utilisateurs de les quitter totalement. Dans des marchés sans grande concurrence, les plateformes n’ont plus à se soucier que leurs algorithmes soient équitables. Les clics des utilisateurs restent dirigés vers les premiers résultats que les plateformes proposent, donnant un pouvoir considérable aux classements qu’elles mobilisent et notamment à la mise en avant publicitaire dans des environnements où l’utilisateur ne paye pas. Quand l’augmentation du nombre d’utilisateurs ralentit, l’augmentation des bénéfices devient fonction de la quantité de publicité délivrée ou repose sur le fait de faire payer les utilisateurs. Pour les plateformes, l’enjeu désormais n’est plus de fournir la meilleure correspondance de la recommandation, mais la plus rentable. Sur Google, les résultats publicitaires n’ont cessé de grimper au sommet des recommandations et de s’invisibiliser par rapport aux résultats “naturels” (en 2011, 94 % des clics sur Google étaient organiques et seulement 6 % étaient dirigés vers des publicités… Il serait intéressant de connaître le résultat actuel !). Chez Amazon, tous les résultats sont désormais issus de positionnements publicitaires (¾ des vendeurs d’Amazon Market Place paient pour obtenir de la visibilité) et là encore le fait que ce soit des résultats publicitaire devient complètement invisible à l’utilisateur. Amazon a ainsi gonflé ses prix publicitaires tout en diminuant leur rendement (“En 2022, la publicité est devenue une activité très rentable pour Amazon se montant à 37,7 milliards de dollars. Le coût moyen par clic sur les publicités Amazon a doublé, passant de 0,56$ en 2018 à 1,2$ en 2021: 30 cents doivent désormais être dépensés en publicités pour générer 1$ de ventes.”). 

Pour O’Reilly, Strauss et Mazzucato, nous sommes désormais entrés dans des plateformes de distorsion des marchés, où les préférences et les possibilités de paramétrages des utilisateurs disparaissent de plus en plus – justifiant la réaffirmation d’un droit au paramétrage, comme le proposent Célia Zolynski et Jean Cattan (et Ethan Zuckerman il y a quelques années). L’attention des utilisateurs est désormais majoritairement pilotée au profit de ceux qui sont disposés à payer, au détriment de l’emplacement ou de la réputation qui sont de plus en plus dévalorisées. Ainsi, si vous cherchez des pneus, Google va vous recommander les grands annonceurs très loin devant votre garage de proximité. 

Dans leur article, O’Reilly, Strauss et Mazzucato estiment que pour remédier à ces distorsions de concurrence, il faudrait que les régulateurs puissent comparer le classement “organique” d’un produit avec son classement payant, favoriser le prix final pour écarter les fausses promotions… mais surtout, ils s’interrogent sur l’idée de définir un rendement publicitaire maximal. Reste que l’appareil réglementaire en la matière est confronté à une lacune béante : le manque d’information régulière et obligatoire des plateformes sur leurs paramètres opérationnels permettant de contrôler le niveau de monétisation de l’attention des utilisateurs ! Or, les plateformes connaissent la charge publicitaire, connaissent les ratios clics organiques/clics publicitaires et l’évolution de ces mesures dans le temps… C’est au régulateur d’armer sa mesure de la régulation ! Ils en appellent également à des mesures plus précises, géographiquement et par produit. Google dispose de 9 produits qui ont plus d’un milliard d’utilisateurs, mais les informations sur la publicité qu’elles rapportent ne fait pas de distinguo entre ces services ! Dans leurs préconisations, les auteurs recommandent également de permettre aux utilisateurs d’avoir des préférences persistantes, proche du droit au paramétrage que défendent chez nous Célia Zolynski et Jean Cattan. 

O’Reilly, Strauss et Mazzucato concluent sur les perspectives problématiques que vont générer sur ces marchés déjà opaques, l’arrivée des contenus synthétiques de l’IA, avec le risque d’un renforcement de l’autorité algorithmique et rendre plus difficile encore la détection des comportements problématiques des plateformes, c’est-à-dire les distorsions qu’elles accomplissent.  

Reste encore un élément à prendre en compte dans ces évolutions. Malgré tous leurs efforts, l’efficacité de ces modèles demeure extrêmement faible. Le taux d’engagement, c’est-à-dire la probabilité qu’un utilisateur s’intéresse à un message qui lui est recommandé, demeure partout extrêmement faible : il est de moins de 1% sur la plupart des plateformes. Malgré le déluge d’analyse de données, les gens demeurent peu prévisibles. Les plateformes savent identifier les contenus viraux et les contenus de niches, mais c’est à peu près tout. Quant au taux de clic publicitaire, il est encore plus bas. Cela n’empêche pas les plateformes de centrer leur performance sur ce qui leur rapporte. A défaut d’avoir changé le monde, elles se sont converties à leur seule réussite économique. 

Hubert Guillaud

20.02.2024 à 12:21

Le code contre le texte

Hubert Guillaud

Ce récit d’une écrivaine à la découverte du code a la fraîcheur du béotien qui va à la rencontre d’un monde qu’il ne comprend pas où qu’il prétend ne pas saisir. Dans Python (P.O.L., 2024), la romancière Nathalie Azoulai s’interroge sur cette langue vivante “qui pourtant ne se parle pas”, sur cette révolution graphique et […]
Texte intégral (659 mots)
Couverture du livre de Nathalie Azoulai, Python.

Ce récit d’une écrivaine à la découverte du code a la fraîcheur du béotien qui va à la rencontre d’un monde qu’il ne comprend pas où qu’il prétend ne pas saisir. Dans Python (P.O.L., 2024), la romancière Nathalie Azoulai s’interroge sur cette langue vivante “qui pourtant ne se parle pas”, sur cette révolution graphique et la fascination qu’elle provoque. Que ce soit pour ces jeunes codeurs, absorbés dans leur monde, comme de la puissance de la science sur les lettres. Azoulai multiplie les saillies, les réflexions que lui inspirent ce monde et ces gens. Souvent avec une belle pertinence, comme quand elle pointe que le langage humain semble être devenu secondaire… Cette défaite des lettres sur la science, semble être aussi pour Azoulai, la défaite d’une génération sur une autre. Le code incarne à la fois la jeunesse et le futur. Une autre forme d’art qui ne parle plus qu’aux machines ou un nouveau pouvoir sur le monde, capable de le façonner, de l’exécuter, sans qu’on sache si c’est pour le transformer ou pour le terminer. Coder, c’est comme le contraire de la littérature, puisque c’est tenter d’enlever son ambiguïté au monde, en réduire le sens pour mieux le dominer.

Le livre de Nathalie Azoulai n’est pourtant pas sec comme une page de code, au contraire. L’écrivaine va à la rencontre des jeunes humains de ce monde, tente de les entendre, même si la “daronmancière” semble plus fascinée par la portée érotique de leur jeunesse que par ce qu’ils produisent. C’est peut-être la limite de l’exercice : Azoulai ne parvient pas entrer dans le vide que construit ce monde, que ce soit le flow du codeur, mais plus encore, à regarder la pauvreté de ce que les data assemblent. Leur puissance en reste au niveau du fantasme romantique… Et celui-ci, faute d’avoir percé le code, ne parvient pas à sortir d’une fascination déçue, à l’image de la convocation finale de ChatGPT, bien trop convenue.

Avec sa naïveté feinte à la Xavier de la Porte, elle nous embarque pourtant. Azoulai regarde avec désir le monde qui vient, comme pour assouvir ou retrouver un instant la puissance perdue des lettres. Elle oublie (tout en ne cessant de le montrer) que cette puissance n’est que jeunesse. Qu’elle est aussi feinte que l’a été la puissance des lettres. De la figure du poète à celle du codeur, nous sommes confrontés à un même héroïsme feint, celle d’une puissance à dire le monde, à le réduire, à l’instrumentaliser plus qu’à le libérer.

Hubert Guillaud

A propos du roman de Nathalie Azoulai, Python, P.O.L., 2024.

6 / 10
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Frédéric LORDON
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Emmanuel PONT
Nicos SMYRNAIOS
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓