LePartisan.info À propos Podcasts Fil web Écologie Blogs Revues Médias
Hubert Guillaud
Souscrire à ce FLUX

Hubert GUILLAUD


Journaliste et essayiste

▸ les 10 dernières parutions

25.04.2024 à 12:33

Une Silicon Valley, plus de droite que de gauche

Hubert Guillaud

En devenant enfin thématique, le 4e numéro de Tèque réussit assurément sa mue. Loup Cellard et Guillaume Heuguet y livrent une intéressante critique de l’idéologie californienne (portée notamment dans le livre éponyme de Richard Barbrook et Andy Cameron, mais également par Fred Turner dans Aux sources de l’utopie numérique). Ils rappellent fort justement que le […]
Texte intégral (1395 mots)
“Au-delà de l’idéologie de la Silicon Valley” : Tèque n°4.

En devenant enfin thématique, le 4e numéro de Tèque réussit assurément sa mue. Loup Cellard et Guillaume Heuguet y livrent une intéressante critique de l’idéologie californienne (portée notamment dans le livre éponyme de Richard Barbrook et Andy Cameron, mais également par Fred Turner dans Aux sources de l’utopie numérique). Ils rappellent fort justement que le pouvoir économique de la Silicon Valley précède de loin le moment hippie et que Barbrook et Cameron sous-estiment particulièrement le rôle de l’industrie technologique et des fonds d’investissement qui lui sont bien antérieurs. Le positionnement technologique de la Silicon Valley a d’abord été porté et est encore porté par des notables, des personnalités autoritaires, des investisseurs qui ne partagent en rien les idéaux communautaires. Les cadres de la Valley ont toujours bien plus tenus de bourgeois réactionnaires que de socialistes libertaires. Le darwinisme et l’eugénisme, c’est-à-dire le fond très réactionnaire des industriels de la Valley, n’est pas que le fait d’un Musk ou d’un Bezos, mais se retrouvent en continue chez tous ceux qui ont fait la Silicon Valley depuis le 19e siècle (comme le montrent d’ailleurs Timnit Gebru et Emile Torres dans leur dernier article pour First Monday sur l’idéologie de l’IA). Les élites californiennes ont toujours porté peu d’attention à l’égard du prolétariat qu’ils ont toujours largement exploité.

Dans ce numéro, on découvre également une belle contribution de Fred Turner qui critique la notion de prototypage, qui rappelle combien elle est enracinée dans la pratique ingénieure comme dans la théologie protestante, et combien ceux-ci permettent de produire des récits permettant de fusionner des orientations commerciales et politiques. Par le prototype, les ingénieurs deviennent des ministres du culte ingénieurial, capables de proposer des mondes sociaux idéaux, à leur propre gloire. 

Charlie Tyson dresse, lui, un passionnant portrait de Peter Thiel, symbole réactionnaire de la Silicon Valley, qui fait se rejoindre ses stratégies d’investissement et ses combats idéologiques, pour imposer au monde les uns comme les autres. 

Le sociologue de la finance, Fabien Foureault, lui, explique dans un excellent papier combien la technologie a permis de construire des machines financières pour dépasser la stagnation capitaliste, notamment en permettant de développer le capital-risque qui n’a cessé de se construire comme s’il était la seule réponse aux crises du capitalisme contemporain. Pourtant, le capital risque a intrinsèquement un caractère dysfonctionnel. Il favorise les emballements et effondrements, peine à inscrire une utilité sociale, et surtout, ses performances financières restent extrêmement médiocres selon les études longitudinales. “L’économie numérique, financée par le capital-risque, a été conçue par ces élites comme une réponse au manque de dynamisme du capitalisme tardif. Or, on constate que cette activité se développe en même temps que les tendances à la stagnation et qu’elle n’arrive pas à les contrer.” Sa contribution à la croissance semble moins forte que le crédit bancaire et le crédit public ! “Le rendement de la financiarisation et de l’innovation est de plus en plus faible : toujours plus d’argent est injecté dans le système financier pour générer une croissance en déclin sur le long-terme”

On y trouve également un extrait du livre de Ruha Benjamin (Race after technology, dont j’avais longuement parlé), qui nous rappelle que le design tient surtout d’un projet colonisateur, qui ne parvient pas à accompagner l’émancipation.

Un autre extrait de livre, celui de Orit Halpern et Robert Mitchell, The Smartness Mandate, MIT Press, 2023), vient discuter des limites de l’injonction à créer un monde parfaitement optimisé, qui vient renouveler la logique de la promesse, sans ne plus proposer aucun progrès. Ils rappellent que les machines et les algorithmes sont devenus les principes d’une gouvernance rationnelle qui cherche toujours à s’adapter aux transformations. Ils rappellent que l’optimisation ingénieuriale signifiait obtenir “la meilleure relation entre les performances minimales et maximales au sein d’un système”, c’est-à-dire une mesure relative au système étant donné ses buts et contraintes, offrant le plus de bénéfices. Mais depuis, cette optimisation pour elle-même a surtout montré ses limites et ses échecs. Elle a produit des solutions pour certains mais pas pour tous. Les deux auteurs soulignent que cette optimisation repose sur la logique de dérivation, propres aux produits dérivés financiers, c’est-à-dire, à produire des dérivés de données pour automatiser, en prenant par exemple en compte des signaux qui ne devraient pas être pris en compte pour construire des systèmes, en ajoutant ainsi aux systèmes d’information des voyageurs, des dérivés qui ne reposent pas seulement sur l’information dont on dispose sur ceux-ci pour mesurer le risque, mais sur d’autres facteurs comme le temps séparant l’achat d’un billet du départ, le fait qu’il soit réglé en espèces, etc. Les dérivés des systèmes d’information permettent “de se prémunir contre les risques sans se retrouver légalement responsables des instruments instables” produits, comme c’est le cas avec les produits dérivés financiers. 

Enfin, le recueil se termine par un inédit de Dave Karpf, sur le longtermisme. Dont je ne retiendrais qu’une phrase pour illustrer les limites des développements technologiques actuels : “Nous sommes en train de brûler la forêt tropicale pour que les ordinateurs puissent faire des dessins animés à notre place”

Ce nouveau numéro de Tèque n’a pas qu’une couverture qui passe du blanc au rouge ! Je vous le recommande chaudement !

Hubert Guillaud

A propos de Au-delà de l’idéologie de la Silicon Valley, Tèque 4, 160 pages, 16 euros. 

Je vous avais déjà parlé de Tèque : du premier numéro, du second et du troisième.

09.04.2024 à 11:33

L’aporie de la société ordinale 

Hubert Guillaud

L’essai des sociologues Marion Fourcade et Kieran Healy, The ordinal society (Harvard University Press, 2024) livre une réflexion assez générale sur les paradoxes de la numérisation de nos sociétés. C’est un peu dommage. Le livre manque souvent d’exemples, de concepts et de terrains. Reste que l’idée générale d’une société désormais ordonnée par et pour la […]
Texte intégral (3487 mots)

L’essai des sociologues Marion Fourcade et Kieran Healy, The ordinal society (Harvard University Press, 2024) livre une réflexion assez générale sur les paradoxes de la numérisation de nos sociétés. C’est un peu dommage. Le livre manque souvent d’exemples, de concepts et de terrains. Reste que l’idée générale d’une société désormais ordonnée par et pour la mesure est une évidence que l’on partage largement. Fourcade et Healy montrent que la généralisation des classements conduit à une contradiction insoluble qui invisibilise les forces sociales qui traversent chacun. Les systèmes de classements nous promettent une société où nous aurions tous les mêmes chances à l’aune de nos seuls mérites. Rien n’est moins vrai. A invisibiliser le social par l’individualisation, le risque est qu’il nous éclate à la figure. 

Couverture du livre The ordinal society.

Société ordinale, société ordonnée
Nous sommes confrontés à un monde paradoxal expliquent les deux sociologues : l’informatisation promeut à la fois une démocratisation et une hiérarchisation de nos organisations sociales. La société ordinale est une société ordonnée, gouvernée en toute chose par la mesure, qui produit des effets très concrets sur la société dans une forme de stratification inédite qui bouscule la distribution des opportunités. “Une société ordinale crée de l’ordre par le classement et l’appariement automatisés”. La puissance de ses méthodes, des hiérarchies et catégories qu’elle produit semble sans limite, alors que tout le monde n’est pas bien classé par ces outils. Ce pouvoir ordinal concentre le pouvoir de la mesure dans quelques mains, mais surtout il distille l’idée que le classement et l’appariement sont la solution à tous nos problèmes. Nous sommes passés d’un protocole de partage à un système d’organisation, d’évaluation et de contrôle remarquablement pratique qui est devenu la structure même de notre société. 

Cette grande commodité qu’apporte le numérique est à la source de notre acceptabilité de la grande transformation sociale qu’a été la numérisation. Le problème c’est qu’elle produit un système sans échappatoire. C’est là, la “tragédie politique de l’interactivité”, notre participation enthousiaste se termine par notre propre capture, dans une relation fondamentalement asymétrique, où chaque utilisateur est transformé en profit.

L’accumulation de données est devenue l’impératif, un schéma ordinal s’est mis en place pour capturer et traiter les données. Le numérique a permis à la fois de déployer une précision, un détail, une granularité des données sans précédent ainsi qu’un volume et une massification sans précédent. Tous les processus deviennent communs, comme le disait très justement la sociologue Marie-Anne Dujarier en évoquant le paradoxe de la standardisation des dispositifs par le numérique. Toutes les activités se structurent autour de mêmes activités formelles qui consistent pour l’essentiel à remplir des tableurs et produire des calculs. Les activités deviennent partout mimétiques, normalisées, standardisées. Faire de l’éducation ou du marketing revient désormais à utiliser les mêmes procédures. “La logique bureaucratique des organisations a fusionné avec la logique de calcul des machines”. Les machines sont programmées pour utiliser les données et identifier des modèles, qui sont souvent opaques voire peu interprétables à mesure que se démultiplient les données et les calculs. Les modèles statistiques étaient déjà complexes et opaques, ils le sont plus encore avec l’IA. “La combinaison de grands volumes de données, de haut niveaux de précisions et l’absence d’interprétabilité a plusieurs conséquences organisationnelles” : elles encouragent une forme d’orientation magique au profit des résultats et une déférence à leurs égards. Au risque que les calculs se rapprochent bien plus de l’alchimie ou de l’absurde qu’autre chose, les calculs produisent des résultats, comme on le montrait avec la reconnaissance faciale par exemple. Le problème, c’est que cela ne fonctionne pas toujours. Face à la complexité des calculs cependant, le risque est que nous soyons laissés avec toujours “moins de place à la compréhension et moins de moyens d’intervention”

Fourcade et Healy avancent que si nos machines classent c’est d’abord parce que nous mêmes le faisons. Pourtant, la différence avec nos classements, c’est que ceux établis par le numérique sont actionnables, et que les classifications produites à la volée, elles, invisibilisent les interprétations qui sont faites. Les distinctions sont exprimées sous forme de scores et de classements, toujours mouvants, pour nourrir les mesures les unes des autres. Mais comme les hommes, les classifications des machines ne sont pas exemptes d’erreurs, des erreurs qui se déversent d’un classement l’autre, d’autant qu’ils s’entrecroisent les uns les autres.

Dans les défaillances des calculs au risque de produire un “lumpenscoretariat”
Au final, bien souvent, les résultats se révèlent pauvres, extrêmement biaisés quand ce n’est pas profondément problématiques. “Il n’y a pas de solution technique simple à ces problèmes sociologiques”, avancent les sociologues. Fourcade et Healy prennent un exemple frappant. Pour classer des images médicales pour identifier des cas de pneumonies, des chercheurs ont utilisé 160 000 images provenant de nombreux hôpitaux américains. Mais ce que le système d’IA a le mieux identifié, c’est d’abord la différence sociale entre les hôpitaux eux-mêmes. Les hôpitaux n’avaient pas les mêmes patients ni les mêmes qualités d’images. Dans ce cas, le classifieur a surtout appris des différences entre les hôpitaux que ce à quoi une radio de pneumonie ressemble. 

Bien souvent la spécification des modèles par ces méthodes restent pauvres, puisqu’ils doivent apprendre par eux-mêmes. “En incitant les organisations à considérer toutes les données comme utiles et en développant des outils dotés d’une capacité jusqu’ici inégalée à trouver des modèles, les ingénieurs logiciels ont créé des outils dotés de pouvoirs nouveaux et quelque peu extraterrestres.” Le risque, c’est bien sûr de transformer notre monde social en modèle, mais sur des bases particulièrement opaques et avec des performances retorses et qui le sont d’autant plus que ce que l’on doit classer est problématique. Bien souvent on utilise des données inadaptées qu’on mixe à d’autres données inadaptées pour produire un calcul qui approche ce que l’on souhaite calculer. C’est ce que répète souvent Arvind Narayanan : les systèmes ne savent pas calculer ce qui n’est pas clairement défini. Dans le domaine de l’emploi, par exemple, la productivité, la performance ou la qualité d’un candidat ne sont pas des calculs faciles à produire. Et ceux qui en proposent apportent rarement la preuve que leurs calculs fonctionnent. 

Quant à savoir si le résultat est juste ou pas, c’est bien souvent encore plus difficile puisque cela dépend de qui est classé est comment, selon quels critères… ce qui devient encore plus difficile avec des données qui s’adaptent, des catégories qui se reconfigurent sans arrêts… Nous sommes inscrits dans des matrices de caractéristiques fluctuantes qui se recombinent et évoluent sans cesse, rappellent les sociologues. Les systèmes de mesures tendent à chercher une objectivité qui est difficilement atteignable. Au prétexte de pouvoir calculer tout le monde, les systèmes produisent des scores qui fonctionnent très mal pour tous. Certains publics sont mal mesurés et mal classés. C’est ceux que Marion Fourcade appelle le “lumpenscoretariat” du capitalisme numérique. Ceux qui n’entrent pas dans les cases du formulaire, ceux dont la position est trop aberrante par rapport aux données et moyennes, ceux qui vont être maltraités par les systèmes de calcul, et qui seront d’autant plus mal traités que les scores les suivent par devers eux, se répliquent, se consolident dans d’autres index, sous la forme de cascades décisionnels de l’ordinal. 

La performativité généralisée
Fourcade et Healy passent ensuite plusieurs chapitre à nous faire comprendre comment la donnée est convertie en flux de paiements et comment les plateformes assurent leurs monopoles sur les données et renforcent leurs avantages compétitifs par le grand raffinage permanent des données, comme le pratiquent les Gafams, cherchant toujours à renforcer leur propre position, leurs propres avantages. Ils expliquent comment Amazon ou Google ont exploité leur position pour améliorer leur business. Le problème, c’est qu’elles finissent par utiliser les informations qu’elles recueillent pour ajuster leurs business au détriment de leurs clients et de leurs publics, comme le constataient Tim O’Reilly, Illan Strauss et Mariana Mazzucato. Le risque est que demain, elles l’appliquent non seulement aux prix, mais aussi aux salaires, comme le font déjà les plateformes des travailleurs du clic ou les outils de planning RH. Quand toute donnée devient performative, le risque est qu’on ajuste leur performance pour les optimiser. 

Les firmes se sont accaparées les données nécessaires pour accéder à leurs services ainsi que leur propriété. Le business model du numérique tient avant tout de la rente. Les fonctionnalités que permettent l’exploitation des données ou les nouvelles fonctionnalités sont vendues en plus de votre abonnement. Dans le monde des biens non numériques, une vente signifiait un transfert de propriété. Ce n’est plus le cas avec les biens logiciels. Vous n’êtes plus que le locataire d’un service. C’est en cela que “les flux de données deviennent des flots de revenus”. Les industries du numérique, quels que soient les produits qu’elles vendent, finissent par se ressembler jusque dans leurs processus et leurs modèles économiques. “Chaque producteur de bien se transforme en compagnie technologique, chaque compagnie technologique devient un fournisseur de service, et chaque fournisseur de service devient un flux de données transformé en actif”. Avec le numérique, se diffuse d’abord une façon de penser l’économie comme un actif financier. Les données que tous les acteurs s’échangent, rendant le marché toujours plus liquide, ajustable. “L’infrastructure toute entière d’internet peut être transformée en registre qui est aussi un casino”. Tout peut être tokenisé, vendu, transformé en actif, comme l’est le langage lui-même avec l’IA générative. 

Vers une citoyenneté ordinale ?
La classification sociale et le classement quant à eux, produisent des groupes éphémères, composés à la volée, construits puis déconstruits, qui s’ajustent aux contextes, aux frontières plus floues que tranchées, mais où tout doit être hiérarchisé. Les anciennes catégories sociales sont recomposées jusqu’à composer des groupes sans personnes et des personnes sans groupes dans une forme d’individualisation exacerbée. Dans la société pensée par les technologies de classement, l’individu semble devenir auto-souverain. Pour Fourcade et Healy, le risque est que ces évolutions nous conduisent à une citoyenneté ordinale, à une société crédentialiste, c’est-à-dire qui repose uniquement sur les preuves que cette même société produit, une forme d’hyper-méritocratie par le calcul. On ne reviendra pas ici sur toutes les limites de cette vision par le seul mérite. Les mesures du mérites sont partout, sans même parvenir à imposer une mesure objective ou équitable de celui-ci. Dans cette société ordinale, organisée par et pour que ses citoyens soient classés, le rôle de l’Etat n’est plus d’organiser les objectifs de chacun, mais de “s’assurer que le marché les servent bien”. Dans cette société ordinale, les citoyens sont évalués individuellement plutôt qu’en tant que membres de groupes sociaux, sur leurs actions individuelles. Dans une société ordinale, l’important est le classement et ce classement ne permet pas de protéger les gens qui sont mal classés : il n’y a pas de compensation pour les marginalisés et les vulnérables. Nous passons d’une gestion des citoyens par catégories sociales à des gestions individuelles comportementales. Une citoyenneté ordinale, c’est une citoyenneté très individualiste et donc très contrôlée. Et les plus contrôlés sont les moins bien classés, ceux qui relèvent du lumpenscoretariat. Le classement individuel paraît à tous moins controversé et plus équitable, alors qu’il produit une trappe des déclassés, comme l’a montré Issa Kohler-Hausmann dans son livre Misdermeanorland, une enquête sur les délits mineurs, les infractions, les écarts de conduite et leurs jugements expéditifs à l’égard des plus démunis. C’est ce que montre également le philosophe Achille Mbembe quand il évoque leur éviction.  

Dans la société ordinale, chacun semble avoir ce qu’il mérite, comme si la société n’existait pas
“En approfondissant les mesures au niveau individuel, en standardisant la prise de décision grâce à des repères comportementaux de plus en plus détaillés, la collecte de données finit par reconstituer, un petit morceau à la fois, la vérité fondamentale de la structure sociale”. Alors que le développement de la citoyenneté conduit le plus souvent au déclin des différences de genre, de race, de propriété, de religion, de caste… la citoyenneté ordinale permet de contourner les lois contre les discriminations, de réinscrire les discriminations sous le voile du mérite. Même en enlevant toutes les catégories problématiques par exemple, le score de crédit demeure classiste, validiste, raciste, masculiniste… comme le montraient les travaux d’Andreas Fuster ou de Davon Norris. L’ordinalisation de la société est trompeuse. D’abord parce qu’elle transforme la structure sociale du social en choix individuels qui n’en sont pas : le fait de ne pas avoir accès au crédit n’est pas un choix individuel ! Ensuite parce que les positions de chacun sont interprétées comme un choix moral, alors que le fait de ne pas accéder au crédit ne relève pas de son seul comportement, mais bien plus des valeurs morales de la société qui donne plus de crédits à ceux qui ont le plus de moyens. Dans la société ordinale, chacun semble avoir ce qu’il mérite, comme si la société n’existait pas. 

Or, le classement et l’appariement n’ont rien de mesures objectives. En invisibilisant le social, elles le révèlent. On ne peut pas corriger les algorithmes : un système ordinal ne peut pas être ajusté ou corrigé, avancent les deux sociologues. C’est la société elle-même qui est scorée à un niveau individuel. Les outils de classement et d’appariement sont produits pour fonctionner dans certains contextes, ils sont produits au service de certains objectifs pour certaines organisations. Beaucoup de systèmes ordinaux favorisent ceux qui produisent de la valeur pour ceux qui produisent le système. Avoir un bon score de crédit par exemple nécessite d’abord d’utiliser parfaitement le système crédit, tout comme les plateformes du digital labor favorisent ceux qui y performent, ou les médias sociaux favorisent leurs meilleurs éléments (ceux qui postent beaucoup, ceux qui payent…). La stratification ordinale trouve sa justification dans le mérite alors qu’elle n’en relève pas. Le management algorithmique reste une cage invisible ou le mérite qu’il mesure reste illisible et fluctue de manière imprévisible. Deux tiers des conducteurs de Lyft et Uber en 2023 ont été désactivés brutalement à un moment ou à un autre par l’application. Le risque est que nous soyons de plus en plus confrontés à des calculs “aliens”, étranges, improbables… auxquels nous devons nous conformer sans même savoir ce qu’ils agencent ou comment ils l’agencent. Face à des processus d’évaluation opaques et complexes, chacun peut penser que ce sont ses mérites personnels qui sont évalués quand cela reste et demeure un individu et sa position sociale. Les règles de l’ordinalité peuvent changer en permanence pour qu’il soit plus difficile d’en lire ses caractéristiques, la “précarité algorithmique”, elle, s’installe pour de plus en plus en plus d’entre nous, les déclassés des systèmes. 

Se retirer des classements ?
Dans leur conclusion les deux sociologues dénoncent “l’insupportable justesse à être classé”. Les classements et appariement sont partout. Ces outils promettent d’être inclusifs, objectifs et efficaces… Mais ce n’est pas le cas. “Ces intermédiaires algorithmiques remplacent les classifications institutionnelles plus conventionnellement solidaristes ou universalistes par une esthétique de hiérarchie justifiée. Les classements et les notes, ainsi que les correspondances associées qu’ils permettent, soutiennent l’imagination d’une société ordinale.” Nous sommes dans une double vérité. A la fois nous pensons que le classement est juste et à la fois qu’il ne peut pas l’être.

En guise de perspective, les deux sociologues montrent que certaines universités américaines ont décidé de ne plus être classées dans le classement des universités américaines. Mais tout le monde ne peut pas se retirer des classements. “À mesure que la société ordinale s’étend, la recherche d’une égalité formelle sous l’œil du marché éclipse la lutte pour l’égalité substantielle sous l’ombre de l’Etat. Les biens publics et les objectifs collectifs se dissolvent dans le bain acide de l’individualisation et de la concurrence, nous laissant de plus en plus seuls dans un monde hyperconnecté dont l’ordre social est précisément mesuré et, à sa manière factice, car incontestablement « juste ». La vie dans la société ordinale pourrait bien être parfaitement insupportable”.

Pour ceux qui bataillent déjà dans les calculs du social qui sont produits sur eux, c’est déjà le cas

Hubert Guillaud

A propos du livre de Marion Fourcade et Kieran Healy, The ordinal society, Harvard University Press, 2024, 384 pages. 

22.03.2024 à 09:45

Astrocapitalisme et technocapitalisme : la promesse d’un même dépassement

Hubert Guillaud

Ce qui me frappe dans le très sérieux livre d’Irénée Régnauld et d’Arnaud Saint-Martin, Une histoire de la conquête spatiale : des fusées nazies aux astrocapitalistes du New Space (La Fabrique, 2024), c’est combien leur description des transformations de la conquête spatiale pourrait se calquer sur celles des technologies numériques. On a  l’impression d’être immergé […]
Texte intégral (1922 mots)
Couverture du livre d’Irénée Régnauld et Arnaud Saint-Martin.

Ce qui me frappe dans le très sérieux livre d’Irénée Régnauld et d’Arnaud Saint-Martin, Une histoire de la conquête spatiale : des fusées nazies aux astrocapitalistes du New Space (La Fabrique, 2024), c’est combien leur description des transformations de la conquête spatiale pourrait se calquer sur celles des technologies numériques. On a  l’impression d’être immergé dans une même continuité idéologique, politique et économique. L’espace semble un champ technologique comme les autres où la science est d’abord mise au service des intérêts de la Défense et des marchés, avec les mêmes promesses fantasques, assénées avec le même aplomb, pour mieux masquer leurs réalités économiques, extractivistes et matérialistes. Le récit fantaisiste de la conquête d’autres mondes ressemble à s’y méprendre aux promesses du monde numérique, tel qu’on l’entend beaucoup en ce moment avec la révolution de l’IA générative. Il vise, là aussi, à construire du consentement, du spectacle, de la puissance… pour produire un futur inévitable et désirable, alors qu’il produit surtout du désastre, comme toutes les conquêtes avant elle. C’est comme si l’imaginaire humain n’arrivait pas à s’extraire de son rêve de conquête, de dépassement. L’évidence spatiale est le décalque de l’évidence technologique, une idéologie qui se renouvelle à chaque nouvelle proposition technologique, dans une forme de fantasme de puissance permanent qui n’en donne pourtant qu’à ceux qui la dominent et qui en tirent profit.  

Dans leur livre, le consultant Irénée Régnauld – cofondateur du Mouton numérique et infatigable blogueur pour Mais où va le web ? – et le sociologue des sciences Arnaud Saint-Martin déconstruisent patiemment les promesses et les croyances du secteur spatial pour montrer l’intensification marchande et le durcissement de l’idéologie extractiviste. Les promesses servent surtout à lever des fonds et le fait qu’elles soient irréalistes ou fantasques semblent même permettre de lever encore plus de fonds, comme si toute rationalité avait quitté les acteurs du spatial, comme si les récits encore plus fous étaient seuls capables de dynamiser un imaginaire complètement à bout de course à force d’avoir été répété. Le vol habité, le retour sur la Lune, l’exploitation des astéroïdes, la conquête de Mars et sa terraformation… sont autant de “surenchères martiales, propagandistes, extractivistes et commerciales” qui invisibilisent le fait que cette volonté de puissance ne peut se faire qu’au prix de rendre la terre inhabitable. La promesse d’une nouvelle terre se fait en fermant les yeux sur la destruction de la nôtre, comme le montrait récemment la journaliste Celia Izoard en parlant du colonialisme minier. En lisant cette surenchère de promesses, toujours renouvelées, toujours plus découplées de leurs effets (pollution des orbites basses par exemple, développement du pseudo tourisme spatial – alors qu’on ne parle que de voyages lointains…), on a l’impression de lire un livre sur les technologies numériques qui nous noient sous leurs mythes sans jamais regarder leurs effets réels et concrets. On y lit les mêmes transformations : privatisation sur fonds publics, dérégulation tout azimut au profit du marché… tout en clamant toujours son ampleur scientifique, à l’image des nouvelles Lumières des promesses de l’IA. La lecture des quelques pages sur le déploiement de SpaceX par exemple sont particulièrement éclairantes. Les deux auteurs montrent que la capacité de lancement à bas coût de Space X n’a été possible qu’en absorbant une histoire industrielle et l’investissement public. Le New Space capitaliste n’est en rien une rupture avec le fonctionnement passé de l’économie de l’espace, expliquent-ils, mais bien son prolongement par une privatisation inédite. Le principe du réemploi des lanceurs permet certes de générer des économies, mais surtout d’accélérer la cadence des lancements. “La soutenabilité (des modèles du New Space) repose sur l’intensification du volume d’activité” qui génère une fuite en avant, à l’image des flottes de satellites de Starlink à la durée de vie très courte. Comme dans la tech avec Uber, on finance la fuite en avant par des investissements massifs malgré des revenus insuffisants. La promesse d’une nouvelle économie de l’espace repose sur les mêmes moteurs que celle de la tech : des investissements démesurés pour prendre le leadership du secteur par l’intensification de l’exploitation. Au risque de donner un pouvoir sans précédent à ces prestataires, comme c’est déjà le cas avec le fantasque et délirant Elon Musk. Régnauld et Saint-Martin pointent très bien que le secteur profite surtout de la dérégulation qu’organise le secteur public par exemple en favorisant l’investissement par des mesures d’exonérations dédiées au profit du privé et des aides et marchés que l’acteur public leur confie. On a vraiment l’impression de voir rejouer les mêmes politiques que celles qui ont fait naître la Silicon Valley

D’autres pages méritent l’attention. Comme celles qui reviennent sur la justification de l’importance du secteur spatial, à savoir la “rhétorique des retombées” économiques (ce ruissellement inexistant qui profite surtout au secteur spatial lui-même) ou celles de la justification scientifique (quand l’immense majorité des recherches sont coûteuses et inutiles), alors que la justification réelle du secteur repose bien plus sur son image innovante pour “persuader le contribuable de la validité” et de l’importance du secteur pour lui-même, que ce soit pour des questions de prestige ou d’importance géopolitique… 

Ce qui m’a frappé dans ce livre, c’est combien le développement économique du spatial est tout entier lié à sa dérégulation, qui vise bien plus à enlever les problèmes qu’à les régler. C’est l’assouplissement des règles sur l’usage commercial de l’ISS qui permet d’étendre sa commercialisation à des entreprises ou des acteurs privés. C’est l’enterrement du principe de non-appropriation par le Space Act de 2015 qui permet le déploiement d’une nouvelle économie spatiale et ouvre l’exploitation de ses ressources. Ce sont les exceptions fiscales en faveur de l’innovation qui favorisent les levées de fonds qui permettent de faire croire à la rentabilité d’un secteur fragile, comme l’est par exemple le tourisme spatial. Reste que même les promesses d’exploitation minière qui semblent la nouvelle justification de l’extension spatiale, demeurent très spéculatives, rappellent les auteurs. Les richesses des sous-sols, les promesses de l’Hélium 3 sont pour l’instant théoriques. “La mission japonaise Hayabusa 2 lancée en 2014 et revenue sur Terre en décembre 2021 a permis de ramener moins de 100 milligrammes de poussière de l’astéroïde Ryugu pour un coût de 200 millions d’euros”. Les mines spatiales semblent encore très très très loin ! 

Mais surtout, rappellent-ils, la pollution et l’encombrement orbitale pourraient à terme compromettre l’utilisation même de l’espace. Outre les satellites innombrables, les débris orbitaux sont également innombrables. La désorbitation reste non contraignante, alors que les lancements et l’obsolescence des satellites s’accélèrent. A force de dérégulation, les solutions pour nettoyer notre espace proche s’éloignent alors que leur coût s’envole. L’astrocapitalisme ressemble surtout à “château de carte”, pour ne pas dire une pyramide Ponzi ! 

Le livre d’Irénée et Arnaud est certes épais, précis, copieux, dense, très documenté, trop exigeant, mais il interroge parfaitement les idéologies qui sont à l’oeuvre (je n’aime pas le terme d’imaginaires qui, à mon sens, dépolitise les fictions qui nous sont vendues), celles qui nous vendent des espoirs d’un autre monde en invisibilisant la destruction du nôtre. Ils déconstruisent à leur tour nos rêves de colonisation lointaine, comme l’avaient fait l’astrophysicienne Sylvia Ekström et Javier Nombela dans le tout aussi excellent Nous ne vivrons pas sur Mars, ni ailleurs

Au terme du livre, on se pose une question très saine finalement. Avons-nous vraiment besoin de cette débauche de faux espoirs ? De cette débauche de rêves qui ne deviendront jamais réalité ? On se demande pourquoi autant de gens croient au dépassement de notre humanité, dans des fusées qui ne mènent nulle part comme dans des systèmes techniques comme l’IA qui nous réduisent à n’être rien ? Tout cet argent dépensé pour aller sur des cailloux qui ne peuvent rien nous promettre me font penser à tout cet argent dépensé pour barder le monde de technologies dont les promesses sont très éloignées de leurs réalisations concrètes. Qu’on s’entende néanmoins, je ne dis pas qu’il ne faut pas de technologies, mais pourrions nous garder en tête que leur développement devrait être limité et contraint, circonscrit à des réalités plus qu’à des fantasmes ? L’IA et la tech partout nous renvoient au même délire que cette conquête spatiale absolutiste. Il n’y a pas d’enjeu à envoyer des humains sur Mars, pas plus qu’il n’y a d’enjeux à développer une infrastructure numérique totale et omniprésente. Quand est-ce que les fantasmes cesseront d’alimenter notre développement technologique pour mieux prendre en compte ses limites ? 

Hubert Guillaud

A propos du livre d’Irénée Régnauld et Arnaud Saint-Martin, Une histoire de la conquête spatiale : des fusées nazies aux astrocapitalistes du New Space, La Fabrique, 2024, 288p., 20 euros.

07.03.2024 à 16:07

L’informatique ne peut pas faire d’erreur !

Hubert Guillaud

Le “scandale de la Poste britannique” n’a pas fait grand bruit chez nous (hormis notamment dans Le Monde, dès 2021, et documenté régulièrement depuis). C’est l’histoire d’un logiciel de comptabilité et d’inventaire pour gérants de petits bureaux de Poste (le logiciel Horizon, développé par Fujitsu) qui produisait des soldes comptables incorrects qui a conduit a […]
Texte intégral (593 mots)

Le “scandale de la Poste britannique” n’a pas fait grand bruit chez nous (hormis notamment dans Le Monde, dès 2021, et documenté régulièrement depuis). C’est l’histoire d’un logiciel de comptabilité et d’inventaire pour gérants de petits bureaux de Poste (le logiciel Horizon, développé par Fujitsu) qui produisait des soldes comptables incorrects qui a conduit a accuser plus de 3000 personnes de fraude, conduisant à d’innombrables drames humains : condamnations, faillites, emprisonnements, suicides… comme le résume très bien l’article de Wikipédia. La diffusion en janvier d’une série au succès spectaculaire sur les ondes britanniques sur le sujet (Mr Bates vs The Post Office) a bouleversé l’opinion et poussé jusqu’au Premier Ministre a réagir.

La série Mr Bates vs. the Post Office.

Dans l’édito que la revue Nature consacre à ce scandale, le magazine souligne que l’un des problèmes qu’a rencontré la justice britannique… était que la jurisprudence considère que l’informatique ne peut pas faire d’erreur ! En Angleterre et au Pays de Galles, les tribunaux considèrent que, en droit, les ordinateurs fonctionnent correctement, sauf preuve du contraire.

“La principale source d’injustice potentielle avec une loi qui présume que les opérations informatiques sont fondamentalement correctes est que si quelqu’un veut remettre en question ou contester les preuves informatiques… il lui incombe de produire la preuve d’une utilisation ou d’un fonctionnement inapproprié.” Or, apporter cette preuve est particulièrement difficile sans accéder au code du logiciel. Les accusés d’Horizon n’en avaient aucun moyen et il a fallu une procédure collective et opiniâtre pour qu’ils arrivent à se faire entendre par la justice et par la Poste britannique.

L’avocat britannique Paul Marshall et ses collègues estiment que la présomption de fiabilité doit être remplacée par l’exigence que les données et le code puissent être divulgués devant les tribunaux. “Si nécessaire, cette divulgation doit inclure les normes et protocoles de sécurité des informations ; les rapports d’audits de systèmes ; les preuves démontrant que les rapports d’erreurs et les modifications du système ont été gérés de manière fiable ; et les enregistrements des mesures prises pour garantir que les preuves ne soient pas falsifiées.” Si ces éléments montrent que le système est problématique, alors le juge doit pouvoir demander une inspection plus précise.

Quand ils sont mis en cause, les systèmes informatiques devraient pouvoir être inspectés par les tribunaux. Leur supposée fiabilité, comme le secret commercial, ne devraient pas être des obstacles à la vérité.

Hubert Guillaud

20.02.2024 à 13:04

Une brève histoire de l’évolution des recommandations algorithmiques

Hubert Guillaud

Le billet sur l’effondrement de l’information que je publiais en janvier a fait beaucoup réagir, notamment des journalistes – certainement parce qu’ils ont été nombreux à se retrouver dans la description, assez sombre j’en conviens, que je dressais des évolutions en cours dans le monde de l’information. Quand Steven Jambot, animateur de l’Atelier des médias […]
Texte intégral (2806 mots)

Le billet sur l’effondrement de l’information que je publiais en janvier a fait beaucoup réagir, notamment des journalistes – certainement parce qu’ils ont été nombreux à se retrouver dans la description, assez sombre j’en conviens, que je dressais des évolutions en cours dans le monde de l’information. Quand Steven Jambot, animateur de l’Atelier des médias sur RFI (cette belle émission qui a 20 ans, animée longtemps par Philippe Couve puis Julien le Bot et Ziad Maalouf…) m’a proposé de venir en parler… je n’ai pas hésité. L’émission (à écouter ici) m’a donné l’occasion de tenter de rassembler une petite histoire de l’évolution des recommandations algorithmiques.

L’exercice n’est pas facile (surtout à l’oral) et je me dis que cela vaut le coup d’essayer de caractériser simplement cette histoire. L’idée n’est pas de faire une thèse sur le sujet, juste d’essayer de faire saisir simplement les évolutions que nous avons vécu ces 20 dernières années, pour mieux saisir la situation de blocage où les ajustements algorithmiques nous ont conduit. 

L’âge de la souscription et le modèle des recommandations simples (2000-2010)
La première génération de systèmes de recommandation commence à être assez ancienne. C’est celle du filtrage collaboratif qui consiste à apparier les produits entre eux par exemple. C’est une fonction qui existe encore sur Amazon, le fameux, “les clients qui ont acheté ce produit ont également acheté tel autre produit”. C’était également le principe sous lequel fonctionnait Netflix quand il était encore une entreprise qui envoyait des DVD par la poste, qui créait une moyenne entre les notes, les genres, les nouveautés et les demandes locatives pour produire des recommandations assez simples pour orienter l’utilisateur dans les contenus à louer. Les systèmes de recommandation étaient alors sommaires, fonctionnant principalement sur la modalité de la souscription et de l’abonnement : sur les premiers médias sociaux comme dans la blogosphère, on s’abonne aux gens qui nous intéressent et on reçoit des notifications de ce qu’ils ont publié. 

Ces méthodes vont peu à peu se complexifier et s’ajuster en fonction des critères disponibles, comme la popularité, les préférences ou la qualité. Mais elles vont également être très tôt manipulées par les plateformes. Chez Amazon par exemple en exagérant la recommandation de produits similaires pour déclencher l’achat (beaucoup de gens achètent des produits dissociés, Amazon va favoriser la recommandation d’un DVD d’un même réalisateur par exemple plutôt qu’une recommandation d’un produit trop alternatif pour favoriser le passage à l’achat du produit supplémentaire). Chez Netflix en diminuant les recommandations des nouveautés au profit des titres de la longue traîne bien moins louées et bien plus disponibles. Dans les médias sociaux en recommandant les profils les plus populaires sur ceux qui le sont moins. 

On peut faire courir cette première période des années 2000 à 2010. Signalons cependant l’évolution, en 2006, de la “factorisation matricielle”, c’est-à-dire l’invention de systèmes de recommandations plus complexes. C’est le cas du concours lancé par Netflix à l’époque pour améliorer son système de recommandation qui va générer des combinaisons d’attributs pour caractériser les contenus qui vont très bien fonctionner sur des catalogues limités, mais pas du tout pour caractériser les messages infinis publiés sur les médias sociaux. 

L’âge du réseau et du modèle des propagations (2010-2016)
Dans le modèle de réseau, la propagation d’un message ne dépend plus seulement des personnes auxquelles vous êtes abonnées, mais est amplifiée ou rétrogradée par les effets de réseaux. Plus un message est relayé, plus il est amplifié. Ce sont les réactions des autres qui structurent la recommandation. C’est l’effet de la prise en compte du like, du commentaire et du partage sur Facebook avec le lancement en 2010 de l’Edge Rank qui va attribuer une note aux contenus pour les classer selon l’intérêt des utilisateurs… ou la prise en compte du commentaire et du RT sur Twitter qui vont être prédominants dans les recommandations jusqu’en 2016. Ce scoring des contenus selon l’intérêt des utilisateurs va faire monter certaines catégories de contenus, par exemple les photos et les vidéos sur FB, mais également favoriser les polémiques en faisant remonter les posts ou les tweets les plus commentés. Dans l’âge du réseau la prime va à la visibilité : on accroît la portée de ce qui fonctionne le mieux, comme l’expliquait Arvind Narayanan. En 2015, Youtube intègre à son tour l’apprentissage automatique de Google Brain ce qui va transformer les recommandations de son moteur en privilégiant le temps passé (le temps passé à regarder une vidéo devient le critère de qualité). 

L’âge algorithmique et le modèle de la similarité (2016-2021)
L’intégration d’ajustements algorithmiques prenant en compte de plus en plus de critères transforment à nouveau les moteurs de recommandation. Durant cette période, les ajustements algorithmiques sont réguliers, continus produisant des recommandations en mouvement permanent, comme l’expliquait Arvind Narayanan en observant les révélations sur le fonctionnement de Twitter, l’année dernière. Mais la transformation principale de cette période consiste à mobiliser l’apprentissage automatique pour prédire la similarité.  

Dans le modèle algorithmique, les utilisateurs ayant des intérêts similaires (tels que définis par l’algorithme sur la base de leurs engagements passés) sont représentés plus près les uns des autres. Plus les intérêts d’un utilisateur sont similaires à ceux définis, plus il est probable que le contenu lui sera recommandé. Le contenu ne dépend donc plus des gens auxquels on est connecté ou des mouvements de foule, mais d’un calcul de similarité de plus en plus complexe et mouvant. 

Cette similarité consiste à calculer le comportement, c’est-à-dire à tenter de regarder ceux qui apprécient les mêmes choses que nous pour favoriser l’engagement. Forts de données plus massives sur leurs utilisateurs, les plateformes affinent leurs recommandations. En introduisant par exemple la mesure des “interactions sociales significatives” en 2018, Facebook devient capable de prédire les contenus que vous allez liker ou commenter pour vous les proposer. Le poids de la souscription (les personnes auxquelles on est abonné) ou du réseau (les contenus viraux) sont dégradés au profit d’un calcul plus complexe qui tente de prendre en compte le sujet, sa qualité, les réactions des autres… 

Avec ces modèles, le nombre d’utilisateurs des plateformes explose… et chacune affine ses principes d’engagements valorisant des comportements très différents les uns des autres. TikTok par exemple valorise les vidéos regardées jusqu’au bout et donc des vidéos courtes, mais valorise également la pulsion, la réaction immédiate via le swipe, qui va avoir tendance à favoriser certains contenus sur d’autres. Le flux des contenus proposé est ajusté pour favoriser également de la diversité. 

Dans cette complexité nouvelle, les contenus rétrogradés sont rendus opaques et invisibles, car la portée naturelle du contenu dépend de fortes variations et les utilisateurs ne peuvent savoir si les contenus qu’ils ne voient pas ont été rétrogradés ou l’ont été parce qu’ils sont moins bons. La logique de la viralité demeure néanmoins le point fort des réseaux sociaux : la majorité des engagements proviennent toujours d’une petite fraction des contenus (20% des vidéos les plus vues font 70% des vues sur TikTok ou YouTube). Dans cette complexité, les plateformes néanmoins gardent la main : en augmentant la portée des contenus publicitaires dont elles ont de plus en plus besoin pour dégager des bénéfices et en rétrogradant certains types de contenus…   

L’âge du cynisme, des distorsions de marché et de l’emballement du modèle commercial (depuis 2021…) 
On pourrait dire que la recherche d’un engagement optimal ou idéal s’effondre en 2021. Le symbole, c’est l’éviction de Trump de FB et Twitter, mais cet engagement avait déjà été mis à mal avec la pandémie, quand les plateformes ont été contraintes de mieux qualifier leurs contenus et de produire des contenus vérifiés. Confrontées à leurs effets, les plateformes se mettent à se détourner de certains types de contenus, notamment politiques. Elles dégradent volontairement la performance de l’information (et des hyperliens) des grands sites de presse pour promouvoir des interactions qui peuvent sembler apolitiques. Elles semblent en revenir aux racines des réseaux sociaux, c’est-à-dire privilégier les discussions entre utilisateurs, à l’image du réseau social Threads. Le rachat de Twitter par Musk en 2022 et les transformations que va subir Twitter depuis vont dans le même sens, puisque sur Twitter désormais, ce sont les comptes qui payent qui vont être mis en avant. La qualité et la viralité “naturelle” sont dégradées. Les plateformes ne cherchent plus à promouvoir l’intérêt général, mais ne se focalisent plus que sur l’amplification de leur modèle commercial. En 2021, FB avait tenté de mesurer la qualité des messages qu’il proposait, mais en faisant disparaître les messages les plus négatifs qui avaient également la plus grande portée, les utilisateurs étaient insatisfaits. FB a fait marche arrière, assumant son cynisme commercial. 

C’est ce qu’explique d’ailleurs un passionnant article signé Tim O’Reilly, Illan Strauss et Mariana Mazzucato qui constate que dans les rentes d’attention algorithmiques, les plateformes se focalisent désormais sur le service aux annonceurs plus que sur la qualité de l’expérience utilisateur (qui lui, préfère l’âge de la souscription et du réseau, l’âge d’avant l’emmerdification algorithmique – “l’emmerdocène” –  comme dit Cory Doctorow, parce que ces modèles permettaient aux utilisateurs de construire des relations et d’en rester maître). Ce qui a changé, c’est que les plateformes sont désormais bien moins en concurrence qu’en situation de monopole, et qu’il est difficile pour les utilisateurs de les quitter totalement. Dans des marchés sans grande concurrence, les plateformes n’ont plus à se soucier que leurs algorithmes soient équitables. Les clics des utilisateurs restent dirigés vers les premiers résultats que les plateformes proposent, donnant un pouvoir considérable aux classements qu’elles mobilisent et notamment à la mise en avant publicitaire dans des environnements où l’utilisateur ne paye pas. Quand l’augmentation du nombre d’utilisateurs ralentit, l’augmentation des bénéfices devient fonction de la quantité de publicité délivrée ou repose sur le fait de faire payer les utilisateurs. Pour les plateformes, l’enjeu désormais n’est plus de fournir la meilleure correspondance de la recommandation, mais la plus rentable. Sur Google, les résultats publicitaires n’ont cessé de grimper au sommet des recommandations et de s’invisibiliser par rapport aux résultats “naturels” (en 2011, 94 % des clics sur Google étaient organiques et seulement 6 % étaient dirigés vers des publicités… Il serait intéressant de connaître le résultat actuel !). Chez Amazon, tous les résultats sont désormais issus de positionnements publicitaires (¾ des vendeurs d’Amazon Market Place paient pour obtenir de la visibilité) et là encore le fait que ce soit des résultats publicitaire devient complètement invisible à l’utilisateur. Amazon a ainsi gonflé ses prix publicitaires tout en diminuant leur rendement (“En 2022, la publicité est devenue une activité très rentable pour Amazon se montant à 37,7 milliards de dollars. Le coût moyen par clic sur les publicités Amazon a doublé, passant de 0,56$ en 2018 à 1,2$ en 2021: 30 cents doivent désormais être dépensés en publicités pour générer 1$ de ventes.”). 

Pour O’Reilly, Strauss et Mazzucato, nous sommes désormais entrés dans des plateformes de distorsion des marchés, où les préférences et les possibilités de paramétrages des utilisateurs disparaissent de plus en plus – justifiant la réaffirmation d’un droit au paramétrage, comme le proposent Célia Zolynski et Jean Cattan (et Ethan Zuckerman il y a quelques années). L’attention des utilisateurs est désormais majoritairement pilotée au profit de ceux qui sont disposés à payer, au détriment de l’emplacement ou de la réputation qui sont de plus en plus dévalorisées. Ainsi, si vous cherchez des pneus, Google va vous recommander les grands annonceurs très loin devant votre garage de proximité. 

Dans leur article, O’Reilly, Strauss et Mazzucato estiment que pour remédier à ces distorsions de concurrence, il faudrait que les régulateurs puissent comparer le classement “organique” d’un produit avec son classement payant, favoriser le prix final pour écarter les fausses promotions… mais surtout, ils s’interrogent sur l’idée de définir un rendement publicitaire maximal. Reste que l’appareil réglementaire en la matière est confronté à une lacune béante : le manque d’information régulière et obligatoire des plateformes sur leurs paramètres opérationnels permettant de contrôler le niveau de monétisation de l’attention des utilisateurs ! Or, les plateformes connaissent la charge publicitaire, connaissent les ratios clics organiques/clics publicitaires et l’évolution de ces mesures dans le temps… C’est au régulateur d’armer sa mesure de la régulation ! Ils en appellent également à des mesures plus précises, géographiquement et par produit. Google dispose de 9 produits qui ont plus d’un milliard d’utilisateurs, mais les informations sur la publicité qu’elles rapportent ne fait pas de distinguo entre ces services ! Dans leurs préconisations, les auteurs recommandent également de permettre aux utilisateurs d’avoir des préférences persistantes, proche du droit au paramétrage que défendent chez nous Célia Zolynski et Jean Cattan. 

O’Reilly, Strauss et Mazzucato concluent sur les perspectives problématiques que vont générer sur ces marchés déjà opaques, l’arrivée des contenus synthétiques de l’IA, avec le risque d’un renforcement de l’autorité algorithmique et rendre plus difficile encore la détection des comportements problématiques des plateformes, c’est-à-dire les distorsions qu’elles accomplissent.  

Reste encore un élément à prendre en compte dans ces évolutions. Malgré tous leurs efforts, l’efficacité de ces modèles demeure extrêmement faible. Le taux d’engagement, c’est-à-dire la probabilité qu’un utilisateur s’intéresse à un message qui lui est recommandé, demeure partout extrêmement faible : il est de moins de 1% sur la plupart des plateformes. Malgré le déluge d’analyse de données, les gens demeurent peu prévisibles. Les plateformes savent identifier les contenus viraux et les contenus de niches, mais c’est à peu près tout. Quant au taux de clic publicitaire, il est encore plus bas. Cela n’empêche pas les plateformes de centrer leur performance sur ce qui leur rapporte. A défaut d’avoir changé le monde, elles se sont converties à leur seule réussite économique. 

Hubert Guillaud

20.02.2024 à 12:21

Le code contre le texte

Hubert Guillaud

Ce récit d’une écrivaine à la découverte du code a la fraîcheur du béotien qui va à la rencontre d’un monde qu’il ne comprend pas où qu’il prétend ne pas saisir. Dans Python (P.O.L., 2024), la romancière Nathalie Azoulai s’interroge sur cette langue vivante “qui pourtant ne se parle pas”, sur cette révolution graphique et […]
Texte intégral (659 mots)
Couverture du livre de Nathalie Azoulai, Python.

Ce récit d’une écrivaine à la découverte du code a la fraîcheur du béotien qui va à la rencontre d’un monde qu’il ne comprend pas où qu’il prétend ne pas saisir. Dans Python (P.O.L., 2024), la romancière Nathalie Azoulai s’interroge sur cette langue vivante “qui pourtant ne se parle pas”, sur cette révolution graphique et la fascination qu’elle provoque. Que ce soit pour ces jeunes codeurs, absorbés dans leur monde, comme de la puissance de la science sur les lettres. Azoulai multiplie les saillies, les réflexions que lui inspirent ce monde et ces gens. Souvent avec une belle pertinence, comme quand elle pointe que le langage humain semble être devenu secondaire… Cette défaite des lettres sur la science, semble être aussi pour Azoulai, la défaite d’une génération sur une autre. Le code incarne à la fois la jeunesse et le futur. Une autre forme d’art qui ne parle plus qu’aux machines ou un nouveau pouvoir sur le monde, capable de le façonner, de l’exécuter, sans qu’on sache si c’est pour le transformer ou pour le terminer. Coder, c’est comme le contraire de la littérature, puisque c’est tenter d’enlever son ambiguïté au monde, en réduire le sens pour mieux le dominer.

Le livre de Nathalie Azoulai n’est pourtant pas sec comme une page de code, au contraire. L’écrivaine va à la rencontre des jeunes humains de ce monde, tente de les entendre, même si la “daronmancière” semble plus fascinée par la portée érotique de leur jeunesse que par ce qu’ils produisent. C’est peut-être la limite de l’exercice : Azoulai ne parvient pas entrer dans le vide que construit ce monde, que ce soit le flow du codeur, mais plus encore, à regarder la pauvreté de ce que les data assemblent. Leur puissance en reste au niveau du fantasme romantique… Et celui-ci, faute d’avoir percé le code, ne parvient pas à sortir d’une fascination déçue, à l’image de la convocation finale de ChatGPT, bien trop convenue.

Avec sa naïveté feinte à la Xavier de la Porte, elle nous embarque pourtant. Azoulai regarde avec désir le monde qui vient, comme pour assouvir ou retrouver un instant la puissance perdue des lettres. Elle oublie (tout en ne cessant de le montrer) que cette puissance n’est que jeunesse. Qu’elle est aussi feinte que l’a été la puissance des lettres. De la figure du poète à celle du codeur, nous sommes confrontés à un même héroïsme feint, celle d’une puissance à dire le monde, à le réduire, à l’instrumentaliser plus qu’à le libérer.

Hubert Guillaud

A propos du roman de Nathalie Azoulai, Python, P.O.L., 2024.

06.02.2024 à 16:28

Améliorer la démocratie

Hubert Guillaud

Dans Pour en finir avec la démocratie participative (Textuel, 2024), les consultants Manon Loisel et Nicolas Rio, cofondateurs du cabinet Partie Prenante, dressent un diagnostic pertinent et passionnant sur nos impasses démocratiques actuelles. Ils expliquent que la démocratie participative s’est imposée comme le remède à la crise de notre démocratie représentative, mais sans que cette […]
Texte intégral (3688 mots)

Dans Pour en finir avec la démocratie participative (Textuel, 2024), les consultants Manon Loisel et Nicolas Rio, cofondateurs du cabinet Partie Prenante, dressent un diagnostic pertinent et passionnant sur nos impasses démocratiques actuelles. Ils expliquent que la démocratie participative s’est imposée comme le remède à la crise de notre démocratie représentative, mais sans que cette médecine ne réussisse à produire un remède efficace ni aux défaillances de la démocratie représentative ni à donner de la force à la participation. Grand débat et Convention citoyenne pour le Climat ont surtout démontré leur impuissance à transformer le système politique. Loisel et Rio nous proposent donc d’arrêter avec la participation et de nous concentrer plutôt à réformer la démocratie représentative. L’enjeu n’est pas tant d’améliorer la participation que de démocratiser l’action publique. 

Couverture du livre de Manon Loisel et Nicolas Rio.

Ce constat rappelle beaucoup celui que dressait récemment Thomas Perroud dans son livre Services publics et communs qui invitait déjà à un élargissement démocratique capable de dépasser la fausse participation. La force du petit livre de Manon Loisel et Nicolas Rio est d’être particulièrement concret, puisqu’ils accompagnent depuis longtemps des collectivités dans la mise en place de processus participatifs.

De l’impuissance 

Leur livre est une réaction à l’impuissance que produisent ces dispositifs. La participation ne parvient pas à rendre l’action publique plus démocratique. Au contraire, elle relève bien souvent de la diversion, à l’image du Grand Débat, cette réponse pour reléguer la crise des gilets jaunes, et faire s’exprimer d’autres catégories sociales que celles qui manifestaient leur colère en décembre 2018. La Convention citoyenne pour le climat, malgré la qualité du processus mis en place, n’a pas produit plus que le Grand Débat. Les autres dispositifs de participation (réunion publique, enquête publique, conseils de quartier, budgets participatifs, panels citoyens…) ne produisent ni plus ni mieux. Partout, les formats l’emportent sur les effets. La participation devient une politique comme une autre dont le cadre et les règles du jeu sont strictement délimités pour justement ne produire aucun effet. La standardisation des dispositifs permet justement à l’acteur public d’être en contrôle afin que rien ne déborde. 

Cette impuissance des dispositifs accentue la crise démocratique que la démocratie participative est censée résoudre, estiment les auteurs. Elle ne produit rien d’autre que de la désillusion. “L’exercice jupitérien du pouvoir et la participation des citoyens appartiennent d’un même processus”, puisque l’un comme l’autre relèguent dans les marges la société civile organisée et légitiment leur contournement. Les dispositifs participatifs ne produisent aucun contre-pouvoir… et ces dispositifs ne disposent d’aucun mandat pour contrôler que leurs propositions se traduisent en actions. Ils permettent surtout de faire croire que les institutions sont à l’écoute des citoyens. 

Modifier les publics, redistribuer le pouvoir

Pour Manon Loisel et Nicolas Rio, l’enjeu n’est pas tant de faire participer que “d’atténuer les asymétries qui existent entre les citoyens dans leur capacité à faire entendre leur voix et faire valoir leurs droits”. Le grand problème des dispositifs participatifs, malgré tous leurs efforts pour aller vers tous les citoyens, c’est qu’ils mobilisent “toujours les mêmes”, c’est-à-dire finalement des gens déjà très insérés dans la vie démocratique. La participation ne parvient pas à faire ce qu’on lui prête, c’est-à-dire à modifier les publics. Pire, elle invisibilise bien souvent qui parle et au final permet d’invisibiliser la sélectivité sociale à l’œuvre. Elle renforce une écoute des institutions et des élus déjà sélective, alors qu’elle devrait d’abord permettre de redistribuer l’attention des institutions vers les publics les moins représentés. La démocratie participative devrait être un moyen de donner de l’audience aux inaudibles pour qu’ils soient réintégrés à l’intérêt général et à la production de l’action publique. Elle devrait permettre d’aller chercher les publics que la démocratie représentative n’arrive pas à représenter, à sortir voire à atténuer les mécanismes de domination, à permettre de prendre en compte les absents et notamment les abstentionnistes, notamment parce que plus les publics sont silencieux moins les politiques leurs sont destinées.

Loisel et Rio plaident également non seulement pour un empowerment des acteurs affaiblis, mais également pour un “disempowerment des acteurs établis”. Pour eux, les dispositifs devraient être là pour redistribuer le pouvoir. “La participation n’est démocratique que lorsqu’elle parvient à donner de la voix aux absents et à élargir le spectre des points de vue en présence”, à redonner une place à ceux qui ne sont pas écoutés et qui n’ont pas de strapontin à la table des négociations. Les institutions n’ont pas besoin d’entendre des centaines de citoyens ni de recueillir des millions de doléances, que d’écouter ceux qui ne participent pas. Et faire de manière à ce qu’ils disent soit entendu, agisse sur l’action publique. 

Déni d’opposition

“L’avènement de la démocratie administrée s’accompagne d’une répression croissante des autres formes d’expression citoyenne”. Les citoyens doivent de plus en plus parler là où on leur dit de faire et nulle part ailleurs. C’est comme si la démocratie participative laminait toutes autres formes d’expressions démocratiques, et notamment le droit de manifester, si mis à mal ces dernières années que ce soit par la multiplication des interdictions de manifester comme par leur répression. La protestation est désormais considérée comme “un trouble à l’ordre public”, et il n’est pas loin que le simple désaccord le devienne également. Les mouvements sociaux sont de plus en plus criminalisés, comme le montrait le sociologue Julien Talpin dans Bâillonner les quartiers, pointant la dérive autoritaire de nos démocraties. Fermeture de locaux, chantages aux subventions, refus d’agréments… Les autorités ont renforcé le déni de leur contestation, à l’image du contrat d’engagement républicain des associations très largement critiqué. C’est comme si nous étions entrés dans un déni d’opposition. Tous ceux qui ont un discours trop frontal sont écartés des tables de discussion, les poussant à se radicaliser plus encore. Ceux qui ne sont pas d’accord sont partout considérés comme des Ayatollahs. Leurs arguments, quels qu’ils soient, sont écartés par principe. En rendant l’opposition impossible, c’est la discussion qui le devient. 

“La crise démocratique est une crise de l’écoute”, expliquent-ils parfaitement. Mais également une crise de réponse à cette écoute, à l’image de metoo qui a libéré la parole des victimes de violences sexistes sans que nous ne modifions le fonctionnement de nos institutions collectives pour y répondre, renvoyant celles qui osent parler à leur seule responsabilité individuelle. C’est également une crise du déni, où la démocratie n’est plus vue comme le lieu d’un compromis entre ses parties prenantes, mais comme la lutte d’un clan contre un autre, à l’image du refus de discussion sur la réforme des retraites, les bassines, etc. A force de déni et de dévitalisation, les institutions perdent leurs interlocuteurs traditionnels, associations et corps intermédiaires… au risque de n’avoir plus personne à qui parler, autre que les lobbies, c’est-à-dire que les intérêts financiers les plus forts !

La démocratie participative permet de collecter une parole à laquelle personne ne répond. Nos institutions semblent produire de plus en plus un dialogue de sourds. C’est un peu comme si nos institutions niaient l’existence de divergences d’intérêts, ce qui se traduit par une conflictualité en hausse, par une radicalisation des positions, par une tension permanente et épuisante. L’apaisement n’est plus un mode de gouvernement. Dans le déni de l’écoute, des réponses et du compromis, les protestations mêmes légitimes ont tendance à devenir colère voire réactions violentes. “L’incapacité à écouter débouche sur une incapacité à agir”

Rendre l’écoute fonctionnelle

Pourtant, il existe des leviers pour rendre à nouveau l’écoute fonctionnelle, rappellent les auteurs en prenant l’exemple du Défenseur des droits (on pourrait évoquer également le rôle de la Commission d’accès aux documents administratifs voire en partie des missions de la Cnil et de quelques autres autorités administratives indépendantes, auxquelles il faudrait ajouter les médiateurs de services publics que l’on trouve désormais dans plusieurs institutions publiques). Les médiateurs se font souvent le relais institutionnel des inaudibles :  ils viennent non seulement écouter mais également accompagner les usagers en difficultés en proposant leur médiation dans les conflits. “Cette fonction de médiation à l’échelle individuelle vient alimenter une fonction d’interpellation, plus collective”, à l’image des travaux et saisines du Défenseur des droits. Les remontées de problèmes permettent de mettre en visibilité les difficultés structurelles, de passer du subjectif à l’objectif… et surtout souvent de résoudre les situations de blocage individuelles… En assurant le suivi des cas, ces médiateurs viennent refluidifier l’écoute et la réponse que nous sommes en droit d’attendre des acteurs publics. Pour Loisel et Rio, c’est ce processus de transformation du vécu subjectif à l’analyse objectivée qui manque dans la participation citoyenne, c’est le moyen d’assurer que les propositions obtiendront bien une réponse. Et la solution des autorités indépendantes permet de montrer que c’est parce qu’elles ont un pouvoir garantit et établit, opposable, qu’elles peuvent agir. Leurs fonctions n’est pas qu’une fonction de médiation, elle est bien d’abord une fonction de résolution de problèmes. Ces médiateurs ont souvent un pouvoir qu’ils utilisent pour remettre de l’asymétrie dans une relation qui ne l’est plus. Elles ont les moyens, juridiquement garantis, de remettre un dossier sur une table, de provoquer des réponses. 

Pour Loisel et Rio, ces agences, à l’écoute des citoyens, montrent que également que l’audition (et pas seulement celle des experts) est un levier pour faire remonter la parole et le vécu des citoyens dans les décisions. C’est l’addition de récits qui transforme nos sociétés, à l’image de ce qu’à produit la Commission indépendante sur les abus sexuels dans l’Eglise. Idéalement, le procès, momentum de la justice, est également une expérience d’écoute et de réponse. “Remplacer les plateformes participatives par des témoignages à la première personne permettrait de préciser ce qui est attendu des citoyens. L’objectif n’est pas d’avoir leur avis (c’est le rôle des élus) ou de prendre leurs idées (c’est le rôle de l’administration), mais de comprendre leur expérience vécue et la façon dont elle éclaire les politiques mises en place”. La confrontation des témoignages permet d’avoir une vision plus complète de la réalité, d’éclairer les angles morts de la décision, et de les porter pour que le politique en tire les conclusions

Les deux consultants plaident également, comme le juriste Thomas Perroud, pour faire entrer l’administration en démocratie, en faisant là encore entrer la contre-expertise, la diversité des points de vue, pour faire surgir les controverses là où elles sont, plutôt que de les mettre sous le tapis. Seule l’existence de contre-pouvoirs permet de rendre l’écoute opposable. Il faut donc que les témoignages comme les mobilisations permettent d’alimenter des contre-pouvoirs pour peser sur les choix d’action publique. Ils sont le moyen de rappeler l’importance du “pas pour nous sans nous” qui mobilise l’action citoyenne. Dans un monde où tout le monde ne veut voir que des solutions, il faut rappeler que celles-ci n’existent pas sans revendications. L’acteur public ne devrait pas tant chercher des solutions, que confronter les revendications. 

Négocier plutôt que gérer

“Pour rendre l’action publique plus démocratique, ce n’est pas la place des citoyens qu’il faut interroger, mais celle de leurs représentants”, expliquent Loisel et Rio. Pour eux, il y a un malentendu sur la fonction des élus. Il faut réhabiliter leur fonction délibérative, plaident-ils, en montrant que la délibération politique, c’est-à-dire le débat contradictoire qui précède la prise de décision, est quasi inexistante. Partout, les instances démocratiques deviennent de plus en plus des chambres d’enregistrement qui n’ont plus prises sur les enjeux, à l’image des tristes séances de conseils municipaux où s’égrainent une suite sans fin de délibérations. Les décisions se passent ailleurs. Dans des bureaux, dans des négociations opaques. Partout, les décisions semblent déjà prises. 

Si la proposition est forte, il me semble ici que l’on trouve l’une des rares faiblesses du livre, qui semble minimiser la politisation des élus, leurs convictions qui pèsent sur les choix auxquels ils procèdent. Les faire passer du rôle de manager, de chef de projets qui ont tout pouvoir à un rôle de diplomates, de négociateurs avec les parties prenantes est une proposition très stimulante et idéale. Ce n’est effectivement qu’en invitant les différents points de vue à s’exprimer, à dialoguer, à trouver des compromis qu’on pourra lever les blocages de nos sociétés. Mais ce n’est pas le rôle que leur confèrent nos institutions pour le moment. Loisel et Rio illustrent cela en évoquant les problématiques de l’accès à l’eau qui aujourd’hui se règle sans que les débats entre les acteurs (citoyens, industriels, agriculteurs…) ne soient organisés. Sans organiser les confrontations, les blocages l’emportent. Les objectifs restent cantonnés dans des documents stratégiques sans capacité à les atteindre. Les enjeux de mise en œuvre sont trop souvent négligés. “L’action publique est avant tout une affaire de négociation”. Sur la question de la raréfaction de l’eau, la baisse des consommations ne se décrète pas, elle se négocie, au risque sinon de ne jamais atteindre les objectifs qu’on se fixe. “Démocratiser l’action publique, c’est passer de la concertation à la négociation”.

Pour Loisel et Rio, nous devons sortir de l’obsession du consensus pour trouver les modalités concrètes des compromis. Pour cela, la démocratie doit savoir organiser la confrontation d’intérêts divergents. C’est pourtant bien par le compromis qu’on amène chacun à s’engager et donc à obtenir des engagements opposables, c’est-à-dire qui permettent d’obliger ceux qui ne les respectent pas. Dans le domaine de la gestion de l’eau, “la démocratie ne peut pas se réduire à une somme d’arrêtés préfectoraux de restrictions, appliqués à géométrie variable en fonction du poids de chaque lobby sans aucun processus de délibération”. Il nous faut sortir de la gestion de crise permanente que produit l’évitement démocratique. Le politique doit revenir à la table des négociations pour faire discuter les acteurs concernés, afin que chacun puisse préciser leurs contributions effectives. “Les institutions sont là pour organiser la confrontation publique des intérêts privés”. Ce qui n’est pas si simple quand nos institutions favorisent aussi l’accès au pouvoir de représentants de ces intérêts particuliers. 

*

Manon Loisel et Nicolas Rio signent une belle défense d’une démocratie vivante à un moment où elle semble si épuisée, depuis une analyse puissante et concrète des blocages politiques où nous sommes coincés. Les revendications que formule le livre ne sont pas simples à mettre en œuvre. Elles ne consistent pas à sortir des solutions (même s’ils en font plusieurs, par exemple d’améliorer la représentation par le tirage au sort depuis le niveau d’absentéisme pour corriger le déficit de représentativité), mais à nous interroger sur comment dépasser les blocages de nos société et le risque d’une dérive autoritaire. En cela, c’est un livre qui nous montre comment sortir de trop d’échecs démocratiques. 

L’ouvrage n’en est pas moins assez idéaliste parfois et semble minorer le fait que la politique soit d’abord des positions politiques qui s’affrontent. Le déni de certaines positions ne se résoudra pas seulement par le retour de la négociation, mais d’abord par le retour d’une affirmation de la légalité des contre-pouvoirs. Or, c’est bien ces garanties démocratiques qui sont mises à mal, notamment quand on interdit de manifester ou qu’on surcontrôle certaines manifestations plutôt que d’autres afin de rendre la contestation impossible. Loisel et Rio militent pour plus de représentation, plus de garantie et de pouvoir à ces représentations, alors que nous assistons depuis trop longtemps à l’exact inverse. La dévitalisation de notre démocratie représentative reste, quoi qu’on en dise, d’abord la conséquence d’un recul des fonctions représentatives.  

Derrière le paravent participatif, trop souvent, c’est la représentativité qui est mise à mal. Loisel et Rio ne souhaitent pas se débarrasser de la démocratie avec l’eau du bain de la démocratie participative, au contraire. Ils font le constat que le développement de la démocratie participative est un écran de fumée et que c’est la démocratie qu’il faut défendre. Pour cela, il faut renforcer les garanties, les contre-pouvoirs, la représentativité quand ce sont elles qui se délitent. Loisel et Rio nous invitent à un “réarmement” démocratique, qui me semble le réarmement dont on manque le plus. Ils nous montrent également que celui-ci ne passe pas nécessairement par de nouveaux droits, mais par la capacité à trouver les moyens de les rendre plus effectifs qu’ils ne sont. 

En regardant la liste des autorités administratives indépendantes, je me dis qu’il y a encore bien trop de secteurs qui n’en disposent pas. A l’heure où les associations, représentants professionnels et syndicats sont à la peine (ce qui ne doit pas nous dispenser de trouver les modalités pour les renforcer plutôt que les dévitaliser !), avoir des autorités indépendantes qui viennent les renforcer (voir des déclinaisons locales) est une perspective plutôt stimulante, pour autant que ces autorités soient dotées de moyens, de droits et de capacités d’action. Dans le numérique, cela permettrait en tout cas d’aller plus loin que les conseils de surveillance, les comités d’éthique et les rapports de transparence… à défaut d’avoir une vraie représentation des parties prenantes, on pourrait au moins envisager des autorités indépendantes avec des capacités d’écoutes, d’actions et de contrôle des réponses apportées.

Hubert Guillaud

A propos du livre de Manon Loisel et Nicolas Rio, Pour en finir avec la démocratie participative, Textuel, 2024, 18,9 euros, 192 pages. A compléter par leurs riches interviews chez Autrement Autrement, Acteurs Publics ouMédiapart

26.01.2024 à 09:31

Au fond du trou extractiviste

Hubert Guillaud

Il faut beaucoup de courage au lecteur pour descendre dans les profondeurs du livre de la journaliste Celia Izoard, La ruée minière au XXIe siècle, enquête sur les métaux à l’ère de la transition (Seuil, 2024, 342 p, 23 euros). Du courage parce que c’est un livre qui dresse des constats éprouvants pour comprendre le monde. […]
Texte intégral (3297 mots)

Il faut beaucoup de courage au lecteur pour descendre dans les profondeurs du livre de la journaliste Celia Izoard, La ruée minière au XXIe siècle, enquête sur les métaux à l’ère de la transition (Seuil, 2024, 342 p, 23 euros). Du courage parce que c’est un livre qui dresse des constats éprouvants pour comprendre le monde. Le livre parle très concrètement de l’extractivisme, du capitalisme, des mines, de notre voracité sans limite et de ses conséquences. 

Couverture du livre de Celia Izoard, La ruée minière au XXIe siècle.

La mine du XXIe siècle ne ressemble plus à Germinal. Plus grand monde ne descend dans des fosses. Désormais, nous arrasons les montagnes. Nous broyons les roches. Nous construisons des bassins de déchets que nous ne savons pas gérer, irréversiblement toxiques et très sensibles au changement climatique. Les accidents liés à ces bassins et digues de rétentions des déchets sont innombrables, tant et si bien qu’il faut considérer cette pollution et ces accidents comme faisant partie de l’extractivisme minier… Les ruptures, les coulées, les “liquéfactions instantanées”, les conséquences de la pollution sur les populations… sont parmi les passages les plus glaçants du livre… nous rappelant que le monde industriel propose toujours des solutions à court terme et crée des problèmes à très long terme. 

L’impératif minier crée des états d’exception pas des zones de responsabilité

Contrairement aux mythes de la dématérialisation et de la désindustrialisation, nous n’avons jamais autant extrait de métaux et nous prévoyons d’en extraire plus encore. Nous ne sommes pas dans l’après-mine, mais au contraire dans une relance minière inédite, plus vorace et extractive qu’elle n’a jamais été. Cet extractivisme sans précédent a trouvé une nouvelle justification explique la journaliste : l’extractivisme renforcé est le moyen pour assurer la transition bas carbone, qu’importe si en réalité cette transition est un leurre. Assurer la transition est la nouvelle idéologie qui succède au Salut ou au Progrès et qui justifie plus avant l’accumulation et l’artificialisation du monde. Comme les précédentes, elle fonctionne sous le régime de la promesse pour acheter le statu quo, explique-t-elle très pertinemment. Le livre de Celia Izoard est rempli de chiffres qui donnent le tournis pour nous rappeler combien notre monde extractiviste est insoutenable. Mais surtout, sa grande force est de nous amener jusque dans les mines elles-mêmes, pour nous montrer leurs fonctionnements et leurs terribles effets. Elle explique que contrairement à ce que nous font croire quelques données peu informées, nous n’allons en rien vers des mines responsables. Toutes produisent des catastrophes écologiques, à l’image du projet Montagne d’Or en Guyane qu’elle avait documenté dans un formidable numéro de la revue Z. “L’après-mine est déjà une autre planète, faite de main d’homme”. Mais c’est une planète stérile, toxique, invivable. Avant de terraformer Mars, nous stérilisons notre propre planète. La mine industrielle ne cohabite avec aucun être vivant. Elle participe au dérèglement climatique et est très sensible à celui-ci, à l’image des innombrables ruptures des barrages de résidus, ces montagnes de déchets broyés qui n’ont plus de roches pour résister à l’action du temps. Les données numériques convoquées pour la surveillance ne servent qu’à améliorer encore les rendements, qu’à diminuer encore les coûts d’exploitation, sans rapport aucun avec leur coût environnemental. Les innovations dans la mine ne la rendent pas plus responsable, elles la rendent plus efficace. Elles permettent de creuser plus et plus vite avec moins de main-d’œuvre, comme l’expliquent les dossiers de l’association SystExt. Le modèle minier se “radicalise bien plus qu’il ne se responsabilise”. Et “plus la teneur des gisements baisse, plus la mine est polluante”

La relocalisation des mines en Europe, au prétexte d’une souveraineté pour la transition, n’assure que d’une bien faible responsabilité réglementaire. Elle ne vise qu’à étendre encore notre voracité puisque nul ne parle de fermer ailleurs les mines qu’on réouvrirait ici. Il ne s’agit que “d’une course à la délocalisation des émissions carbones”. Pourtant, en matière de responsabilité, c’est l’inverse auquel on a assisté, explique-t-elle. La réforme des codes miniers imposés par le FMI et la Banque mondiale aux pays du Sud endettés a levé les législations protectrices à l’égard de la main-d’œuvre et de l’environnement. L’extractivisme s’est renforcé avec la dette. Les plans du FMI et de la Banque mondiale ont imposé la privatisation des mines, le gel des lois sur le travail et l’environnement… Elles ont développé la mine géante, exemptée de taxes, et ont facilité l’accès aux zones minières et les investissements étrangers. Là où les mines se sont étendues, la pauvreté n’a pas été réduite, les revenus de l’extraction n’ont pas profité aux communautés. Au contraire. Elles ont produit de nouvelles “zones de sacrifices” environnementales ! L’impératif minier crée des états d’exception pas des zones de responsabilité. 

Le pillage des ressources de l’ère coloniale a continué sous forme d’une reconquête. Cette délocalisation a permis d’éteindre les luttes ouvrières des anciens bastions miniers et de désarmer les contestations des mouvements environnementaux des pays riches. Les problèmes ont été laissés aux sous-traitants, comme le disait avec cynisme Michael Scott, PDG d’Apple. Au XXIe siècle, avec la hausse des coûts des matières, la matérialité de notre monde s’est rappelée à nous. La Chine a diminué ses exportations, la pénurie minière s’est fait sentir. Derrière la fable des métaux pour la transition, la réalité de la mine est qu’elle est bien plus au service de la Défense et du capitalisme numérique que de la transition écologique. La transition semble surtout un paravent qui ne sert qu’à “justifier l’accélération du modèle extractiviste”

Le régime minier : un régime de sacrifices
Izoard nous rappelle que le capitalisme est l’histoire d’une civilisation extractiviste. Nous sommes le produit d’un régime minier, d’une guerre contre la nature qui consiste à construire un monde hors-sol. La croissance industrielle est devenue l’objet même de la politique. 

La nouvelle promesse de relocaliser les mines pour assurer notre souveraineté et une meilleure responsabilité tient de la fable, tance Izoard. Les déchets et leur toxicité ne sont pas compressibles. Et à mesure que nous exploitons des gisements avec moins de teneurs en métaux nous produisons encore plus de déchets. Là où elles existent ou s’installent, les mines dévorent leur environnement, assoiffant et empoisonnant les communautés locales. Le modèle minier a toujours fonctionné sur la dépossession et le sacrifice des populations, à l’image des constats éprouvants qu’elle dresse de la mine “responsable” de Bou-Azzer au Maroc. Les labelisations de responsabilisation sont des coquilles vides produites par des ensemble de données “qui n’ont jamais vu la moindre population”. La réalité de la mine reste invisible, opaque. Nous ne connaissons même pas le nombre de mines réellement en exploitation de part le monde. Malgré une automatisation sans précédent, la mine est responsable de 8% des accidents mortels au travail, alors qu’elle n’emploie que 1% de la main-d’œuvre mondiale. 

La mine a été l’activité coloniale par excellence. Elle le reste. Elle a été la matrice du capitalisme. Longtemps exploitées par des communautés villageoises sous formes de guildes puissantes, l’augmentation de la demande à la fin du XVe siècle va nécessiter des équipements plus coûteux pour creuser plus profondément… et va conduire les organisations de mineurs à ouvrir la propriété des mines pour obtenir des capitaux. A la fin du XVe siècle, les compagnies de mineures étaient devenues des sociétés par action, bien avant la création de la Compagnie anglaise des Indes orientales en 1600. Dès le XVIe dans ces mines de Saxe, de Bohème et du Tyrol sont introduites les premières machines. Là où le capital se répand, l’intensification de la rentabilité suit… Sauf qu’elles s’épuisent également et deviennent moins rentables. On comprend alors l’appel d’air que constitua la découverte de l’Amérique, qui va devenir une mine à l’échelle du continent, une “économie minière esclavagiste”. “Un siècle après le premier voyage de Colomb, les principaux centres miniers de la planète s’étaient déplacés de l’Europe centrale à l’Amérique, où ils pouvaient se développer hors de toute contrainte sociale grâce aux régimes d’exception esclavagistes de la Conquête.” En retour, cet extractiviste va produire les capitaux pour l’essor industriel européen. Les systèmes extractifs se généralisent. Les régimes d’exceptions miniers que l’on retrouvait sur des fronts pionniers, sont intégrés au fonctionnement normal de la production. La machine à vapeur de Watt sert d’abord à évacuer l’eau des mines puis le minerai, bien avant que de faire avancer un train. La violence sociale du monde colonial va être rapatriée dans le monde minier. “La main-d’œuvre aussi est un minerai que l’on peut broyer”. Le courant industrialiste s’impose, alliance inédite entre l’Etat, la bourgeoisie et la science. La loi donne à l’Etat le droit de disposer du sous-sol. Nous passons d’un régime agraire à un monde minier… Et nos légumes désormais doivent moins à la terre “qu’à la production de pétrole et d’engrais phosphatés.” L’extractivisme est devenu notre matrice de développement, qu’importe s’il produit sur terre des conditions d’hostilité totale à la vie.

Ralentir ou Périr
Dans la dernière partie, Izoard ne se dérobe pas. Elle tente d’esquisser des solutions du tableau apocalyptique qu’elle a dressé. Le régime minier, extractiviste, est en train de se renforcer et de se radicaliser plus que de s’éloigner. Il s’étend, notamment à l’eau. Pour la journaliste, “il n’y aura pas de solution minière à la crise climatique”

Pour la journaliste, il nous faut trouver les moyens d’une désescalade de la consommation de métaux. Nous ne devons pas attendre de passer le pic productif. “Le spectre de la pénurie a plutôt pour effet d’encourager la spéculation et l’exploration minière”. La décroissance de l’extraction ne doit pas attendre la déplétion physique des matières : elle demeure une décision politique, un rapport de force. La perspective d’un meilleur recyclage est également compliquée, notamment du fait de la dispersion des minerais dans les produits. Pour l’instant, elle peut certes être améliorée, mais les progrès sont difficiles du fait de la dégradation des matériaux, des pertes fonctionnelles et surtout de la toxicité du recyclage. Le recyclage reviendrait à construire des mines urbaines tout aussi problématiques que les mines lointaines quant à leurs besoins en eau, en énergie et à leur production de polluants. 

Pour Izoard, la décroissance minérale est notre seule perspective. Mais elle n’est pas acquise. “Pour quiconque réfléchit à l’écologie, il est gratifiant de pouvoir proposer des remèdes, de se dire qu’on ne se contente pas d’agir en négatif en dénonçant des phénomènes destructeurs, mais qu’on est capable d’agir de façon positive en énonçant des solutions. Le problème est que dans ce domaine, les choses sont biaisées par le fonctionnement de la société”. Dans les années 70, les mouvements écologistes ont dénoncé la société fossile et nucléaire et ont défendu des techniques alternatives comme l’éolien ou le solaire. Ils combattaient la surconsommation d’énergie, mais ce n’est pas elle que nos sociétés ont retenues. Le capitalisme a adopté “les alternatives techniques en ignorant le problème politique de fond qui remettait en question la croissance industrielle”. Les éoliennes et centrales solaires à petites échelles sont devenues des projets industriels. La sobriété et la décroissance ont été oubliées. “Avant de se demander comment obtenir des métaux de façon moins destructrice, il faut se donner les moyens d’en produire et d’en consommer moins”. C’est bien notre société qu’il faut changer. Et nous n’avons pas vraiment fait de pas dans la direction de la sobriété, comme le remarquait l’historien Jean-Baptiste Fressoz, qui constate également, dans Sans transition qui paraît au même moment, que le discours sur la transition dépolitise la question climatique

Pour Izoard, la mine responsable est une “chimère bureaucratique”. Les règlementations et les remèdes technologiques ne rendront pas viables, responsables ou éthiques, les mines industrielles. “Les problèmes qu’elles posent ne sont pas des anomalies, mais le fruit d’un système”. Il n’est pas possible d’exploiter des gisements avec si peu de matières sans créer des problèmes insurmontables. En 2017, le Salvador a interdit l’exploitation de mines métalliques afin de préserver l’eau, dans un pays où 90% des sources sont polluées. “La meilleure stratégie pour s’opposer à la mine industrielle semble consister à obtenir des décisions démocratiques”, comme le montrent toutes les luttes du continent américain, où plusieurs pays, suite à référendums ont fait fermer des mines. Il nous faut augmenter le coût financier, moral et politique de l’extraction, plaide Izoard. La mine industrielle a une faiblesse : elle est très coûteuse en infrastructure et une fois construite, son exploitation doit être garantie et ne plus être contestée. Mining Watch Canada et le London Mining Network travaillent eux à rendre visible la prédation en allant aux AG des extracteurs pour y porter la parole des communautés locales qui subissent les effets de l’activité minière. 

Nous avons besoin d’un sevrage métallique et énergétique. Nous avons sur-minéralisé notre quotidien, à l’image de notre emblématique smartphone qui concentre plus de 50 métaux en son cœur, disséminés dans plus de 80 composants différents. Les tentatives de Fairphone de pousser le recyclage et augmenter la durée de vie de ses appareils montrent surtout combien ce rêve est impossible. On ne peut pas produire de téléphone hors de l’écosystème industriel. “Dès qu’on prend au sérieux la question des métaux, la croissance effrénée du monde connecté devient un problème central”. Et la journaliste d’inviter à produire des bilans métaux comme nous produisons des bilans carbones, afin de mieux souligner la surconsommation de métaux, trop absente du débat public, où l’on parle bien plus de reconquête industrielle et minière que de sobriété… et en explorant plus avant la distinction à produire entre émissions de luxe et émission de subsistance, comme y invite Andreas Malm dans Comment saboter un pipeline, ou encore en démultipliant les conventions citoyennes pour le climat et la décroissance…  “Tant que la décroissance n’arrivera pas à s’imposer comme mot d’ordre, urgent et impératif, le capitalisme industriel continuera d’interpréter les revendications des mouvements sociaux comme des défis techniques”. “On ne peut pas se satisfaire d’améliorer l’efficacité énergétique du stockage de données tant que le trafic internet augmente de manière exponentielle. On ne peut pas continuer de déployer en masse des satellites en se disant qu’une partie d’entre eux permettront de mieux comprendre la déforestation…” Nous devons sortir des cages dorées qui nous rendent aveugles aux finalités. “La technique doit sortir de deux siècles d’envoûtement extractiviste”

*

Le livre de Célia Izoard est éprouvant, mais il est aussi mobilisateur. C’est aussi un manuel pour armer les luttes contre l’extractivisme à venir. Les mines ne sauveront pas la planète. Notre difficulté consiste à nous opposer à cet extractivisme. Dans les mines modernes, l’automatisation a fait disparaître le rapport de force social qui existait, comme on le trouve dans Germinal. Ce ne sont plus les populations employées qui peuvent s’opposer au minage, mais celles qui sont sacrifiées par les impacts de la mine. Ce déplacement de la lutte sociale à la lutte environnementale, des luttes locales aux luttes lointaines, explique certainement nos difficultés à réduire leur déploiement, car elle nécessite une mobilisation plus large. Nous devrions être concernés par ce qu’il se passe à Bou-Azzer au Maroc, à Butte dans le Montana, à Rio Tinto en Andalousie… Ce n’est pas le cas. 

La ruée minière au XXIe siècle regarde le monde tel qu’il est. Et il n’est pas beau. 

Hubert Guillaud

A propos du livre de Célia Izoard, La ruée minière au XXIe siècle, enquête sur les métaux à l’ère de la transition, Seuil, “Ecocène”, 2024, 342 p, 23 euros.

18.01.2024 à 09:12

Le risque fasciste de l’IA

Hubert Guillaud

Le propos fera certainement bondir nombre de thuriféraires de l’IA. Il mérite pourtant une écoute attentive car il souligne que la face sombre de l’IA est plus sombre qu’on le pense.  Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to […]
Texte intégral (2967 mots)

Le propos fera certainement bondir nombre de thuriféraires de l’IA. Il mérite pourtant une écoute attentive car il souligne que la face sombre de l’IA est plus sombre qu’on le pense.  Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to artificial intelligence (Résister à l’IA, une approche anti-fasciste de l’IA, Bristol University Press, 2022, non traduit). 

Couverture du livre de Dan McQuillan.

L’IA une prise de pouvoir par une porte dérobée
Sur son blog, il présente l’IA comme un Thatchérisme. “L’IA est utilisée comme une forme de “Stratégie du choc“, dans laquelle le sentiment d’urgence généré par une technologie censée transformer le monde est utilisé comme une opportunité pour transformer les systèmes sociaux sans débat démocratique.” Quand l’IA est convoquée pour transformer l’hôpital et l’école, c’est une diversion qui vise à nous masquer leur effondrement sous les coups d’un désinvestissement massif. Or, l’IA ne comprend ni la médecine ni l’éducation. La seule chose que les grands modèles d’IA font très bien, c’est de transférer le contrôle aux grandes entreprises, et ce alors qu’aucun autre acteur n’a les moyens ou la puissance de traiter les données qu’elles savent traiter. “La promotion de l’IA est une privatisation par une porte dérobée”, une privatisation sous stéroïde qui vient renforcer celle déjà à l’oeuvre. L’objectif n’est pas de “soutenir” les enseignants et les travailleurs de la santé par de nouveaux dispositifs, mais de combler les lacunes d’un système en défaillance grâce à l’IA plutôt qu’avec le personnel et les ressources dont les systèmes publics auraient désespérément besoin. L’IA est un “Thatchérisme informatique” qui vise “la précarisation des emplois, la privatisation et les l’effacement des relations sociales réelles”. Elle vise à renforcer la cruauté bureaucratique envers les plus vulnérables comme le montre son utilisation dans les systèmes de protection sociale à travers le monde

Les logiques de classement, de rationalité et de supériorité sont profondément enfouies au coeur des techniques constitutives de l’intelligence artificielle, explique McQuillan d’où l’attirance des politiques les plus réactionnaires à leur égard, puisqu’elles permettent finalement d’opacifier l’exploitation de la vulnérabilité qu’elles permettent sous la neutralité scientiste du calcul. Pour McQuillan, nous devons urgemment restreindre le champ d’application de l’IA. Il n’est pas un outil pour changer de régime technocratique comme l’annoncent certains travaillistes britanniques (la question du numérique est visiblement une ligne de fracture chez les travaillistes britanniques, expliquait Politico). Pour Dan McQuillan nous avons plutôt besoin d’un moment luddiste pour démonter ces machines. 

L’IA : une vision réactionnaire du monde
Dans l’introduction de son livre, Dan McQuillan est plus radical encore. Il explique que le développement de l’IA peut être vu comme un écho aux tendances austéritaires, autoritaires et réactionnaires du monde actuel. Pour lui, si elle prend tant d’ampleur, c’est parce qu’elle est compatible avec le capitalisme financier, mais également convergente avec le fascisme qui monte. 

L’IA n’est pas qu’un ensemble de techniques et est plus qu’un ensemble de méthodes d’apprentissage. “On ne peut pas séparer les calculs du contexte social de leurs applications”, et notamment des conceptions sur la façon dont le monde est différencié et évalué par ces systèmes. Comprendre l’IA signifie comprendre non seulement les opérations de calcul, mais également tout ce qui est charrié avec elles. Avec l’IA, les détails les plus techniques ont des implications politiques. Et la chape d’opacité et de complexité technique dont elle recouvre les décisions permet avant tout de renforcer la violence culturelle et structurelle du pouvoir. L’IA n’est pas qu’une méthode de production de la connaissance, elle est aussi un paradigme pour l’organisation sociale et politique, explique-t-il. Elle agit sur le monde de façon à affecter la distribution même du pouvoir. Elle altère notre monde commun. 

Alors que le storytelling de l’IA ne cesse de nous faire des promesses pour que nous en ayons de grandes attentes, la réalité de l’IA consiste surtout à réduire le réel. En réalité, l’IA amplifie les inégalités et les injustices d’existence, approfondie les divisions. McQuillan s’intéresse aux manipulations statistiques de l’IA. L’IA est une technologie fragile qui échoue souvent de manière inattendue, qui manque d’explicabilité… Mais surtout, elle tire son autoritarisme des méthodes scientifiques qu’elle mobilise, notamment l’abstraction et la réduction du réel. Le risque de l’IA est d’abord d’intensifier les tendances à l’œuvre dans le capitalisme financier, à savoir l’extractivisme et le colonialisme. L’IA sert à accélérer les politiques d’austérité et renforce les régimes de surveillance. Pourtant, si nous devons avoir une approche antifasciste de l’IA, ce n’est pas parce que l’IA peut être utilisée par des régimes autoritaires, mais parce que l’IA apporte des “solutions fascistes aux problèmes sociaux”.

“Je ne dis pas que l’IA est fascite”, précise-t-il, “mais que la contribution de l’IA est un moyen de normaliser des réponses fascistes aux instabilités sociales”. L’IA est particulièrement forte pour séparer et discriminer les choses et les gens ainsi que pour préserver le pouvoir existant (en renforçant les monopoles). C’est en cela qu’elle a une tendance fasciste, explique le professeur. Pour McQuillan, l’IA est une “technologie de division”, notamment dès qu’elle se propose comme une solution aux crises sociales. Pour McQuillan, l’IA agit comme une forme de métapolitique. Du fait même des opérations qu’elle propose, l’IA risque de nous conduire à une fascisation du monde. D’où la nécessité d’avoir une approche anti-fasciste pour la contrer. Pour cela, McQuillan convoque la critique féministe et décoloniale qui permettent de prioriser les perspectives marginalisées. L’une des plus toxique tendance de l’IA appliquée au social est de naturaliser et d’essentialiser des différences structurelles comme les inégalités ou le racisme. Pour contrer cette dérive fasciste de l’IA, nous devons nous extraire de l’inférence statistique pour en revenir au soin mutuel. Pour construire une IA alternative nous devons construire des organisations différentes, plus démocratiques et fondées sur la solidarité. En s’inspirant des luttes politiques contre l’injustice et l’autoritarisme et donc des techniques de mobilisation anti-fascistes. Nous devons refuser les exclusions du calcul et pour cela restructurer le monde qui a permis à l’IA d’advenir. 

“L’efficacité n’a rien à voir avec la justice”
Dans la Sociological Review, Dan McQuillan expliquait que la violence algorithmique a émergé de notre matrice sociale. Le discours autour de l’IA ressemble à un grand spectacle qui agit surtout comme un écran de fumée pour nous détourner des impacts profonds que celle-ci a déjà sur nos existences. Il n’y a rien d’intelligent dans l’IA. Elle est présentée comme une forme de cognition, alors que les concepts opérationnels de l’IA ne sont ni l’intelligence ni l’apprentissage, mais l’optimisation et l’efficacité. Et “l’efficacité n’a rien à voir avec la justice”, rappelait-il lors d’une intervention au séminaire Critique de l’intelligence artificielle

Comme le disait le philosophe Achille Mbembe, l’IA est d’abord traversée, de bout en bout, par sa violence. Elle accroît ce que la philosophe Hannah Arendt appelle “l’inconscience institutionnelle”, c’est-à-dire “l’incapacité de critiquer les instructions ou de réfléchir aux conséquences”, explique McQuillan. L’optimisation de l’IA augmente ainsi la violence administrative et intensifie les structures d’inégalités existantes, comme quand elle est utilisée pour faciliter les décisions concernant les patients prioritaires en matière de soins de santé ou les détenus qui risquent de récidiver.

Les avantages sociaux de l’IA sont toujours spéculatifs, toujours à venir… alors que les inconvénients eux, sont déjà là. La violence algorithmique de l’IA est “légitimée par les prétentions de l’IA de révéler un ordre statistique dans le monde”, mais c’est là une erreur logique et une bien mauvaise utilisation des statistiques, explique le profeseur. Appliquée aux contextes sociologiques de la vie quotidienne, les statistiques produisent une injustice épistémique, où la voix et l’expérience de chacun sont dévalorisées par rapport aux jugements immédiats ou prédictifs. Ce que produit d’abord l’IA, c’est de la précarité. Elle introduit de la vulnérabilité et de l’incertitude, à l’image des systèmes utilisés pour l’emploi ou pour l’aide sociale. Elle produit donc la dissolution du contrat social que nous avons construit depuis la guerre. 

Pour la philosophe féministe Karen Barad, nos exclusions sont le résultat d’arrangements spécifiques d’appareils. L’IA n’est pas une manière de représenter le monde, mais bien une intervention sur celui-ci et celui qui met en place l’IA est celui qui possède le pouvoir. Pour McQuillan, les grands modèles de langages sont des moteurs à conneries, à la fois au sens technique du terme, puisqu’ils “optimisent la génération de textes plausibles en langage naturel, basés non pas sur un modèle de relations causales et de significations réelles, mais aveuglément, sur la base de modèles statistiques préprogrammés dans un vaste corpus de langage existant”. Mais également au sens social car leurs arguments apparemment raisonnés sont en réalité complètement détachés du monde vécu. Le risque alors est que l’IA intensifie une “nécropolitique”, c’est-à-dire une politique qui a le droit de dicter nos conditions d’existence, de vie et de mort. En cela, l’IA est donc en résonance avec les politiques réactionnaires, notamment quand elle crée des états d’exceptions, des situations où les droits sont sans cesse recalculés. Deleuze et Guattari nous ont avertis que le fascisme apparaît souvent caché imperceptiblement dans notre vie quotidienne. L’IA concentre et condense ces microfascismes par la façon dont elle crée des états d’exception. “La condensation algorithmique des conditions sociales accélère les différences” au détriment des personnes racisées, des femmes, des handicapés et des plus pauvres. Comme le QI, l’IA classe les gens, et elle a vite fait de produire une forme d’eugénisme, comme le dénonçait également la chercheuse Kate Crawford, distinguant ceux qui ont droit et ceux qui n’ont pas droit. Le risque de l’IA n’est pas la super-intelligence, mais au contraire le solutionnisme populiste qui risque d’émerger de la convergence entre le capitalisme de la Silicon Valley et les politiques d’extrême droite qui montent un peu partout. 

Dans ce travail de résistance qu’il faut mener contre l’IA les perspectives les plus pertinentes viennent des personnes marginalisées dont la vie est déjà impactée par les calculs. Dan McQuillan invite à remplacer l’IA au profit de dispositifs qui ne cherchent pas à favoriser la rationalité et la normalité mais qui valorisent la relationnalité et la différence. Il nous faut lutter contre l’abstraction que produit l’IA et produire des formes socio-techniques alternatives conviviales, capables de s’équilibrer avec leur environnement plutôt que de l’optimiser. “Un système qui n’hallucine pas une vision globale de la réalité mais négocie avec respect avec le différent et l’inattendu”. 

L’IA est particulièrement top down, explique-t-il encore dans une interview pour Computer Weekly. Du fait de sa nature sociotechnique, c’est-à-dire où les composantes techniques sont informées par les processus sociaux et inversement, nous avons besoin d’un changement social pour renverser cette configuration descendante. Le fait que l’IA performe à catégoriser les gens sur des corrélations plus que sur des causalités, signifie que la technologie fonctionne de la même manière que l’idéologie d’extrême droite. “Je ne dis pas que l’IA est fasciste, mais je dis que cette technologie se prête à ce genre de solutions”, précise le professeur. “L’IA décide de ce qui entre et de ce qui sort, de qui obtient et de qui ne reçoit pas, de qui représente un risque et de qui ne représente pas un risque. Quel que soit le domaine auquel elle est appliquée, c’est ainsi que fonctionne l’IA : elle trace des limites de décision et ce qui relève ou non de types particuliers de classification ou d’identification.” Les opérations concrètes de l’IA ont des conséquences politiquement réactionnaires : elles amplifient les inégalités et les injustices et renforcent les distinctions opaques. L’IA est la conséquence et le produit de notre société et son pouvoir renforce celui des personnes qui pensent que le monde fonctionnera mieux si le pouvoir est descendant. Les démocraties libérales ne sont pas un rempart contre le facisme, rappelle-t-il en évoquant la collusion entre les industriels autrichiens et allemands libéraux et le nazisme dans son accession au pouvoir. Pour lui, la régulation étatique pour freiner les pires dérives de l’IA a peu de chance d’aboutir. McQuillan estime que l’IA est perçue de la même manière que le capitalisme, comme un système sans alternative, une fatalité… sans qu’on le remette en question. Notre façon même de concevoir l’avenir consiste souvent à prolonger des lignes déjà tracées. L’enjeu est de nous extraire de la science réactionnaire de l’IA, où tout est réduit, cartographié et contrôlé. Pour cela, nous devons résoudre les problèmes de l’IA en faisant les choses que l’IA ne fait pas, comme de collectiviser le monde plutôt que de l’individualiser. McQuillan plaide pour le développement de l’auto-organisation sur les lieux de travail et pour la constitution d’assemblées citoyennes pour freiner ou contrôler l’utilisation de l’IA dans nombres de domaines spécifiques, comme l’attribution de logements ou les services sociaux.

Reprendre la main sur les décisions qui nous sont imposées, bien sûr ! C’est la conclusion de tous les livres sur la technologie que je lis. Mais peu est fait pour que cette reprise en main démocratique progresse, advienne. 

Hubert Guillaud

16.01.2024 à 09:10

La transparence est-elle en panne ?  

Hubert Guillaud

En 2021, je dressais un constat assez glacé sur la smart city en pointant le fait que bien souvent, avec la pandémie, les villes avaient assumé leurs dérives sécuritaires vers des Safe City voire des Dark City, c’est-à-dire une dérive vers des villes intelligentes particulièrement opaques à leurs utilisateurs.  En 2020, les villes d’Amsterdam et […]
Texte intégral (1361 mots)

En 2021, je dressais un constat assez glacé sur la smart city en pointant le fait que bien souvent, avec la pandémie, les villes avaient assumé leurs dérives sécuritaires vers des Safe City voire des Dark City, c’est-à-dire une dérive vers des villes intelligentes particulièrement opaques à leurs utilisateurs. 

En 2020, les villes d’Amsterdam et d’Helsinki s’étaient distinguées en publiant les registres des algorithmes et des systèmes d’intelligence artificielle qu’elles utilisaient (un effort avait suivi au Royaume-Uni en 2022, qui a produit une standardisation du modèle). Mais ces initiatives sont restées peu suivies d’effets. A Amsterdam, seuls 4 projets sont disponibles dans le registre (un de plus qu’en 2020, si je fais confiance à mon décompte de l’époque). Au Royaume-Uni, aucun nouveau projet n’a été documenté depuis 2022. Seule la ville d’Helsinki est parvenu à documenter de nouveaux projets, mais le registre n’en compte que 9 ! En France, Etalab avait également normalisé un modèle d’information pour réaliser l’inventaire des algorithmes. La ville de Nantes n’a publié que 2 registres. La ville de Paris, 5. Parmi les administrations françaises, il semble que ce soit Pôle emploi qui tienne le décompte le plus complet des algorithmes que l’agence utilise (même si rien n’assure de sa complétude). 

Un constat d’évolution bien décevant. Il faudrait interroger plus avant pourquoi cette transparence ne progresse pas. 

La carte des capteurs d’Amsterdam.

Pourtant, si la ville d’Amsterdam n’a pas mis à jour son répertoire d’algorithmes, je découvre qu’elle n’en est pas restée là. Elle a prolongé cette volonté de transparence, en déployant depuis 2021, sous forme de carte, un registre public des capteurs déployés sur l’espace public par les entreprises privées et les organismes publics. Les informations, collectées via une carte en ligne, donnent des informations sur les capteurs utilisés (caméras bien sûr, mais également capteurs de trafic ou de qualité de l’air, compteurs Wi-Fi, panneaux d’affichages intelligents…), leur propriétaire, les données collectées et le traitement des données personnelles réalisé. Ce registre des capteurs sur l’espace public et l’obligation de déclaration (les titulaires de capteurs sur l’espace public sont passibles d’une amende voir d’un démantèlement s’ils ne procèdent pas à leur enregistrement) font partie de la stratégie de données de la ville qui repose sur 2 grands principes : renforcer le contrôle des utilisateurs sur leurs données (la ville travaille d’ailleurs à une procédure permettant aux administrés de faire effacer simplement leurs données des administrations qui les collectent) et le fait que les données collectées sur l’espace public doivent être accessibles à la ville, aux habitants et aux administrations dans le respect de la vie privée. En 2021, rapportait Cities Today, la ville a collaboré avec l’agence Tapp et la coopérative d’ingénieurs Life Electronic pour mettre au point un système de comptage du public respectueux de la vie privée, Public Eye, qui a été publié en open source – la ville a également publié en open source un système de floutage des personnes ou des plaques d’immatriculation captées par les caméras. Le système de comptage avait pour objectif de surveiller la surfréquentation de certaines zones afin de pouvoir disperser la foule ou éviter des embouteillages. 

Avec le Responsible Sensing Lab (RSL) qu’elle a installé depuis 2021, la ville a développé d’autres projets, comme des caméras avec des obturateurs visibles afin que la surveillance ne fonctionne pas en continu ! Le RSL a produit d’autres projets pour améliorer la responsabilité des villes quant à leur collecte de données, en affichant plus clairement cette collecte plutôt qu’en l’invisibilisant. C’est le cas par exemple de caméras capteurs de foule qui affichent le comptage qu’elles réalisent en temps réel. 

Certes, ces projets semblent anecdotiques et n’ont été déployés que très ponctuellement. Mais le fait qu’une ville se soucie de la surveillance qu’elle génère est suffisamment inédit pour être remarquée. Derrière ces démonstrateurs, la ville explique vouloir améliorer la confiance dans la collecte, re-symétriser l’information, informer les gens sur les données collectées… Pour Boen Groothoff, chef de projet mobilité intelligente à la ville d’Amsterdam, le contrôle sur l’éthique et la confidentialité ne peut pas être garanti si vous ne savez pas comment fonctionne la technologie. Et c’est en la développant soi-même les technologies qu’on acquiert le plus de contrôle, explique-t-il pour justifier ces développements. L’intérêt du RSL consiste à intégrer des valeurs sociales dans les systèmes de collectes de données publics. Il a depuis été complété par un laboratoire pluridisciplinaire, Decode, qui travaille notamment sur l’inclusivité et la gouvernance démocratique des données. Résultats à suivre ! 

Hubert Guillaud

​PS : Dans un billet de blog, Hubert Beroche de Urban AI évoque également le travail réalisé par Helpful Places, qui a mis en place un standard de communication pour indiquer la présence de capteurs dans l’espace public, la nature des données collectées et le type d’organisation qui les récupère, avec toute une signalétique dédiée.

10 / 10
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Frédéric LORDON
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Emmanuel PONT
Nicos SMYRNAIOS
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓