LePartisan.info À propos Podcasts Fil web Écologie Blogs Revues Médias
Hubert Guillaud
Souscrire à ce FLUX

Hubert GUILLAUD


Journaliste et essayiste

▸ les 10 dernières parutions

09.04.2024 à 11:33

L’aporie de la société ordinale 

Hubert Guillaud

L’essai des sociologues Marion Fourcade et Kieran Healy, The ordinal society (Harvard University Press, 2024) livre une réflexion assez générale sur les paradoxes de la numérisation de nos sociétés. C’est un peu dommage. Le livre manque souvent d’exemples, de concepts et de terrains. Reste que l’idée générale d’une société désormais ordonnée par et pour la […]
Texte intégral (3496 mots)

L’essai des sociologues Marion Fourcade et Kieran Healy, The ordinal society (Harvard University Press, 2024) livre une réflexion assez générale sur les paradoxes de la numérisation de nos sociétés. C’est un peu dommage. Le livre manque souvent d’exemples, de concepts et de terrains. Reste que l’idée générale d’une société désormais ordonnée par et pour la mesure est une évidence que l’on partage largement. Fourcade et Healy montrent que la généralisation des classements conduit à une contradiction insoluble qui invisibilise les forces sociales qui traversent chacun. Les systèmes de classements nous promettent une société où nous aurions tous les mêmes chances à l’aune de nos seuls mérites. Rien n’est moins vrai. A invisibiliser le social par l’individualisation, le risque est qu’il nous éclate à la figure. 

Couverture du livre The ordinal society.

Société ordinale, société ordonnée
Nous sommes confrontés à un monde paradoxal expliquent les deux sociologues : l’informatisation promeut à la fois une démocratisation et une hiérarchisation de nos organisations sociales. La société ordinale est une société ordonnée, gouvernée en toute chose par la mesure, qui produit des effets très concrets sur la société dans une forme de stratification inédite qui bouscule la distribution des opportunités. “Une société ordinale crée de l’ordre par le classement et l’appariement automatisés”. La puissance de ses méthodes, des hiérarchies et catégories qu’elle produit semble sans limite, alors que tout le monde n’est pas bien classé par ces outils. Ce pouvoir ordinal concentre le pouvoir de la mesure dans quelques mains, mais surtout il distille l’idée que le classement et l’appariement sont la solution à tous nos problèmes. Nous sommes passés d’un protocole de partage à un système d’organisation, d’évaluation et de contrôle remarquablement pratique qui est devenu la structure même de notre société. 

Cette grande commodité qu’apporte le numérique est à la source de notre acceptabilité de la grande transformation sociale qu’a été la numérisation. Le problème c’est qu’elle produit un système sans échappatoire. C’est là, la “tragédie politique de l’interactivité”, notre participation enthousiaste se termine par notre propre capture, dans une relation fondamentalement asymétrique, où chaque utilisateur est transformé en profit.

L’accumulation de données est devenue l’impératif, un schéma ordinal s’est mis en place pour capturer et traiter les données. Le numérique a permis à la fois de déployer une précision, un détail, une granularité des données sans précédent ainsi qu’un volume et une massification sans précédent. Tous les processus deviennent communs, comme le disait très justement la sociologue Marie-Anne Dujarier en évoquant le paradoxe de la standardisation des dispositifs par le numérique. Toutes les activités se structurent autour de mêmes activités formelles qui consistent pour l’essentiel à remplir des tableurs et produire des calculs. Les activités deviennent partout mimétiques, normalisées, standardisées. Faire de l’éducation ou du marketing revient désormais à utiliser les mêmes procédures. “La logique bureaucratique des organisations a fusionné avec la logique de calcul des machines”. Les machines sont programmées pour utiliser les données et identifier des modèles, qui sont souvent opaques voire peu interprétables à mesure que se démultiplient les données et les calculs. Les modèles statistiques étaient déjà complexes et opaques, ils le sont plus encore avec l’IA. “La combinaison de grands volumes de données, de haut niveaux de précisions et l’absence d’interprétabilité a plusieurs conséquences organisationnelles” : elles encouragent une forme d’orientation magique au profit des résultats et une déférence à leurs égards. Au risque que les calculs se rapprochent bien plus de l’alchimie ou de l’absurde qu’autre chose, les calculs produisent des résultats, comme on le montrait avec la reconnaissance faciale par exemple. Le problème, c’est que cela ne fonctionne pas toujours. Face à la complexité des calculs cependant, le risque est que nous soyons laissés avec toujours “moins de place à la compréhension et moins de moyens d’intervention”

Fourcade et Healy avancent que si nos machines classent c’est d’abord parce que nous mêmes le faisons. Pourtant, la différence avec nos classements, c’est que ceux établis par le numérique sont actionnables, et que les classifications produites à la volée, elles, invisibilisent les interprétations qui sont faites. Les distinctions sont exprimées sous forme de scores et de classements, toujours mouvants, pour nourrir les mesures les unes des autres. Mais comme les hommes, les classifications des machines ne sont pas exemptes d’erreurs, des erreurs qui se déversent d’un classement l’autre, d’autant qu’ils s’entrecroisent les uns les autres.

Dans les défaillances des calculs au risque de produire un “lumpenscoretariat”
Au final, bien souvent, les résultats se révèlent pauvres, extrêmement biaisés quand ce n’est pas profondément problématiques. “Il n’y a pas de solution technique simple à ces problèmes sociologiques”, avancent les sociologues. Fourcade et Healy prennent un exemple frappant. Pour classer des images médicales pour identifier des cas de pneumonies, des chercheurs ont utilisé 160 000 images provenant de nombreux hôpitaux américains. Mais ce que le système d’IA a le mieux identifié, c’est d’abord la différence sociale entre les hôpitaux eux-mêmes. Les hôpitaux n’avaient pas les mêmes patients ni les mêmes qualités d’images. Dans ce cas, le classifieur a surtout appris des différences entre les hôpitaux que ce à quoi une radio de pneumonie ressemble. 

Bien souvent la spécification des modèles par ces méthodes restent pauvres, puisqu’ils doivent apprendre par eux-mêmes. “En incitant les organisations à considérer toutes les données comme utiles et en développant des outils dotés d’une capacité jusqu’ici inégalée à trouver des modèles, les ingénieurs logiciels ont créé des outils dotés de pouvoirs nouveaux et quelque peu extraterrestres.” Le risque, c’est bien sûr de transformer notre monde social en modèle, mais sur des bases particulièrement opaques et avec des performances retorses et qui le sont d’autant plus que ce que l’on doit classer est problématique. Bien souvent on utilise des données inadaptées qu’on mixe à d’autres données inadaptées pour produire un calcul qui approche ce que l’on souhaite calculer. C’est ce que répète souvent Arvind Narayanan : les systèmes ne savent pas calculer ce qui n’est pas clairement défini. Dans le domaine de l’emploi, par exemple, la productivité, la performance ou la qualité d’un candidat ne sont pas des calculs faciles à produire. Et ceux qui en proposent apportent rarement la preuve que leurs calculs fonctionnent. 

Quant à savoir si le résultat est juste ou pas, c’est bien souvent encore plus difficile puisque cela dépend de qui est classé est comment, selon quels critères… ce qui devient encore plus difficile avec des données qui s’adaptent, des catégories qui se reconfigurent sans arrêts… Nous sommes inscrits dans des matrices de caractéristiques fluctuantes qui se recombinent et évoluent sans cesse, rappellent les sociologues. Les systèmes de mesures tendent à chercher une objectivité qui est difficilement atteignable. Au prétexte de pouvoir calculer tout le monde, les systèmes produisent des scores qui fonctionnent très mal pour tous. Certains publics sont mal mesurés et mal classés. C’est ceux que Marion Fourcade appelle le “lumpenscoretariat” du capitalisme numérique. Ceux qui n’entrent pas dans les cases du formulaire, ceux dont la position est trop aberrante par rapport aux données et moyennes, ceux qui vont être maltraités par les systèmes de calcul, et qui seront d’autant plus mal traités que les scores les suivent par devers eux, se répliquent, se consolident dans d’autres index, sous la forme de cascades décisionnels de l’ordinal. 

La performativité généralisée
Fourcade et Healy passent ensuite plusieurs chapitre à nous faire comprendre comment la donnée est convertie en flux de paiements et comment les plateformes assurent leurs monopoles sur les données et renforcent leurs avantages compétitifs par le grand raffinage permanent des données, comme le pratiquent les Gafams, cherchant toujours à renforcer leur propre position, leurs propres avantages. Ils expliquent comment Amazon ou Google ont exploité leur position pour améliorer leur business. Le problème, c’est qu’elles finissent par utiliser les informations qu’elles recueillent pour ajuster leurs business au détriment de leurs clients et de leurs publics, comme le constataient Tim O’Reilly, Illan Strauss et Mariana Mazzucato. Le risque est que demain, elles l’appliquent non seulement aux prix, mais aussi aux salaires, comme le font déjà les plateformes des travailleurs du clic ou les outils de planning RH. Quand toute donnée devient performative, le risque est qu’on ajuste leur performance pour les optimiser. 

Les firmes se sont accaparées les données nécessaires pour accéder à leurs services ainsi que leur propriété. Le business model du numérique tient avant tout de la rente. Les fonctionnalités que permettent l’exploitation des données ou les nouvelles fonctionnalités sont vendues en plus de votre abonnement. Dans le monde des biens non numériques, une vente signifiait un transfert de propriété. Ce n’est plus le cas avec les biens logiciels. Vous n’êtes plus que le locataire d’un service. C’est en cela que “les flux de données deviennent des flots de revenus”. Les industries du numérique, quels que soient les produits qu’elles vendent, finissent par se ressembler jusque dans leurs processus et leurs modèles économiques. “Chaque producteur de bien se transforme en compagnie technologique, chaque compagnie technologique devient un fournisseur de service, et chaque fournisseur de service devient un flux de données transformé en actif”. Avec le numérique, se diffuse d’abord une façon de penser l’économie comme un actif financier. Les données que tous les acteurs s’échangent, rendant le marché toujours plus liquide, ajustable. “L’infrastructure toute entière d’internet peut être transformée en registre qui est aussi un casino”. Tout peut être tokenisé, vendu, transformé en actif, comme l’est le langage lui-même avec l’IA générative. 

Vers une citoyenneté ordinale ?
La classification sociale et le classement quant à eux, produisent des groupes éphémères, composés à la volée, construits puis déconstruits, qui s’ajustent aux contextes, aux frontières plus floues que tranchées, mais où tout doit être hiérarchisé. Les anciennes catégories sociales sont recomposées jusqu’à composer des groupes sans personnes et des personnes sans groupes dans une forme d’individualisation exacerbée. Dans la société pensée par les technologies de classement, l’individu semble devenir auto-souverain. Pour Fourcade et Healy, le risque est que ces évolutions nous conduisent à une citoyenneté ordinale, à une société crédentialiste, c’est-à-dire qui repose uniquement sur les preuves que cette même société produit, une forme d’hyper-méritocratie par le calcul. On ne reviendra pas ici sur toutes les limites de cette vision par le seul mérite. Les mesures du mérites sont partout, sans même parvenir à imposer une mesure objective ou équitable de celui-ci. Dans cette société ordinale, organisée par et pour que ses citoyens soient classés, le rôle de l’Etat n’est plus d’organiser les objectifs de chacun, mais de “s’assurer que le marché les servent bien”. Dans cette société ordinale, les citoyens sont évalués individuellement plutôt qu’en tant que membres de groupes sociaux, sur leurs actions individuelles. Dans une société ordinale, l’important est le classement et ce classement ne permet pas de protéger les gens qui sont mal classés : il n’y a pas de compensation pour les marginalisés et les vulnérables. Nous passons d’une gestion des citoyens par catégories sociales à des gestions individuelles comportementales. Une citoyenneté ordinale, c’est une citoyenneté très individualiste et donc très contrôlée. Et les plus contrôlés sont les moins bien classés, ceux qui relèvent du lumpenscoretariat. Le classement individuel paraît à tous moins controversé et plus équitable, alors qu’il produit une trappe des déclassés, comme l’a montré Issa Kohler-Hausmann dans son livre Misdermeanorland, une enquête sur les délits mineurs, les infractions, les écarts de conduite et leurs jugements expéditifs à l’égard des plus démunis. C’est ce que montre également le philosophe Achille Mbembe quand il évoque leur éviction.  

Dans la société ordinale, chacun semble avoir ce qu’il mérite, comme si la société n’existait pas
“En approfondissant les mesures au niveau individuel, en standardisant la prise de décision grâce à des repères comportementaux de plus en plus détaillés, la collecte de données finit par reconstituer, un petit morceau à la fois, la vérité fondamentale de la structure sociale”. Alors que le développement de la citoyenneté conduit le plus souvent au déclin des différences de genre, de race, de propriété, de religion, de caste… la citoyenneté ordinale permet de contourner les lois contre les discriminations, de réinscrire les discriminations sous le voile du mérite. Même en enlevant toutes les catégories problématiques par exemple, le score de crédit demeure classiste, validiste, raciste, masculiniste… comme le montraient les travaux d’Andreas Fuster ou de Davon Norris. L’ordinalisation de la société est trompeuse. D’abord parce qu’elle transforme la structure sociale du social en choix individuels qui n’en sont pas : le fait de ne pas avoir accès au crédit n’est pas un choix individuel ! Ensuite parce que les positions de chacun sont interprétées comme un choix moral, alors que le fait de ne pas accéder au crédit ne relève pas de son seul comportement, mais bien plus des valeurs morales de la société qui donne plus de crédits à ceux qui ont le plus de moyens. Dans la société ordinale, chacun semble avoir ce qu’il mérite, comme si la société n’existait pas. 

Or, le classement et l’appariement n’ont rien de mesures objectives. En invisibilisant le social, elles le révèlent. On ne peut pas corriger les algorithmes : un système ordinal ne peut pas être ajusté ou corrigé, avancent les deux sociologues. C’est la société elle-même qui est scorée à un niveau individuel. Les outils de classement et d’appariement sont produits pour fonctionner dans certains contextes, ils sont produits au service de certains objectifs pour certaines organisations. Beaucoup de systèmes ordinaux favorisent ceux qui produisent de la valeur pour ceux qui produisent le système. Avoir un bon score de crédit par exemple nécessite d’abord d’utiliser parfaitement le système crédit, tout comme les plateformes du digital labor favorisent ceux qui y performent, ou les médias sociaux favorisent leurs meilleurs éléments (ceux qui postent beaucoup, ceux qui payent…). La stratification ordinale trouve sa justification dans le mérite alors qu’elle n’en relève pas. Le management algorithmique reste une cage invisible ou le mérite qu’il mesure reste illisible et fluctue de manière imprévisible. Deux tiers des conducteurs de Lyft et Uber en 2023 ont été désactivés brutalement à un moment ou à un autre par l’application. Le risque est que nous soyons de plus en plus confrontés à des calculs “aliens”, étranges, improbables… auxquels nous devons nous conformer sans même savoir ce qu’ils agencent ou comment ils l’agencent. Face à des processus d’évaluation opaques et complexes, chacun peut penser que ce sont ses mérites personnels qui sont évalués quand cela reste et demeure un individu et sa position sociale. Les règles de l’ordinalité peuvent changer en permanence pour qu’il soit plus difficile d’en lire ses caractéristiques, la “précarité algorithmique”, elle, s’installe pour de plus en plus en plus d’entre nous, les déclassés des systèmes. 

Se retirer des classements ?
Dans leur conclusion les deux sociologues dénoncent “l’insupportable justesse à être classé”. Les classements et appariement sont partout. Ces outils promettent d’être inclusifs, objectifs et efficaces… Mais ce n’est pas le cas. “Ces intermédiaires algorithmiques remplacent les classifications institutionnelles plus conventionnellement solidaristes ou universalistes par une esthétique de hiérarchie justifiée. Les classements et les notes, ainsi que les correspondances associées qu’ils permettent, soutiennent l’imagination d’une société ordinale.” Nous sommes dans une double vérité. A la fois nous pensons que le classement est juste et à la fois qu’il ne peut pas l’être.

En guise de perspective, les deux sociologues montrent que certaines universités américaines ont décidé de ne plus être classées dans le classement des universités américaines. Mais tout le monde ne peut pas se retirer des classements. “À mesure que la société ordinale s’étend, la recherche d’une égalité formelle sous l’œil du marché éclipse la lutte pour l’égalité substantielle sous l’ombre de l’Etat. Les biens publics et les objectifs collectifs se dissolvent dans le bain acide de l’individualisation et de la concurrence, nous laissant de plus en plus seuls dans un monde hyperconnecté dont l’ordre social est précisément mesuré et, à sa manière factice, car incontestablement « juste ». La vie dans la société ordinale pourrait bien être parfaitement insupportable”.

Pour ceux qui bataillent déjà dans les calculs du social qui sont produits sur eux, c’est déjà le cas

Hubert Guillaud

A propos du livre de Marion Fourcade et Kieran Healy, The ordinal society, Harvard University Press, 2024, 384 pages. 

22.03.2024 à 09:45

Astrocapitalisme et technocapitalisme : la promesse d’un même dépassement

Hubert Guillaud

Ce qui me frappe dans le très sérieux livre d’Irénée Régnauld et d’Arnaud Saint-Martin, Une histoire de la conquête spatiale : des fusées nazies aux astrocapitalistes du New Space (La Fabrique, 2024), c’est combien leur description des transformations de la conquête spatiale pourrait se calquer sur celles des technologies numériques. On a  l’impression d’être immergé […]
Texte intégral (1931 mots)
Couverture du livre d’Irénée Régnauld et Arnaud Saint-Martin.

Ce qui me frappe dans le très sérieux livre d’Irénée Régnauld et d’Arnaud Saint-Martin, Une histoire de la conquête spatiale : des fusées nazies aux astrocapitalistes du New Space (La Fabrique, 2024), c’est combien leur description des transformations de la conquête spatiale pourrait se calquer sur celles des technologies numériques. On a  l’impression d’être immergé dans une même continuité idéologique, politique et économique. L’espace semble un champ technologique comme les autres où la science est d’abord mise au service des intérêts de la Défense et des marchés, avec les mêmes promesses fantasques, assénées avec le même aplomb, pour mieux masquer leurs réalités économiques, extractivistes et matérialistes. Le récit fantaisiste de la conquête d’autres mondes ressemble à s’y méprendre aux promesses du monde numérique, tel qu’on l’entend beaucoup en ce moment avec la révolution de l’IA générative. Il vise, là aussi, à construire du consentement, du spectacle, de la puissance… pour produire un futur inévitable et désirable, alors qu’il produit surtout du désastre, comme toutes les conquêtes avant elle. C’est comme si l’imaginaire humain n’arrivait pas à s’extraire de son rêve de conquête, de dépassement. L’évidence spatiale est le décalque de l’évidence technologique, une idéologie qui se renouvelle à chaque nouvelle proposition technologique, dans une forme de fantasme de puissance permanent qui n’en donne pourtant qu’à ceux qui la dominent et qui en tirent profit.  

Dans leur livre, le consultant Irénée Régnauld – cofondateur du Mouton numérique et infatigable blogueur pour Mais où va le web ? – et le sociologue des sciences Arnaud Saint-Martin déconstruisent patiemment les promesses et les croyances du secteur spatial pour montrer l’intensification marchande et le durcissement de l’idéologie extractiviste. Les promesses servent surtout à lever des fonds et le fait qu’elles soient irréalistes ou fantasques semblent même permettre de lever encore plus de fonds, comme si toute rationalité avait quitté les acteurs du spatial, comme si les récits encore plus fous étaient seuls capables de dynamiser un imaginaire complètement à bout de course à force d’avoir été répété. Le vol habité, le retour sur la Lune, l’exploitation des astéroïdes, la conquête de Mars et sa terraformation… sont autant de “surenchères martiales, propagandistes, extractivistes et commerciales” qui invisibilisent le fait que cette volonté de puissance ne peut se faire qu’au prix de rendre la terre inhabitable. La promesse d’une nouvelle terre se fait en fermant les yeux sur la destruction de la nôtre, comme le montrait récemment la journaliste Celia Izoard en parlant du colonialisme minier. En lisant cette surenchère de promesses, toujours renouvelées, toujours plus découplées de leurs effets (pollution des orbites basses par exemple, développement du pseudo tourisme spatial – alors qu’on ne parle que de voyages lointains…), on a l’impression de lire un livre sur les technologies numériques qui nous noient sous leurs mythes sans jamais regarder leurs effets réels et concrets. On y lit les mêmes transformations : privatisation sur fonds publics, dérégulation tout azimut au profit du marché… tout en clamant toujours son ampleur scientifique, à l’image des nouvelles Lumières des promesses de l’IA. La lecture des quelques pages sur le déploiement de SpaceX par exemple sont particulièrement éclairantes. Les deux auteurs montrent que la capacité de lancement à bas coût de Space X n’a été possible qu’en absorbant une histoire industrielle et l’investissement public. Le New Space capitaliste n’est en rien une rupture avec le fonctionnement passé de l’économie de l’espace, expliquent-ils, mais bien son prolongement par une privatisation inédite. Le principe du réemploi des lanceurs permet certes de générer des économies, mais surtout d’accélérer la cadence des lancements. “La soutenabilité (des modèles du New Space) repose sur l’intensification du volume d’activité” qui génère une fuite en avant, à l’image des flottes de satellites de Starlink à la durée de vie très courte. Comme dans la tech avec Uber, on finance la fuite en avant par des investissements massifs malgré des revenus insuffisants. La promesse d’une nouvelle économie de l’espace repose sur les mêmes moteurs que celle de la tech : des investissements démesurés pour prendre le leadership du secteur par l’intensification de l’exploitation. Au risque de donner un pouvoir sans précédent à ces prestataires, comme c’est déjà le cas avec le fantasque et délirant Elon Musk. Régnauld et Saint-Martin pointent très bien que le secteur profite surtout de la dérégulation qu’organise le secteur public par exemple en favorisant l’investissement par des mesures d’exonérations dédiées au profit du privé et des aides et marchés que l’acteur public leur confie. On a vraiment l’impression de voir rejouer les mêmes politiques que celles qui ont fait naître la Silicon Valley

D’autres pages méritent l’attention. Comme celles qui reviennent sur la justification de l’importance du secteur spatial, à savoir la “rhétorique des retombées” économiques (ce ruissellement inexistant qui profite surtout au secteur spatial lui-même) ou celles de la justification scientifique (quand l’immense majorité des recherches sont coûteuses et inutiles), alors que la justification réelle du secteur repose bien plus sur son image innovante pour “persuader le contribuable de la validité” et de l’importance du secteur pour lui-même, que ce soit pour des questions de prestige ou d’importance géopolitique… 

Ce qui m’a frappé dans ce livre, c’est combien le développement économique du spatial est tout entier lié à sa dérégulation, qui vise bien plus à enlever les problèmes qu’à les régler. C’est l’assouplissement des règles sur l’usage commercial de l’ISS qui permet d’étendre sa commercialisation à des entreprises ou des acteurs privés. C’est l’enterrement du principe de non-appropriation par le Space Act de 2015 qui permet le déploiement d’une nouvelle économie spatiale et ouvre l’exploitation de ses ressources. Ce sont les exceptions fiscales en faveur de l’innovation qui favorisent les levées de fonds qui permettent de faire croire à la rentabilité d’un secteur fragile, comme l’est par exemple le tourisme spatial. Reste que même les promesses d’exploitation minière qui semblent la nouvelle justification de l’extension spatiale, demeurent très spéculatives, rappellent les auteurs. Les richesses des sous-sols, les promesses de l’Hélium 3 sont pour l’instant théoriques. “La mission japonaise Hayabusa 2 lancée en 2014 et revenue sur Terre en décembre 2021 a permis de ramener moins de 100 milligrammes de poussière de l’astéroïde Ryugu pour un coût de 200 millions d’euros”. Les mines spatiales semblent encore très très très loin ! 

Mais surtout, rappellent-ils, la pollution et l’encombrement orbitale pourraient à terme compromettre l’utilisation même de l’espace. Outre les satellites innombrables, les débris orbitaux sont également innombrables. La désorbitation reste non contraignante, alors que les lancements et l’obsolescence des satellites s’accélèrent. A force de dérégulation, les solutions pour nettoyer notre espace proche s’éloignent alors que leur coût s’envole. L’astrocapitalisme ressemble surtout à “château de carte”, pour ne pas dire une pyramide Ponzi ! 

Le livre d’Irénée et Arnaud est certes épais, précis, copieux, dense, très documenté, trop exigeant, mais il interroge parfaitement les idéologies qui sont à l’oeuvre (je n’aime pas le terme d’imaginaires qui, à mon sens, dépolitise les fictions qui nous sont vendues), celles qui nous vendent des espoirs d’un autre monde en invisibilisant la destruction du nôtre. Ils déconstruisent à leur tour nos rêves de colonisation lointaine, comme l’avaient fait l’astrophysicienne Sylvia Ekström et Javier Nombela dans le tout aussi excellent Nous ne vivrons pas sur Mars, ni ailleurs

Au terme du livre, on se pose une question très saine finalement. Avons-nous vraiment besoin de cette débauche de faux espoirs ? De cette débauche de rêves qui ne deviendront jamais réalité ? On se demande pourquoi autant de gens croient au dépassement de notre humanité, dans des fusées qui ne mènent nulle part comme dans des systèmes techniques comme l’IA qui nous réduisent à n’être rien ? Tout cet argent dépensé pour aller sur des cailloux qui ne peuvent rien nous promettre me font penser à tout cet argent dépensé pour barder le monde de technologies dont les promesses sont très éloignées de leurs réalisations concrètes. Qu’on s’entende néanmoins, je ne dis pas qu’il ne faut pas de technologies, mais pourrions nous garder en tête que leur développement devrait être limité et contraint, circonscrit à des réalités plus qu’à des fantasmes ? L’IA et la tech partout nous renvoient au même délire que cette conquête spatiale absolutiste. Il n’y a pas d’enjeu à envoyer des humains sur Mars, pas plus qu’il n’y a d’enjeux à développer une infrastructure numérique totale et omniprésente. Quand est-ce que les fantasmes cesseront d’alimenter notre développement technologique pour mieux prendre en compte ses limites ? 

Hubert Guillaud

A propos du livre d’Irénée Régnauld et Arnaud Saint-Martin, Une histoire de la conquête spatiale : des fusées nazies aux astrocapitalistes du New Space, La Fabrique, 2024, 288p., 20 euros.

07.03.2024 à 16:07

L’informatique ne peut pas faire d’erreur !

Hubert Guillaud

Le “scandale de la Poste britannique” n’a pas fait grand bruit chez nous (hormis notamment dans Le Monde, dès 2021, et documenté régulièrement depuis). C’est l’histoire d’un logiciel de comptabilité et d’inventaire pour gérants de petits bureaux de Poste (le logiciel Horizon, développé par Fujitsu) qui produisait des soldes comptables incorrects qui a conduit a […]
Texte intégral (593 mots)

Le “scandale de la Poste britannique” n’a pas fait grand bruit chez nous (hormis notamment dans Le Monde, dès 2021, et documenté régulièrement depuis). C’est l’histoire d’un logiciel de comptabilité et d’inventaire pour gérants de petits bureaux de Poste (le logiciel Horizon, développé par Fujitsu) qui produisait des soldes comptables incorrects qui a conduit a accuser plus de 3000 personnes de fraude, conduisant à d’innombrables drames humains : condamnations, faillites, emprisonnements, suicides… comme le résume très bien l’article de Wikipédia. La diffusion en janvier d’une série au succès spectaculaire sur les ondes britanniques sur le sujet (Mr Bates vs The Post Office) a bouleversé l’opinion et poussé jusqu’au Premier Ministre a réagir.

La série Mr Bates vs. the Post Office.

Dans l’édito que la revue Nature consacre à ce scandale, le magazine souligne que l’un des problèmes qu’a rencontré la justice britannique… était que la jurisprudence considère que l’informatique ne peut pas faire d’erreur ! En Angleterre et au Pays de Galles, les tribunaux considèrent que, en droit, les ordinateurs fonctionnent correctement, sauf preuve du contraire.

“La principale source d’injustice potentielle avec une loi qui présume que les opérations informatiques sont fondamentalement correctes est que si quelqu’un veut remettre en question ou contester les preuves informatiques… il lui incombe de produire la preuve d’une utilisation ou d’un fonctionnement inapproprié.” Or, apporter cette preuve est particulièrement difficile sans accéder au code du logiciel. Les accusés d’Horizon n’en avaient aucun moyen et il a fallu une procédure collective et opiniâtre pour qu’ils arrivent à se faire entendre par la justice et par la Poste britannique.

L’avocat britannique Paul Marshall et ses collègues estiment que la présomption de fiabilité doit être remplacée par l’exigence que les données et le code puissent être divulgués devant les tribunaux. “Si nécessaire, cette divulgation doit inclure les normes et protocoles de sécurité des informations ; les rapports d’audits de systèmes ; les preuves démontrant que les rapports d’erreurs et les modifications du système ont été gérés de manière fiable ; et les enregistrements des mesures prises pour garantir que les preuves ne soient pas falsifiées.” Si ces éléments montrent que le système est problématique, alors le juge doit pouvoir demander une inspection plus précise.

Quand ils sont mis en cause, les systèmes informatiques devraient pouvoir être inspectés par les tribunaux. Leur supposée fiabilité, comme le secret commercial, ne devraient pas être des obstacles à la vérité.

Hubert Guillaud

20.02.2024 à 13:04

Une brève histoire de l’évolution des recommandations algorithmiques

Hubert Guillaud

Le billet sur l’effondrement de l’information que je publiais en janvier a fait beaucoup réagir, notamment des journalistes – certainement parce qu’ils ont été nombreux à se retrouver dans la description, assez sombre j’en conviens, que je dressais des évolutions en cours dans le monde de l’information. Quand Steven Jambot, animateur de l’Atelier des médias […]
Texte intégral (2806 mots)

Le billet sur l’effondrement de l’information que je publiais en janvier a fait beaucoup réagir, notamment des journalistes – certainement parce qu’ils ont été nombreux à se retrouver dans la description, assez sombre j’en conviens, que je dressais des évolutions en cours dans le monde de l’information. Quand Steven Jambot, animateur de l’Atelier des médias sur RFI (cette belle émission qui a 20 ans, animée longtemps par Philippe Couve puis Julien le Bot et Ziad Maalouf…) m’a proposé de venir en parler… je n’ai pas hésité. L’émission (à écouter ici) m’a donné l’occasion de tenter de rassembler une petite histoire de l’évolution des recommandations algorithmiques.

L’exercice n’est pas facile (surtout à l’oral) et je me dis que cela vaut le coup d’essayer de caractériser simplement cette histoire. L’idée n’est pas de faire une thèse sur le sujet, juste d’essayer de faire saisir simplement les évolutions que nous avons vécu ces 20 dernières années, pour mieux saisir la situation de blocage où les ajustements algorithmiques nous ont conduit. 

L’âge de la souscription et le modèle des recommandations simples (2000-2010)
La première génération de systèmes de recommandation commence à être assez ancienne. C’est celle du filtrage collaboratif qui consiste à apparier les produits entre eux par exemple. C’est une fonction qui existe encore sur Amazon, le fameux, “les clients qui ont acheté ce produit ont également acheté tel autre produit”. C’était également le principe sous lequel fonctionnait Netflix quand il était encore une entreprise qui envoyait des DVD par la poste, qui créait une moyenne entre les notes, les genres, les nouveautés et les demandes locatives pour produire des recommandations assez simples pour orienter l’utilisateur dans les contenus à louer. Les systèmes de recommandation étaient alors sommaires, fonctionnant principalement sur la modalité de la souscription et de l’abonnement : sur les premiers médias sociaux comme dans la blogosphère, on s’abonne aux gens qui nous intéressent et on reçoit des notifications de ce qu’ils ont publié. 

Ces méthodes vont peu à peu se complexifier et s’ajuster en fonction des critères disponibles, comme la popularité, les préférences ou la qualité. Mais elles vont également être très tôt manipulées par les plateformes. Chez Amazon par exemple en exagérant la recommandation de produits similaires pour déclencher l’achat (beaucoup de gens achètent des produits dissociés, Amazon va favoriser la recommandation d’un DVD d’un même réalisateur par exemple plutôt qu’une recommandation d’un produit trop alternatif pour favoriser le passage à l’achat du produit supplémentaire). Chez Netflix en diminuant les recommandations des nouveautés au profit des titres de la longue traîne bien moins louées et bien plus disponibles. Dans les médias sociaux en recommandant les profils les plus populaires sur ceux qui le sont moins. 

On peut faire courir cette première période des années 2000 à 2010. Signalons cependant l’évolution, en 2006, de la “factorisation matricielle”, c’est-à-dire l’invention de systèmes de recommandations plus complexes. C’est le cas du concours lancé par Netflix à l’époque pour améliorer son système de recommandation qui va générer des combinaisons d’attributs pour caractériser les contenus qui vont très bien fonctionner sur des catalogues limités, mais pas du tout pour caractériser les messages infinis publiés sur les médias sociaux. 

L’âge du réseau et du modèle des propagations (2010-2016)
Dans le modèle de réseau, la propagation d’un message ne dépend plus seulement des personnes auxquelles vous êtes abonnées, mais est amplifiée ou rétrogradée par les effets de réseaux. Plus un message est relayé, plus il est amplifié. Ce sont les réactions des autres qui structurent la recommandation. C’est l’effet de la prise en compte du like, du commentaire et du partage sur Facebook avec le lancement en 2010 de l’Edge Rank qui va attribuer une note aux contenus pour les classer selon l’intérêt des utilisateurs… ou la prise en compte du commentaire et du RT sur Twitter qui vont être prédominants dans les recommandations jusqu’en 2016. Ce scoring des contenus selon l’intérêt des utilisateurs va faire monter certaines catégories de contenus, par exemple les photos et les vidéos sur FB, mais également favoriser les polémiques en faisant remonter les posts ou les tweets les plus commentés. Dans l’âge du réseau la prime va à la visibilité : on accroît la portée de ce qui fonctionne le mieux, comme l’expliquait Arvind Narayanan. En 2015, Youtube intègre à son tour l’apprentissage automatique de Google Brain ce qui va transformer les recommandations de son moteur en privilégiant le temps passé (le temps passé à regarder une vidéo devient le critère de qualité). 

L’âge algorithmique et le modèle de la similarité (2016-2021)
L’intégration d’ajustements algorithmiques prenant en compte de plus en plus de critères transforment à nouveau les moteurs de recommandation. Durant cette période, les ajustements algorithmiques sont réguliers, continus produisant des recommandations en mouvement permanent, comme l’expliquait Arvind Narayanan en observant les révélations sur le fonctionnement de Twitter, l’année dernière. Mais la transformation principale de cette période consiste à mobiliser l’apprentissage automatique pour prédire la similarité.  

Dans le modèle algorithmique, les utilisateurs ayant des intérêts similaires (tels que définis par l’algorithme sur la base de leurs engagements passés) sont représentés plus près les uns des autres. Plus les intérêts d’un utilisateur sont similaires à ceux définis, plus il est probable que le contenu lui sera recommandé. Le contenu ne dépend donc plus des gens auxquels on est connecté ou des mouvements de foule, mais d’un calcul de similarité de plus en plus complexe et mouvant. 

Cette similarité consiste à calculer le comportement, c’est-à-dire à tenter de regarder ceux qui apprécient les mêmes choses que nous pour favoriser l’engagement. Forts de données plus massives sur leurs utilisateurs, les plateformes affinent leurs recommandations. En introduisant par exemple la mesure des “interactions sociales significatives” en 2018, Facebook devient capable de prédire les contenus que vous allez liker ou commenter pour vous les proposer. Le poids de la souscription (les personnes auxquelles on est abonné) ou du réseau (les contenus viraux) sont dégradés au profit d’un calcul plus complexe qui tente de prendre en compte le sujet, sa qualité, les réactions des autres… 

Avec ces modèles, le nombre d’utilisateurs des plateformes explose… et chacune affine ses principes d’engagements valorisant des comportements très différents les uns des autres. TikTok par exemple valorise les vidéos regardées jusqu’au bout et donc des vidéos courtes, mais valorise également la pulsion, la réaction immédiate via le swipe, qui va avoir tendance à favoriser certains contenus sur d’autres. Le flux des contenus proposé est ajusté pour favoriser également de la diversité. 

Dans cette complexité nouvelle, les contenus rétrogradés sont rendus opaques et invisibles, car la portée naturelle du contenu dépend de fortes variations et les utilisateurs ne peuvent savoir si les contenus qu’ils ne voient pas ont été rétrogradés ou l’ont été parce qu’ils sont moins bons. La logique de la viralité demeure néanmoins le point fort des réseaux sociaux : la majorité des engagements proviennent toujours d’une petite fraction des contenus (20% des vidéos les plus vues font 70% des vues sur TikTok ou YouTube). Dans cette complexité, les plateformes néanmoins gardent la main : en augmentant la portée des contenus publicitaires dont elles ont de plus en plus besoin pour dégager des bénéfices et en rétrogradant certains types de contenus…   

L’âge du cynisme, des distorsions de marché et de l’emballement du modèle commercial (depuis 2021…) 
On pourrait dire que la recherche d’un engagement optimal ou idéal s’effondre en 2021. Le symbole, c’est l’éviction de Trump de FB et Twitter, mais cet engagement avait déjà été mis à mal avec la pandémie, quand les plateformes ont été contraintes de mieux qualifier leurs contenus et de produire des contenus vérifiés. Confrontées à leurs effets, les plateformes se mettent à se détourner de certains types de contenus, notamment politiques. Elles dégradent volontairement la performance de l’information (et des hyperliens) des grands sites de presse pour promouvoir des interactions qui peuvent sembler apolitiques. Elles semblent en revenir aux racines des réseaux sociaux, c’est-à-dire privilégier les discussions entre utilisateurs, à l’image du réseau social Threads. Le rachat de Twitter par Musk en 2022 et les transformations que va subir Twitter depuis vont dans le même sens, puisque sur Twitter désormais, ce sont les comptes qui payent qui vont être mis en avant. La qualité et la viralité “naturelle” sont dégradées. Les plateformes ne cherchent plus à promouvoir l’intérêt général, mais ne se focalisent plus que sur l’amplification de leur modèle commercial. En 2021, FB avait tenté de mesurer la qualité des messages qu’il proposait, mais en faisant disparaître les messages les plus négatifs qui avaient également la plus grande portée, les utilisateurs étaient insatisfaits. FB a fait marche arrière, assumant son cynisme commercial. 

C’est ce qu’explique d’ailleurs un passionnant article signé Tim O’Reilly, Illan Strauss et Mariana Mazzucato qui constate que dans les rentes d’attention algorithmiques, les plateformes se focalisent désormais sur le service aux annonceurs plus que sur la qualité de l’expérience utilisateur (qui lui, préfère l’âge de la souscription et du réseau, l’âge d’avant l’emmerdification algorithmique – “l’emmerdocène” –  comme dit Cory Doctorow, parce que ces modèles permettaient aux utilisateurs de construire des relations et d’en rester maître). Ce qui a changé, c’est que les plateformes sont désormais bien moins en concurrence qu’en situation de monopole, et qu’il est difficile pour les utilisateurs de les quitter totalement. Dans des marchés sans grande concurrence, les plateformes n’ont plus à se soucier que leurs algorithmes soient équitables. Les clics des utilisateurs restent dirigés vers les premiers résultats que les plateformes proposent, donnant un pouvoir considérable aux classements qu’elles mobilisent et notamment à la mise en avant publicitaire dans des environnements où l’utilisateur ne paye pas. Quand l’augmentation du nombre d’utilisateurs ralentit, l’augmentation des bénéfices devient fonction de la quantité de publicité délivrée ou repose sur le fait de faire payer les utilisateurs. Pour les plateformes, l’enjeu désormais n’est plus de fournir la meilleure correspondance de la recommandation, mais la plus rentable. Sur Google, les résultats publicitaires n’ont cessé de grimper au sommet des recommandations et de s’invisibiliser par rapport aux résultats “naturels” (en 2011, 94 % des clics sur Google étaient organiques et seulement 6 % étaient dirigés vers des publicités… Il serait intéressant de connaître le résultat actuel !). Chez Amazon, tous les résultats sont désormais issus de positionnements publicitaires (¾ des vendeurs d’Amazon Market Place paient pour obtenir de la visibilité) et là encore le fait que ce soit des résultats publicitaire devient complètement invisible à l’utilisateur. Amazon a ainsi gonflé ses prix publicitaires tout en diminuant leur rendement (“En 2022, la publicité est devenue une activité très rentable pour Amazon se montant à 37,7 milliards de dollars. Le coût moyen par clic sur les publicités Amazon a doublé, passant de 0,56$ en 2018 à 1,2$ en 2021: 30 cents doivent désormais être dépensés en publicités pour générer 1$ de ventes.”). 

Pour O’Reilly, Strauss et Mazzucato, nous sommes désormais entrés dans des plateformes de distorsion des marchés, où les préférences et les possibilités de paramétrages des utilisateurs disparaissent de plus en plus – justifiant la réaffirmation d’un droit au paramétrage, comme le proposent Célia Zolynski et Jean Cattan (et Ethan Zuckerman il y a quelques années). L’attention des utilisateurs est désormais majoritairement pilotée au profit de ceux qui sont disposés à payer, au détriment de l’emplacement ou de la réputation qui sont de plus en plus dévalorisées. Ainsi, si vous cherchez des pneus, Google va vous recommander les grands annonceurs très loin devant votre garage de proximité. 

Dans leur article, O’Reilly, Strauss et Mazzucato estiment que pour remédier à ces distorsions de concurrence, il faudrait que les régulateurs puissent comparer le classement “organique” d’un produit avec son classement payant, favoriser le prix final pour écarter les fausses promotions… mais surtout, ils s’interrogent sur l’idée de définir un rendement publicitaire maximal. Reste que l’appareil réglementaire en la matière est confronté à une lacune béante : le manque d’information régulière et obligatoire des plateformes sur leurs paramètres opérationnels permettant de contrôler le niveau de monétisation de l’attention des utilisateurs ! Or, les plateformes connaissent la charge publicitaire, connaissent les ratios clics organiques/clics publicitaires et l’évolution de ces mesures dans le temps… C’est au régulateur d’armer sa mesure de la régulation ! Ils en appellent également à des mesures plus précises, géographiquement et par produit. Google dispose de 9 produits qui ont plus d’un milliard d’utilisateurs, mais les informations sur la publicité qu’elles rapportent ne fait pas de distinguo entre ces services ! Dans leurs préconisations, les auteurs recommandent également de permettre aux utilisateurs d’avoir des préférences persistantes, proche du droit au paramétrage que défendent chez nous Célia Zolynski et Jean Cattan. 

O’Reilly, Strauss et Mazzucato concluent sur les perspectives problématiques que vont générer sur ces marchés déjà opaques, l’arrivée des contenus synthétiques de l’IA, avec le risque d’un renforcement de l’autorité algorithmique et rendre plus difficile encore la détection des comportements problématiques des plateformes, c’est-à-dire les distorsions qu’elles accomplissent.  

Reste encore un élément à prendre en compte dans ces évolutions. Malgré tous leurs efforts, l’efficacité de ces modèles demeure extrêmement faible. Le taux d’engagement, c’est-à-dire la probabilité qu’un utilisateur s’intéresse à un message qui lui est recommandé, demeure partout extrêmement faible : il est de moins de 1% sur la plupart des plateformes. Malgré le déluge d’analyse de données, les gens demeurent peu prévisibles. Les plateformes savent identifier les contenus viraux et les contenus de niches, mais c’est à peu près tout. Quant au taux de clic publicitaire, il est encore plus bas. Cela n’empêche pas les plateformes de centrer leur performance sur ce qui leur rapporte. A défaut d’avoir changé le monde, elles se sont converties à leur seule réussite économique. 

Hubert Guillaud

20.02.2024 à 12:21

Le code contre le texte

Hubert Guillaud

Ce récit d’une écrivaine à la découverte du code a la fraîcheur du béotien qui va à la rencontre d’un monde qu’il ne comprend pas où qu’il prétend ne pas saisir. Dans Python (P.O.L., 2024), la romancière Nathalie Azoulai s’interroge sur cette langue vivante “qui pourtant ne se parle pas”, sur cette révolution graphique et […]
Texte intégral (666 mots)
Couverture du livre de Nathalie Azoulai, Python.

Ce récit d’une écrivaine à la découverte du code a la fraîcheur du béotien qui va à la rencontre d’un monde qu’il ne comprend pas où qu’il prétend ne pas saisir. Dans Python (P.O.L., 2024), la romancière Nathalie Azoulai s’interroge sur cette langue vivante “qui pourtant ne se parle pas”, sur cette révolution graphique et la fascination qu’elle provoque. Que ce soit pour ces jeunes codeurs, absorbés dans leur monde, comme de la puissance de la science sur les lettres. Azoulai multiplie les saillies, les réflexions que lui inspirent ce monde et ces gens. Souvent avec une belle pertinence, comme quand elle pointe que le langage humain semble être devenu secondaire… Cette défaite des lettres sur la science, semble être aussi pour Azoulai, la défaite d’une génération sur une autre. Le code incarne à la fois la jeunesse et le futur. Une autre forme d’art qui ne parle plus qu’aux machines ou un nouveau pouvoir sur le monde, capable de le façonner, de l’exécuter, sans qu’on sache si c’est pour le transformer ou pour le terminer. Coder, c’est comme le contraire de la littérature, puisque c’est tenter d’enlever son ambiguïté au monde, en réduire le sens pour mieux le dominer.

Le livre de Nathalie Azoulai n’est pourtant pas sec comme une page de code, au contraire. L’écrivaine va à la rencontre des jeunes humains de ce monde, tente de les entendre, même si la “daronmancière” semble plus fascinée par la portée érotique de leur jeunesse que par ce qu’ils produisent. C’est peut-être la limite de l’exercice : Azoulai ne parvient pas entrer dans le vide que construit ce monde, que ce soit le flow du codeur, mais plus encore, à regarder la pauvreté de ce que les data assemblent. Leur puissance en reste au niveau du fantasme romantique… Et celui-ci, faute d’avoir percé le code, ne parvient pas à sortir d’une fascination déçue, à l’image de la convocation finale de ChatGPT, bien trop convenue.

Avec sa naïveté feinte à la Xavier de la Porte, elle nous embarque pourtant. Azoulai regarde avec désir le monde qui vient, comme pour assouvir ou retrouver un instant la puissance perdue des lettres. Elle oublie (tout en ne cessant de le montrer) que cette puissance n’est que jeunesse. Qu’elle est aussi feinte que l’a été la puissance des lettres. De la figure du poète à celle du codeur, nous sommes confrontés à un même héroïsme feint, celle d’une puissance à dire le monde, à le réduire, à l’instrumentaliser plus qu’à le libérer.

Hubert Guillaud

A propos du roman de Nathalie Azoulai, Python, P.O.L., 2024.

06.02.2024 à 16:28

Améliorer la démocratie

Hubert Guillaud

Dans Pour en finir avec la démocratie participative (Textuel, 2024), les consultants Manon Loisel et Nicolas Rio, cofondateurs du cabinet Partie Prenante, dressent un diagnostic pertinent et passionnant sur nos impasses démocratiques actuelles. Ils expliquent que la démocratie participative s’est imposée comme le remède à la crise de notre démocratie représentative, mais sans que cette […]
Texte intégral (3697 mots)

Dans Pour en finir avec la démocratie participative (Textuel, 2024), les consultants Manon Loisel et Nicolas Rio, cofondateurs du cabinet Partie Prenante, dressent un diagnostic pertinent et passionnant sur nos impasses démocratiques actuelles. Ils expliquent que la démocratie participative s’est imposée comme le remède à la crise de notre démocratie représentative, mais sans que cette médecine ne réussisse à produire un remède efficace ni aux défaillances de la démocratie représentative ni à donner de la force à la participation. Grand débat et Convention citoyenne pour le Climat ont surtout démontré leur impuissance à transformer le système politique. Loisel et Rio nous proposent donc d’arrêter avec la participation et de nous concentrer plutôt à réformer la démocratie représentative. L’enjeu n’est pas tant d’améliorer la participation que de démocratiser l’action publique. 

Couverture du livre de Manon Loisel et Nicolas Rio.

Ce constat rappelle beaucoup celui que dressait récemment Thomas Perroud dans son livre Services publics et communs qui invitait déjà à un élargissement démocratique capable de dépasser la fausse participation. La force du petit livre de Manon Loisel et Nicolas Rio est d’être particulièrement concret, puisqu’ils accompagnent depuis longtemps des collectivités dans la mise en place de processus participatifs.

De l’impuissance 

Leur livre est une réaction à l’impuissance que produisent ces dispositifs. La participation ne parvient pas à rendre l’action publique plus démocratique. Au contraire, elle relève bien souvent de la diversion, à l’image du Grand Débat, cette réponse pour reléguer la crise des gilets jaunes, et faire s’exprimer d’autres catégories sociales que celles qui manifestaient leur colère en décembre 2018. La Convention citoyenne pour le climat, malgré la qualité du processus mis en place, n’a pas produit plus que le Grand Débat. Les autres dispositifs de participation (réunion publique, enquête publique, conseils de quartier, budgets participatifs, panels citoyens…) ne produisent ni plus ni mieux. Partout, les formats l’emportent sur les effets. La participation devient une politique comme une autre dont le cadre et les règles du jeu sont strictement délimités pour justement ne produire aucun effet. La standardisation des dispositifs permet justement à l’acteur public d’être en contrôle afin que rien ne déborde. 

Cette impuissance des dispositifs accentue la crise démocratique que la démocratie participative est censée résoudre, estiment les auteurs. Elle ne produit rien d’autre que de la désillusion. “L’exercice jupitérien du pouvoir et la participation des citoyens appartiennent d’un même processus”, puisque l’un comme l’autre relèguent dans les marges la société civile organisée et légitiment leur contournement. Les dispositifs participatifs ne produisent aucun contre-pouvoir… et ces dispositifs ne disposent d’aucun mandat pour contrôler que leurs propositions se traduisent en actions. Ils permettent surtout de faire croire que les institutions sont à l’écoute des citoyens. 

Modifier les publics, redistribuer le pouvoir

Pour Manon Loisel et Nicolas Rio, l’enjeu n’est pas tant de faire participer que “d’atténuer les asymétries qui existent entre les citoyens dans leur capacité à faire entendre leur voix et faire valoir leurs droits”. Le grand problème des dispositifs participatifs, malgré tous leurs efforts pour aller vers tous les citoyens, c’est qu’ils mobilisent “toujours les mêmes”, c’est-à-dire finalement des gens déjà très insérés dans la vie démocratique. La participation ne parvient pas à faire ce qu’on lui prête, c’est-à-dire à modifier les publics. Pire, elle invisibilise bien souvent qui parle et au final permet d’invisibiliser la sélectivité sociale à l’œuvre. Elle renforce une écoute des institutions et des élus déjà sélective, alors qu’elle devrait d’abord permettre de redistribuer l’attention des institutions vers les publics les moins représentés. La démocratie participative devrait être un moyen de donner de l’audience aux inaudibles pour qu’ils soient réintégrés à l’intérêt général et à la production de l’action publique. Elle devrait permettre d’aller chercher les publics que la démocratie représentative n’arrive pas à représenter, à sortir voire à atténuer les mécanismes de domination, à permettre de prendre en compte les absents et notamment les abstentionnistes, notamment parce que plus les publics sont silencieux moins les politiques leurs sont destinées.

Loisel et Rio plaident également non seulement pour un empowerment des acteurs affaiblis, mais également pour un “disempowerment des acteurs établis”. Pour eux, les dispositifs devraient être là pour redistribuer le pouvoir. “La participation n’est démocratique que lorsqu’elle parvient à donner de la voix aux absents et à élargir le spectre des points de vue en présence”, à redonner une place à ceux qui ne sont pas écoutés et qui n’ont pas de strapontin à la table des négociations. Les institutions n’ont pas besoin d’entendre des centaines de citoyens ni de recueillir des millions de doléances, que d’écouter ceux qui ne participent pas. Et faire de manière à ce qu’ils disent soit entendu, agisse sur l’action publique. 

Déni d’opposition

“L’avènement de la démocratie administrée s’accompagne d’une répression croissante des autres formes d’expression citoyenne”. Les citoyens doivent de plus en plus parler là où on leur dit de faire et nulle part ailleurs. C’est comme si la démocratie participative laminait toutes autres formes d’expressions démocratiques, et notamment le droit de manifester, si mis à mal ces dernières années que ce soit par la multiplication des interdictions de manifester comme par leur répression. La protestation est désormais considérée comme “un trouble à l’ordre public”, et il n’est pas loin que le simple désaccord le devienne également. Les mouvements sociaux sont de plus en plus criminalisés, comme le montrait le sociologue Julien Talpin dans Bâillonner les quartiers, pointant la dérive autoritaire de nos démocraties. Fermeture de locaux, chantages aux subventions, refus d’agréments… Les autorités ont renforcé le déni de leur contestation, à l’image du contrat d’engagement républicain des associations très largement critiqué. C’est comme si nous étions entrés dans un déni d’opposition. Tous ceux qui ont un discours trop frontal sont écartés des tables de discussion, les poussant à se radicaliser plus encore. Ceux qui ne sont pas d’accord sont partout considérés comme des Ayatollahs. Leurs arguments, quels qu’ils soient, sont écartés par principe. En rendant l’opposition impossible, c’est la discussion qui le devient. 

“La crise démocratique est une crise de l’écoute”, expliquent-ils parfaitement. Mais également une crise de réponse à cette écoute, à l’image de metoo qui a libéré la parole des victimes de violences sexistes sans que nous ne modifions le fonctionnement de nos institutions collectives pour y répondre, renvoyant celles qui osent parler à leur seule responsabilité individuelle. C’est également une crise du déni, où la démocratie n’est plus vue comme le lieu d’un compromis entre ses parties prenantes, mais comme la lutte d’un clan contre un autre, à l’image du refus de discussion sur la réforme des retraites, les bassines, etc. A force de déni et de dévitalisation, les institutions perdent leurs interlocuteurs traditionnels, associations et corps intermédiaires… au risque de n’avoir plus personne à qui parler, autre que les lobbies, c’est-à-dire que les intérêts financiers les plus forts !

La démocratie participative permet de collecter une parole à laquelle personne ne répond. Nos institutions semblent produire de plus en plus un dialogue de sourds. C’est un peu comme si nos institutions niaient l’existence de divergences d’intérêts, ce qui se traduit par une conflictualité en hausse, par une radicalisation des positions, par une tension permanente et épuisante. L’apaisement n’est plus un mode de gouvernement. Dans le déni de l’écoute, des réponses et du compromis, les protestations mêmes légitimes ont tendance à devenir colère voire réactions violentes. “L’incapacité à écouter débouche sur une incapacité à agir”

Rendre l’écoute fonctionnelle

Pourtant, il existe des leviers pour rendre à nouveau l’écoute fonctionnelle, rappellent les auteurs en prenant l’exemple du Défenseur des droits (on pourrait évoquer également le rôle de la Commission d’accès aux documents administratifs voire en partie des missions de la Cnil et de quelques autres autorités administratives indépendantes, auxquelles il faudrait ajouter les médiateurs de services publics que l’on trouve désormais dans plusieurs institutions publiques). Les médiateurs se font souvent le relais institutionnel des inaudibles :  ils viennent non seulement écouter mais également accompagner les usagers en difficultés en proposant leur médiation dans les conflits. “Cette fonction de médiation à l’échelle individuelle vient alimenter une fonction d’interpellation, plus collective”, à l’image des travaux et saisines du Défenseur des droits. Les remontées de problèmes permettent de mettre en visibilité les difficultés structurelles, de passer du subjectif à l’objectif… et surtout souvent de résoudre les situations de blocage individuelles… En assurant le suivi des cas, ces médiateurs viennent refluidifier l’écoute et la réponse que nous sommes en droit d’attendre des acteurs publics. Pour Loisel et Rio, c’est ce processus de transformation du vécu subjectif à l’analyse objectivée qui manque dans la participation citoyenne, c’est le moyen d’assurer que les propositions obtiendront bien une réponse. Et la solution des autorités indépendantes permet de montrer que c’est parce qu’elles ont un pouvoir garantit et établit, opposable, qu’elles peuvent agir. Leurs fonctions n’est pas qu’une fonction de médiation, elle est bien d’abord une fonction de résolution de problèmes. Ces médiateurs ont souvent un pouvoir qu’ils utilisent pour remettre de l’asymétrie dans une relation qui ne l’est plus. Elles ont les moyens, juridiquement garantis, de remettre un dossier sur une table, de provoquer des réponses. 

Pour Loisel et Rio, ces agences, à l’écoute des citoyens, montrent que également que l’audition (et pas seulement celle des experts) est un levier pour faire remonter la parole et le vécu des citoyens dans les décisions. C’est l’addition de récits qui transforme nos sociétés, à l’image de ce qu’à produit la Commission indépendante sur les abus sexuels dans l’Eglise. Idéalement, le procès, momentum de la justice, est également une expérience d’écoute et de réponse. “Remplacer les plateformes participatives par des témoignages à la première personne permettrait de préciser ce qui est attendu des citoyens. L’objectif n’est pas d’avoir leur avis (c’est le rôle des élus) ou de prendre leurs idées (c’est le rôle de l’administration), mais de comprendre leur expérience vécue et la façon dont elle éclaire les politiques mises en place”. La confrontation des témoignages permet d’avoir une vision plus complète de la réalité, d’éclairer les angles morts de la décision, et de les porter pour que le politique en tire les conclusions

Les deux consultants plaident également, comme le juriste Thomas Perroud, pour faire entrer l’administration en démocratie, en faisant là encore entrer la contre-expertise, la diversité des points de vue, pour faire surgir les controverses là où elles sont, plutôt que de les mettre sous le tapis. Seule l’existence de contre-pouvoirs permet de rendre l’écoute opposable. Il faut donc que les témoignages comme les mobilisations permettent d’alimenter des contre-pouvoirs pour peser sur les choix d’action publique. Ils sont le moyen de rappeler l’importance du “pas pour nous sans nous” qui mobilise l’action citoyenne. Dans un monde où tout le monde ne veut voir que des solutions, il faut rappeler que celles-ci n’existent pas sans revendications. L’acteur public ne devrait pas tant chercher des solutions, que confronter les revendications. 

Négocier plutôt que gérer

“Pour rendre l’action publique plus démocratique, ce n’est pas la place des citoyens qu’il faut interroger, mais celle de leurs représentants”, expliquent Loisel et Rio. Pour eux, il y a un malentendu sur la fonction des élus. Il faut réhabiliter leur fonction délibérative, plaident-ils, en montrant que la délibération politique, c’est-à-dire le débat contradictoire qui précède la prise de décision, est quasi inexistante. Partout, les instances démocratiques deviennent de plus en plus des chambres d’enregistrement qui n’ont plus prises sur les enjeux, à l’image des tristes séances de conseils municipaux où s’égrainent une suite sans fin de délibérations. Les décisions se passent ailleurs. Dans des bureaux, dans des négociations opaques. Partout, les décisions semblent déjà prises. 

Si la proposition est forte, il me semble ici que l’on trouve l’une des rares faiblesses du livre, qui semble minimiser la politisation des élus, leurs convictions qui pèsent sur les choix auxquels ils procèdent. Les faire passer du rôle de manager, de chef de projets qui ont tout pouvoir à un rôle de diplomates, de négociateurs avec les parties prenantes est une proposition très stimulante et idéale. Ce n’est effectivement qu’en invitant les différents points de vue à s’exprimer, à dialoguer, à trouver des compromis qu’on pourra lever les blocages de nos sociétés. Mais ce n’est pas le rôle que leur confèrent nos institutions pour le moment. Loisel et Rio illustrent cela en évoquant les problématiques de l’accès à l’eau qui aujourd’hui se règle sans que les débats entre les acteurs (citoyens, industriels, agriculteurs…) ne soient organisés. Sans organiser les confrontations, les blocages l’emportent. Les objectifs restent cantonnés dans des documents stratégiques sans capacité à les atteindre. Les enjeux de mise en œuvre sont trop souvent négligés. “L’action publique est avant tout une affaire de négociation”. Sur la question de la raréfaction de l’eau, la baisse des consommations ne se décrète pas, elle se négocie, au risque sinon de ne jamais atteindre les objectifs qu’on se fixe. “Démocratiser l’action publique, c’est passer de la concertation à la négociation”.

Pour Loisel et Rio, nous devons sortir de l’obsession du consensus pour trouver les modalités concrètes des compromis. Pour cela, la démocratie doit savoir organiser la confrontation d’intérêts divergents. C’est pourtant bien par le compromis qu’on amène chacun à s’engager et donc à obtenir des engagements opposables, c’est-à-dire qui permettent d’obliger ceux qui ne les respectent pas. Dans le domaine de la gestion de l’eau, “la démocratie ne peut pas se réduire à une somme d’arrêtés préfectoraux de restrictions, appliqués à géométrie variable en fonction du poids de chaque lobby sans aucun processus de délibération”. Il nous faut sortir de la gestion de crise permanente que produit l’évitement démocratique. Le politique doit revenir à la table des négociations pour faire discuter les acteurs concernés, afin que chacun puisse préciser leurs contributions effectives. “Les institutions sont là pour organiser la confrontation publique des intérêts privés”. Ce qui n’est pas si simple quand nos institutions favorisent aussi l’accès au pouvoir de représentants de ces intérêts particuliers. 

*

Manon Loisel et Nicolas Rio signent une belle défense d’une démocratie vivante à un moment où elle semble si épuisée, depuis une analyse puissante et concrète des blocages politiques où nous sommes coincés. Les revendications que formule le livre ne sont pas simples à mettre en œuvre. Elles ne consistent pas à sortir des solutions (même s’ils en font plusieurs, par exemple d’améliorer la représentation par le tirage au sort depuis le niveau d’absentéisme pour corriger le déficit de représentativité), mais à nous interroger sur comment dépasser les blocages de nos société et le risque d’une dérive autoritaire. En cela, c’est un livre qui nous montre comment sortir de trop d’échecs démocratiques. 

L’ouvrage n’en est pas moins assez idéaliste parfois et semble minorer le fait que la politique soit d’abord des positions politiques qui s’affrontent. Le déni de certaines positions ne se résoudra pas seulement par le retour de la négociation, mais d’abord par le retour d’une affirmation de la légalité des contre-pouvoirs. Or, c’est bien ces garanties démocratiques qui sont mises à mal, notamment quand on interdit de manifester ou qu’on surcontrôle certaines manifestations plutôt que d’autres afin de rendre la contestation impossible. Loisel et Rio militent pour plus de représentation, plus de garantie et de pouvoir à ces représentations, alors que nous assistons depuis trop longtemps à l’exact inverse. La dévitalisation de notre démocratie représentative reste, quoi qu’on en dise, d’abord la conséquence d’un recul des fonctions représentatives.  

Derrière le paravent participatif, trop souvent, c’est la représentativité qui est mise à mal. Loisel et Rio ne souhaitent pas se débarrasser de la démocratie avec l’eau du bain de la démocratie participative, au contraire. Ils font le constat que le développement de la démocratie participative est un écran de fumée et que c’est la démocratie qu’il faut défendre. Pour cela, il faut renforcer les garanties, les contre-pouvoirs, la représentativité quand ce sont elles qui se délitent. Loisel et Rio nous invitent à un “réarmement” démocratique, qui me semble le réarmement dont on manque le plus. Ils nous montrent également que celui-ci ne passe pas nécessairement par de nouveaux droits, mais par la capacité à trouver les moyens de les rendre plus effectifs qu’ils ne sont. 

En regardant la liste des autorités administratives indépendantes, je me dis qu’il y a encore bien trop de secteurs qui n’en disposent pas. A l’heure où les associations, représentants professionnels et syndicats sont à la peine (ce qui ne doit pas nous dispenser de trouver les modalités pour les renforcer plutôt que les dévitaliser !), avoir des autorités indépendantes qui viennent les renforcer (voir des déclinaisons locales) est une perspective plutôt stimulante, pour autant que ces autorités soient dotées de moyens, de droits et de capacités d’action. Dans le numérique, cela permettrait en tout cas d’aller plus loin que les conseils de surveillance, les comités d’éthique et les rapports de transparence… à défaut d’avoir une vraie représentation des parties prenantes, on pourrait au moins envisager des autorités indépendantes avec des capacités d’écoutes, d’actions et de contrôle des réponses apportées.

Hubert Guillaud

A propos du livre de Manon Loisel et Nicolas Rio, Pour en finir avec la démocratie participative, Textuel, 2024, 18,9 euros, 192 pages. A compléter par leurs riches interviews chez Autrement Autrement, Acteurs Publics ouMédiapart

6 / 10
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Frédéric LORDON
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Emmanuel PONT
Nicos SMYRNAIOS
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓