LePartisan.info À propos Podcasts Fil web Écologie Blogs Revues MÉDIAS
InternetActu.net
Souscrire à ce flux

Accès libre Publication de la Fondation Internet Nouvelle Génération, « le think tank qui porte la voix d’un numérique ouvert, humain, et durable »

▸ les 25 dernières parutions

28.06.2021 à 07:00

Qu’est-ce que l’informatique optimise ?

Hubert Guillaud

En 2019, pour le magazine Commune, l’ingénieur et membre de la coalition des travailleurs de la tech (@techworkersco – voir également Collective Action In Tech et @tech_actions) Jimmy Wu (@jimmywu) revenait sur la question de l’optimisation. Qu’est-ce que le numérique optimise ? Alors que la tech rencontre une contestation inédite, l’éthique (...)
Texte intégral (5032 mots)

En 2019, pour le magazine Commune, l’ingénieur et membre de la coalition des travailleurs de la tech (@techworkersco – voir également Collective Action In Tech et @tech_actions) Jimmy Wu (@jimmywu) revenait sur la question de l’optimisation. Qu’est-ce que le numérique optimise ?

Alors que la tech rencontre une contestation inédite, l’éthique de la technologie bénéficie d’un vif regain d’intérêt, explique Wu. Le but : apporter aux professionnels de la technologie une conscience sociale… pour redresser la crédibilité du secteur ! « Pourtant, en positionnant l’éthique comme la boussole morale de la technologie, l’informatique académique nie le fait que ses propres outils intellectuels sont la source du pouvoir dangereux de l’industrie technologique ». Pour Wu, le problème réside dans l’idéologie même de la tech. « Ce n’est pas seulement que l’enseignement de l’ingénierie apprend aux étudiants à penser que tous les problèmes méritent des solutions techniques (ce qui est certainement le cas) ; le programme est surtout construit autour de tout un système de valeurs qui ne connaît que les fonctions d’utilité, les manipulations symboliques et la maximisation des objectifs. »

L'article de Jimmy Wu pour Commune Magazine

L’informatique, une idéologie du statu quo ?

Wu raconte avoir assisté au premier cours sur l’éthique des données proposé par Stanford au printemps 2018. Dans un exercice proposé aux élèves, l’enjeu était d’interroger un jeu de données provenant d’un site web qui avait révélé les noms des donateurs à des organisations qui soutenaient le seul mariage hétérosexuel. Les étudiants étaient appelés à faire des propositions pour résoudre le problème. Pour Wu pourtant, le problème n’était pas la question de la granularité des données (c’est-à-dire jouer sur la visibilité du montant des dons par exemple, comme de faire passer l’obligation d’afficher les noms des donateurs à partir d’un montant plus élevé pour éviter qu’ils soient pointés du doigt, comme le proposaient des étudiants) qu’un enjeu politique qui consiste à organiser la politique depuis des dons financiers. Cette proposition à sortir du seul cadre des paramètres accessibles a mis fin aux discussions. Pour Wu, ce petit exemple illustre à lui seul « l’idéologie du statu quo » qui structure l’enseignement de l’informatique. C’est comme si en informatique, l’enjeu premier était de ne pas prendre parti ou de ne pas faire de politique… Comme si tout n’était question que de paramètres à régler.

Couverture du livre Disciplined Minds de Jeff SchmidtLa science informatique a visiblement largement intégré la discipline de l’esprit qu’évoquait Jeff Schmidt dans son Disciplined Minds (2000, non traduit), un livre qui critiquait justement la socialisation et la formation des professionnels qui consiste trop souvent à ne pas faire de vagues. En 4 ans d’informatique à Berkeley et Stanford, rapporte Wu, à l’exception d’un cours d’éthique, les enseignants ne nous ont jamais suggéré d’examiner de manière critique les problèmes techniques, souligne-t-il. « Les questions dites « douces » sur la société, l’éthique, la politique et l’humanité étaient silencieusement considérées comme intellectuellement inintéressantes. Elles étaient indignes de nous en tant que scientifiques ; notre travail consistait à résoudre les problèmes qui nous étaient soumis, et non à nous demander quels problèmes nous devions résoudre en premier lieu. Et nous avons appris à le faire bien trop bien. »

Pour Wu, l’enseignement technique est directement responsable du technosolutionnisme. Des programmes d’études qui exposent « la primauté du code et des manipulations symboliques engendrent des diplômés qui s’attaquent à tous les problèmes sociaux à l’aide de logiciels et d’algorithmes ». En cours d’éthique, les questions de politiques et d’orientation étaient réduites à des problèmes techniques. Wu fait référence à un cours très populaire sur l’optimisation mathématique donné par Stephen Boyd à Stanford. « Dans le monde de l’informatique et des mathématiques, un « problème d’optimisation » est toute situation dans laquelle nous avons des quantités variables que nous voulons fixer, une fonction objective à maximiser ou à minimiser, et des contraintes sur les variables ». Pour Boyd d’ailleurs « tout est un problème d’optimisation » ! Tout peut être modélisé, tout peut-être exprimé en fonction d’un critère d’utilité selon des critères plus ou moins grossiers. Une affirmation des plus banales pour ces étudiants. Pour Wu, nous sommes là face à un marqueur de l’état des sciences informatiques.

L’optimisation n’est pas récente, rappelle-t-il. Elle est née avec la Seconde Guerre mondiale et est devenue un passage obligé des sciences informatiques. La question des algorithmes d’optimisation est arrivée à maturité au milieu du XXe siècle, avec le développement de la programmation linéaire qui a permis de faire des progrès sur des problèmes allant de l’allocation des biens au routage logistique. En URSS, sous la coupe de son inventeur, Leonid Kantorovich, elle est devenue un outil central de la planification dès les années 60. En Occident, elle s’est déployée dans l’expédition et le transport. Des deux côtés du rideau de fer, longtemps, « l’optimisation a été déployée dans des contextes résolument non marchands », pour la planification notamment. Mais depuis le début du XXIe siècle, elle a été remodelée pour être utilisée par nombre d’applications, notamment commerciales. Désormais, aidés par l’IA et l’apprentissage automatisé, entreprises, armées et États exigent des algorithmes rapides, efficaces, sûrs, mais aussi intelligents, réactifs. Tout est en passe d’être exprimé à l’aide de variables, de contraintes et de fonctions objectives, puis résolues à l’aide d’un logiciel d’optimisation.

Cette prise de contrôle de l’optimisation se reflète sur les campus au vu du nombre d’inscriptions à ces cours. À Stanford toujours, au Huang Engineering Center, à quelques centaines de mètres de là où enseigne Boyd, Andrew NG (@andrewyng) donne des cours sur le Deep Learning où se pressent des milliers d’étudiants. Son cours porte sur les réseaux neuronaux profonds. Ici, les paradigmes d’optimisation ne sont pas de type planification, car les modèles n’ont que les contraintes qu’ils découvrent eux-mêmes. Une fois entraîné, le modèle est exécuté sur des échantillons de données. Si les résultats sont médiocres, le concepteur modifie les paramètres ou affine l’objectif. « L’ensemble du processus de formation d’un réseau neuronal est si ad hoc, si peu systématique et si embarrassant, que les étudiants se demandent souvent pourquoi ces techniques devraient fonctionner. » Personne ne sait très bien leur répondre, mais soyez-en assurés, elles fonctionnent ! « L’étude de l’apprentissage automatique offre une révélation stupéfiante : l’informatique du XXIe siècle manie, en réalité, des pouvoirs qu’elle comprend à peine » !

L’informatique, c’est de l’économie sans les questions politiques

Le seul autre domaine qui semble à la fois en savoir autant et si peu est l’économie, explique encore Jimmy Wu. La comparaison est à raison : cette optimisation en roue libre et heuristique rappelle la façon dont l’économie elle-même est comprise. « Plutôt que de considérer l’optimisation comme une planification, nous cherchons à libérer la puissance de l’algorithme (le marché libre). Lorsque les résultats ne sont pas ceux escomptés, ou que l’algorithme optimise son objectif (le profit) avec beaucoup trop de zèle à notre goût, nous corrigeons docilement ses excès rétrospectivement avec toutes sortes de termes secondaires et de réglages de paramètres (taxes, péages, subventions). Pendant tout ce temps, le fonctionnement interne de l’algorithme reste opaque et sa puissance de calcul est décrite en termes de magie, de toute évidence compréhensible uniquement par une classe de technocrates doués et suréduqués. »

« Lorsqu’on entre dans le « monde réel », la perspective acquise grâce à ces formations en informatique s’intègre parfaitement à l’idéologie économique dominante. Après tout, qu’est-ce que le capitalisme néolibéral sinon un système organisé selon un cadre d’optimisation particulièrement étroit ? » « À l’école, on nous a dit que tout problème pouvait être résolu en tournant les boutons algorithmiques de la bonne manière. Une fois diplômés, cela se traduit par la conviction que, dans la mesure où la société a des défauts, il est possible d’y remédier sans changement systémique : si l’accumulation du capital est le seul véritable objectif et que le marché est un terrain de jeu infiniment malléable, il suffit de donner aux agents individuels les incitations appropriées. Pour réduire l’utilisation du plastique, ajoutez une surtaxe sur les sacs d’épicerie. Pour résoudre la crise du logement, relâchez les contraintes imposées aux promoteurs d’appartements de luxe. Pour contrôler la pollution, fixez un prix de marché en utilisant un système de plafonnement et d’échange. »

« À un niveau élevé, l’interprétation computationnelle de l’économie moderne ressemble à ceci : une économie peut être considérée comme un gigantesque problème d’optimisation distribuée. Dans sa forme la plus élémentaire, nous voulons décider quoi produire, combien payer les travailleurs et quels biens doivent être alloués à qui – ce sont les variables du programme d’optimisation. Les contraintes consistent en toute limite naturelle sur les ressources, la main-d’œuvre et la logistique. Dans le capitalisme primitif du laissez-faire, l’objectif à maximiser est, bien entendu, le profit ou le produit total. »

« Le péché originel du programme capitaliste est donc qu’il optimise non pas une certaine mesure du bien-être social ou de la satisfaction humaine, mais une quantité qui ne peut être qu’un lointain substitut de ces objectifs. Pour remédier aux dommages considérables causés par cette mauvaise formulation, les démocraties libérales d’aujourd’hui cherchent à concevoir un programme plus nuancé. Le profit constitue toujours le premier terme de l’objectif, mais il est désormais accompagné d’un éventail impressionnant de termes secondaires modifiables à l’infini : imposition progressive des revenus pour ralentir l’accumulation des richesses, taxes et subventions pigouviennes pour guider le comportement des consommateurs, et marchés d’émissions financiarisés pour freiner la désintégration rapide de la planète. Lorsque les carottes et les bâtons du marché ne suffisent pas, les gouvernements tentent d’imposer des réglementations, en introduisant des contraintes supplémentaires. Ces solutions politiques suivent précisément la même logique que les exercices qu’on nous propose en classe sur les réglages algorithmiques. »

Wu rappelle qu’il n’est donc pas étonnant que le rôle sociétal des algorithmes fasse l’objet de nombreux débats. Il n’y a pas si longtemps encore, les gens pensaient que les algorithmes étaient politiquement neutres ou ne présentaient pas de danger fondamental pour les humains. Comme la révolution industrielle précédente, cette révolution était considérée « comme un fait impersonnel de l’histoire économique, et non comme quelque chose qui discriminait activement certaines populations ou servait de projet à la classe dirigeante ». En 2013, quand on évoquait des biais dans les modèles, on estimait que c’était une question purement statistique dépourvue du moindre jugement moral. Depuis 4 ou 5 ans, la critique s’est emparée de la question des boîtes noires algorithmiques, montrant qu’elles excluaient nombre de personnes des services sociaux… La fausse neutralité et objectivité des calculs ont été démasquée, constate Wu. Un nouveau parti-pris a émergé qui reconnaît qu’en pratique, les algorithmes comme les données encodent des partis-pris.

Pour Wu néanmoins, ce nouveau parti-pris continue de faire l’apologie de la « tyrannie informatique ». Il reste sans idéologie !

Couverture du livre Réalisme capitaliste de Mark FisherLe problème c’est les programmeurs humains et les données ! Pas le fait que l’informatique travaille à améliorer et automatiser le monde… Or, comme le soulignait le philosophe Mark Fisher (Wikipedia), ce « réalisme capitaliste » (Entremonde, 2018) relève précisément de l’idéologie. La tâche qui reste à l’informatique comme au capitalisme, c’est « d’affiner le système au mieux de nos capacités »… À calculer encore et toujours leur efficacité maximale, les systèmes pourraient bien tourner en rond !

Les contributions du monde universitaire au capitalisme sont essentiellement venues de l’économie, notamment des partisans ultralibéraux de l’École de Chicago, explique encore Jimmy Wu. Mais ces contributions comportaient une limite majeure : l’économie reste une arène de débat, de désaccords…

L’informatique lui est bien supérieure, ironise l’ingénieur. « Elle enseigne les axiomes et les méthodes du capitalisme avancé, sans les questions politiques qui peuvent se poser en économie ou dans d’autres sciences sociales. Dans sa forme actuelle, l’informatique est un véhicule d’endoctrinement réussi pour l’industrie et l’État, précisément parce qu’elle apparaît comme leur contraire : un domaine sans valeur qui incarne à la fois des mathématiques rigoureuses et une ingénierie pragmatique. C’est le pourvoyeur idéal du réalisme capitaliste pour une époque sceptique ; une science de droite qui prospère dans notre ère post-idéologique. »

Peut-on, doit-on, faut-il défaire l’ordinateur et ses sciences ? Le débat oppose deux camps, simplifie Jimmy Wu. D’un côté l’élite traditionnelle qui ne voit pas même le problème. De l’autre, des « humanistes de la technologie », une alliance peu structurée de fonctionnaires critiques, de médias, de chercheurs, d’ONG et de repentis de la tech… qui pensent que les pratiques technologiques peuvent être apprivoisées par une politique plus éclairée, des pratiques d’ingénieries réformées et un peu plus d’éthique… Mais les deux parties partagent finalement la même vision, même si l’un a un visage plus aimable que l’autre : « celle d’une société dominée par une aristocratie technique qui exploite et surveille le reste d’entre nous ». L’informatique universitaire file les mêmes contradictions : le matin, un étudiant peut assister à un exposé sur la maximisation publicitaire et le soir construire une base de données pour une association locale…

Avons-nous besoin d’une autre informatique ?

Couverture du livre de Wendy Liu, Abolir la Silicon ValleyL’ingénieure repentie, Wendy Liu (@dellsystem) en appelait dans le magazine socialiste britannique Tribune (@tribunemagazine) à « abolir la Silicon Valley » (elle en a depuis fait un livre : Abolir la Silicon Valley : comment libérer la technologie du capitalisme, Repeater Books, 2021, non traduit). Elle n’appelait pas par là à un rejet naïf de la technologie, mais à sa régulation, à sa transformation en un secteur qui soit financé, détenu et contrôlé par la société dans son ensemble et non plus seulement par quelques actionnaires.

Pour Wu, ce réformisme ne suffit pas. Il est nécessaire de mettre en cause ce qui sous-tend cette prise de pouvoir économique sur le monde. « La Silicon Valley n’existe pas dans un vide intellectuel : elle dépend d’un certain type de discipline informatique. Par conséquent, une refonte de la Silicon Valley par le peuple nécessitera une informatique « populaire » ». C’est-à-dire une autre informatique et une autre vision de l’informatique, soutient Jimmy Wu. Nous en sommes pourtant encore très loin. « Aujourd’hui, les départements d’informatique ne se contentent pas de générer le « réalisme capitaliste », ils sont eux-mêmes gouvernés par lui. » Le financement de la recherche en informatique est totalement dépendant des géants de l’industrie et de la défense. La recherche est guidée par les seules applications industrielles. Et tout ce beau monde nie que l’informatique contemporaine soit une entreprise politique (quelles que soient ses intentions apolitiques affichées). Pour remédier à ce brouillard idéologique étouffant, nous devrions construire une « informatique communiste », soutient Jimmy Wu. Il termine en l’esquissant à grand trait : à savoir que seuls les projets au service direct ou indirect des gens et de la planète devraient pouvoir être financés, en invitant à imaginer des algorithmes pour la planification économique participative, pour estimer le temps de travail socialement nécessaire, pour créer des chaînes d’approvisionnement locales… « La froide science de l’informatique semble déclarer que le progrès social est terminé – qu’il ne peut y avoir désormais que du progrès technologique. Pourtant, si nous parvenons à arracher le contrôle de la technologie à la tour d’ivoire de la Silicon Valley, les possibilités de la société post-capitaliste sont apparemment infinies. Le mouvement des travailleurs de la technologie du XXIe siècle est un véhicule plein d’espoir pour nous amener vers de telles perspectives ! Il est certes encore naissant, mais il est de plus en plus une force avec laquelle il faut compter, et, au risque de s’emballer, nous devrions commencer à imaginer le futur que nous souhaitons habiter. Il est temps de commencer à conceptualiser, et peut-être à prototyper, l’informatique et l’information dans un monde de travailleurs. Il est temps de commencer à concevoir une nouvelle science de gauche. »

Couverture du dernier numéro et de la nouvelle formule de Socialter consacrée à la rebelion des cadres Couverture du livre de Jamie Woodcock

Reste à savoir si la lutte contre les dérives des technologies (le techlash des employés de la tech) ou la prise en compte des questions écologiques suffiront à mobiliser les « agents de la société technicienne » comme le dit très bien le dernier numéro de Socialter (@socialter) ?

Si l’on en croit le dernier livre du sociologue Jamie Woodcock (@jamie_woodcock), Le combat contre le capitalisme de plateforme (Press de l’université de Westminster, 2021, non traduit), les travailleurs des plateformes parviennent à organiser de plus en plus d’actions collectives et à renforcer la solidarité transnationale, explique le politologue James Muldoon (@james_muldoon_) pour le blog de la London School of Economics (@LSEReviewBooks). En Europe, expliquait récemment The Guardian, la sécurité des travailleurs des plateformes progresse, tout comme le déploiement des plateformes coopératives, notamment autour de Coopcycle qui fédère plus de 67 coopératives dans 7 pays. La France semble plutôt tenir de l’exception en la matière, puisque malgré les jugements récents, les plateformes continuent à opérer par l’auto-entrepreneuriat.

Reste que l’horizon d’une nouvelle informatique qu’esquisse Jimmy Wu semble encore loin !

Défaire l’optimisation ?

Couverture du livre de Alison PowellDans son dernier livre Undoing Optimization : Civic Action in Smart Cities (Yale University Press, 2021, non traduit), la chercheuse Alison Powell (@a_b_powell, blog), qui est également la responsable du programme et réseau de recherche sur l’éthique de l’IA, Just AI (@justainet, blog), de l’Ada Lovelace Institute, rappelle que les données ne sont pas gratuites, qu’elles ne sont pas exemptes de déséquilibres de pouvoir. Comme elle l’explique dans une tribune pour la LSE, cette optimisation configure des rationalités, notamment le fait que les décisions opérationnelles soient basées sur des données disponibles. Pour elle, pour défaire l’optimisation, nous devons nous concentrer sur les frictions, les lacunes, les erreurs… Comme le propose l’anthropologue Anna Tsing, les frictions produisent des relations de négociation inédites. Pour Powell, « les relations de pouvoir inégales autour des données pourraient générer de nouvelles opportunités de changement social ».

Pour Powell, nous ne sommes pas suffisamment attentifs à la manière dont les technologies se superposent les unes aux autres. À la fin des années 90, la vogue était au citoyen en réseau, à l’individu connecté qui s’engage dans la ville grâce à la connectivité. L’accès est alors devenu une demande et a aussi produit (à la marge) quelques projets politiques (comme les réseaux communautaires sans fil, voir « Avons-nous besoin d’une vitesse limitée sur l’internet ? »). La démultiplication des données et des systèmes de capteurs connectés ont permis une collecte sans précédent et une forme d’optimisation de la vie urbaine en temps réel… Mais pour Powell, cette optimisation n’aborde pas la conception coercitive des applications qui servent à la collecte de données justement. Quand la ville intelligente donne la priorité aux données, l’optimisation produit une surveillance constante, incompatible avec les libertés collectives.

Au lieu de cela, les points de friction ouvrent une autre perspective et permettent de limiter l’objectif d’une optimisation sans limites. Pour la chercheuse, il est ainsi nécessaire d’interroger l’optimisation, de savoir « pour qui ce n’est pas optimal » justement. Pour Powell, nous devons travailler à des alternatives à l’optimisation. Elle propose un exemple, celui du projet Connected Seeds and Sensors – un projet londonien qui explore comment l’internet des objets peut soutenir la consommation et la production d’une alimentation durable – qui montrent que les données collectées sur les semences ne parviennent pas à être exhaustives. Le savoir n’est pas réductible aux informations. Pour la chercheuse, pour nous défaire de l’optimisation, nous devrions considérer que la friction est bien plus nécessaire pour créer de bonnes relations. Ensuite, nous devrions travailler à limiter la collecte de données plutôt que l’étendre. En privilégiant l’optimisation à la friction, nous risquons surtout d’oublier de construire des solidarités et des échanges qui ne soient pas que de données.

Comme elle l’expliquait dans le texte de configuration du réseau Just AI, l’éthique doit se penser d’abord comme une pratique. Comme elle le souligne encore dans un premier compte rendu de travaux portant sur la cartographie de la recherche éthique, « les préoccupations éthiques concernant l’IA sont désormais profondément imbriquées dans les préoccupations éthiques concernant de larges pans de la vie sociale ».

Dans la conclusion de son livre, Powell explique que le modèle de pensée « techno-systémique » étend sans fin la commodité des données et l’exploitation des informations personnelles. Le problème est que cette approche ne définit pas une bonne citoyenneté, mais seulement « une bonne citoyenneté technologique »… et celle-ci, d’une manière très récursive, ne consiste finalement qu’à soutenir toute optimisation. Le problème, explique Alison Powell, c’est que cet objectif restreint l’action civique à n’être qu’une consommation de ressources ! Le paradigme de l’optimisation par les données et les capteurs réduit en fait la place des citoyens à n’être que les acteurs de leur propre surveillance. Ce paradigme réduit également la diversité, favorise les intérêts privés plus que publics. Mais surtout, l’optimisation efface le conflit, les divergences, les dissensus, les frictions… Or, dans la réalité, bien souvent, les gens luttent pour redéfinir les formes normatives que produisent les données, et trouver des espaces de discontinuité entre les données. La liberté ne consiste pas seulement à ne pas être surveillé, mais également réside dans la capacité d’avoir des approches différentes, d’être en désaccord avec des interprétations, de revendiquer un droit à la discontinuité… Powell défend une datafication minimisée (un droit à la « datafication minimum viable », sur le modèle du Produit minimum viable). Pour elle, la transparence ou la responsabilité ne suffisent pas, car elles ne permettent pas de modifier le cadre technologique qui nous capture, de remettre en question son circuit de pouvoir, explique-t-elle en faisant référence au « droit à une ville intelligente soutenable » de Sara Heitlinger. Bref, de continuer à avoir le droit de faire évoluer nos modes de connaissances et de relations hors des produits prédictifs… À produire une société autrement qu’en calculant son efficacité maximale.

Couverture du livre d'Edward TennerCela nous renvoie au livre déjà classique de l’historien des technologies Edward Tenner (@edward_tenner), Le paradoxe de l’efficacité : ce que le Big Data ne peut pas faire (Penguin Random House, 2018, non traduit), qui soulignait combien l’inefficacité a de vertus. Tenner y rappelle que ce que nous rendons plus efficace rend toujours autre chose moins efficace. Que l’optimisation est toujours un choix qu’on peine à évaluer, dans ses coûts comme dans ses bénéfices. Dans son livre, Tenner observe l’apport ambigu de la techno sur la médecine, l’éducation et la connaissance pour souligner qu’il n’y a pas qu’une forme à l’efficacité, mais des formes qui s’imbriquent et se contrebalancent. Dans notre monde ultra rationnel, où domine le colonialisme comptable, où tout est converti en gains de productivité, l’historien pourtant bien peu radical, nous rappelle que l’inefficacité est parfois un bien meilleur chemin.

Hubert Guillaud

22.06.2021 à 07:00

Le calcul de risque, cette « révolution industrielle » de l’administration publique produite à notre insu

Hubert Guillaud

Avec Contrôler les assistés, genèses et usages d’un mot d’ordre (Raisons d’agir, 2021), le sociologue Vincent Dubois (@vduboisluv) signe une somme très complète et très riche de sciences sociales. Exigeante, cette longue enquête décortique les transformations du contrôle à l’égard des bénéficiaires de l’aide sociale des Caisses d’allocations familiales (CAF). (...)
Texte intégral (5856 mots)

Couverture du livre de Vincent Dubois, Contrôler les assistésAvec Contrôler les assistés, genèses et usages d’un mot d’ordre (Raisons d’agir, 2021), le sociologue Vincent Dubois (@vduboisluv) signe une somme très complète et très riche de sciences sociales.

Exigeante, cette longue enquête décortique les transformations du contrôle à l’égard des bénéficiaires de l’aide sociale des Caisses d’allocations familiales (CAF). Le livre permet de prendre la mesure de l’évolution des politiques publiques et notamment, pour nous qui nous intéressons aux transformations numériques, souligne le rôle fondamental de l’intégration de la fouille de données, du croisement des fichiers et d’une rationalisation numérique qui produisent une répression plus sévère et plus forte des assistés. Vincent Dubois montre comment, depuis 2000, nous sommes passés, très progressivement, avec le numérique, à « l’âge industriel » du contrôle par un changement de méthode et de finalités. Il souligne également combien l’analyse automatisée a épousé le modèle managérial, politique, économique et idéologique libéral qui s’est peu à peu mis en place durant la même période. Il pointe combien la raison statistique a été mise au service de la raison idéologique du contrôle au détriment de l’aide, du conseil, de l’assistance…

Finalement, en plongeant dans la transformation du contrôle, Vincent Dubois livre une autre histoire des transformations que produit le recours à l’informatique depuis une vingtaine d’années. Une histoire à bas bruit, que nous avons souhaitée éclairer avec lui.

InternetActu.net : Pourriez-vous pour commencer nous raconter comment et quand est né le traitement automatisé (data mining ou fouille de données) à la CAF ?


Vincent Dubois : La mise en place de la fouille de données à la CAF commence au niveau local. À l’origine, ce n’est pas quelque chose de pensé, ni une politique nationale, rationnelle ou programmatique. L’utilisation de techniques de prédiction statistique part de la rencontre fortuite entre l’agent comptable d’une caisse locale et d’une cadre de cette même caisse. L’agent était confronté à d’importants cas de fraude et s’est rendu compte qu’il était exposé à des poursuites, car il n’aurait pas entrepris toutes les démarches nécessaires pour prévenir une telle fraude. Sa cadre dirigeante va l’informer de l’existence de techniques statistiques pour détecter les risques d’erreurs et de fraudes, des techniques déjà mobilisées dans l’assurance et les sociétés de téléphonie mobile, notamment pour identifier les mauvais payeurs. C’est donc très tôt, au début des années 2000 que cette caisse met en place une expérimentation pour détecter les risques de fraude. Fort de ses premiers résultats, la méthode est peaufinée par des échanges entre la caisse locale et nationale après 2005. Des tests à grande échelle sont lancés pour produire des modèles. Et à partir de 2010, la fouille de données est généralisée. Cela fait donc plus de 10 ans que ces techniques y sont utilisées. La fouille de données et la prévision statistique sont devenues l’outil principal de détection et de déclenchement des contrôles des allocataires.

Cette façon de regarder l’histoire par le petit bout de la lorgnette est intéressante. Elle souligne combien l’adoption de ces outils s’est expérimentée de manière itérative, progressivement voire prudemment. La CNAF a été non seulement précurseure, mais également bon élève en matière de pratiques, tant et si bien qu’elles ont été imitées et généralisées depuis à d’autres organismes. Ces techniques de fouilles de données sont notamment utilisées depuis par Pôle emploi et l’administration fiscale, même si elles ont été adoptées plus tardivement et d’une façon peut-être un peu moins généralisées.

Donc très concrètement, ce développement technique s’est fait d’une manière très empirique. Les ciblages qui avaient lieu auparavant, eux, se basaient sur des observations ou des hypothèses de risques de fraudes ou d’erreurs, selon les allocataires ou les situations, mais restaient faits de manière hypothético-déductive. Avec la fouille de données, c’est l’inverse. La CNAF a fait réaliser 5000 contrôles, à grande échelle, sur la base d’un échantillon aléatoire d’allocataires. L’étude de ces 5000 dossiers a identifié des cas d’erreurs, de fraudes, d’indus… qui ont ensuite été utilisés pour reconstruire des agencements entre critères et variables qui caractérisaient les cas et pour construire des modélisations statistiques. Différents modèles ont été conçus avant d’être testés et mis en œuvre à grande échelle. Ces enquêtes à grande échelle sont réalisées de manière périodique pour ajuster les modèles aux évolutions des facteurs de risque.

Plusieurs modèles ont été dégagés de ces calculs de corrélation, notamment un facteur de risque global de la fraude et des modèles de risques plus spécifiquement adaptés à certains types de situations, comme la question de l’isolement ou la déclaration de ressources. Et ces modèles sont utilisés conjointement. Leur sélection repose sur leur « efficacité »… Cela signifie que la sélection ne repose pas tant sur des choix préalables que sur les rendements que les différents modèles produisent.

À l’origine donc, c’est bien la question de la lutte contre la fraude qui déclenche la mobilisation autour de ces outils et leur systématisation. La façon dont la fouille de données est mobilisée aujourd’hui garde trace de ses origines. Elle reste orientée vers la lutte contre la fraude, et plus généralement l’identification des indus, c’est-à-dire des sommes perçues à tort par les allocataires, car le montant de leurs revenus n’a pas été mis à jour ou que leur situation personnelle a changé.

Ce n’est pourtant pas exclusif d’autres usages possibles de ces techniques de fouille de données. Elles peuvent également être mobilisées pour détecter le non-recours aux droits ou le recours partiel, au bénéfice des allocataires, comme c’est le cas en Belgique ou au Royaume-Uni par exemple… Mais pour l’instant, en France, elles sont peu mobilisées pour cela. Ce qui laisse à penser que ce n’est pas la technique de fouille de données qui détermine ses effets, mais bien les usages qui en sont faits.

Internetactu.net : En quoi cette technique a-t-elle épousé les transformations politiques du contrôle ?


Vincent Dubois : Une autre manière de lire cette histoire, c’est de rentrer effectivement dans le type de conception inhérente à ces outils et l’affinité qu’ils peuvent avoir avec des manières de penser et des modèles d’organisation. Si on met en perspective l’usage de type de statistiques dans l’histoire longue des usages statistiques à des fins de gouvernement des populations comme dirait Foucault, on constate que la statistique classique porte sur la population dans son ensemble pour dégager des tendances, des moyennes, qui sont aussi des normes sociales. Avec la fouille de données, l’unité d’observation n’est plus la population, mais l’individu. C’est le comportement et la situation individuelle qui sont désormais l’objet de la connaissance. Ce changement de perspective est directement en affinité avec la philosophie néolibérale du sujet et du fonctionnement social qui considère, pour le dire vite et simplement, que la société et ses problèmes ne sont que le résultat de l’agrégation des comportements individuels. Le chômage par exemple n’est pas le produit de la structure du marché de l’emploi, mais le résultat de l’agrégation des individus à travailler ou pas.

La fouille de données est en affinité avec ce qui s’est imposé comme le principe managérial des organisations, notamment pour les organismes de protection sociale, à savoir la maîtrise des risques. Cette notion qui peut paraître vague est pourtant révélatrice d’une transformation de ces organismes et de leurs orientations. La notion de risque est consubstantielle aux politiques sociales et à l’État providence et part du principe que le travail, la maladie ou la vieillesse dépassent les responsabilités individuelles et doit être assumé de façon collective. Pourtant, cette maîtrise des risques dont on parle ici n’est pas tant le risque inhérent au fonctionnement social qu’une vision plus pragmatique et réduite : à savoir le risque financier que les bénéficiaires font courir aux organismes payeurs. La maîtrise des risques est également un principe managérial qui vise à prévenir leur survenance. Si la typologie des risques est souvent entendue de manière large, en pratique, le risque est surtout défini de manière précise et est profondément lié aux erreurs de déclaration des allocataires. Si cette notion de maîtrise des risques reste très englobante, c’est pour mieux faire disparaître le cœur de cible dans un principe managérial global. Un cœur de cible qui est à l’origine de la diffusion d’un impératif de contrôle à l’ensemble des organismes de protection sociale. La statistique prédictive ici correspond parfaitement à une politique dont l’objectif est de limiter le risque avant même qu’il ne survienne. Il y a eu une rencontre qui n’était pas totalement programmée entre la statistique prédictive et l’organisation des institutions de contrôle, mais qui a permis le renforcement de l’une et de l’autre. L’usage du data mining a pris sens dans le principe d’organisation même de la protection sociale et celui-ci s’est opérationnalisé dans la mise en œuvre même de cette technique, en renforçant l’individualisation et la responsabilisation des allocataires.

InternetActu.net : La fouille de données produit donc un score de risque de fraude pour chaque allocataire depuis 2011 à la CAF. Elle est utilisée depuis 2013 par Pôle emploi. Depuis 2014, par l’administration fiscale… Comment s’est répandu ce scoring, ce calcul des risques, cette « révolution industrielle » de l’administration publique ?


Vincent Dubois : Chaque utilisation est différente. À Pôle emploi, l’automatisation est surtout utilisée pour contrôler l’effectivité de la recherche d’emploi ainsi que pour la lutte contre la fraude, mais la focale y est plus réduite qu’à la CAF (l’enjeu consiste surtout à surveiller les escroqueries aux Assedics, fausses adresses, fausses fiches de payes… et emplois fictifs). Dans l’administration fiscale, la fouille de données s’est développée récemment mais ne conduit au déclenchement que d’environ 10 % des contrôles des particuliers, la proportion étant supérieure à 60 % pour celui des bénéficiaires d’aide sociale. Il faut rappeler ici le rôle joué par la création en 2008 de la Délégation nationale à la lutte contre la fraude (DNLF). Cette innovation institutionnelle est venue concrétiser les prises de position politiques du président Sarkozy dénonçant la fraude sociale et surtout la fraude aux prestations. Cette délégation interministérielle a eu la mission de coordonner les échanges, de favoriser les bonnes pratiques, de former et d’assurer une veille technique pour l’ensemble des services concernés par différents types de fraudes. Elle est créée alors que la fouille de données est en voie de généralisation à la CNAF et qu’elle y produit des résultats probants. Elle est rapidement devenue la technique mise en avant dont la DNLF a prôné la diffusion et la généralisation.

Internetactu.net : À côté de la statistique prédictive et du data mining, votre enquête de terrain pointe une autre transformation qui bouleverse le travail des administrations : le croisement de données ! Plus qu’un croisement d’ailleurs, c’est plutôt un « échange » voir même des accès croisés, qui renforcent le contrôle et produisent des vérifications de masse, peu coûteuses, et « efficaces ». Nous sommes passés d’un contrôle artisanal à un contrôle industriel, sous la pression de forces politiques qui ont valorisé et justifié le contrôle, mais qui a été structuré par une pléthore d’outils, de base de données et de modalités d’échanges de données. À la lecture de votre livre, en comprenant comment s’opèrent les contrôles, on découvre à quoi servent ces bases de données et portails d’information et comment ils sont mobilisés. Mais surtout, on découvre très concrètement que le respect de la vie privée et l’étanchéité des services publics, voire privés, sont devenus des vains mots. La séparation des administrations publiques et la séparation des pouvoirs qui leurs sont conférés ne sont-elles pas largement en train de disparaître ?


Vincent Dubois : Effectivement. La fouille de données et l’échange de données, même s’ils renvoient à des pratiques différentes (d’un côté des outils de détection et de l’autre des outils de contrôle), peuvent être regroupés dans un même ensemble d’usages. Il est frappant de constater le caractère concomitant et exponentiel de l’usage de ces techniques. Frappant de constater également le caractère très itératif de de développement. Nous ne sommes pas confrontés à un métafichier centralisé qui contrôlerait la population… comme l’était la menace du fichier Safari dont l’histoire raconte qu’il a donné lieu à la loi informatique et libertés de 1978, non ! La réalité est bien plus réticulaire que centralisée, mais cela ne l’empêche pas d’atteindre une forme de surveillance jamais vue. Cet ajout assez progressif d’accès et de croisement de données n’en réalise pas moins une surveillance tentaculaire.

Pour comprendre ce qu’il s’est passé, il faut tenter d’en démêler les fils chronologiques. Rappelons d’abord que la CAF, du fait de ce qu’elle traite, dispose d’une précision et d’une quantité de données personnelles sans commune mesure. Du fait de la batterie de critères et de leur diversité nécessaires pour accorder des aides, les organismes sociaux savent tout de la vie des personnes : santé, logement, travail, famille…

Au début des années 90, on a un premier mouvement d’informatisation, important et précoce, avec la création de systèmes internes aux organismes de protection sociale, comme la GED (gestion électronique des documents). En 1995, le NIR (Numéro d’inscription au répertoire, plus connu sous le nom de numéro de sécurité sociale) est autorisé pour le croisement des fichiers. Ca a favorisé le passage au caractère industriel du croisement des fichiers, car son usage a fait disparaître les nombreuses erreurs d’identification qui pouvaient exister notamment sur les noms, adresses et leurs orthographes. Ensuite ont été progressivement mis en place des protocoles d’échanges de données bilatérales, de façon itérative encore : entre la CAF et l’ANPE pour les bénéficiaires du RSA puis du RMI, entre la CAF et l’administration fiscale, etc. Un ensemble de conventions décidées de gré à gré se sont ajoutées les unes aux autres conduisant à une généralisation des possibilités d’échange de données. Ensuite, ont été constituées des bases de données « internes ». Il faut rappeler qu’il n’y avait pas de fichier national des allocataires, chaque caisse locale avait son fichier, ce qui créait notamment des risques de multiaffiliation. En 2006 est venu le RNCPS (Répertoire national commun de la protection sociale) : un répertoire qui permet à chaque organisme de protection sociale grâce aux identifiants uniques d’avoir accès aux fichiers consignés par les autres organismes sociaux. Puis la Déclaration sociale unique qui va faciliter l’unification des données en matière de ressources des allocataires. L’accès à d’autres fichiers n’a cessé de progresser… notamment l’accès direct à Ficoba (Fichier national des comptes bancaires et assimilés qui permet d’accéder aux relevés bancaires) pour contrôler la structure des ressources et dépenses des allocataires, vérifier leur train de vie ou la dissimulation de ressources non déclarées…

Ces évolutions décrivent une multiplication progressive et diversifiée d’une multitude de possibilités de croisement et d’accès à des données personnelles qui ont renforcé l’information que les organismes peuvent obtenir sur des personnes. Elles ont aussi considérablement renforcé l’efficacité des contrôles. Les croisements de ressources sont automatisés et déclenchent des contrôles en cas d’incohérence. Auquel s’ajoute le droit d’accès enfin, de façon plus individualisé et artisanal, qui permet d’accéder à des données pour des vérifications au cas par cas.

InternetActu.net : une autre transformation liée au numérique – mais pas seulement, elle est également liée à la normalisation, à des modalités de structuration des décisions, de cadrages des critères – tient également des documents utilisés, de la rationalisation des indications, des rapports. La rationalité n’est pas seulement dans les chiffres et les données, elle s’inscrit jusqu’à la normalisation des pratiques. Quels sont les effets de ces pratiques, de cette révolution de la normalisation et des traitements ?


Vincent Dubois : D’une manière générale, la structuration de la politique de contrôle a été marquée par un effort de rationalisation, qui rime avec une forme de nationalisation que l’on constate avec l’amoindrissement des latitudes d’appréciation laissées aux caisses locales. Effectivement, la technicisation par la fouille et l’échange de données est allée de pair avec la rationalisation des données. Si on regarde très concrètement le cas des enquêtes à domiciles par exemple, au début des années 2000, les contrôleurs étaient peu encadrés dans l’organisation pratique de leur travail. Les décisions liées à la qualification des situations d’isolement et la rédaction des rapports étaient assez libres dans leurs décisions et préconisations. Qualifier une décision d’isolement ou de vie maritale, malgré la jurisprudence relevait beaucoup des impressions du contrôleur. Par exemple, je me souviens d’un contrôle à domicile de personnes âgées qui habitaient ensemble et parlaient d’un arrangement amiable… Une version que le contrôleur avait retenue, n’imaginant pas que des personnes âgées puissent finalement se mettre en couple. Ne pas retenir la vie maritale serait impossible aujourd’hui. Notamment du fait des outils d’aide à la décision qui ont été créés, qui reposent sur des constats critérisés, des modalités de pondération de ces critères les uns par rapport aux autres et de la notation sur le degré de certitude de ces différents critères. La décision entre une situation d’isolement ou de vie maritale se fait désormais par le biais d’une formule Excel !

Cette automatisation de la décision… on peut voir soit positivement, comme une posture normative, un rempart logique contre les décisions individuelles des contrôleurs. On peut également la voir négativement, car elle conduit à une forme de déréalisation du traitement des dossiers. Les situations sociales sont souvent complexes et mouvantes et ne se laissent pas appréhender sur la base de critères standards et formalisés… Les contextes familiaux et les situations complexes échappent aux catégories bureaucratiques standards. La normalisation réduit la prise en compte de circonstances qualitatives, de ce qui pouvait être pris comme circonstances atténuantes. La standardisation conduit à une rigueur plus grande à la fois par la rectitude de l’application des critères et à la fois par la sévérité des décisions produites.

Ces transformations en tout cas sont très frappantes jusqu’à leur matérialité même. Au début des années 2000, les rapports des contrôleurs étaient souvent manuscrits, rédigés sur papier libre, formulés selon des styles propres aux préférences des contrôleurs, circonstanciés, souvent descriptifs de situations, narratifs plus que fonctionnels, mais livraient des ambiances, des réalités de situations. Désormais standardisés, les contrôleurs ne remplissent plus que des critères formels depuis des trames de plus en plus rigides, avec très peu d’espace de rédaction libres. Cette rationalité bureaucratique sous forme technologisée de formulaire en ligne qui ne laisse de choix que dans la réponse préremplie de menus déroulants produit une forme de déréalisation. Reste à savoir si nous sommes là face à un progrès qui prévient l’arbitraire et qui garantit une plus grande égalité. Ou face à une décision sans âme qui ne fait plus rentrer en ligne de compte les situations sociales.

InternetActu.net : le risque n’est-il pas d’une rationalisation de critères qui demeurent appréciatifs ?


Vincent Dubois : Oui. On évalue depuis des critères situationnels et de fait plus que depuis des critères juridiquement strictement définis, comme ceux liés à un statut. Face à des situations complexes et instables, l’administration fait souvent face à des situations indéterminables. Sur quels critères peut-on établir une vie maritale si la mère des enfants maintient des liens avec le père ? S’il vient trois jours par semaine ? S’il est là tous les week-ends ? Où placer le curseur ? Dans la logique des situations personnelles, la situation de précarité est marquée par une grande instabilité familiale, professionnelle, résidentielle… Or, l’administration doit arrêter des décisions dans un flux de changements. On a beau formaliser, multiplier les critères rationalisés… on ne réduira jamais le réel aux critères ! Dans les régimes assurantiels, on a des droits ouverts selon des critères de droit, de statut, de condition. Dès qu’on bascule dans des critères de faits, de situations ou de comportements… on est confronté à des difficultés. Le problème qui explique l’essor du contrôle, c’est le développement d’un système social où les prestations sont versées sur des critères de faits sont de plus en plus importants. Ce n’est donc pas un hasard si le contrôle concerne les populations les plus stigmatisées, comme celles qui bénéficient du Revenu de solidarité active ou de l’Allocation de parent isolé, car elles reposent plus que d’autres sur une qualification de situations ou de comportements.

InternetActu.net : Avec le numérique, le contrôle a changé de statut et réorienté les politiques publiques, expliquez-vous. La vérification est devenue plus coercitive et punitive, prise une spirale rigoriste inédite, qui vise à restreindre de manière toujours plus forte les règles d’attribution, les montants, les durées, les conditions d’attribution, les sanctions…), comme si l’État social se contractait. L’automatisation procède-t-elle plus à l’érosion des droits où à l’extension du contrôle ?


Vincent Dubois : L’extension du contrôle est certaine, pour les multiples raisons qu’on vient d’évoquer. La réponse informatique permet un traitement de masse des dossiers d’une façon peu coûteuse – notamment parce qu’il nécessite moins d’effectifs et qu’il produit une efficacité inédite du recouvrement – et aussi – c’est une justification souvent avancée ! – parce qu’il permet un contrôle à l’insu des contrôlés ! L’automatisation et l’informatisation ont été un vecteur très important de l’intensification des contrôles, de leur généralisation, de leur effectivité croissante et de la sévérité des décisions.

Sur la question de l’érosion des droits, peut-être faudrait-il déplacer la réponse en s’intéressant plus avant à ce qui se joue avec la dématérialisation des démarches. La thèse récente de Clara Deville sur « les chemins du droit » des bénéficiaires du RSA en milieu rural revient sur l’émergence – timide ! – de la notion de non-recours comme préoccupation officielle et la promotion de l’administration électronique. La dématérialisation est souvent vue comme la solution miracle, alors que, pour les personnes en précarité, elle est surtout un obstacle supplémentaire à l’accès aux droits. Dans ce cadre, le numérique ajoute des difficultés à celles qui existaient déjà en matière d’accès. Nous avons encore besoin d’enquêtes sur ces enjeux. Dans les démarches administratives, il y a des critères de compétences bien sûr – techniques pour savoir manier l’outil, mais également linguistique pour comprendre le vocabulaire administratif… -, mais aussi des critères liés aux situations ! Dans les situations standards, il est facile de rentrer dans les cases, même si elles sont rigidifiées par les formulaires numériques. Par contre, dès que les situations sont complexes, la dématérialisation renforce les obstacles. L’administration électronique, outre les questions d’accès, nous fait basculer dans une administration à distance qui renforce les problèmes d’accès déjà présents, notamment pour les populations les plus précaires. L’absence de face à face, pourtant primordiale, comme je le soulignais dans un précédent livre, La vie au guichet, empêche de se faire expliquer les démarches ou d’expliquer sa situation. L’obstacle classique du vocabulaire est ici renforcé, durcit, tout comme difficulté à « rentrer dans les cases », à qualifier sa situation sans explications ni accompagnement. Avec l’administration électronique, quand votre situation n’est pas prévue dans le menu déroulant, la discussion est close.

InternetActu.net : Votre livre est l’un des rares, si ce n’est le premier, à éclairer la question du « scoring » pratiqué par les administrations publiques. En tant que citoyens, nous ne savons rien des scores de risques qui sont affectés à nos profils. Si, notamment, la Loi pour la République numérique de 2016 prévoit l’ouverture des algorithmes publics et la publication des règles qui président à ces calculs, pour l’instant, ces publications concernent seulement les règles de calculs des droits et taxes. Comment se fait-il que ces calculs, pratiqués pourtant depuis 10 ans par la CAF, nous soient invisibles ? Comment expliquer cette discrétion pour ne pas dire ce secret dans la « révolution industrielle » des administrations publiques ?


Vincent Dubois : Il faudrait mener une enquête sur la transformation et le déclin de la CNIL. La réponse tient en partie au résultat de transformations juridiques liées notamment au droit européen, de transformations organisationnelles et un certain déclin des idéaux de liberté publique du fait des renouvellements générationnels au sein de la commission, tout autant qu’un rapport de force qui a sans doute affaibli la place de la CNIL dans le champ bureaucratique. De manière très concrète, tout cela a conduit à ce que les croisements de données et la création de bases de données dédiées ne soient plus soumis à autorisations préalables, mais instruites en interne par des délégués à la protection des données en discussion avec les administrations… Et que les avis de la CNIL ne soient désormais plus contraignants. Ces transformations du rôle de la CNIL ont ouvert une possibilité de croisement de données qu’on pensait impensable en 1978…

InternetActu.net : dans votre livre, vous écrivez d’ailleurs : « Trente ans après la loi informatique et libertés de 1978, les fichiers et croisements d’informations ont cependant été réalisés » dans une « ampleur bien plus importante que les projets qui l’avaient initialement suscitée »…


Vincent Dubois : Cela tient certainement beaucoup à la façon dont les choses se sont mises en place. Il n’y a pas eu un projet massif et centralisé auquel s’opposer, qui aurait créé débats et controverses… Le fait que ces questions aient été traitées au cas par cas, via des accords de gré à gré, à diluer leur mise en place, et ce alors que leur généralisation a été lente et très progressive. Nous n’avons pas été confrontés à un système généralisé, mais à une facilitation des procédures. Or, qui s’émeut d’une convention d’échanges de données entre deux organismes publics ?… Pourtant, mis bout à bout, l’ensemble de ces conventions font bien systèmes et produisent une efficacité redoutable.

Ensuite, la fouille de données se pare des atours d’une neutralité statistique et mobilise des techniques relativement complexes. Cette technicité permet de laisser de côté l’approfondissement des débats sur leurs usages ou leurs limites. Au final, il faut pouvoir faire une enquête comme la mienne pour saisir comment les données sont effectivement utilisées. Les administrations (mais on peut étendre le constat aux entreprises privées, comme la banque ou l’assurance par exemple) sont peu enclines à dévoiler les fonctionnements de leurs algorithmes, comme on le constate avec Parcoursup. Pourtant, il y a là un vrai enjeu démocratique. Nous devons connaître les informations personnelles que les administrations utilisent, comment et à quelles fins.

InternetActu.net : Dans ce nouveau paysage d’une surveillance omnipotente, y’a-t-il encore une place pour que les contrôlés puissent s’adapter, trouver des espaces ou des modalités pour prolonger les modes de « fraudes de survie » dans lesquels ils sont le plus souvent ? Le nombre de fraudes identifiées a été multiplié par 30 entre 2004 et 2017, mais leurs montants seulement par 16 et au prix d’un élargissement sans fin de la définition de la fraude (qui a largement dépassé la notion d’escroquerie organisée). Dans cette surveillance, toujours plus stricte, de plus en plus réactive, « ce sont presque toujours les allocataires les plus précaires qui sont le plus contrôlés », à savoir les individus isolés ou ceux dont les conditions d’emplois sont les plus irrégulières. Le risque n’est-il pas que les méthodes de calcul toujours plus précises toujours plus volatiles et évolutives (notamment la fin de l’annualisation des droits et prestations) se fassent au détriment des plus précaires sans leur laisser d’espaces d’adaptation, de tolérance ?


Vincent Dubois : Décrire l’expérience du contrôle vu du côté des contrôlés nécessiterait une autre enquête. Elle est difficile à réaliser, car il est difficile d’accéder aux personnes contrôlées… Je ne désespère pas pourtant qu’on puisse la réaliser un jour.

L’ajustement des pratiques des allocataires à ces systèmes semble se réduire. D’abord parce qu’il est difficile de s’adapter à des modèles de détection qu’on ne connaît pas vraiment. Néanmoins, il y a toujours des effets d’ajustements, liés à l’information qui circule, à l’expérience des contrôles qui forge des compétences pour s’y ajuster… Reste que, par nature, la fouille de données pour lutter contre la fraude ne cesse de s’ajuster à l’évolution des fraudes documentées, on l’a dit. Le système n’est pas fixe et établi, mais rétroagit. Les usages de fraudes sont régulièrement remodélisés pour améliorer les formes de contrôle.

Ce n’est pourtant pas un modèle sans failles. L’une des limites qui a été identifiée par exemple, c’est que le modèle est national, global, et qu’il est donc aveugle aux disparités locales. La même variable en fonction de contextes différents n’a pas la même signification. Être chômeur dans un bassin d’emploi où il y a beaucoup de chômage n’a pas la même signification ni les mêmes implications que de l’être dans un contexte où le taux de chômage est très faible. Cela nécessite certainement un travail pour intégrer des variables contextuelles aux modèles.

Enfin, une autre limite tient certainement à l’auto-alimentation de ces techniques. Devoir déclarer plus régulièrement des ressources produit mécaniquement des erreurs, des retards… Plus on suit au plus près et de façon continue les situations, en temps réel, plus les critères font l’objet d’erreurs… Et plus on les contrôle !

Propos recueillis par Hubert Guillaud, le 16/06/2021.

14.06.2021 à 07:00

Modération automatisée : le double enjeu du contrôle démocratique et de la transparence

Hubert Guillaud

En septembre 2019, dans une tribune pour le toujours sémillant The Atlantic (@TheAtlantic), Daphne Keller (@daphnehk), directrice du programme de régulation des plateformes au Centre de cyber politique de Stanford (@stanfordcyber), expliquait que les entreprises internet n’avaient pas d’état d’âme à restreindre la liberté d’expression. Elle réagissait alors au lancement (...)
Texte intégral (10059 mots)

En septembre 2019, dans une tribune pour le toujours sémillant The Atlantic (@TheAtlantic), Daphne Keller (@daphnehk), directrice du programme de régulation des plateformes au Centre de cyber politique de Stanford (@stanfordcyber), expliquait que les entreprises internet n’avaient pas d’état d’âme à restreindre la liberté d’expression. Elle réagissait alors au lancement de la « Cour suprême » de Facebook – devenue depuis « Conseil de surveillance » (sur FB, @oversightboard). Pour Keller, il est normal que ces places publiques modernes se dotent de règles de fonctionnement, d’autant qu’elles ont pris une importance primordiale pour les utilisateurs. « Les personnes dont les messages sont retirés des principales plateformes disent qu’elles sont exclues des canaux de communication les plus importants de notre époque ». D’où l’importance à nous préoccuper des règles que ces entreprises appliquent à nos discours et nos comportements… que ce soit de savoir si PayPal peut virer les dons à Wikileaks, si Cloudflare doit protéger les sites néonazis ou si Facebook doit retirer la célèbre photo de Nick Ut d’une jeune fille nue brûlée au Napalm sur une route du Viêt Nam.

Les médias sociaux ne sont pas des gouvernements

« Mais les plateformes privées ne sont pas vraiment la place publique, et les sociétés Internet ne sont pas des gouvernements. C’est exactement pour cela qu’elles sont libres de faire ce que tant de gens semblent vouloir : mettre de côté les règles de libre expression du premier amendement [de la Constitution des États-Unis] en faveur de nouvelles règles plus restrictives ». L’existence de cours suprêmes « privées » et de conventions spécifiques permet d’imaginer que cette refonte sera régie par les mêmes contraintes que celles qu’ont connues les gouvernements du monde réel : des règles « constitutionnelles » pour protéger les droits individuels et établir des processus démocratiques pour établir les lois sous lesquelles nous vivons… Mais les plateformes n’ont fait écrire à leurs usagers aucune Constitution et ne sont soumises à aucun processus démocratique ni même à aucun devoir de séparation des pouvoirs ni à une quelconque représentativité de leurs usagers ! Leurs règles ne sont donc « constitutionnelles » que de nom !

Les principes de Santa Clara établissent des règles pour établir des niveaux minimums de responsabilité et de transparence des plateformes de modération

Des groupes de défense des utilisateurs ont demandé des droits similaires à ceux d’une « procédure régulière », comme un droit d’appel pour les personnes accusées d’avoir violées les règles des plateformes, comme on le trouve exprimé dans les principes de Santa Clara. D’autres demandent une transparence similaire à celle qu’on attendrait de législateurs, notamment pour mettre en lumière leurs interactions avec des lobbys ou leurs clients. Ces demandes sont positives et nécessaires, bien sûr, mais « il ne faut pas croire qu’imiter les systèmes gouvernementaux fera des plateformes des substituts aux gouvernements, soumis à des lois et des contraintes de pouvoir fondées sur des droits réels », prévient Daphne Keller. De fait, les plateformes sont plus à même de restreindre les libertés notamment parce qu’elles sont bien moins responsables de leurs choix que des représentants élus. Pour Keller, il nous faut mieux comprendre ces différences avant de demander aux plateformes de jouer un rôle plus important en tant qu’arbitres de la parole et de l’information, notamment parce qu’elles peuvent restreindre les discours avec plus d’efficacité que les gouvernements. Certes, elles n’emprisonnent pas les dissidents, mais elles peuvent les réduire au silence. Et notamment supprimer des publications licites, mais haineuses, harcelantes, trompeuses ou offensantes… bien plus rapidement que ne le ferait un procès. « L’absence de responsabilité démocratique ou constitutionnelle qui rend les plateformes si efficaces en tant que régulateurs de contenu les rend très difficiles à contraindre d’une autre manière ». Enfin, leurs « procédures » de contestation sont de très pâles reflets des originaux dont elles devraient s’inspirer.

Les membres de ce qu’on appelait encore la Cour suprême de Facebook ne sont pas chargés de faire respecter les droits des utilisateurs en vertu d’une Constitution ou des Droits de l’homme ou de tout autre instrument juridique, rappelle Keller. Leur travail ne consiste qu’à interpréter les règlements existants – et changeants – des plateformes. Le problème est que chaque fois que l’opinion s’indigne, les plateformes sont incitées à assumer davantage de pouvoir, que ce soit en accroissant la surveillance des utilisateurs ou l’interdiction de contenus licites… « Plus les plateformes s’arrogent ces pouvoirs, plus nous devons nous inquiéter du fait que nous ne contrôlerons pas réellement la manière dont elles les utiliseront ».

Dans ce contexte, les gouvernements ont du pouvoir : ce n’est pas un hasard si les grandes plateformes appliquent les normes européennes en matière de discours de haine dans le monde entier. Les annonceurs également ont du pouvoir : toutes les plateformes ont remanié des politiques en fonction de leurs indignations ou préconisations. Dans ce contexte, les utilisateurs sont bien souvent ceux qui ont le moins de pouvoir. « Si les plateformes n’ont pas de comptes à nous rendre, pourquoi les encourageons-nous à assumer un tel contrôle pratique sur notre discours ? »

À cause de la fuite en avant ! répond Daphne Keller. Le raisonnement est toujours le même : les plateformes ont déjà des règles et donc elles peuvent en avoir de meilleures. Le problème, c’est que ce raisonnement est à sens unique, explique la juriste. Il justifie le fait de demander aux plateformes d’en faire toujours plus, plutôt que de leur demander de revenir sur les changements qu’elles ont déjà effectués ! À l’image de la démultiplication des outils de détection automatique des contenus… lancés à l’origine pour lutter contre la pédopornographie (notamment PhotoDNA, que nous évoquions depuis notre lecture du livre de Tarleton Gillespie). Depuis, la prévalence de ces outils n’a cessé de s’étendre : pour identifier les « terroristes » (selon les propres définitions des plateformes) et pourraient demain s’étendre aux insultes à l’égard d’hommes politiques… L’expansion du rôle des filtres risque d’être sans fin et surtout sans point d’arrêt !

Les forces du marché sont censées contenir le pouvoir commercial privé. Lorsqu’elles ne suffisent pas, les démocraties usent plutôt du droit de la concurrence plutôt que de chercher à établir des règles gouvernementales pour les entreprises. Quand elles nuisent trop, les autorités les taxent pour financer des mesures correctives, comme elles le font à l’égard des entreprises qui polluent ou des fabricants de cigarettes. Les tribunaux peuvent également les obliger à prendre des mesures… Mais à l’égard des plateformes, nous ne suivons pas ce schéma où le gouvernement fixe les règles et les entreprises les suivent. Pire, souligne-t-elle : les plateformes peuvent bloquer des discours que les autorités n’ont pas le pouvoir de restreindre, ce qui peut plaire à nombre d’entre elles. Finalement, pour contourner les limites du droit, le risque est de donner plus de pouvoir aux plateformes, ce qui menace de renoncer à une réelle contribution démocratique qu’on pourrait leur demander : comme de mieux surveiller et publier les pressions qu’elles reçoivent des gouvernements.

Les entreprises privées remodèlent les normes d’expressions par à-coups, souvent brutalement, et non pas d’une manière progressive et prudente comme le ferait un tribunal ou un législateur. Le risque est que nous renoncions à des protections réellement constitutionnelles, elles, et à des aspects majeurs d’une ouverture démocratique de leur gouvernance.

Connaissez-vous le GIFCT, acteur majeur de la modération mondiale ?

Dans un article pour Slate, Chloe Hadavas (@hadavas) donne un exemple assez concret des lacunes démocratiques auxquelles ces plateformes nous confrontent. En 2017, Facebook, Microsoft, Twitter et YouTube ont créé une association – et une base de données -, le Global Internet Forum to Counter Terrorism (GIFCT, @GIFCT_official, Forum mondial de l’Internet pour la lutte contre le terrorisme) qui a pris en quelques années une importance majeure en matière de modération. Cette base de données pour coordonner la suppression de contenus relatifs à l’imagerie et la propagande terroriste violente produit une liste noire de contenus partagés entre les plateformes.

Page d'accueil du GIFCT

Le problème, c’est la grande opacité de son fonctionnement !, explique Hadavas. Aucune des décisions relatives au contenu n’est transparente et les chercheurs n’ont pas accès à cette base. Les règles que le consortium prend sont privées : il définit ce qui est et n’est pas un contenu terroriste, sans avoir à rendre des comptes, au risque de bloquer des reportages sur le terrorisme ou sur les violations des droits de l’homme. Le GIFCT ne force pas les plateformes à retirer les contenus qu’elle signale, mais c’est en réalité le cas, notamment parce qu’elles n’ont pas toujours les ressources suffisantes pour réévaluer les contenus que le GIFCT leur signale. Sous la pression de l’Appel de Christchurch, ce sommet politique entre gouvernements et entreprises pour lutter contre les contenus terroristes en ligne après la fusillade en Nouvelle-Zélande, le GIFCT a annoncé en 2019 qu’il allait remanier sa structure interne, notamment son comité consultatif indépendant en intégrant des représentants de plusieurs gouvernements (à savoir le Canada, la France, le Japon, le Kenya, la Nouvelle-Zélande, le Royaume-Uni et les États-Unis) pour le rendre plus responsable.

Le 30 juillet 2020 pourtant, le Center for Democracy and Technology (@CenDemTech) et 14 autres organisations de défense des droits de l’homme ont adressé une lettre à Nick Rasmussen, le directeur exécutif du GIFCT, s’inquiétant de son manque de transparence et de la participation déséquilibrée de certains gouvernements au Comité consultatif du GIFCT – au détriment d’autres ! Rappelant que les programmes de lutte contre le terrorisme et la surveillance ont violé les droits de certains pays et religions voire ont été utilisé par des gouvernements pour faire taire la société civile, les associations ont demandé à ce que « les limites entre la modération du contenu et le contre-terrorisme soient éclaircies ». Le risque est bien sûr que les plateformes décident demain de supprimer des données sous la pression de gouvernements pour imposer une censure qui ne serait pas légale autrement.

L’enjeu est de savoir comment tenir les décisions prises par le GIFCT comme responsables. Pour beaucoup, le consensus veut que le GIFCT serait plus digne de confiance s’il était plus transparent qu’il n’est. En juillet 2019 (puis en 2020), il a publié ses rapports de transparence en détaillant le fonctionnement d’un outil qui permet aux plateformes d’indiquer quand une image/vidéo/URL ne devrait pas figurer dans sa base de données. Mais c’est bien insuffisant, estime Daphne Keller, qui souhaite que des chercheurs puissent avoir accès à des copies du contenu réel bloqué par le GIFCT, pour mieux évaluer leurs biais et erreurs, ou offrir des possibilités de recours des utilisateurs lorsque leurs contenus sont bloqués par ce système. Enfin, d’autres réclament que le rôle du comité soit plus clair, notamment qu’il reste vraiment consultatif. Pour Keller, le GIFCT illustre combien la question de la responsabilité des plateformes s’avère glissante dans la pratique. Une poignée de plateformes ont créé des systèmes opaques et puissants qui appliquent des règles qui ne sont pas la loi pour contrôler les discours en ligne ! Le risque est bien que nous multiplions demain ce type de procédures et d’institutions spécifiques qui n’ont de compte à rendre à personne ! Et que ce qui n’est pas la loi devienne une norme…

Page d'accueil de l'Appel de Christchurch

Le conseil de surveillance de Facebook en ses limites

C’est en grande partie le risque que fait peser également le fameux conseil de surveillance de Facebook mis sous les projecteurs récemment pour sa décision très attendue sur l’éviction de Donald Trump. Le conseil de surveillance a donc décidé, début mai, de maintenir la « déplateformisation » de l’ancien Président, expliquait TechPolicy.press (@techpolicypress), mais en renvoyant l’entreprise à motiver et mieux délimiter la sanction. Le conseil de surveillance de Facebook a cependant approuvé les décisions prises par l’entreprise – même s’il a demandé des explications sur celles-ci. Le conseil a recommandé d’améliorer le recrutement de son personnel de modération notamment ceux spécialisés dans le traitement des utilisateurs influents, de clarifier la politique qui permet à certains utilisateurs d’échapper aux contraintes qui pèsent sur tous en raison de leurs statuts.

Pour Jordan Guiao (@jordanguiao), chercheur au Centre australien pour la technologie responsable (@CnrtResponsTech), dans une tribune pour TechPolicy, cette décision montre surtout les limites de l’exercice d’autorégulation. Pour lui, si Facebook est si incapable de traiter ces questions, c’est bien parce que sa plateforme n’a pas été conçue pour ça et que Facebook reste dominé par ses intérêts commerciaux. En Australie, le récent conflit entre Facebook et la presse a laissé des traces explique le chercheur, qui, comme Ethan Zuckerman ou Eli Pariser (que nous évoquions il y a peu), milite pour des réseaux sociaux de services publics. Plutôt que de perdre notre temps à réguler Facebook, nous devrions surtout prendre le temps de construire des solutions nouvelles et différentes. Comme le pointait le professeur de littérature Dennis Tenen (@dennistenen) sur The Reboot (@ProjectReboot) –repris et traduit par ,Mais où va le web ? -, la modération n’est pas universelle et nécessiterait d’être bien plus maîtrisée par la communauté et le contexte, selon les fins qu’elles poursuivent, plutôt que d’être conçue d’une manière totale et industrielle, qui impose un régime de modération sans nuance, sans discussion, sous forme d’un régime universel qui n’est ni transparent ni démocratique.

Page d'accueil du conseil de surveillance de Facebook

En février, le New Yorker est revenu en détail sur la construction du conseil de surveillance de Facebook dans un article qui en éclaire justement les limites. Son auteure, Kate Klonick (@klonick) a suivi son déploiement (avec l’autorisation de Facebook).

Au début, rappelle-t-elle, FB n’avait aucune idée sur la manière dont ce conseil devait fonctionner. Pour trouver des idées, elle a organisé des ateliers avec des experts du monde entier sous la supervision de Zoe Darme, à l’époque responsable de l’équipe gouvernance de FB, en donnant aux participants des cas concrets à modérer. Pour Klonick, ces exemples, dans leur ambivalence même, soulignaient combien l’incertitude et la difficulté à produire des règles claires était difficile, d’autant que les « intuitions » sur la liberté d’expression varient considérablement selon les clivages politiques et culturels. Au final, les opinions des experts se sont révélées assez contradictoires : dans un atelier à New York, 60 % des participants ont voté pour le rétablissement d’une image d’une femme souriante accompagnée d’une bulle où était inscrit « Tuez tous les hommes », en y voyant surtout de l’humour, alors qu’à Nairobi, seulement 40 % ont voté pour son rétablissement. Pour Zoe Darme, la raison tient peut-être plus à des questions de respect de l’État de droit : là où il est moins respecté, la liberté d’expression l’est moins également… Pas sûr que ce soit la seule explication…

« L’idée que FB, à l’instar d’une république naissante, ait besoin d’instituer des réformes démocratiques, aurait pu paraître saugrenue il y a 10 ans », explique Klonick. En 2009, FB avait lancé un référendum portant sur la modification de ses conditions d’utilisation où seul 0,32 % des utilisateurs avaient voté. L’entreprise promettait alors de donner plus de pouvoir à ses utilisateurs… Elle en est largement revenue. Alors que de plus en plus d’utilisateurs rejoignaient les plateformes de réseaux sociaux, les entreprises ont instauré de plus en plus de règles pour assainir le contenu et maintenir l’expérience qu’elles proposaient la plus agréable possible. Mais cela s’est complexifié à mesure que le nombre d’utilisateurs a progressé.

L'article de Kate Klonick pour le New Yorker

L’idée du conseil de surveillance est venue d’un professeur de droit de Harvard, Noah Feldman. Pour lui, les médias sociaux devaient créer des systèmes quasi juridiques, une sorte de « tribunal d’entreprise », afin de traiter les questions difficiles liées à la liberté d’expression. Zuckerberg a soutenu l’idée devant son conseil d’administration dubitatif et partagé, en expliquant qu’un conseil d’experts serait le mieux placé pour prendre les décisions difficiles auxquelles l’entreprise était de plus en plus confrontées. Il a lancé le projet. La charte du conseil de surveillance et ses règles de procédures, rédigées par des experts et employés de FB, ont, de réunion en réunion, été nettoyées de leur emphase juridique pour devenir plus accessibles. Les rouages de l’instance ont été mis en place : composée d’une vingtaine de membres, très bien payés, pour une quinzaine d’heures de présence par semaine. Une commission choisit les cas les plus représentatifs des 200 000 publications qui posent problème chaque jour et les soumet à une partie des membres réunis anonymement pour qu’ils statuent.

L’utilisateur incriminé doit déposer un mémoire écrit pour sa défense. Un représentant de l’entreprise dépose un argument pour expliciter la décision de l’entreprise. Le panel décide et FB exécute la décision prise. Actuellement, les utilisateurs peuvent faire appel en cas de suppression de leur publication (take-downs), mais pas quand elles sont laissées en place (keep-ups) – or un grand nombre de problèmes signalés sont bien souvent maintenus en ligne. Les utilisateurs ne peuvent pas non plus faire appel sur des questions comme la publicité politique, les algorithmes ou la déplateformisation de pages de groupes (mais FB a annoncé qu’il devrait permettre d’élargir l’appel des décisions par les utilisateurs)… Quant au conseil, il ne peut prendre des décisions que sur les affaires que lui renvoie FB, pas de sa propre initiative. Autre limite : les décisions du conseil ne deviennent pas une politique ! C’est-à-dire que si le conseil supprime ou rétabli un contenu, cela n’oblige pas FB a retirer ou maintenir les publications similaires (cela reste à la discrétion de l’entreprise). Enfin, les recommandations politiques du conseil ne sont que consultatives, ce qui en limite la portée, mais, malgré tout, entrouvre une fenêtre inédite de pression publique sur la politique de l’entreprise.

Klonick s’amuse également des discussions qui ont eu lieu pour choisir les membres de ce conseil de surveillance et notamment des innombrables pressions reçues. Dès les premières annonces, les controverses ont fleuri. En mai 2020, sa composition a été annoncée, déclenchant l’ire de certains, notamment du président Trump, sans que FB ne cède à ses pressions. Les détracteurs restent néanmoins nombreux. Pour la professeure de droit Julie Cohen (@julie17usc), ce panel de stars somptueusement rémunérées n’a aucun intérêt et ne peut se prononcer sur les problèmes les plus fondamentaux de FB. Pour Zuckerberg, FB va avoir besoin d’institutions et de surveillance supplémentaire. Créer des produits pour communiquer n’est pas le même travail que gouverner une communauté, expliquait-il directement à Klonick pour justifier de la création du conseil.

En avril 2020, les membres du conseil se sont réunis pour la première fois (sur Zoom !) et ont suivi une formation pour se connaître les uns les autres et sur les normes en matière de modération de FB. En octobre, FB a (entre)ouvert la possibilité d’appels (à 5 % des utilisateurs choisis aléatoirement). En novembre, le conseil a reçu ses premiers cas.

Un des cas traités était une photo d’église détruite en Azerbaïdjan par un utilisateur se plaignant de l’agression du pays à l’encontre des Arméniens. FB avait supprimé le post sous prétexte qu’invitait à la haine. Certains membres du conseil ont trouvé étrange d’appliquer cette règle dans le cas d’une publication se plaignant d’un groupe dominant en conflit avec un autre. Mais le conseil a finalement voté pour la suppression du message.

Dans un autre cas – une vidéo et un texte provenant de France se plaignant que le gouvernement avait refusé d’autoriser l’hydroxychloroquine contre le Covid-19 -, que FB avait supprimé pour ne pas promouvoir l’automédicamentation, les discussions ont été nourries. D’un côté des membres soulignaient que FB devait combattre la désinformation, de l’autre, des membres ont souligné que la publication prônait un changement de politique et donc relevait d’un risque de censure de discussions politiques. Le médicament n’étant pas en vente libre en France et ne pouvant donc pas promouvoir l’automédication, le conseil a finalement décidé de ne pas le censurer et de restaurer la publication.

Quelques semaines plus tard, alors que les protestations Black Lives Matter se répandaient dans le pays, Trump a publié sur FB et Twitter un message menaçant d’envoyer l’armée pour les maîtriser, précisant « quand les pillages commencent, les tirs commencent », une phrase dont la charge raciste est sans équivoque. Twitter a alors signalé à ses lecteurs que le tweet violait ses règles, mais pas FB. Zuckerberg a publié lui-même une déclaration expliquant qu’il ne partageait pas ces propos, mais que c’était aux gens de s’en rendre compte en soulignant dans une interview à Fox News que son entreprise ne pouvait pas être « l’arbitre de la vérité ». Des employés en colère ont organisé un débrayage virtuel face à cette inaction. Quelques jours plus tard, l’un des membres du conseil a suggéré une réunion du conseil au complet qui a débattu du sujet.

Plusieurs membres étaient choqués et souhaitaient publier une déclaration condamnant la décision de FB. D’autres étaient contre le fait de prendre une décision partisane. Après 2 heures de discussion, les membres ont décidé pourtant de ne pas s’exprimer sur cette question.

Face à Trump, comment Facebook s’est pris les pieds dans son opacité

Et puis il y a eu la contestation des résultats de l’élection et la prise d’assaut du Capitole. FB a supprimé deux publications de Trump le jour même. Et le lendemain des événements, Zuckerberg, sur son propre fil FB, a annoncé la suspension indéfinie du compte de Trump. Le lendemain, Twitter l’a banni à son tour. Cette « déplateformisation » comme on l’a appelé a bien sûr fait couler beaucoup d’encre. Certains s’en sont félicités, d’autres ont exprimé leur inquiétude du fait que FB avait fait taire un dirigeant démocratiquement élu. Pour le professeur de droit Eugene Volokh (blog), la cinquième entreprise des États-Unis, en situation de quasi-monopole sur son créneau, a restreint la liberté d’expression d’une personnalité politique auprès des trente millions de personnes qui le suivaient. C’est peut-être très bien… Mais ça reste un pouvoir immense, confiait-il à Klonick. Angela Merkel a qualifié cette suppression de problématique et Navalny, l’un des opposants de Poutine, a dénoncé une censure inacceptable.

En interne, seul FB avait le pouvoir de renvoyer la suspension de Trump devant le conseil de surveillance. Le conseil d’administration a plaidé pour que le conseil de surveillance examine le cas, afin de ne pas porter atteinte à sa jeune légitimité. Le lendemain de l’investiture de Joe Biden, FB a envoyé le dossier au conseil de surveillance. L’article de Klonick se terminait sur les attentes que représentait cette décision. Elles ont été douchées depuis.

Comme le raconte Klonick dans le Washington Post, le réseau social espérait s’en remettre à son instance d’appel, mais ce n’a pas été le cas. Si le conseil a confirmé la décision de bannir Trump, il a demandé que l’entreprise assume davantage la responsabilité de ses décisions. FB a dépensé 130 millions de dollars pour mettre en place ce conseil (pour assurer son fonctionnement pour une durée de 6 ans), rappelle Klonick.

Pendant des années, rappelle-t-elle, FB a maintenu des conditions exceptionnelles pour laisser Trump s’exprimer, alors qu’en regard de sa politique, il aurait dû être censuré depuis longtemps. « Lorsque vous accordez des exceptions aux personnes les plus puissantes du monde, elles abusent de leur pouvoir », alors qu’appliquer la même justice pour tous reste une des plus puissantes boussoles collectives qui soient. Le 6 janvier, ces petits accommodements ont finalement explosé au visage de l’entreprise.

Dans sa décision, le conseil rappelle finalement que FB n’a pas utilisé de règles claires, notamment parce que l’entreprise n’a cessé de les modifier à la volée, ce qui n’est pas conforme ni aux règles ni à l’équité. Il a expliqué que si FB voulait exclure Trump de façon permanente, c’était à l’entreprise de créer les règles pour cela. Le conseil rappelle que le manque de transparence de FB sur ses propres règles lui est préjudiciable et a demandé à l’entreprise de répondre sur la façon dont les décisions concernant les utilisateurs influents sont prises… Elle a aussi demandé à ce que FB éclaircisse comment ses algorithmes avaient amplifié les messages de Trump – mais pour l’instant, FB a refusé de répondre à cette question. Cette remarque est certainement la plus importante de l’avis, explique Klonick. « Si FB veut que le conseil de surveillance soit respecté comme tribunal indépendant, refuser de répondre à ses questions n’aidera pas ». Et souligne que l’enjeu principal à toute transparence demeure la question du calcul de la mise en visibilité et invisibilité des contenus.

Dans une longue interview pour The Verge, Klonick précise encore que le conseil rend des décisions anonymes à la majorité, mais éclaire dans ses notes le fait qu’il y ait des opinions divergentes. Elle rappelle à nouveau qu’une des limites du conseil c’est de rendre des décisions très étroites sur la suppression ou non d’un contenu qui ne s’élargissent pas à des contenus similaires, ce qui limite beaucoup sa portée. Le conseil a pourtant le droit de faire des recommandations de politique auxquels FB doit répondre dans les 30 jours pour préciser les raisons qui la conduise à les mettre en place ou pas. Pour le professeur de droit de Harvard, Mark Tushnet, cela reste une forme de contrôle de « forme faible », une pression de réputation surtout. Le conseil ne fait pas le droit. Il ressemble bien plus à un tribunal de première instance qu’à une Cour d’appel ou une Cour suprême !

L'interview de Klonick pour The Verge

Ce que souligne la décision malgré tout, c’est qu’une suspension permanente est de facto disproportionnée. Pour Klonick, FB semble effectivement avoir des « règles » différentes pour certaines personnes, mais nous n’avons « ni accès à la liste des personnes concernées, ni ne savons comment elle est gérée, ni bien sûr les exceptions aux règles dont elles bénéficient » – pour autant qu’il y ait vraiment des règles, il est probable, ajouterai-je qu’ils bénéficient surtout de modérateurs/appréciateurs de contenus dédiés par rapport au traitement massifié de tous les autres utilisateurs. En demandant à FB de s’expliquer, le conseil de surveillance a pleinement rempli son rôle.

Depuis, Facebook a fait de nouvelles annonces et enfin répondu au conseil de surveillance. Notamment en annonçant ramener le bannissement de Trump à 2 ans et en annonçant de nouvelles règles (avec des sanctions plus strictes, hiérarchisées et croissantes) pour les « personnalités publiques », explique FastCompany. Reste que la réponse de FB demeure floue : « Nous autorisons certains contenus dignes d’intérêt ou importants pour l’intérêt public à rester sur notre plateforme, même s’ils sont susceptibles de violer nos normes communautaires » et n’explique toujours pas qui sont les utilisateurs influents qu’il distingue du commun des mortels et qui vont continuer à recevoir un traitement particulier et accéléré pour mieux saisir leurs intentions et la réception de leurs propos. Comme le constate le chercheur Olivier Ertzscheid (@affordanceinfo2) dans une tribune pour Libération, c’est un revirement pour FB puisque désormais tout propos pourra être modéré… mais ce revirement date surtout des conséquences des décisions du 7 janvier, plus que de la réponse de FB. Pour autant, les personnalités publiques ne sont pas encore ramenées au rang de simples utilisateurs, et encore une fois, si tout propos peut-être modéré, il n’en sera pas de même si vous êtes riches et puissants que pauvre et malade !

En 2019, Klonick avait publié un article pour comprendre depuis quels critères FB pouvait définir un statut spécifique de personnalités publiques « dignes d’intérêt ». Mais « dignes d’intérêt pour qui ? » interrogeait-elle avec perspicacité. Ici, le conseil de surveillance rappelle soit que FB devrait supprimer ces exceptions soit être clair à leur sujet.

Pour Klonick, la suite des débats sera intéressante. Il est probable que le conseil s’oppose de plus en plus à FB, s’isole et finisse par s’éteindre à son terme. Mais, malgré ses innombrables limites et son pouvoir circonscrit, le conseil de surveillance de FB pourrait aussi montrer aux autorités qu’on pourrait exiger de toutes plateformes une instance de ce type – le Canada d’ailleurs envisagerait de rendre obligatoire la création de conseils de surveillance pour les plateformes de médias sociaux, avance-t-elle un peu rapidement dans l’interview, mais le projet de loi C-10 pour modifier la loi sur la radiodiffusion dont il semble être question n’avance pas ce type de propositions. Reste à savoir, suggère encore Klonick si le conseil de surveillance (de FB, mais qui ne le porte pas dans son nom officiel), va rester le conseil de surveillance de FB ou si finalement, comme l’induit son nom, il ne pourrait pas devenir une autorité pour toutes les plateformes… Twitter, qui ne s’est pas doté d’autorité de ce type, pourrait demain déverser également une somme équivalente dans la société indépendante créée par FB pour former son propre conseil… Pour Klonick, la diversité des politiques de modération des plateformes, leurs positionnements, leurs rôles et leurs différences algorithmiques sont certainement essentiels. Dans un scénario de fusion des conseils de surveillance, le risque est aussi que les normes soient partout les mêmes… Pire : l’idée qu’une entité unique contrôle demain la libre expression des États-Unis et du monde est certainement une perspective plus problématique qu’autre chose.

Et Klonick de rappeler que seulement 7 % des utilisateurs de FB sont américains ! FB impose des normes au monde entier alors que celles-ci sont décidées par une population qui n’y est même pas majoritaire ! Que FB décide de la nature de ses politiques, soit. Mais ce qui importe, c’est qu’elles soient justes, cohérentes, proportionnées, équitables. Or, les résultats injustes semblent plus la norme que l’exception, avance Klonick, qui explique que le taux d’erreur sur les décisions de modération de contenu serait de 80 % [en fait, ce chiffre semble issu d’un article d’analyse de la décision du conseil de surveillance par le Center for Democracy & Technology qui souligne que 25 contenus postés sur le compte de Trump ont été marqués comme contraires aux standards de FB, mais que suite à leur examen, seulement 5 d’entre eux ont été retenus comme contraires aux standards, ce qui révèle un taux d’erreur dans l’application des standards de 80% ! Et les auteurs de généraliser ce taux d’erreur aux décisions de retraits qui impactent tous les utilisateurs… – qui ne bénéficient pas du même traitement de vérification que les utilisateurs « dignes d’intérêt » – en rappelant d’ailleurs que FB, dans ses rapports de transparence, n’est pas très clair sur son taux d’erreur, ni sur le taux de contenus rétablis, NDT]. Dans son avis, souligne encore Klonick, le conseil de surveillance pointe le rôle du comité discret qui écrit, modifie et réécrit les règles de modération de FB à assumer son rôle politique. Pas sûr que ce soit pourtant la piste que poursuivra l’entreprise ! Jusqu’à présent, ces instances internes qui précisent et peaufinent les règles de modération, quand elles existent, ont toujours été éminemment discrètes et particulièrement protégées.

« Une plus grande modération des contenus ne signifie pas une meilleure modération »

Très concrètement, l’IA est toujours aussi nulle pour modérer les discours de haine, soulignait la Technology Review, depuis une étude (.pdf) qui a testé 4 systèmes distincts de modération en montrant que tous avaient du mal à distinguer les phrases toxiques des phrases inoffensives. Pour accomplir leur étude, les chercheurs ont mis au point 29 tests différents, afin de mieux déterminer où chaque système échoue, et ont distingué 18 types différents de discours de haine et 11 scénarios qui n’en relèvent pas et qui piègent souvent les systèmes automatisés (comme l’usage de jurons, la récupération d’insultes en contre-discours…), ainsi que des modèles spécifiques pour les groupes protégés par les lois contre la discrimination américaines. Pour chaque catégorie, ils ont créé des exemples modèles et une base de données, HateCheck. Ils ont ensuite testé des services commerciaux, comme Perspective de Google Jigsaw (utilisés par Reddit, le New York Times et le Wall Street Journal) ou SiftNinja de Two Hat. Leurs résultats soulignent la difficulté du curseur : « Modérez trop peu et vous ne parvenez pas à résoudre le problème ; modérez trop et vous pourriez censurer le type de langage que les groupes marginalisés utilisent pour s’autonomiser et se défendre ». Les catégories d’exemples produites devraient permettre d’améliorer les modèles, estiment cependant les producteurs d’outils testés.

Mais peut-être que la solution est à chercher non pas dans l’amélioration de la modération automatisée, mais dans l’amélioration des interfaces elles-mêmes ? C’est ce que montrent des chercheurs de l’université de Washington (voir l’étude) qui ont travaillé à trouver des idées de conception pour rendre les conflits sur Facebook plus « constructifs ». « Même si les espaces en ligne sont souvent décrits comme toxiques et polarisants, les gens souhaitent avoir des conversations difficiles en ligne », explique Amanda Baughan (@amanda_Baughan). Aujourd’hui, les désaccords produisent surtout des engueulades et se terminent bien souvent par des blocages ou suppressions mutuelles. Parmi les story-boards de propositions, les interfaces pourraient proposer de passer en conversation privée quand les propos s’enveniment – ce qui se passe assez souvent – ou encore de faire remonter les commentaires les plus constructifs (ce que les likes et les modalités d’affichages par importance, permettent souvent de faire déjà), ou encore d’ouvrir un écran d’alerte quand les réponses qu’on s’apprête à poster détectent des mots violents ou encore des modalités qui mettent les réponses en attente pour permettre à leurs auteurs d’y réfléchir, comme pour ralentir les conversations.

Pas sûr que ces solutions suffisent pourtant…

Dans Wired, la juriste Evelyn Douek (@evelyndouek) dresse un constat similaire : à mesure qu’elle s’étend, la modération à un coût. La modération de contenu est en train de dévorer les plateformes prévient-elle – peut-être un peu rapidement, vu les profits qu’elles engrangent. Les règlements et politiques à destination des utilisateurs explosent et se complexifient alors que les demandes de régulation par les pouvoirs publics se précisent et s’intensifient aussi. L’élection américaine et les urgences de santé publique ont poussé les mesures à une intensification inédite. Pour la chercheuse, l’époque où Facebook et Twitter se lavaient les mains des problèmes qu’ils généraient, en pensant que les internautes se gouverneraient eux-mêmes, est certainement loin derrière eux. Mais penser que l’on va résoudre tous les problèmes en effaçant chaque jour un peu plus de contenus des réseaux sociaux tient d’une réponse simpliste et inefficace à une question complexe. « Une plus grande modération des contenus ne signifie pas une meilleure modération ». Chaque étape nécessite des compromis et ce n’est pas parce qu’on les ignore qu’ils n’existent pas.

Illustration de l'article de Evelyn Douek pour Wired

Les plateformes ont agi assez rapidement pour répondre à la désinformation autour de la pandémie et plutôt efficacement estime la juriste, tant et si bien que beaucoup se demandent maintenant pourquoi elles ne sont pas plus efficaces pour combattre d’autres types de fausses informations. Mais pour elles, la désinformation sur le virus était différente, se justifient-elles, notamment parce qu’elles pouvaient se référer à des autorités claires, comme l’Organisation mondiale de la santé (OMS). Cette ligne claire n’a pas tenu longtemps pourtant et elles n’ont cessé d’étendre les garde-fous. Elles ont collé des étiquettes d’information un peu partout, sans qu’on puisse dire qu’elles aient été efficaces. Suite à la crise du Capitole, elles ont même censuré plus que jamais négationnistes et conspirationnistes… jusqu’au président des États-Unis lui-même.

Pourtant, pour beaucoup de commentateurs, les efforts des plateformes restent insuffisants. Les appels à la modération demeurent forts et réguliers et les législateurs n’ont pas cessé leurs menaces. À l’heure actuelle, il n’y a pratiquement pas un seul pays dans le monde qui ne prenne de mesure pour réglementer les médias sociaux d’une manière ou d’une autre. Et les plateformes ne cessent de préciser leurs règles, d’en produire de nouvelles et surtout de développer un empilement de boîtes de modération – et de spécifications pour leurs éboueurs du web – les unes sur les autres (pédocriminalité, terrorisme, nudité…). Reste que depuis que Trump a été réduit au silence et que nombre de complotistes ont été chassés ou sont partis ailleurs, l’angoisse s’est un peu calmée – à croire qu’une grande partie de l’angoisse tenait peut-être plus de la politique que des plateformes elles-mêmes, souligne Douek. Mais l’impressionnante démonstration de pouvoir qu’elles ont montré a laissé des traces. L’idée qu’il existerait une catégorie claire de « fausses informations » a également pris du plomb dans l’aile.

Distinguer le vrai du faux n'est pas si simple comme le montre ce photomontage de titres de presse à quelques mois d'intervallesLa semaine dernière par exemple, Facebook est revenu sur une de ses décisions et a déclaré qu’il ne supprimerait plus les publications affirmant que le Covid-19 est d’origine humaine ou fabriqué. Pourtant, il n’y pas si longtemps, le New York Times lui-même et toute la presse avec lui, citait cette théorie « sans fondement » comme une preuve que les médias sociaux avaient contribué à une « crise de la réalité ». Au début de la pandémie jusqu’en juin 2020, FB a interdit les publicités pour les masques, jusqu’à ce que l’OMS les recommande. Les médias sociaux semblent s’être surtout beaucoup adaptés à la fois à une science qui s’est faite en marchant et aux erreurs commises par les autorités, sans parvenir à délimiter les limites raisonnables du débat public.

Comme le rappelle la maxime, « la science n’est pas la vérité, mais sa recherche. Quand elle change d’opinion, elle ne nous ment pas. Elle nous dit qu’elle a appris davantage » (voir notamment nos articles : « Naviguer dans les ruines de la réalité consensuelle » et « Une pandémie de données ne soigne pas de la vérité »).

Enfin, les appels à toujours plus de mesures de répression ont également montré qu’elles pouvaient avoir des coûts géopolitiques forts, rappelle Douek. Les gouvernements autoritaires et répressifs ont pu faire référence à la rhétorique des démocraties libérales pour justifier leur propre censure, à l’image du gouvernement indien tentant de faire pression pour que les plateformes limitent les critiques sur sa gestion de la crise Covid au détriment de la liberté d’expression. Pour l’instant, les gouvernements occidentaux ont refusé de regarder ce problème, laissant les plateformes se débrouiller seules face à la montée de l’autoritarisme numérique des gouvernements illibéraux. Le problème, c’est que les plateformes sont en train de perdre ce combat, estime Douek, à l’image de la suspension de Twitter par les autorités nigérianes suite à la censure d’un tweet de leur président. On le voit, la régulation des plateformes ne peut pas conduire à « augmenter la censure ici et la réduire plus loin ».

Enfin, souligne Douek, il reste encore d’autres compromis à faire. « Comme la modération du contenu à très grande échelle ne sera jamais parfaite, la question est toujours de savoir de quel côté de la ligne il faut se tromper lorsqu’on applique des règles ». Le risque est bien sûr de multiplier les règles strictes et la sévérité de leur application notamment avec une modération de plus en plus automatisée. « Ces outils sont brutaux et stupides » : ils ne peuvent pas évaluer le contexte ou faire la différence entre un contenu glorifiant la violence ou enregistrant des preuves de violations des droits de l’homme, par exemple. Les conséquences de ce type d’approche ont été mises en évidence lors de la récente crise du conflit israélo-palestinien de ces dernières semaines, Facebook ayant supprimé à plusieurs reprises des contenus importants provenant de Palestiniens ou les concernant (voir notamment, l’analyse de Mathew Ingram pour la Columbia Journalism Review ou celle du Washington Post qui expliquent que les activistes palestiniens reçoivent le même traitement que les activistes Noirs américains : ils sont bloqués !). Ces cas ne sont pas isolés. Et ces différences de traitements ont toujours tendance à toucher de manière disproportionnée les communautés déjà marginalisées et vulnérables (comme le pointait le travail de la sociologue Jen Schradie).

Pour Douek, le retrait de contenu ne résout pas les problèmes sociaux et politiques sous-jacents, pas plus que la disparition des comptes de Trump n’a fait s’évaporer son emprise sur le parti républicain – même si le monde en ligne parle beaucoup moins de lui (selon une récente étude relayée par le New York Times cependant, depuis son éviction, certains de ses messages sont parvenus à recevoir beaucoup d’attention notamment parce que ses plus fervents partisans continuent de les diffuser, estime le Global Disinformation Index. Malgré ces relais, leur diffusion est tout de même moindre, soulignant en creux l’énorme pouvoir des sociétés de médias sociaux. Le bannissement de Trump ne résout pas la désinformation, mais perturbe ses réseaux et atténue l’influence des individus les plus nuisibles qui se sont réfugiés ailleurs. En tout cas, les réseaux ont retrouvé un certain calme et Trump ne façonne plus seul l’agenda politique de son pays et du monde.

Image d'illustration de l'article de The Atlantic sur le retour au calme des réseaux depuis le bannissement de Trump

À l’heure où beaucoup d’argent se déverse dans la création de plateformes alternatives, notamment extrêmistes ou complotistes, bien plus permissives, la censure automatisée des contenus des plateformes grands publics risque de s’avérer encore moins efficaces qu’elles ne l’ont été, surtout que ces « petits » réseaux risquent d’être beaucoup plus laxistes dans leur modération.

« Supprimer les contenus ne supprime pas la cause qui les a fait naître », conclut Douek. Il est tentant de penser que nous pouvons modérer la société, mais il va être bien plus difficile de résoudre les problèmes sociaux et politiques dont ils sont l’expression. Les plateformes ne seront jamais en mesure de compenser les défaillances de nos sociétés. Cela ne veut pas dire que les plateformes ne doivent pas continuer à réfléchir à la manière d’atténuer leurs effets néfastes, bien sûr. Toute expérimentation qui n’est pas binaire (laisser ou supprimer) notamment est bonne à prendre, par exemple le fait que Twitter incite ses utilisateurs à lire un article avant de le tweeter, ou le fait de limiter le nombre de fois où l’on peut transférer un contenu depuis une même plateforme (comme le propose WhatsApp). D’innombrables ajustements peuvent être tentés sans que les plateformes ne décident de la vérité à notre place.

Quelles transparences ? Quelles gouvernances ?

On l’a vu avec ces exemples, notamment celui du conseil de surveillance et des politiques de modération de FB comme dans le cas du GIFCT, les questions de transparence et de contrôle démocratique demeurent au cœur des enjeux de régulation de la modération. Reste à savoir comment organiser, très concrètement, le contrôle démocratique d’instances qui risquent de se démultiplier à l’avenir. Reste à savoir aussi de quelle transparence nous avons besoin.

C’est la question que posait Daphne Keller sur son blog. Alors qu’elle écrit depuis des années sur le sujet, elle reconnaissait, avec humilité qu’elle ne savait pas très bien quelle transparence elle appelait de ses vœux. Beaucoup de gens estiment que plus de transparence est un mieux, mais personne n’a une liste claire de ce qui devrait être transparent. « Quelles informations sont essentielles ? Lesquelles faut-il vraiment rendre transparentes ? Quels sont les compromis à faire ? » Cette imprécision est en passe de devenir un problème, alors que nombre d’autorités s’apprêtent à produire des exigences de transparence auprès des plateformes. Or, « ce que la loi n’exigera pas ne sera peut-être jamais plus rendu accessible », reconnait la juriste. Exiger une transparence totale n’est peut-être pas pleinement judicieux d’autant plus que cela a un coût, explique la juriste à la suite d’Evelyn Douek. « Des obligations de transparence très prescriptives pourraient également entraîner une normalisation et une homogénéité de facto des règles des plateformes, des pratiques de modération et des fonctionnalités. » Ce ne sont bien sûr pas des raisons d’y renoncer, mais de pointer que nous devons être plus précis sur ce que la transparence signifie vraiment et concrètement.

Keller a dressé une petite liste « préliminaire et très provisoire » des problèmes que posent les rapports de transparence existants. Pour la chercheuse, par exemple, il est essentiel de savoir avec une grande précision le nombre de demandes d’accès à des données qu’une plateforme reçoit des autorités, comment elle y répond, quel contrôle judiciaire elles produisent. Elle rappelle également que les chiffres ne sont pas tout. Pour comprendre les erreurs ou les préjugés des plateformes sur leurs propres données, il est nécessaire que les chercheurs indépendants puissent voir le contenu impliqué dans les décisions de retrait par exemple.

En 2009, nous nous interrogions avec Lawrence Lessig sur les limites de la transparence. Il nous disait déjà que la transparence nue n’était pas un remède magique. Pour ma part, il me semble que la transparence se rapproche des mêmes problématiques que celles que nous évoquions à propos de l’explicabilité. Plus qu’une liste d’éléments qui doivent être rendus transparents ou d’exigences précises, la transparence relève d’échelles, d’impacts et de multimodalités de niveaux de transparence. Devrons-nous demain définir des transparences « contrastables et actionnables », « sélectives, mais loyales », « techniques et/ou sociales »…, « jouables », selon des échelles allant de « fortes, faibles à inexistantes » ? La transparence nécessite d’être évaluée et appréciée dans toutes ses dimensions, comme une matrice qui permet de mesurer son étendue, sa profondeur et bien sûr ses effets. Ce qui est sûr, c’est que pas plus que les explications, la transparence n’est en rien réductible à une technique, à des listes, mais relève profondément d’un dialogue entre un système et la société. Plus que d’obligations, de droits et de devoirs (de checks-lists ou de systèmes d’évaluation d’impact), c’est bien ce dialogue qu’il va falloir nourrir pour parvenir à dépasser une vision bien trop binaire de la modération…

Dans un article de recherche, Evelyn Douek montrait d’ailleurs très bien que les plateformes ont une politique plus complexe que le mode binaire entre supprimer et laisser faire. Les plateformes ont mis en place nombre de mesures intermédiaires, allant de l’étiquetage à la vérification des faits en passant par les écrans d’avertissements… Des mesures qu’il faut certainement continuer à diversifier, mais dont il est nécessaire aussi d’évaluer les effets.

Pour cela, il est plus que jamais nécessaire qu’elles s’ouvrent aux contrôles indépendants et qu’on évalue leur transparence dans leur complexité, d’une manière dynamique. Pour le dire autrement, la transparence et la gouvernance, comme l’explicabilité, tiennent de pratiques qui doivent évoluer. Ce sont des objectifs vers lesquels les systèmes doivent tendre. Pour cela, il y a certes des modalités dynamiques (publications ouvertes, accès ouvert à la recherche, modalités de contribution des utilisateurs, ouverture de la gouvernance…) qui dépendent chacune d’échelles. Pour évaluer ces paramètres, nous aurions besoin d’une forme de « nutriscore » qui puisse informer de la qualité des explications, de la transparence, de la gouvernance… et qui permettrait de pointer un idéal auquel tendre !

Hubert Guillaud

PS : signalons les très intéressantes études de cas de modération du groupe de réflexion The Copia Institute (@copiainstitute) – découvertes au détour de nos lectures -, qui soulignent très bien par des exemples concrets la difficulté de la modération et montrent les compromis inhérents à toute décision.

22 / 25
  GÉNÉRALISTES
Basta
Blast
L'Autre Quotidien
Alternatives Eco.
La Croix
Euronews
Le Figaro
France 24
France-Culture
FTVI
HuffPost
L'Humanité
LCP / Public Senat
Le Media
Le Monde
Libération
Mediapart
La Tribune
 
  EUROPE
Courrier Europe Centle
Euractiv
Toute l'Europe
 
  INTERNATIONAL
Equaltimes
CADTM
Courrier International
Global Voices
Info Asie
Inkyfada
I.R.I.S
Jeune Afrique
Kurdistan au féminin
N-Y Times
L'Orient - Le Jour
Orient XXI
Of AFP
Rojava I.C
 
  OSINT / INVESTIGATION
OFF Investigation
OpenFacto°
Bellingcat
Disclose
G.I.J.N
 
  MÉDIAS D'OPINION
AOC
Au Poste
Cause Commune
CrimethInc.
L'Insoumission
Les Jours
LVSL
Marianne
Médias Libres
Quartier Général
Rapports de force
Reflets
Rézo
StreetPress
 
  OBSERVATOIRES
Armements
Acrimed
Catastrophes naturelles
Conspis
Culture
Extrême-droite
Human Rights
Inégalités
Information
Internet actu ✝
Justice fiscale
Liberté de création
Multinationales
Situationnisme
Sondages
Street-Médics
Routes de la Soie
Vrai ou Fake ?
🌓