LePartisan.info À propos Podcasts Fil web Écologie Blogs Revues MÉDIAS
InternetActu.net
Souscrire à ce flux

Accès libre Publication de la Fondation Internet Nouvelle Génération, « le think tank qui porte la voix d’un numérique ouvert, humain, et durable »

▸ les 25 dernières parutions

04.10.2021 à 07:00

Sans transition : de nos vies avec et dans les machines du quotidien

Hubert Guillaud

Le petit livre des historiens Gil Bartholeyns (@bartholeyns) et Manuel Charpy, L’étrange et folle aventure du grille-pain, de la machine à coudre et des gens qui s’en servent (Premier Parallèle, 2021) est un petit essai accessible et ludique qui tisse à grands traits la complexité de notre rapport aux machines (...)
Texte intégral (1964 mots)

Couverture du livre de Gil Bartholeyns et Manuel CharpyLe petit livre des historiens Gil Bartholeyns (@bartholeyns) et Manuel Charpy, L’étrange et folle aventure du grille-pain, de la machine à coudre et des gens qui s’en servent (Premier Parallèle, 2021) est un petit essai accessible et ludique qui tisse à grands traits la complexité de notre rapport aux machines qui ont envahi notre quotidien.

Nous possédons en moyenne quelque 70 appareils électromécaniques et électroniques dans nos intérieurs (120 si nous habitons dans une maison avec jardin, du fait de l’ajout des objets de bricolage et de jardinage)… Des appareils qui nous semblent à la fois simples et complexes, comme l’a rappelé le Toaster Project (Princeton Architectural Press, 2012, non traduit) du designer Thomas Thwaites (@thomas_thwaites) qui avait tenté de se lancer dans la fabrication de A à Z d’un grille-pain. Une aventure toute en déconvenue, puisque malgré la simplicité du projet, le fait de le construire sans avoir recours à des composants industriels, souligna surtout combien l’entreprise se révélait impossible. Avec son projet de grille-pain, Thwaites montrait surtout combien nous sommes devenus extrêmement dépendants de la mondialisation et de l’industrialisation. Le monde des appareils qui composent notre quotidien n’est plus à notre portée.

En nous replongeant dans l’histoire des objets qui assurent notre confort moderne, les deux historiens élargissent ce constat, comme si depuis qu’ils sont parmi nous, nos appareils domestiques nous avaient plus domestiqués que nous ne les avons maîtrisés. D’ailleurs, nous n’avons jamais cessé d’apprendre à nous en servir, expliquent-ils, en rappelant les innombrables formes qu’ont pris ces apprentissages : démonstrations, expositions, porte-à-porte, manuels d’utilisation, réunions à domiciles, placement de produits… qui aujourd’hui sont prolongés par le téléachat, les publicités déguisées et tutoriels vidéos… Nous ne cessons de courir après leur maîtrise, sans jamais y parvenir vraiment, d’autant plus que leurs fonctionnalités et interdépendances croissantes semblent participer sans cesse à nous en éloigner.

Il faut dire que ces objets eux-mêmes s’inscrivent dans des généalogies complexes, de techniques, d’imaginaires, d’habitudes et de gestes, dans des parcours sinueux d’évolutions esthétiques et fonctionnelles. Les premières ampoules avaient la forme de bougies comme les lampes LED d’aujourd’hui imitent les ampoules à incandescence d’hier. Les nouveautés techniques s’habillent souvent d’esthétiques anciennes, les technostalgies se recouvrent d’une couche l’autre, jusqu’à se dissimuler sous de nouvelles carrosseries, qui semblent toujours chercher à réaffirmer leur modernité. Pourtant, semblent rappeler les deux historiens, la plupart de nos appareils domestiques ont des origines plus anciennes que nous le pensons. Les premiers manuels d’utilisation naissent au XVIIIe siècle, en précisant bien souvent les façons de réparer et notamment comment faire forger ou tailler certaines pièces pour pouvoir les reproduire localement. Ils se développent massivement dès les années 1860 avec l’explosion de la vente par correspondance. Le réveil matin naît à la fin des années 1840… Les W-C également, même s’il faut attendre le début du XXe siècle pour qu’ils se généralisent en ville, d’abord sur un mode collectif, sur le palier. Le quotidien se mécanise tôt, dès les années 1830-1840 (douches chauffantes, fourneaux à gaz…)… Une première domotique naît avec le XIXe siècle qui ne va cesser de se sophistiquer et dont l’usage ne va cesser de s’étendre. Notre rapport aux objets techniques semble toujours devoir être analysé sous les épaisseurs culturelles qui les recouvrent.

C’est suite à la crise des années 30 que s’imagine l’obsolescence planifiée, comme moyen de sortir de la dépression. Prescience ? Peut-être ? Peu à peu, des formes de concurrences symboliques se mettent en place, comme quand General Motors, à l’inverse de Ford, décide de changer ses modèles de voitures pour inciter au renouvellement. Peu à peu, l’interopérabilité entre machines est délibérément compromise. L’évolution des normes et standards incite également au renouvellement. « La qualité est devenue une variable de la production ». La durabilité des produits électriques et électroniques n’a cessé de se réduire et l’interdépendance technique a accentué le phénomène. Peu à peu, l’artisanat de la réparation se réduit. Mais c’est vraiment à partir des années 1990 que la délocalisation achève la réparabilité : désormais, remplacer un produit est moins cher que le réparer. Si aujourd’hui, la réparabilité semble reprendre des lettres de noblesse, en permettant de récupérer du pouvoir sur le monde, elle semble surtout chercher à produire un peu de sens sur un monde qui nous semble irrémédiablement cassé.

Chaque adoption d’un objet technique modifie la vie quotidienne. La montre modifie le rapport au temps, la bicyclette à l’espace, les lampes à la vie nocturne, les lunettes à notre manière de voir le monde… Mais si les objets semblent vouloir imposer partout leurs techniques, les appropriations sont souvent culturellement différenciées dans l’espace et le temps. Toutes relèvent de « techniques créoles », comme disait l’historien David Edgerton, mélange d’appropriations locales et mondiales. « Adopter une technique ne revient pas à en assimiler les usages ou la culture », mais passent par des formes complexes d’acclimatations, d’adaptations, de transformations qui ne se résument pas au grand récit de la diffusion des modes de vie occidentaux, soutiennent les deux historiens.

Parce qu’elles nous modifient à leur contact, les machines convoquent les corps comme le social. Leur adoption progressive passe par des entremetteurs, à l’image des domestiques qui bien souvent manoeuvrent les premières machines avant qu’elles ne servent, dès la fin du XIXe siècle, à commander des livreurs ou des artisans quand le personnel de maison s’efface des intérieurs. Les appareils tracent des frontières sociales dans leurs utilisations. Longtemps, les nouveaux appareils discriminent, car ils sont souvent réservés aux professions supérieures… C’est surtout après les années 90, que les objets cessent d’être distinctifs, quand ils sont produits à une telle échelle qu’ils en deviennent accessibles à tous. Aujourd’hui, les plus riches possèdent autant d’appareils que les plus pauvres. La distinction reste esthétique, de qualité ou de prix. Quant aux refus des technologies, elle n’est pas tant une résistance à la nouveauté bien souvent qu’une forme de distinction là encore.

Les robots ménagers sont souvent présentés comme vecteurs d’émancipation qu’ils n’ont pas vraiment été. Les esclaves mécaniques se substituent surtout aux domestiques. Mais trier le linge, lancer une machine ou repasser demeure toujours le travail des femmes – et dans les foyers les plus aisés, celui des femmes de ménage. Le temps libéré par cette mécanisation du quotidien impose surtout de nouvelles astreintes : celles de devoir s’occuper des machines, qui attachent plus les femmes au foyer qu’elles ne les libèrent.

Les machines tiennent finalement de techniques du corps. Le premier objet technique demeure notre corps, disait Marcel Mauss. Nager ou dormir sont des techniques que les machines accompagnent, comme le font les éclairages ou les réveils. L’objet technique vise souvent à dresser les corps et les comportements. Le bracelet-montre qui se diffuse dès les années 1920 achève le travail d’intériorisation de la mesure du temps. Bien souvent, la machinerie technique est un moyen de coercition et de contrôle des corps « d’intériorisation des normes », à l’image du pèse-personne, longtemps public, qui se privatise et s’intimise dès les années 50… Les machines intègrent surtout nos injonctions sociales.

Quant à notre engorgement domestique d’objets, notre syllogomanie, elle est le pendant d’une production démesurée d’objets. Entre 2000 et 2017, le transport mondial est passé de 65 millions de containers à 175 millions ! Nous croulons sous les objets depuis le début du XXIe siècle : notamment du fait de la décohabitation et de transitions générationnelles qui semblent s’accélérer. Mais surtout du fait d’une mondialisation sans précédent qui semble avoir conduit à des réplétions partout ! Aux braderies des enseignes répondent celles de nos intérieurs. Les appareils se dupliquent plutôt qu’ils ne s’économisent… Nous démultiplions chez nous les écrans comme nos machines à café. Nous démultiplions l’adoption d’appareils sans abandonner les précédents. Nous croulons sous les appareils qui ne servent qu’une fois… « Les usages procèdent par accumulation plutôt que par transition », expliquent les historiens. « Les techniques apparentées deviennent complémentaires et différentielles » selon une loi de co-évolution, à l’image de la convergence des médias, où télé, radio, presse écrite… s’entrecroisent en contenus complémentaires. Tout comme nous l’ont dit déjà d’autres historiens comme François Jarrige ou Jean-Baptiste Fressoz en parlant d’énergie, nos usages s’accumulent plus qu’ils ne transitionnent… Même dans nos usages les plus quotidiens finalement, il n’y a pas de transition, mais une accumulation éperdue. Déjà, à la fin du XIXe siècle, les modes d’éclairages coexistent selon les heures, les pièces, les usages. Nous démultiplions nos pratiques médiatiques désormais via des de multiples appareils qui les concentrent en grande partie. Nous sommes englués dans un consumérisme, comme le dénonçait le sociologue Razmig Keucheyan dans Les besoins artificiels (la Découverte, 2019). Peut-être faut-il mieux comprendre pourquoi nous sommes incapables de nous en extraire ? Finalement, tous ces appareils nous renvoient à notre façon d’être nous-mêmes. Ils nous assurent des conforts inégalés : lumière, chaleur, eau, information… qu’ils rendent disponibles en permanence et individuellement. Plus que de nous rendre heureux, nos objets nous apportent un confort à notre démesure. C’est peut-être pour cela que nous les accumulons sans fin et que nous sommes incapables d’envisager réduire un jour ce confort ou nous en couper. Nous nous sommes fondus, identifiés à nos bardas d’objets essentiels et inutiles que la mondialisation et l’industrialisation ont rendus si facilement accessibles à tous. Perclus de confort, nous regardons encore devant nous pour nous demander… : pour combien de temps ?

Hubert Guillaud

30.09.2021 à 07:00

L’évaluation de la gouvernementalité algorithmique ne peut pas être uniquement technique !

Hubert Guillaud

Les organismes de réglementation ont visiblement compris qu’ils doivent réglementer la manière dont les autorités utilisent les algorithmes et les technologies d’IA. Mais ce que les régulateurs oublient trop souvent quand ils élaborent des politiques, c’est de tenir compte de la manière dont les décideurs humains interagissent avec les systèmes, (...)
Texte intégral (1720 mots)

Les organismes de réglementation ont visiblement compris qu’ils doivent réglementer la manière dont les autorités utilisent les algorithmes et les technologies d’IA. Mais ce que les régulateurs oublient trop souvent quand ils élaborent des politiques, c’est de tenir compte de la manière dont les décideurs humains interagissent avec les systèmes, explique Ben Green (@benzevgreen) dans une tribune pour The Hill (@thehill). Chercheurs, journalistes, militants… n’ont cessé ces dernières années de révéler combien les systèmes algorithmiques utilisés par les tribunaux, la police, les services d’éducation, de protection sociale et autres, sont bourrés d’erreurs et de biais. Aux États-Unis, deux projets de loi proposent d’imposer aux administrations d’évaluer les algorithmes avant de pouvoir les utiliser. Le projet de loi sur l’IA de la commission européenne va dans le même sens. Mais, souligne Green, si examiner les systèmes est certes nécessaire, ces dispositions oublient la manière dont les prédictions affectent les décisions politiques.

Les outils d’aide à la décision améliorent-ils la décision ?

Bien souvent, les algorithmes sont proposés comme des outils d’aide à la décision aux personnes qui les prennent. Reste que leurs décisions doivent équilibrer les prédictions que les systèmes fourbissent avec d’autres objectifs concurrents qui ne sont, eux, pas pris en compte par les machines. Green prend l’exemple des systèmes d’évaluation des risques qu’un prévenu ne se présente pas à son procès, très utilisé par les tribunaux américains. Pour ceux en charge de juger les prévenus, ces prévisions, pour autant qu’elles soient précises et justes – ce dont doutent nombre de défenseurs des droits et de chercheurs qui les ont étudiés -, doivent s’équilibrer d’autres intérêts, comme la présomption d’innocence. Pour Green, la question centrale qui est très souvent oubliée n’est pas seulement de savoir si les prédictions sont justes, mais aussi et surtout, de savoir si ces systèmes améliorent la décision humaine. Or, même si ces systèmes proposent des prédictions, ils n’améliorent pas nécessairement la décision. Quand on leur présente ces évaluations, bien souvent, les humains ont tendance à être plus attentifs au fait de réduire le risque justement, au détriment d’autres valeurs, changeant la manière même dont ils prennent leurs décisions, explique Green à la suite d’une étude expérimentale. Dans la pratique, ces systèmes imposent leurs choix, leur angle, leur vision… d’une certaine manière, leur idéologie. Reste que trop souvent, leur premier effet est d’altérer les processus de prise de décision. Même si dans l’étude de Green, les effets de ces outils semblent assez faibles, ils n’en sont pas moins là (et ce d’autant que l’altération de la décision est difficile à apprécier). Dans le domaine judiciaire américain, plusieurs études ont montré que les juges ont tendance à passer outre les recommandations de remises en liberté que proposent ces outils ! En fait, les juges semblent devenir plus sévères que les systèmes, parce que les systèmes leur mettent sous les yeux le risque plutôt que l’esprit des lois, comme la présomption d’innocence. En fait, les systèmes aggravent la partialité des juges en les rendant sur-attentifs aux risques !

Dans un autre article de recherche, Green souligne un autre problème, celui de la surveillance humaine des décisions algorithmiques que de plus en plus de réglementations imposent. Or, explique le chercheur, derrière ces décisions, bien souvent, les personnes sont incapables de remplir les fonctions de surveillance qui leur sont attribuées. Green estime par exemple que nous devrions calculer le taux de dérogation c’est-à-dire quand la décision n’est pas conforme à la suggestion de l’algorithme pour savoir si le processus décisionnel est automatisé ou pas.

Cette surveillance des systèmes trop souvent légitime le recours à des algorithmes défectueux, sans aborder réellement les problèmes qu’ils génèrent. Pour le chercheur, la surveillance des algorithmes donne un faux sentiment de sécurité. Pour Green, il est essentiel de s’interroger d’abord sur la nécessité du déploiement et surtout d’évaluer l’efficacité du contrôle humain des traitements, explique-t-il en rappelant la nécessité d’une meilleure évaluation, non seulement technique, mais plus encore humaine. Les politiques se doivent d’être plus rigoureuses, estime-t-il, et surtout, elles ne doivent pas seulement étudier les biais techniques des systèmes, mais aussi prendre en compte la relation homme-algorithmes et les biais qu’elle génère.

Or, rappelle le chercheur, les réglementations sur l’éthique des systèmes se concentrent uniquement sur la façon dont le calcul fonctionne. Les systèmes d’évaluation de la responsabilité algorithmique ou d’impacts évaluent une responsabilité « technique » plus qu’humaine, sans tenir compte des relations tissées avec les systèmes.

Aussi précis ou juste que le calcul soit – et il ne l’est pas souvent -, il modifie la façon de décider. En fait, ces outils génèrent des changements qui déséquilibrent l’évaluation qui est au cœur même de la prise de décision. Pour Green, la question de l’évaluation de l’IA devrait nécessiter des preuves empiriques sur ses effets, c’est-à-dire qu’elle devrait également démontrer que ces systèmes sont susceptibles d’améliorer la prise de décision. Pour cela nous devrions réaliser des évaluations expérimentales sur la collaboration homme-algorithmes, en testant comment les gens interagissent avec le système pour s’assurer qu’il produit les résultats escomptés.

Evaluer les outils de la décision, mais également la décision

L’évaluation est trop souvent encore le parent pauvre de la réglementation. Au mieux, elle reste technique. Mais bien souvent, elle reste aveugle aux impacts concrets de ces outils sur ceux qui les utilisent, suggère Green qui invite à non seulement évaluer les outils de la décision, mais également leurs impacts sur la décision.

Le constat de Green souligne combien, alors que les systèmes techniques s’imposent, l’évaluation de leurs effets concrets, elle, n’est pas à la hauteur. Derrière les biais des calculs, nous devons nous préoccuper d’autres formes d’évaluation – comme le propose les méthodes développées pour que la politique fasse la preuve de son efficacité (on parle d’evidence-based policymaking). Le gouvernement britannique a initié en ce sens un réseau d’évaluation des politiques publiques, le « What Works Network », dont l’une des branches, par exemple, a évalué les systèmes d’identification automatisés des enfants à risque par les services à l’enfance, en pointant leur inefficacité manifeste. Les États-Unis viennent de lancer une plateforme dédiée à l’évaluation des politiques publiques, rapportait récemment Federal News Network. Malgé les recommandations émises par le Conseil d’État en septembre 2020 pour améliorer l’évaluation des politiques publiques, si l’on en croit l’état du site dédié à l’évaluation en France, la priorité donnée à l’évaluation n’est pas encore là ! Si des efforts ont été initiés pour l’évaluation par les usagers des services publics – via des indicateurs de performance et de satisfaction, à l’image de ceux disponibles sur resultats-services-publics.fr ou voxusagers.gouv.fr -, la question – bien plus importante, il me semble – d’une meilleure évaluation des politiques publiques selon leurs effets semble encore avoir des marges de progrès.

Hubert Guillaud

Le portail de l'évaluation publique français

PS : Sur LPE, Frank Pasquale annonce la tenue prochaine aux Etats-Unis d’un symposium sur l’analyse coût/bénéfice. Les méthodes quantitatives promettent d’apporter la rigueur et l’objectivité à l’évaluation des politiques publiques, mais dans les faits, leurs applications accélèrent souvent les injustices et les discriminations. Dès janvier 2021, l’administration Biden a annoncé vouloir « moderniser les modalités d’évaluations réglementaires ». Les initiatives réglementaires importantes sont de plus en plus souvent sommées de produire une analyse comparative de leurs coûts et avantages. Si ces initiatives semblent rationnelles (les coûts d’une réglementation ne doivent pas dépasser ses avantages), ces outils ont souvent été utilisés pour limiter la réglementation plutôt que pour améliorer son efficacité. Enfin, souligne Pasquale, tout est-il quantifiable ? Quelle est la valeur monétaire d’une journée sans aucune pollution au Grand Canyon ou d’une ressource naturelle ? À nouveau, la quantification n’a rien de neutre et ne peut être le seul mode d’évaluation des politiques publiques.

27.09.2021 à 07:00

Pour un féminisme des données

Hubert Guillaud

Toxique, sexiste, violent, abusif, harceleur… Le numérique révèle souvent ses pires aspects dans ses relations aux femmes. Le best-seller de la journaliste et activiste britannique, Caroline Criado-Perez (@CCriadoPerez), Femmes invisibles (First, 2020), s’inscrit pleinement dans ces critiques en les élargissant. Pour elle, si les femmes sont rendues aussi invisibles partout (...)
Texte intégral (14321 mots)

Toxique, sexiste, violent, abusif, harceleur… Le numérique révèle souvent ses pires aspects dans ses relations aux femmes. Le best-seller de la journaliste et activiste britannique, Caroline Criado-Perez (@CCriadoPerez), Femmes invisibles (First, 2020), s’inscrit pleinement dans ces critiques en les élargissant. Pour elle, si les femmes sont rendues aussi invisibles partout et tout le temps, c’est d’abord et avant tout parce qu’elles sont absentes des données qui construisent nos mondes. En dressant un long et éprouvant catalogue des conséquences de l’absence de prise en compte des femmes de la médecine au design, du travail à la vie civique… Criado-Perez déroule, d’une cascade de conséquence à l’autre, combien notre réalité est masculo-normée. « Les hommes confondent leur propre point de vue et la vérité absolue ».

Changer de point de vue !

Couverture du livre Femmes Invisibles« Femmes invisibles raconte ce qui se passe quand nous oublions de tenir compte de la moitié de l’humanité », sous la forme d’un long et éprouvant catalogue d’exemples, épuisants à force d’être édifiants.

Évoquons-en quelques-uns. Criado-Perez commence par exemple en racontant le travail réalisé dès 2011 par la ville de Karlskoga en Suède afin de réévaluer toutes leurs politiques publiques en les examinant sous l’angle du genre. Parmi les problèmes soulevés par cet examen, les autorités ont constaté que leur manière de déneiger les routes était sexiste ! Comme dans nombre de localités, Karlskoga déneigeait en commençant par les grandes artères et en terminant par les trottoirs et les pistes cyclables. Or, cette façon de faire n’affecte pas indifféremment les hommes et les femmes, notamment parce qu’ils ne se déplacent pas de la même façon : les femmes réalisent plus de déplacements de proximité pour prendre soin des plus jeunes ou des plus âgés. La ville de Karlskoga modifia donc l’ordre des opérations de déneigement pour donner la priorité aux piétons et aux utilisateurs de transports en commun au prétexte que conduire une voiture dans la neige est souvent plus simple que d’y pousser une poussette. L’un des effets de la mesure a été de diminuer le nombre de blessées suite à des chutes, un problème qui affectait surtout les femmes, remarquant d’ailleurs que le coût des accidents de piétons était deux fois supérieur au coût de l’entretien hivernal des routes. La planification du déneigement n’a jamais été conçue délibérément pour favoriser les hommes au détriment des femmes, souligne très justement Criado-Perez, mais relevait d’une absence de données genrées. Les hommes avaient conçu cette planification par rapport à leurs besoins, à leur vision, sans envisager que les besoins du reste de la population pouvaient être différents. D’ailleurs, trop souvent encore, les déplacements non motorisés ne sont pas considérés comme pertinents dans l’élaboration des politiques en matière d’infrastructures de déplacement, comme le montre très bien la place réduite qui leur est dévolue.

Cette prise en compte des déplacements selon le genre n’est pas propre aux pays socialement évolués du nord de l’Europe. Vienne, en Autriche, a été une municipalité soucieuse d’équité dès les années 90. Aujourd’hui, ce sont les grandes villes espagnoles qui sont à la pointe, à l’image du réseau des Fearless Cities initié par Barcelone dès 2017, qui a participé à renouveler le « municipalisme », visant à raviver la pratique politique locale en démultipliant les expériences de démocratie radicale (voir notamment Le Guide du municipalisme, Charles Léopold Mayer, 2019 qui documente nombre d’expériences de ce réseau). Criado-Perez dresse le même et accablant constat quant à l’utilisation des espaces publics. Quand ceux qui les conçoivent ne prennent pas en compte les questions de genre, ces espaces deviennent des espaces masculins par défaut. Dès les années 90, Vienne a montré que la présence des filles, dès 10 ans, diminuait dans les parcs et terrains de jeu publics du fait de leur conception. Les grands espaces ouverts poussaient les filles à abandonner l’espace aux garçons. Même constat en Suède où les responsables des villes se sont rendu compte que les financements publics allaient majoritairement aux sports dominés par les garçons. Non seulement les villes dépensaient plus pour l’équipement de sports masculins, mais les sports féminins étaient bien moins financés et bien souvent, les filles devaient dépenser plus d’argent que les garçons pour les pratiquer de façon privée – pour celles qui le pouvaient.

Un monde plus genré qu’on ne le pense

Bien sûr, il n’y a pas que l’équipement public qui se révèle plus genré qu’on ne le pense. On connaît les inégalités de genre dans le monde du travail, notamment et avant tout dans le fait que les femmes font l’essentiel du travail non rémunéré, du travail partiel, et bien sûr quand elles ont un travail rémunéré, c’est pour un salaire inférieur à celui des hommes. Trop souvent, les contraintes qui pèsent sur les femmes (maternité, charge d’enfants…) ne sont pas prises en compte par le monde du travail. Criado-Perez en donne un exemple assez simple et parlant. Une cadre et mère célibataire quand elle accepte un diner de travail le soir doit organiser par elle-même la garde de ses enfants et prendre à sa charge le coût afférent. Pour ses collègues masculins, la question ne se pose même pas. Ils peuvent même prendre une chambre d’hôtel et se la faire rembourser facilement, contrairement à la facture de la baby-sitter.

Nous ne voyons pas nos préjugés de genre, explique Criado-Perez… enfin, il faudrait plutôt dire que les hommes ne voient pas les œillères qui couvrent le regard qu’ils portent sur le social. Sans compter que nos préjugés sont bien souvent parfaitement institutionnalisés. C’est avec les auditions à l’aveugle que l’orchestre philharmonique de New York a changé sa composition, passant d’aucune femme à 45 %. Plusieurs études soulignent aussi que les évaluations de performances que pratiquent les entreprises sont plus sévères envers les femmes que les hommes, que les bonus récompensent davantage les hommes. Et c’est pire dans certains secteurs, comme le secteur financier ou les technologies. La méritocratie a bon dos ! « Si la méritocratie est une religion dans la Silicon Valley, son dieu est un étudiant blanc, de sexe masculin, qui a abandonné ses études à Harvard. Et la plupart de ses disciples le sont aussi ». Même constat à l’université : les doctorantes ont moins de chances que les doctorants de recevoir un financement, un poste… ou d’être publiées (sauf quand elles sont évaluées en double aveugle). « Le lieu de travail moderne est criblé de lacunes de genre », à l’image de la température standard des bureaux climatisés, des portes et outils trop lourds… « Le travail moderne, que ce soit en termes de localisation, d’horaires, ou de normes réglementaires, a été conçu en fonction de la vie des hommes, et il n’est plus adapté à ses objectifs », explique la militante en invitant à refondre ses règlements, ses équipements, notre culture. Criado-Perez enfile les études comme autant de preuves, toutes aussi accablantes les unes que les autres. On pourrait certes discuter du poids et de la pertinence de chaque élément, reste qu’au final, la masse qu’elle convoque fait effet et nous accable sous l’accumulation.

Plus inquiétante encore est la masse d’exemples qu’elle convoque sur la santé, comme le fait qu’on en sache assez peu sur les blessures des femmes au travail, comme celles des femmes de ménage ou des aides-soignantes. Trop souvent, les études bio-mécaniques, celles sur les troubles musculo-squelettiques, se basent sur un « homme de référence », un homme blanc entre 25 et 30 ans pesant 70 kilos, alors qu’hommes et femmes ont des métabolismes différents (qui varient également selon l’âge). Les femmes sont largement oubliées de la technologie, même quand elles en sont les clientes. Par exemple, explique la journaliste, les femmes âgées sont plus victimes de chutes que les hommes. Sur un mois de consultation aux services d’urgences américains, 71 % des patients examinés pour ce motif sont des femmes et leur taux de fractures est 2,2 fois plus élevé que les hommes. Une meta-analyse a montré que les appareils de détection de chutes ne précisent pas le sexe des porteurs, et qu’on ne connaît pas vraiment les facteurs de risques sexospécifiques. Sans compter que pour l’instant, les différents objets technologiques proposés n’ont jamais vraiment convaincu leurs porteurs et ne sont pas adaptés aux besoins et encore moins aux besoins féminins.

Ainsi, les femmes ont tendance à être plus petites et à avoir la peau plus fine que les hommes (mais également à avoir des systèmes immunitaires et hormonaux différents, un pourcentage de graisses corporelles plus élevé…) ce qui fait qu’elles sont plus sensibles aux radiations ou aux toxines que les hommes. Alors que les études ont trop tendance à observer les réactions aux produits chimiques pris isolément, les femmes ont tendance à y être exposées de multiples façons, que ce soit les produits de ménage ou cosmétique par exemple. Pour Criado-Perez, nous avons besoin de meilleures données sur l’exposition des femmes aux produits chimiques et à produire des politiques en fonction de ces enseignements. C’est un peu comme les équipements de protection individuelle, réalisés encore trop souvent selon les tailles et caractéristiques des populations masculines. Trop souvent encore, on fournit des équipements de protection de petites tailles aux femmes, plutôt que des protections conçues pour elles. Une forme d’approche unisexe… qui ne l’est pas du tout. C’est ce que dénonce également la cardiologue Nieca Goldberg dans son livre Les femmes ne sont pas de petits hommes (Women are not small men, Ballantine Books, 2002, non traduit), pointant que les maladies cardiaques des femmes sont fondamentalement différentes de celles des hommes et que trop souvent encore, en médecine, la plupart des études sur les pathologies oublient les spécificités de genre, ne considérant les femmes que comme des hommes en plus petits.

Criado-Perez creuse longuement ce problème de conception, c’est-à-dire le constat, répété, qu’on ne consulte pas les utilisateurs (et ici, les utilisatrices) avant de concevoir un produit. Que ce soit encore trop souvent pour concevoir des cuisinières adaptées aux besoins des femmes des pays en développement, à celles de claviers de pianos adaptés aux femmes (dont la taille des mains est en moyenne plus courte que celles des hommes… il existe d’ailleurs un clavier adapté, qui sans surprise reste totalement absent et du monde de la musique et de la fabrication industrielle de pianos).

Même constat par exemple avec les logiciels de reconnaissance vocale qui reconnaissent mieux les voix masculines que féminines alors que des études montrent qu’elles ont une voix nettement plus intelligible, produisent des voyelles plus longues, parlent plus lentement que les hommes, et utilisent moins de prononciations alternatives ou tronquées… Mais là encore, les banques de données d’enregistrements pour entrainer les outils sont majoritairement composées d’enregistrements de voix masculines – elles indiquent d’ailleurs assez peu le sexe des voix. Mêmes constats sur les corpus d’écrits, d’images, de vidéos… qui font tourner l’intelligence artificielle dans tous les domaines. Caroline Criado-Perez en tire un constat plutôt alarmant : « Notre savoir médical étant fortement axé sur le corps masculin, les IA pourraient compliquer les diagnostics qui concernent les femmes, au lieu de les améliorer ».

Même constat sur l’inadaptation des dispositifs de réalité virtuelle aux femmes. Il y a longtemps déjà, danah boyd avait attiré notre attention sur ce problème. En fait, pour déterminer la profondeur de champs, les hommes sont plus susceptibles de se fier à la « parallaxe du mouvement » pour percevoir la profondeur (c’est-à-dire à la façon dont un objet semble plus grand ou plus petit selon notre proximité par rapport à lui), alors que les femmes font plutôt appel à « la forme à partir des ombres » (c’est-à-dire à la façon dont l’ombre d’un point donné change quand on se déplace). Et la réalité virtuelle fait souvent un meilleur travail pour restituer la parallaxe que pour imiter les déplacements de l’ombre. Autre problème qui participe aux différences de perception des univers virtuels, explique le professeur de kinésiologie Tom Stoffregen, il y a des différences sexuelles dans l’oscillation du corps humain (et le balancement postural des femmes change même au cours du cycle menstruel)…

Dans tous les secteurs qu’elle passe en revue, les constats de blocages s’accumulent. Criado-Perez accable également le monde de l’entreprise, en évoquant par exemple les difficultés qu’a rencontrées Janica Alvarez pour lancer sa startup, Naya Health, qui proposait de réinventer le tire-lait, dominé par le monopole de l’entreprise Medela aux Etats-Unis et au Royaume-Uni. Pourtant, les investisseurs ne se sont pas précipités pour soutenir ce tire-lait, censé être plus confortable. Il faut dire que le monde de l’investissement, un secteur exclusivement masculin, n’a pas vraiment tendance à soutenir les entreprises dirigées par les femmes, comme le pointait une étude du Boston Consulting Group qui montrait que les femmes possédant des entreprises reçoivent en moyenne moitié moins d’investissements que leurs homologues masculins alors qu’elles produisent des bénéfices au moins deux fois supérieures. Le tire-lait de Naya Health quant à lui, n’était peut-être pas si révolutionnaire que cela, comme le soulignent des utilisatrices déçues. En tout cas, l’entreprise, par manque d’investissement, a visiblement tiré le rideau depuis.

Pour Caroline Criado-Perez, le grand enjeu, conclut-elle, consiste à nous mettre à produire des données genrées. Il nous faut « comprendre que la neutralité ne conduit pas automatiquement à l’égalité entre les sexes ». Nous avons besoin de plus de données et de meilleures données.

Les innombrables exemples donnés sont accablants, si accablants qu’ils donnent honte jusqu’à la science, dont on perçoit à chaque pas, combien jusqu’à présent elle peine à prendre au sérieux la question du genre. La brûlante actualité des exemples souligne combien les choses ne changent pas vraiment. Rien ne va dans notre océan de mecs, de préjugés à penser que notre point de vue est la norme et qu’il est neutre et objectif, au prétexte que les femmes ne seraient finalement que des hommes en plus petits. En cela, Femmes invisibles est un livre qui fout la honte. L’accumulation à charge produit son effet.

Reste à savoir si améliorer les données, comme le propose Criado-Perez, suffira. Si ce pas semble nécessaire, il ne sera peut-être pas suffisant pour politiser cette question. D’où l’intérêt de prolonger cette lecture d’une autre, qui, elle, justement nous explique que cet enjeu n’est pas seulement une question d’attention, d’amélioration des données, mais bien une question politique.

Une science des données pour l’émancipation !

Couverture du livre Data FeminismAvec Data Feminism (MIT Press, 2020, non traduit, disponible en publication ouverte), Catherine D’Ignazio (@kanarinka) et Lauren Klein (@laurenfklein), tiennent un propos un peu plus complexe et plus politique.

Pour ces deux spécialistes en science des données, la discipline a besoin du féminisme pour se réinventer. Le Féminisme des donnée est « un mode de pensée sur la donnée et sa communication informés par l’expérience directe, par un engagement à l’action et par les idées associées à la pensée féministe intersectionnelle », qui vise à déconstruire les systèmes de pouvoir, de privilège et d’oppression. A l’heure où les données façonnent le monde et notre relation au monde, il est temps de s’intéresser très précisément à celles-ci, soulignent D’Ignazio et Klein. En cela, le féminisme de la donnée n’est pas seulement un livre, il se veut aussi un mouvement, une réflexion politique, un mode d’action sur le monde. C’est un livre sur qui a le pouvoir et qui ne l’a pas, un livre sur les conséquences de ces différentiels de pouvoir pour les mettre en évidence et les changer.

La science des données a besoin du féminisme pour mettre fin à la spirale d’injustices qu’elle participe à bâtir, expliquent D’Ignazio et Klein. Pour les deux chercheuses, les corps manquent dans les données qu’on collecte. La science des données pense qu’elle peut produire le monde sans les convoquer. Que son objectivité et sa neutralité nécessitent d’appliquer une froide raison sur tout calcul. C’est tout le contraire dont nous avons besoin, expliquent les chercheuses : les problèmes structurels ne peuvent être exposés qu’en les regardant sous l’angle spécifique des personnes et des corps. Nous devons compter ce qui ne l’est pas, notamment parce que les données et le pouvoir s’alignent trop souvent. Ramener les corps des gens, des femmes, des personnes de couleurs, des marginalisés dans les discussions et les décisions, suppose bien sûr, comme le disait déjà Sasha Costanza-Chock de savoir quelles données sont collectées, par qui et pourquoi.

L’histoire est ancienne, mais reste fameuse : quand Andrew Pole, data scientist chez Target, a mis au point un algorithme de prévision de la grossesse des clientes pour favoriser des campagnes marketing dédiées, il a montré que les corps peuvent être exploités sans que les personnes visées n’aient leur mot à dire sur cette exploitation. Target a utilisé son capital de données pour consolider son pouvoir sur ses clientes, sans leur consentement. Les décisions prises du point de vue des données sont trop souvent utilisées pour amplifier les inégalités et asymétries d’information que le contraire. En se basant sur une liste de produits que les femmes enceintes achètent, Target était capable de calculer un score de prévisibilité de grossesse, que l’entreprise a utilisé sans tenir compte des impacts et conséquences sur ses clientes. C’est justement sur les conséquences des décisions qui sont prises sur les gens, par-devers eux, qu’une approche des données par l’émancipation est essentielle. Klein et D’Ignazio déploient un propos qui va à l’encontre de la manière dont on valorise les données aujourd’hui. L’enjeu n’est pas leur transparence ou leur ouverture, qui profitent trop souvent à ceux-là mêmes qui profitent également de leur opacité, mais bien à la libération des personnes que les données calculent : libérer les gens plutôt que de seulement libérer les données !

Un point de vue neutre ne l’est jamais

Cet exemple souligne l’asymétrie profonde de la data science aujourd’hui : la collecte et l’analyse de données se déroulent sans avoir à rendre de compte aux personnes et groupes concernés et ce d’autant plus que ces groupes et personnes sont le moins en capacité de se défendre. En data science, les femmes et les groupes les plus marginalisés sont absents des équipes qui décident : et personne ne pense que c’est un problème ! A la suite de Donna Haraway, les chercheuses rappellent qu’un point de vue neutre ne l’est jamais. Si nous voulons parler d’objectivité en data science, alors nous devons porter attention à la perspective par défaut que défend cette prétendue objectivité. Klein et D’Ignazio défendent une co-libération plutôt qu’une responsabilité (qui consiste à libérer les gens plutôt qu’à libérer les données), la justice plus que l’éthique, l’équité plus que la loyauté, la réflexivité plus que la transparence, la compréhension de l’histoire, de la culture et du contexte plus que la compréhension des algorithmes.

Le féminisme des données repose sur 7 principes qui dirige son action :

  • Examiner le pouvoir : le féminisme des données commence par l’analyse du fonctionnement du pouvoir.
  • Défier le pouvoir : Le data féminisme s’engage à remettre en question les structures de pouvoir inégales et à œuvrer pour la justice.
  • Valoriser l’émotion et l’incarnation. Le féminisme des données nous apprend à valoriser de multiples formes de connaissances, y compris celles qui proviennent des personnes en tant que corps vivants et sensibles dans le monde.
  • Repenser le binarisme et les hiérarchies. Le féminisme des données nous oblige à remettre en question le binaire du genre, ainsi que d’autres systèmes de comptage et de classification qui perpétuent l’oppression.
  • Adopter le pluralisme. Le féminisme des données insiste sur le fait que la connaissance la plus complète provient de la synthèse de perspectives multiples, la priorité étant donnée aux modes de connaissance locaux, autochtones et expérientiels.
  • Tenir compte du contexte. Le féminisme des données affirme que les données ne sont pas neutres ou objectives. Elles sont le produit de relations sociales inégales, et ce contexte est essentiel pour mener une analyse précise et éthique.
  • Rendre le travail visible. Le travail de la science des données, comme tout travail dans le monde, est le travail de nombreuses mains. Le féminisme des données rend ce travail visible afin qu’il soit reconnu et valorisé.

Data Feminism n’est pas seulement un propos sur les femmes ou le genre. C’est une réflexion sur l’émancipation par la science des données. La force du livre de Klein et D’Ignazio est de bâtir une réflexion politique sur les données et les calculs… de politiser la science des données sans la réduire à une injonction à l’ouverture ou à l’amélioration sans fin des données. Ce n’est pas un petit pas de côté !

Comme Caroline Criado-Perez, les deux chercheuses pointent combien les données sont faillibles, combien elles masquent d’innombrables lacunes de connaissance. Elles reviennent par exemple sur les complications postnatales que connaissent les femmes, et notamment les femmes noires (qui, aux Etats-Unis, ont trois fois plus de risque de mourir d’une complication postnatale que les femmes blanches). Ces différences structurelles sont connues depuis longtemps des associations comme Black Mamas, mais moins au-delà. La presse s’y est certes intéressée (Propublica par exemple), mais ni le détail des complications ni le nombre de femmes noires qui étaient concernées n’étaient détaillés. En 2018, USA Today montrait qu’il n’y avait pas de système national de suivi des complications subies pendant la grossesse et l’accouchement (voir également l’infographie), ni de système de rapport pour s’assurer que les hôpitaux respectaient les normes de sécurité (alors que ces modalités de reporting existent pour d’autres types d’opérations). Ce que nous choisissons de mesurer montre avant tout ce à quoi nous portons de la valeur. Ou pour le dire autrement, « ce que nous tolérons indique ce que nous sommes vraiment« , comme le disait Caterina Fake. Or, bien souvent, les problèmes de pouvoir structurels, systémiques, sont invisibles tant que les gens qui y sont confrontés ne les mettent pas à jour. Pour les deux chercheuses, l’invisibilité est un produit de la science des données et de la « matrice de domination » (un concept que forgea la sociologue Patricia Hill Collins) qui s’imposent à tous et plus encore à ceux qui sont à l’intersection de genre, de race, d’identité, de capacité, d’origine… des systèmes d’oppression.

Il faut prendre conscience de l’éléphant qui se cache dans les data centers. Pas plus les données que ceux qui pratiquent cette science ne sont représentatifs. « Les risques encourus lorsque des personnes issues de groupes dominants créent la plupart de nos produits de données – ne sont pas seulement que les ensembles de données soient biaisés ou non représentatifs, mais d’abord qu’ils ne soient jamais collectés du tout ». Comme le dénonce l’artiste Mimi Onuoha depuis son projet de Bibliothèque de jeux données manquants : qui montre un classeur rempli de dossiers de données vides. Le livre de Criado-Perez comme la fondation Data2X pointent très bien cette « fracture systématique des données de genre ». Pour combler ces lacunes, l’enjeu, bien sûr, consiste à développer et promouvoir un activisme des données, une forme de science des données participative pour collecter justement les données manquantes, à l’image du projet de surveillance communautaire AirBeat du quartier noir de Roxbury à Boston qui souhaitait collecter des données pour dénoncer la piètre qualité de l’air, ou de celui initié dès 1895 par la militante des droits civiques Ida B Wells sur les agressions et lynchages à l’encontre des noirs aux Etats-Unis. Les initiatives de « contre-données » sont nombreuses, à l’image du minutieux travail de Maria Salguero qui compile des informations sur les féminicides au Mexique depuis 2016. Ces initiatives comblent souvent des vides de données, des manques, des lacunes, des négligences statistiques… qui concernent trop souvent les corps minorisés qui ne détiennent pas le pouvoir. Pourtant, bien souvent, le problème n’est pas tant l’absence de données que l’inverse : les bases de données et les systèmes de données des institutions les plus puissantes sont construits sur et pour la surveillance excessive des groupes minoritaires, comme le montrait Virginia Eubanks dans son livre. Ces formes de surveillance excessives reposent souvent sur deux hypothèses erronées : croire que plus de données est toujours mieux et que les données sont neutres. Or, dans le cadre du modèle de prévision du risque de maltraitance des enfants en Pennsylvanie qu’étudiait Eubanks, la disproportion de parents pauvres dans la base de données concentre ses effets sur la pauvreté plus que sur la maltraitance. Pour Klein et D’Ignazio, « les données ne sont jamais neutres ; elles sont toujours le résultat biaisé de conditions et d’inégalités sociales, historiques et économiques ». La science des données masque souvent ses objectifs réels sous un principe d’efficacité qui ne tient pas compte de ses biais. Le système de prévision du risque de maltraitance visait avant tout à produire un mécanisme pour suppléer un personnel limité. La solution technique proposée ne visait pas tant à répondre à la maltraitance des enfants qu’à accélérer la capacité de traitement du donneur d’ordre. Comme le montrait l’exemple de Target, derrière la neutralité des déploiements techniques, les entreprises privilégient toujours leurs objectifs à ceux des personnes qu’elles sont censées servir.

Pour D’ignazio et Klein, la science des données est utilisée presque exclusivement au service du profit, de la surveillance et de l’efficacité. Cela s’explique certainement parce que les données restent coûteuses à produire et que seules les institutions puissantes peuvent les travailler. Les données servent principalement les objectifs des institutions et notamment à consolider leurs contrôles sur leurs clients. L’extractivisme de données engendre une profonde asymétrie entre ceux qui calculent et ceux qui sont calculés. Pour renverser ce paradigme, il est nécessaire d’être attentif à l’impact des données et à qui les assemble. A l’image de l’application IRTH développée par Kimberly Seals Allers, une application à destination des mères de la communauté noire, pour à la fois documenter leurs problèmes spécifiques, les mettre en avant et leur trouver des solutions adaptées. Pour D’Ignazio et Klein, comprendre et examiner qui détient le pouvoir sur les données ne sert pas seulement à comprendre, mais doit d’abord servir à contester ce pouvoir et à le changer, le renverser. Pour le dire autrement, c’est les gens et leurs corps qui doivent nous dire quelles données vont améliorer leur vie et comment. Plus encore, si la donnée ne fait qu’informer, que rendre plus efficace des formes d’extraction et de domination, alors elle rate son objectif principal : libérer celles et ceux qui sont l’objet des données et des calculs.

Co-libérer : libérer les gens plus que les données

Le Féminisme de données vise à remettre en question les structures de pouvoir. Trop souvent, « les données sont déployées pour soutenir les intérêts des personnes et des institutions en position de pouvoir ». Remédier à ce problème nécessite donc de compiler ses propres « contre-données », de cartographier l’oppression et cela ne peut se faire que depuis d’autres points de vue et donc par d’autres personnes. L’identité de ceux qui produisent les données, leur proximité avec le sujet, les conditions de la collaboration et la direction du projet sont essentielles. La science des données est essentielle pour contester le pouvoir, car l’examiner est essentiel. L’enjeu n’est pas tant l’équité que la co-libération, insistent les deux chercheuses. Le travail mené par Julia Angwin et ProPublica en 2016 sur les biais des systèmes d’évaluation de risque de récidive utilisés par le système judiciaire américain a montré combien les 137 questions qui président à ces évaluations encodaient les inégalités structurelles de la société américaine. Ruha Benjamin évoque d’ailleurs le concept de « nouveau code Jim » pour évoquer combien les systèmes techniques encodent le racisme de la société américaine. « Les données sont toujours le produit de relations sociales inégales ». Comme l’explique Ben Green dans son livre, l’apprentissage automatique prédit plus le passé que l’avenir. Le problème est que les résultats de ces calculs sont activement promus comme objectifs ou neutres, alors qu’ils ne le sont pas. Et cela devient bien plus difficile à mesure que les calculs sont barricadés dans des boîtes noires inscrutables, protégées derrière le droit des sociétés, et donc nécessitant de construire ses propres ensembles de données pour contourner leur inaccessibilité.

Pourtant, si l’analyse et la dénonciation de l’oppression des données peuvent obliger les institutions à rendre des comptes, l’efficacité de la production de contre-données ne suffit pas. Les données de Maria Salguero sur les féminicides ont eu besoin d’être complétées par des commissions gouvernementales, des rapports d’ONG et des décisions de tribunaux pour produire des effets concrets. Les contre-données ne suffisent donc pas à produire du changement, d’autant plus que les données et les calculs sont toujours considérés comme moins partiaux que les individus, plus objectifs par nature. Mais ce n’est le cas que parce que les perspectives de ceux qui les produisent passent pour la valeur par défaut. L’objectivité n’est pourtant pas immanente.

L’éthique des données vise à produire de la responsabilité et de la transparence pour remédier à ce manque d’objectivité. Mais pour les chercheuses, les termes posent problème. Il nous faut passer de concepts qui sécurisent (et entérinent le pouvoir) à des concepts qui le défient, expliquent-elles en nous invitant à modifier les concepts que nous utilisons dans les discussions sur l’utilisation des données et des algorithmes. En passant de l’éthique à la justice, du biais à l’oppression, de la loyauté à l’équité, de la responsabilité à la co-libération, de la transparence à la réflexivité, de la compréhension des algorithmes à la compréhension de l’histoire, de la culture et du contexte… l’enjeu est de sortir de la recherche de solutions technologiques aux problèmes que pose la technologie.

Principes du féminisme des données
Image : traduction du tableau de synthèse proposé par Klein et D’Ignazio des principes du Féminisme des données.

Pour D’Ignazio et Klein, ce tableau ne signifie pas par exemple que l’éthique n’a pas sa place dans la science des données ou que la question des biais ou de la transparence ne devrait pas être abordée, mais que ces concepts ne suffisent pour rendre compte des causes profondes de l’oppression et limitent finalement l’éventail de réponses pour démanteler l’oppression ! C’est un moyen de remettre de la politique là où certains tentent de l’ôter pour mieux conserver le pouvoir. La capacité à dépolitiser les questions n’est que le privilège de ceux qui ont déjà le pouvoir. D’où la nécessité de parler de justice plutôt que d’éthique, d’équité plus d’égalité comme nous y invitait Sasha Costanza-Chock. Le biais par exemple n’est pas un concept suffisamment fort pour ancrer les idées d’équité et de justice. En effet, pour l’éviter, on a tendance à vouloir enlever les humains de la boucle de décision, au motif que leurs préjugés personnels seraient la principale raison de la continuation des discriminations. Mais ce raisonnement suppose que le racisme par exemple serait plus le fait de mauvais acteurs individuels que de structures ou de systèmes. Alors qu’en fait, remplacer les travailleurs sociaux – qui sont souvent des femmes voire des femmes de couleur, qui font preuve d’empathie et de capacités d’écoute – par des systèmes automatisés qui appliquent un ensemble de critères rigides quelles que soient les circonstances, ne nous prémunit pas des préjugés structurels, au contraire ! « Partir du principe que c’est l’oppression qui est le problème, et non les préjugés, conduit à des décisions fondamentalement différentes sur ce sur quoi il faut travailler, avec qui il faut travailler, et quand il faut se lever et dire qu’un problème ne peut et ne doit pas être résolu par les données et la technologie. »

L’enjeu donc n’est pas tant d’ouvrir ou libérer les données, que de libérer les personnes ! La clé de cette co-libération nécessite un engagement et la croyance dans un bénéfice mutuel, tant pour les groupes dominants que pour les groupes minorisés. La libération des uns et des autres est liée. C’est ce qui motive par exemple le projet Our Data Bodies et son Digital Defense Paybook (dont nous avions déjà parlé). La co-libération nécessite également de nouveaux outils et un autre état d’esprit. « Partir du principe que l’oppression est le problème, que l’équité est la voie à suivre et que la co-libération est l’objectif souhaité conduit à des projets fondamentalement différents qui remettent en cause le pouvoir à sa source. » Cela nécessite aussi de mesurer différemment la réussite d’un projet. La réussite ne repose plus alors sur l’efficacité d’une base de données, la précision d’un algorithme ou la taille de la base de données, mais plutôt du degré de confiance établi, du partage du pouvoir et des ressources, de l’ampleur de l’apprentissage de ceux qui y participent, de la transformation des personnes et des organisations par le processus, de la quantité d’inspiration nouvelle engendrée ! Des objectifs qui sont certes plus flous à mesurer, mais qui peuvent l’être tout de même !

Lorsque Gwendolyn Warren et les chercheurs du Detroit Geographic Expedition and Institute dans les années 70 ont recueilli des données sur les accidents de voiture impliquant les enfants noirs à Détroit, ils l’ont fait pour que les chercheurs rendent à la communauté les connaissances qu’ils exploitaient et permettent à la communauté de créer une stratégie pour combattre les discriminations qu’elle subissait. Pour Warren, l’éducation était un mécanisme d’autonomisation et de transformation.

Pour y parvenir, il faut encore que les femmes comme les personnes de couleurs soient plus nombreuses dans les salles de classe de la science des données, alors que 80 % des professeurs en IA et que 66 % des professeurs d’informatique et de statistiques sont des hommes. Cela nécessite aussi de s’extraire de la croyance que tout cela ne serait qu’une question technique. Pour Laurie Rubel (@Laurie_Rubel), à l’origine du projet Local Lotto (voir également ici), l’enjeu est d’enseigner autrement les mathématiques en tenant compte de l’équité. Laurie Rubel a proposé à des élèves du secondaire de répondre à la question : est-ce que la loterie est bonne pour votre quartier ? Les billets de loterie ont une production sociale. Ils sont bien plus achetés par les travailleurs à bas salaires que par les plus riches. Lors de ces exercices, les élèves devaient parcourir leur quartier pour dresser des cartographies, rencontrer des acheteurs… comprendre les enjeux. Ce travail leur a permis surtout de rétroagir sur leurs communautés, pour leur montrer combien la loterie leur était défavorable. Local Lotto utilise la science des données pour construire une approche concrète et sociale, plutôt qu’abstraite et technique et aider à permettre aux acteurs d’en prendre conscience pour y remédier. Le projet vise à adresser des problématiques d’inégalités de la vie quotidienne. Il valorise l’expérience vécue et le partage. « La justice est un voyage » qui nécessite de travailler aux problèmes que l’injustice cause. Examiner le pouvoir ne suffit pas, rappellent les deux chercheuses. Il faut aussi le remettre en question. Pour cela, il faut prendre l’oppression et l’inégalité comme une hypothèse de base pour créer des systèmes. Cela nécessite d’apprendre des communautés et de concevoir les systèmes avec elles.

Privilégier l’incarnation et l’émotion à la fausse neutralité

Contrairement à ce que l’on pense trop souvent, l’objectivité des données nécessite non pas de promouvoir une forme de neutralité immanente, mais au contraire de mieux les incarner, c’est-à-dire de mieux montrer et valoriser leur subjectivité intrinsèque. C’est ce que propose par exemple Periscopic dans sa formidable infographie sur le nombre de personnes tuées par arme à feu aux Etats-Unis. Contrairement à une présentation traditionnelle du phénomène, l’infographie de Periscopic valorise l’émotion en permettant d’accéder aux informations individuelles sur chaque personne tuée par arme à feu aux Etats-Unis et en totalisant le nombre moyen d’années volées à toutes ces vies !

Capture d'image de l'infographie de Periscopic sur le nombre de personnes tuées par arme à feu aux Etats-Unis

Cette approche a généré certaines critiques. Alberto Cairo, auteur d’un livre sur la visualisation de données, The Truthful Art (New Riders, 2016, non traduit), estime que l’infographie de Periscopic instrumentalise une cause par l’émotion, alors que la visualisation doit rester neutre ! Dans A Unified Theroy of Information Design (Routledge, 2013, non traduit), Nicole Amare et Alan Manning, expliquent que la visualisation doit rester neutre. La sobriété est nécessaire pour que les lecteurs interprètent les résultats par eux-mêmes. Dans le domaine de la communication de données, l’ornement est souvent considéré comme suspect.

Comme le dit l’historien des sciences Theodore Porter, « la quantification est une technologie de la distance », c’est-à-dire qui met à distance sous principe d’objectivité. La neutralité en est l’idéal. C’est oublier que persuasion est partout, même dans le dépouillement de simples feuilles de calcul ou des plus simples graphiques. Haraway a pourtant été la première à souligner le lien entre l’apparente neutralité et l’objectivité des données. Pour elle, la visualisation de données encourage trop souvent à voir les phénomènes depuis nulle part – voire de loin ou d’en haut. Ce point de vue, cette « ruse », cependant présente comme neutre une perspective partielle, qui est là encore, bien souvent, la perspective du groupe dominant. Pour le grand spécialiste de statistique et de visualisation de l’information, Edward Tufte (@EdwardTufte), le concepteur de visualisation doit s’efforcer d’utiliser l’encre uniquement pour afficher les données… tout embellissement est suspect. Le minimalisme visuel est rationnel. Les éléments décoratifs sont tous suspects d’œuvrer à des formes de persuasion émotionnelle.

La recherche féministe a beaucoup critiqué cette opposition entre raison et émotion, qui vise plus à structurer et imposer des hiérarchies implicites qu’autre chose. Pour D’Ignazio et Klein, le minimalisme visuel n’est pas si neutre qu’il le clame. Trop de théoriciens et de praticiens de la visualisation de données relèvent des disciplines techniques de l’ingénierie et de l’informatique, mais oublient que tout objet, aussi neutre soit-il présenté, est rhétorique. Dans un visuel, un même constat peut être présenté de manière très différente selon sa représentation ou le discours qui l’accompagne, à l’image d’un même graphique factuel sur le chômage proposé par le New York Times, présentant les données selon un point de vue démocrate ou républicain. En fait, soulignent les chercheuses, la visualisation de données dépend toujours d’une interprétation. Les choix éditoriaux qui produisent une visualisation ont des effets de cadrage qui obscurcissent ou mettent en évidence certaines choses plutôt que d’autres. Les conventions autour du minimalisme favorisent une perception de visualisation comme étant neutre et objective. Au final, même les visualisations les plus simples, les plus factuelles, ne sont pas neutres. Par contre, elles sont très persuasives.

Dans une approche féministe des données, expurger toutes traces humaines pour produire une neutralité de façade n’est pas la bonne approche. L’enjeu, au contraire, consiste à affirmer la nature située des connaissances, à affirmer leur partialité. Pour D’Ignazio et Klein, il est nécessaire de rendre les données plus « viscérales » plutôt que neutres. L’émotion n’est pas aussi irrationnelle et illégitime que beaucoup la tiennent. Notre compréhension du monde est une combinaison d’expériences, d’intuitions, de raisons et d’émotions. En 2010, Kelly Dobson a fondé le groupe de recherche Data Visceralization, avec l’objectif de produire des données à ressentir, à expérimenter avec le corps, tant physiquement qu’émotionnellement. Cette viscéralisation n’était pas qu’une expérimentation créative. Pour ceux qui ont animé ce groupe de travail, l’enjeu était de rappeler que nous ne sommes pas des yeux attachés à un cerveau. La viscéralisation des données poursuit également un but d’accessibilité : les données ne peuvent être seulement visuelles. Klein et D’Ignazio évoquent ainsi le travail du Bureau de recherche créative pour le MoMA de New York qui s’est joué (vidéo) du catalogue des 123 951 oeuvres de la collection en faisant lire le nom des artistes masculins par des hommes et ceux des artistes féminins par des femmes pour souligner la nature hautement sexuée des collections… ou encore le travail du collectif Guerrilla Girls qui soulignait que pour entrer au Metropolitan Museum of Art, il fallait assurément être une femme nue arguant que les femmes nues sont le principal sujet des tableaux alors que les artistes femmes, elles, sont inexistantes dans les collections. Faire des données des expériences permet de casser la vue d’ensemble que les visualisations proposent et permettent de faire l’expérience des enjeux peu à peu. L’enjeu est ici de ressentir la différence de genre plutôt que de seulement la voir, comme s’ils s’adressaient à une autre partie du cerveau.

Infographie des Guerilla Girls
Image : « Moins de 5 % des artistes des sections art moderne du musée sont des femmes, mais 85 % des nus sont des femmes », infographie des Guerilla Girls, 1989.

Un autre enjeu également dans les représentations visuelles, consiste à mieux faire figurer l’incertitude, comme d’arriver à montrer la fourchette d’incertitude de sondages. Lors de l’élection de Trump en 2016, les simulations produites par les sondages étaient plus incertaines dans les intentions de vote que leurs représentations. Pour Klein et D’Ignazio, le fait que nombre de graphiques aient suggéré que Clinton allait gagner tient beaucoup au refus de montrer l’incertitude que les sondages exprimaient. Ajoutez-y les biais de nos propres raccourcis mentaux qui tendent à nous faire croire que l’avance d’une candidate sur l’autre tient d’une probabilité plus forte qu’elle gagne… Et vous comprenez mieux le risque à ne pas s’ouvrir à l’incertitude des données. Pour les deux chercheuses, ces exemples doivent nous rappeler que le contexte est roi en matière de visualisation.

Interroger les classements et les catégories

Le féminisme des données oblige à sortir des dichotomies et donc à repenser les catégories et hiérarchies. De nombreux problèmes d’inégalité structurelle sont des problèmes d’échelles. Trop souvent, seul ce qui est compté compte, et ce qui n’est pas compté ne compte pas, rappellent les chercheuses. Ici, il est nécessaire également de nous défier de l’affichage de grands principes. Ainsi, quand Facebook a élargi les modalités pour indiquer son genre, cette nouveauté a été saluée comme le signe d’une grande ouverture. Pourtant, comme l’ont montré les travaux de Rena Bivens (@renabivens), Facebook a continué de résoudre le genre des utilisateurs de manière binaire pour ses clients payants. Mêmes constats en ce qui concerne la politique des « vrais noms » de Facebook qui est justifiée pour des raisons de sécurité, mais qui met activement en danger les utilisateurs les plus marginaux de la plateforme, comme l’ont montré Oliver Haimson et Anne Lauren Hoffmann, par exemple ceux qui portent des noms Amérindiens où les personnes qui cherchent à masquer leurs identités parce qu’elle peut leur porter préjudice.

Les féministes, comme les militants antiracistes et homosexuels, ont beaucoup réfléchi aux problèmes de classification, notamment parce que cela les affectait directement. La solution pourtant ne consiste pas à refuser le classement, mais à nous interroger sur la manière dont les systèmes de classification sont construits, sur la manière dont ils encodent les valeurs et jugements, sur comment ils sont construits et dans quel but, comme l’expliquent Geoffrey Bowker et Susan Leigh Star dans Sorting Things Out (MIT Press, 2000, non traduit). Le problème consiste toujours à savoir s’il vaut mieux être compté ou pas. C’est le paradoxe de l’exposition ou de la classification. Pour un sans papier par exemple, être dénombré peut-être problématique selon ce qui est fait de ce dénombrement. Du point de vue du féminisme de données, la question est toujours de savoir si ce sont les catégories qui sont inadaptées ou le système de classification. A quoi sert-il par exemple que les scanners corporels des aéroports distinguent les hommes des femmes et s’affolent dès qu’une personne ne correspond pas à cette normativité réductrice ?

L’Association médicale américaine qualifie désormais le genre de spectre, plutôt que sur un mode binaire. L’organisme de santé publique britannique a lui développé un questionnaire inclusif et sensible qui permet d’ouvrir la question des catégories de genre en proposant des modalités de non divulgation. En fait, soulignent les chercheuses, selon les circonstances, l’institution qui collecte, et le but de ces collectes, les décisions éthiques peuvent varier. Pour le dire plus simplement, l’éthique ne peut être bornée : chaque comptage nécessite de reposer les questions de contexte et de pouvoir : faut-il compter selon le genre ? Quand et comment ? Même constat du côté de la couleur de peau… Mais la réponse à ces questions n’est possible qu’en répondant à la question à qui et à quoi servent ces comptages et plus encore en assurant que leur utilité reste circonscrite à l’objectif formulé – ce qui est plus difficile à assurer, notamment dans le monde des données, où un comptage, par nature, peut-être réutilisé à d’autres fins. Enfin, soulignent les chercheuses, la question du consentement à ces différents types de comptages est essentielle, pour les groupes minoritaires et notamment du fait des préjudices potentiels qu’il y a à distinguer les gens selon leurs identités fait peser sur eux. Respecter les gens qui sont derrière les données peut sembler tenir de l’évidence. C’est pourtant si rarement le cas qu’il faut bien le rappeler (signalons d’ailleurs sur ce sujet, le travail stimulant du Manifeste pour des technologies pleinement consenties, qui propose des principes pour des technologies de « plein consentement » : sans pression, réversibles, informées, enthousiastes et spécifiques) !

Historiquement, compter a toujours été utilisé pour dominer, discipliner et exclure. C’est pour cela qu’il est nécessaire d’interroger notre infrastructure de classification. Les chiffres ne sont pas toujours des outils d’oppression, mais ils doivent être travaillés pour rééquilibrer la répartition inégale du pouvoir.

Notre besoin de diversité est impossible à rassasier

Pour le féminisme de données, la connaissance la plus complète provient de la synthèse de perspectives multiples, et notamment les plus locales, les plus expérientielles… Sur le site Anti Eviction Map qui lutte contre les expulsions à San Francisco on trouve une centaine de cartes différentes. Beaucoup ont été produites en collaboration avec des organisations différentes afin de documenter le phénomène de l’expulsion dans sa plus complète diversité. L’une des cartes par exemple, montre que la concentration des expulsions recoupe celle des arrêts des Bus qui viennent chercher les employés des grandes entreprises de la tech. Toutes les cartes ne sont pas aussi lisibles, mais l’objectif reste de documenter ce qu’il se passe de multiples façons. Plutôt que de raconter une seule histoire « vraie » ou consensuelle, l’enjeu est aussi de reconnaître les versions multiples voire contradictoires de la réalité, explique l’architecte Katie Lloyd Thomas (@ktlloydt), fondatrice du collectif féministe Taking Place. Pour le féminisme de données, l’enjeu est d’adopter le pluralisme, de valoriser les voix, les points de vue, de la collecte à la communication… Pour se faire, il faut se défaire de la façon dont les méthodes de la science des données ont tendance à supprimer les voix, au profit de la clarté, de la propriété ou du contrôle.

Trop souvent, l’un des principaux aspects du travail du data scientist consiste à nettoyer les données pour mieux les structurer, un travail d’entretien à la fois patient et minutieux, et également un travail d’organisation glorifiant visant à dompter le chaos des chiffres. Le problème, c’est que ces processus contribuent à faire disparaitre des perspectives et à en imposer d’autres. Nettoyer les données consiste aussi à les contrôler. « Cette croyance selon laquelle les données doivent toujours être propres et contrôlées a des racines historiques douteuses ». Trop souvent, le nettoyage est « une astuce pour réduire la diversité », comme l’ont expliqué Katie Rawson (@katie_rawson) et Trevor Munoz (@trevormunoz) dans leur article « Contre le nettoyage ». Le désordre des données est riche d’informations sur les circonstances de leur collecte. Trop souvent, leur nettoyage permet qu’elles soient plus accessibles à d’autres qu’à ceux qui les ont collectés. En fait, expliquent Klein et D’Ignazio, ce nettoyage des données élargit surtout leur disponibilité et notamment leur disponibilité à un plus large niveau, les coupant du contexte de leur production. Ce nettoyage bénéficie également aux data scientists, à ces génies solitaires, souvent blancs et masculins, dont la maîtrise individuelle et l’expertise technique semblent sans bornes. L’un de ces génies est Matthew Desmond (@just_shelter), directeur de Laboratoire de l’expulsion (@evictionlab) à l’université de Princeton et auteur d’Avis d’expulsion, enquête sur l’exploitation de la pauvreté urbaine (Lux éditeur, 2019). La difficulté pour le laboratoire a longtemps consisté à trouver sur quelles données baser ses recherches. Faut-il privilégier des données plus propres et à grandes échelles, faciles à traiter et à acheter où des données plus précises, à l’échelle locale, comme celles produites par Anti Eviction Map mais qui nécessitent d’établir une relation de confiance afin qu’elles ne soient pas utilisées n’importe comment ? Comme nombre d’acteurs dans le domaine des données, le laboratoire a donné la priorité à la rapidité sur la précision. A l’inverse, si l’Anti Eviction Map a privilégié la diversité, leur décision a aussi contribué, de manière tout à fait intentionnelle, à renforcer les capacités techniques et relationnelles des acteurs locaux. L’enjeu était bien de construire une solidarité entre participants afin qu’ils s’entraident dans la lutte contre les expulsions, qu’ils apprennent les uns des autres. La multiplicité permet d’obtenir une image plus complète d’un problème et en renforce les collectifs. Encore faut-il parvenir à reconnaître la partialité de sa compréhension. Cela suppose, bien souvent, de donner accès aux données utilisées et de décrire les méthodes employées. Mais également de compléter ces informations en précisant qui a travaillé sur ces données, quels étaient les points de tensions…

« La prise en compte de la valeur des perspectives multiples ne doit pas se limiter à la transparence et à la réflexivité. Il s’agit également d’inviter activement et délibérément d’autres points de vue dans le processus d’analyse et de narration des données – plus précisément, ceux des personnes les plus marginalisées dans un contexte donné. » Pour l’Anti Eviction Map cela signifie centrer ses données sur les voix et les expériences de ceux qui ont été expulsés, à l’image de la proposition du réseau de Design Justice qui souhaite centrer son travail sur ceux les plus touchés par les données. Pour Klein et D’Ignazio, l’enjeu est bien ici de concevoir des projets de co-libération plutôt que des « données pour le bien » (ce qu’on appelle le mouvement « Data for good », un réseau de réseaux international qui promeut l’usage de la donnée pour l’intérêt général). Si le mouvement Data for good décrit des projets de science des données socialement engagés, que signifie faire le bien ? De quel bien parlons-nous ? Au profit de qui ? Pour la spécialiste en machine learning chez Google Brain et fondatrice de Delta Analytics, Sara Hooker (@sarahookr), ce concept manque de précision, notamment parce que l’engagement ne suffit pas à qualifier l’objectif – l’ingénieur Ben Green faisait une critique assez proche (.pdf) (dont nous avions rendu compte), soulignant les limites à renforcer le bien social sans interroger l’engagement. A l’inverse, la co-libération repose sur la dénonciation et la résolution des relations de pouvoir asymétriques. La co-libération présuppose une lutte qui qualifie l’enjeu… et augmente l’engagement d’objectifs, que ce soit le transfert de connaissance ou la création d’une infrastructure sociale dédiée, que ce soit pour la prise de conscience ou pour armer la lutte sociale. Elle implique des échanges à double sens pour renforcer les capacités techniques de la communauté et un renforcement de la solidarité, par exemple en allouant des ressources à l’infrastructure communautaire et pas seulement une aide technique. « Dans le modèle de co-libération, les projets de science des données deviennent des projets de science communautaire. Ils se déroulent simultanément dans la base de données et dans l’espace public. » L’enjeu est de construire une compréhension partagée autour d’une question et de mobiliser autour de cette compréhension pour en décliner des actions. Les données sont un moyen de générer une prise de conscience et de l’activer. En cela, la co-libération devient une « technologie de rassemblement », où « les informations sont échangées, la cohésion sociale est renforcée et les actions futures sont co-conspirées », une forme de « feu de camp » pour réactiver la participation politique, expliquent Kein et D’Ignazio – une forme de nouvelle cartographie d’alliances.

L’enjeu n’est pas pourtant de rester petit ou local. Les données peuvent aussi permettre d’atteindre d’autres échelles de co-libération, expliquent les chercheuses en évoquant le projet d’Atlas mondial de la justice environnementale, initié par Leah Temper et Joan Martinez-Alier qui collecte des informations sur les conflits écologiques depuis les luttes mêmes de ces acteurs. Certes, l’approche est plus pluraliste, participative et itérative que les approches extractivistes et quantitatives du Big data traditionnel, mais en fin de compte, même si cela prend plus de temps, les données, les relations et les capacités des communautés produites sont d’une bien meilleure qualité.

Les chiffres ne parlent pas d’eux-mêmes

Le féminisme des données affirme que les données ne sont ni neutres ni objectives. Elles sont le produit des inégalités et, sans contexte, elles ne disent rien : ne sont ni précises ni éthiques.

En 2014, le célèbre blog FiveThirtyEight a publié un article montrant que l’enlèvement de jeunes femmes au Nigeria était un problème qui empirait. Mais l’article a dû rapidement être rétracté. Le site avait utilisé une base de données mondiale spécialisée sur les conflits, le GDELT. Le problème est que cette base collecte des articles de presse en démultipliant les faits depuis les sources. FiveThirtyEight avait compté chaque article comme un événement alors que beaucoup d’articles de presse relayés décrivaient le même événement. L’histoire raconte la difficulté à agréger des données dont on ne sait pas grand-chose, à notre tendance à surestimer l’exhaustivité sur l’exactitude. Certains chercheurs parlent de « Big Dick Data » pour qualifier des projets qui fétichisent la taille, exagèrent leurs capacités scientifiques ou techniques et ignorent le contexte. Nous sommes de plus en plus cernés par des portails de données qui permettent de télécharger ou d’échanger de vastes ensembles de données, dans un modèle d’accès illimité à l’information que nous considérons trop souvent comme un bien inhérent.

L’un des principes centraux de la pensée féministe est que toute connaissance est située, nécessitant de relier les données au contexte de leur production pour mieux comprendre leurs limites fonctionnelles, les obligations éthiques associées et la manière dont le pouvoir a contribué à leur élaboration. Trop souvent, pourtant, rappellent les chercheuses, les jeux de données sont fournis sans contexte ni métadonnées, c’est-à-dire sans informations sur leur provenance et sans dictionnaires pour les décrire. Klein et D’Ignazio donnent l’exemple simple et courant d’un jeu de données sur les dépenses de la ville de Sao Paulo au Brésil. Le jeu de données n’est pas difficile à comprendre en tant que tel, mais le processus qui l’a produit est bien moins clair. Comment la ville gère-t-elle ses appels d’offres ? Comment décide-t-elle de leur attribution ? Les offres publiées correspondent-elles à toutes les offres ou seulement à celles qui ont passé un contrat avec la ville ? Qu’est-ce qui explique les variations de numérotation ?… Or sans réponses, il semble difficile d’explorer, analyser ou traiter ces données. Comme l’explique Christine Borgman (@scitechprof) dans son livre Big Data, Little Data, No Data (MIT Press, 2015, non traduit) : une infrastructure de connaissances est « une écologie de personnes, de pratiques, de technologies, d’institutions, d’objets matériels et de relations ».

Klein et D’Ignazio rappellent rapidement l’histoire du mouvement pour l’ouverture des données publiques, né au milieu des années 2000 d’une conjonction d’acteurs (gouvernements, associations, individus et militants) pour favoriser l’accès aux données, ces nouveaux types de documents publics. Sous prétexte de promouvoir le développement économique par la création de services les utilisant, d’accélérer le partage de connaissance et la science, et d’améliorer la transparence démocratique, nombre d’États, de villes et régions ont peu à peu ouvert des portails de données. Mais, comme elles le rappellent encore, le financement limité a conduit à prioriser l’ouverture de certaines données sur d’autres et surtout a rarement permis de documenter les jeux de données. Pour le spécialiste de l’ouverture des données britannique, Tim Davies (@timdavies), on s’est parfois retrouvé face à des « décharges de données brutes », incapables d’assurer l’engagement ou la responsabilité. Nombre de jeux de données demeurent peu utilisés, attendant que « les utilisateurs entreprennent le travail intensif de déchiffrer les arcanes bureaucratiques qui obscurcissent leur signification ». On parle aussi de données zombies pour désigner des ensembles de données publiés sans objectifs ou cas d’utilisation. Qu’importe ! Finalement, comme l’affirmait Chris Anderson de Wired en 2008, toute théorie devenait inutile, les données parleraient d’elles-mêmes ! Mais la corrélation sans contexte est clairement insuffisante, comme le montrait Safya Umoja Noble (@safiyanoble) dans son livre Algorithms of Oppression (NYU Press, 2018, non traduit), en démontrant que les résultats de Google Search ne sont pas seulement racistes et sexistes à l’image de nos sociétés, mais entretiennent le sexisme et le racisme en renvoyant vers ces contenus sous prétexte de les classer en fonction des liens et de leur audience, encourageant finalement leur audience dans une boucle de circulation perpétuelle.

Depuis 1990, suite au meurtre de Jeanne Clery, une loi visant à améliorer la collecte de données relatives aux crimes commis sur les campus américains a été votée, imposant de mettre à la disposition du public ces statistiques. En 2016, trois étudiants en journalisme de données ont téléchargé ces données collectées par le Clery Center (@CleryCenter) pour comprendre ce qu’il en était de la culture du viol sur les campus. Ils se sont rendu compte qu’un petit établissement rural du Massachusetts semblait connaître bien plus d’agressions sexuelles que la prestigieuse université de Boston. En enquêtant, ils se sont rendu compte que certains établissements publiaient leurs chiffres et que d’autres avaient les ressources institutionnelles nécessaires pour les minimiser, notamment en accompagnant les victimes pour minimiser les plaintes. Les chiffres ne parlent pas d’eux-mêmes à nouveau, les données sont bien souvent « cuites et recuites » que brutes, c’est-à-dire toujours obtenues, toujours travaillées et retravaillées, sensibles à nombre de facteurs externes qui président aux multiples étapes de leur production. Bien souvent, les données tiennent plus d’indicateurs culturels qu’elles ne décrivent une réalité. Pour les chercheuses, nous avons besoin de bien plus de théorie et de bien plus de contexte pour saisir les enjeux de pouvoir des données. Les chercheuses prennent l’exemple des travaux qu’a mené Desmond Patton (@DrDesmondPatton) du SafeLab afin d’utiliser l’IA pour comprendre le rapport à la violence des jeunes de Chicago. Mais pour mieux comprendre un jeu de données de tweets, il a utilisé certains de ces jeunes pour mieux classer les données. Il a ainsi remarqué que des tweets utilisant des termes agressifs, comme le terme « tuer » ne visait pas tant à menacer d’autres personnes qu’à faire souvent référence à des paroles de chansons et donc à partager des symboles culturels. Pour les deux chercheuses, cet exemple souligne combien il ne peut y avoir de sciences des données sans le nécessaire travail social qui en éclaire le sens et l’action.

Communiquer en contexte nécessite non pas de chercher à être neutre, mais à regarder ce que les données produisent effectivement, expliquent les chercheuses en montrant deux graphiques représentant exactement les mêmes données, le plus exact pouvant être taxé de partialité alors que le second, semblant plus neutre se révèle bien plus manipulateur et plus ouvert à une mauvaise interprétation. La justice nécessite aussi de reconnaître et nommer les formes d’oppression que ce soit le racisme, le sexisme, l’homophobie… pas de les neutraliser, expliquent-elles.

Rendre les méthodes plus robustes et conserver le contexte des données, tel est l’enjeu de Cuidando do Meu Bairro (Prendre soin de mon quartier), une initiative à destination des habitants de Sao Paulo qui vise justement à ajouter du contexte et des éclaircissements aux données locales. Heather Krause, fondatrice de Datassist et We all count (@datassist), un projet pour développer l’équité en data science, a développé nombre d’outils pour favoriser l’équité et notamment le concept de biographie des données, consistant à demander à leurs producteurs de répondre à des questions de base : « d’où vient le jeu de données ? Qui l’a collecté ? Quand ? Comment ? Pourquoi ? ». C’est exactement l’enjeu du « datasheets for datasets » développé par Timnit Gebru pour Microsoft (voir notre article Utiliser l’IA pour détecter ses propres biais ? »). Les guides d’utilisation de données sont une piste essentielle, insistent Klein et D’Ignazio ! Les deux chercheuses signalent ainsi l’exemple de Woman Stats initié par le géographe Chad Emmett (@emmett_chad) et la professeure de sciences politiques Valerie Hudson, une vaste base de données sur les violences faites aux femmes qui distingue des variables de pratiques et de droit selon les conditions juridiques des pays d’où proviennent les données. Une façon de souligner l’incomplétude de leurs données. Ainsi les statistiques sur le viol soulignent que les modalités d’enregistrements sont peu comparables d’un pays à l’autre.

Reste à savoir qui doit éclaircir les données. Bien souvent, les journalistes et les ONG font un bon travail de nettoyage et de contextualisation, pour autant qu’ils bénéficient de financements durables, d’expertises et de normes. Le problème, trop souvent, c’est que gérer les données nécessite de l’investissement au risque de garder durablement des ressources de qualité médiocres, voire dangereuses. Sans argent, la production de contexte risque de rester l’exception plus que la norme.

Rendre le travail visible

L’ultime principe du féminisme de données consiste à rendre le travail visible. Une étude sur Github, cette plateforme collaborative de travail sur le code source, montrait que les utilisatrices avaient moins de chances de voir leurs contributions acceptées si elles s’identifiaient comme femmes. Pourtant, en permettant de voir les contributions à chaque projet, Github a participé à changer le regard sur la réalité du travail du code, montrant combien il relève d’abord et avant tout d’une collaboration patiente. Mais contrairement à Github, la production de données et de visualisations s’inscrit dans de longues chaînes de collaborations qui tendent à écraser les contributions plutôt qu’à les mettre en avant. La formidable cartographie des navires qui naviguent à travers le monde est le résultat d’un long travail d’innombrables contributeurs. Comme l’explique Miriam Posner, les chaînes d’approvisionnements elles-mêmes, ont trop souvent intérêt à écraser et transformer les contributions. Et on constate la même chose dans le monde de la production de données.

La dénonciation des formes de travail invisibles est ancienne et s’est cristallisée longtemps sur le travail domestique non rémunéré des femmes. Elle s’est considérablement élargie depuis, notamment à celui des utilisateurs des plateformes. Reste que la science des données prospère largement sur cette invisibilisation en mobilisant largement des plateformes de crowdsourcing que ce soit pour étiqueter des films, des documents, corriger des fautes… comme l’ont montré nombre d’études sur la sous-classe mondiale de la modération, allant de Ghost Work (Mariner Books, 2019, non traduit) de Mary Gray et Siddharth Suri, à Derrière les écrans (La découverte, 2020) de Sarah T. Roberts (@ubiquity75) en passant par En attendant les robots (Seuil, 2019) d’Antonio Casilli (@antoniocasilli). Derrière les hiérarchies actuelles du travail des données se répètent d’anciennes hiérarchies technologiques fondées sur le sexe, la classe sociale et la race, explique Lilly Irani (@gleemie), comme celles de la première génération d’informaticiennes, ces Figures de l’ombre (Harper Collins France, 2017) qu’évoquait Margot Lee Shetterly (@margotshetterly). En 2008, d’ailleurs, Irani avait lancé le Turkopticon pour permettre aux utilisateurs du Mechanical Turk d’Amazon de signaler les conditions de travail que les commanditaires de la plateforme leur imposaient. Mais après 10 ans de service, le service, entièrement bénévole, a fermé sous l’épuisement. L’exploitation d’une main d’œuvre précaire trouve son origine bien sûr dans la longue histoire coloniale et esclavagiste, qui ne cesse de prolonger ce même schéma d’exploitation.

Pour répondre à ces invisibilisations, nous devons améliorer les études sur la production de données, estiment Klein et D’Ignazio, comme le propose Anatomy of an AI System de Kate Crawford (@katecrawford) et Vladlan Joler (@TheCreaturesLab). Montrer le travail invisible est un moyen de résister au storytelling de l’innovation dominante. Documenter qui y participe, comme y invite la Charte des droits des collaborateurs, également. Documenter ce travail permet également de montrer la quantité de travail physique nécessaire à la numérisation, comme l’a pointé la représentation visuelle du catalogage des livres pour la librairie du Congrès imaginé par Ben Schmidt (@benmschmidt). Enfin, bien sûr, c’est un moyen de valoriser également le travail de soin et le travail émotionnel à l’image du projet Atlas of Caregiving, visant à documenter le travail nécessaire autour de malades atteints de maladies chroniques afin d’en souligner sa complexité et sa pluralité.

Les déséquilibres du pouvoir sont partout dans les données… Ce n’est qu’en montrant toute la fragilité de chaque donnée que nous pourrons défier et relever leurs conséquences.

Réinventer notre rapport aux données et aux calculs

La force du livre de Klein et D’Ignazio consiste à nous confronter à nos propres impasses. Elles nous invitent à mettre à jour nos concepts, à renverser nos catégories de pensées et, pour y parvenir, à dépasser, renforcer et politiser plus avant nos exigences. Peut-être est-il plus que jamais nécessaire, comme elles nous y invitent, de modifier notre cadre de réflexion, de changer les concepts avec lesquels nous légitimons les évolutions des calculs… Les limites de l’ouverture et de la transparence dans les systèmes techniques sont dénoncées depuis longtemps. Peut-être que pour les dépasser, faut-il remiser et réinventer les concepts qu’on utilise, en tout cas les mettre à jour ! En nous invitant à passer de l’éthique à la justice, du biais à l’oppression, de la loyauté à l’équité, de la responsabilité à la co-libération, de la transparence à la réflexivité, de la compréhension des algorithmes à la compréhension de l’histoire, de la culture et du contexte… l’enjeu que Klein et D’Ignazio formulent nous invite à sortir de la recherche de solutions technologiques aux problèmes que pose la technologie. Ce n’est pas un petit pas de côté. En nous invitant notamment à dépasser les limites de l’ouverture des données ou du gouvernement ouvert, pour revenir au sens et à l’impact des données elles-mêmes, les deux chercheuses nous montrent une voie d’appropriation et de libération pour résister à l’impact des calculs et des bases de données.

Dans la conclusion de leur ouvrage, Klein et D’Ignazio nous invitent, à l’image des contestations qu’ont connu l’industrie de la technologie, notamment la grève chez Google de 2018 (le Google Walkout for real change), à « occuper en masse les infrastructures numériques », à ralentir les chaînes numériques, à canaliser les solidarités numériques vers les espaces physiques… De la Tech Workers Coalition (@techworkersco) aux plateformes comme Coworker.org (@teamcoworker) ou aux organisations comme Tech Solidarity (@techsolidarity) en passant par l’essor des coopératives technologiques aux manifestes comme ceux de Design Action Collective et bien sûr aux communautés de pratiques elles aussi revendicatrices comme le réseau Design Justice (@design__justice), Data for Black Lives (@data4blacklives) ou l’Algorithmic Justice League (@ajlunited)… sont autant de formes de mobilisation qui visent à faire des données un outil de changement social profond plutôt qu’une arme d’oppression au service du pouvoir financier (voir notre article « Vers un renouveau militant des questions technologiques ?).

La science des données doit désormais dépasser ses présupposés premiers, à savoir ses méthodes uniquement quantitatives reposant sur la seule puissance des données, la force brute des traitements automatisés, sa fausse neutralité, son ouverture sans enjeu… Le féminisme des données ne vise pas à produire de la technologie pour elle-même, mais au contraire, à en libérer les acteurs. Utiliser les données pour mettre fin à l’oppression est un objectif bien plus stimulant que les utiliser pour la perpétuer.

Hubert Guillaud

13 / 25
  GÉNÉRALISTES
Basta
Blast
L'Autre Quotidien
Alternatives Eco.
La Croix
Euronews
Le Figaro
France 24
France-Culture
FTVI
HuffPost
L'Humanité
LCP / Public Senat
Le Media
Le Monde
Libération
Mediapart
La Tribune
 
  EUROPE
Courrier Europe Centle
Euractiv
Toute l'Europe
 
  INTERNATIONAL
Equaltimes
CADTM
Courrier International
Global Voices
Info Asie
Inkyfada
I.R.I.S
Jeune Afrique
Kurdistan au féminin
N-Y Times
L'Orient - Le Jour
Orient XXI
Of AFP
Rojava I.C
 
  OSINT / INVESTIGATION
OFF Investigation
OpenFacto°
Bellingcat
Disclose
G.I.J.N
 
  MÉDIAS D'OPINION
AOC
Au Poste
Cause Commune
CrimethInc.
L'Insoumission
Les Jours
LVSL
Marianne
Médias Libres
Quartier Général
Rapports de force
Reflets
Rézo
StreetPress
 
  OBSERVATOIRES
Armements
Acrimed
Catastrophes naturelles
Conspis
Culture
Extrême-droite
Human Rights
Inégalités
Information
Internet actu ✝
Justice fiscale
Liberté de création
Multinationales
Situationnisme
Sondages
Street-Médics
Routes de la Soie
Vrai ou Fake ?
🌓