Lien du flux RSS

Accès libre Publication de la Fondation Internet Nouvelle Génération, « le think tank qui porte la voix d’un numérique ouvert, humain, et durable »
▸ les 25 dernières parutions

04.10.2021 à 07:00

Sans transition : de nos vies avec et dans les machines du quotidien

Hubert Guillaud

img
Le petit livre des historiens Gil Bartholeyns (@bartholeyns) et Manuel Charpy, L’étrange et folle aventure du grille-pain, de la machine à coudre et des gens qui s’en servent (Premier Parallèle, 2021) est un petit essai accessible et ludique qui tisse à grands traits la complexité de notre rapport aux machines (...)
Texte intégral (1964 mots)

Couverture du livre de Gil Bartholeyns et Manuel CharpyLe petit livre des historiens Gil Bartholeyns (@bartholeyns) et Manuel Charpy, L’étrange et folle aventure du grille-pain, de la machine à coudre et des gens qui s’en servent (Premier Parallèle, 2021) est un petit essai accessible et ludique qui tisse à grands traits la complexité de notre rapport aux machines qui ont envahi notre quotidien.

Nous possédons en moyenne quelque 70 appareils électromécaniques et électroniques dans nos intérieurs (120 si nous habitons dans une maison avec jardin, du fait de l’ajout des objets de bricolage et de jardinage)… Des appareils qui nous semblent à la fois simples et complexes, comme l’a rappelé le Toaster Project (Princeton Architectural Press, 2012, non traduit) du designer Thomas Thwaites (@thomas_thwaites) qui avait tenté de se lancer dans la fabrication de A à Z d’un grille-pain. Une aventure toute en déconvenue, puisque malgré la simplicité du projet, le fait de le construire sans avoir recours à des composants industriels, souligna surtout combien l’entreprise se révélait impossible. Avec son projet de grille-pain, Thwaites montrait surtout combien nous sommes devenus extrêmement dépendants de la mondialisation et de l’industrialisation. Le monde des appareils qui composent notre quotidien n’est plus à notre portée.

En nous replongeant dans l’histoire des objets qui assurent notre confort moderne, les deux historiens élargissent ce constat, comme si depuis qu’ils sont parmi nous, nos appareils domestiques nous avaient plus domestiqués que nous ne les avons maîtrisés. D’ailleurs, nous n’avons jamais cessé d’apprendre à nous en servir, expliquent-ils, en rappelant les innombrables formes qu’ont pris ces apprentissages : démonstrations, expositions, porte-à-porte, manuels d’utilisation, réunions à domiciles, placement de produits… qui aujourd’hui sont prolongés par le téléachat, les publicités déguisées et tutoriels vidéos… Nous ne cessons de courir après leur maîtrise, sans jamais y parvenir vraiment, d’autant plus que leurs fonctionnalités et interdépendances croissantes semblent participer sans cesse à nous en éloigner.

Il faut dire que ces objets eux-mêmes s’inscrivent dans des généalogies complexes, de techniques, d’imaginaires, d’habitudes et de gestes, dans des parcours sinueux d’évolutions esthétiques et fonctionnelles. Les premières ampoules avaient la forme de bougies comme les lampes LED d’aujourd’hui imitent les ampoules à incandescence d’hier. Les nouveautés techniques s’habillent souvent d’esthétiques anciennes, les technostalgies se recouvrent d’une couche l’autre, jusqu’à se dissimuler sous de nouvelles carrosseries, qui semblent toujours chercher à réaffirmer leur modernité. Pourtant, semblent rappeler les deux historiens, la plupart de nos appareils domestiques ont des origines plus anciennes que nous le pensons. Les premiers manuels d’utilisation naissent au XVIIIe siècle, en précisant bien souvent les façons de réparer et notamment comment faire forger ou tailler certaines pièces pour pouvoir les reproduire localement. Ils se développent massivement dès les années 1860 avec l’explosion de la vente par correspondance. Le réveil matin naît à la fin des années 1840… Les W-C également, même s’il faut attendre le début du XXe siècle pour qu’ils se généralisent en ville, d’abord sur un mode collectif, sur le palier. Le quotidien se mécanise tôt, dès les années 1830-1840 (douches chauffantes, fourneaux à gaz…)… Une première domotique naît avec le XIXe siècle qui ne va cesser de se sophistiquer et dont l’usage ne va cesser de s’étendre. Notre rapport aux objets techniques semble toujours devoir être analysé sous les épaisseurs culturelles qui les recouvrent.

C’est suite à la crise des années 30 que s’imagine l’obsolescence planifiée, comme moyen de sortir de la dépression. Prescience ? Peut-être ? Peu à peu, des formes de concurrences symboliques se mettent en place, comme quand General Motors, à l’inverse de Ford, décide de changer ses modèles de voitures pour inciter au renouvellement. Peu à peu, l’interopérabilité entre machines est délibérément compromise. L’évolution des normes et standards incite également au renouvellement. « La qualité est devenue une variable de la production ». La durabilité des produits électriques et électroniques n’a cessé de se réduire et l’interdépendance technique a accentué le phénomène. Peu à peu, l’artisanat de la réparation se réduit. Mais c’est vraiment à partir des années 1990 que la délocalisation achève la réparabilité : désormais, remplacer un produit est moins cher que le réparer. Si aujourd’hui, la réparabilité semble reprendre des lettres de noblesse, en permettant de récupérer du pouvoir sur le monde, elle semble surtout chercher à produire un peu de sens sur un monde qui nous semble irrémédiablement cassé.

Chaque adoption d’un objet technique modifie la vie quotidienne. La montre modifie le rapport au temps, la bicyclette à l’espace, les lampes à la vie nocturne, les lunettes à notre manière de voir le monde… Mais si les objets semblent vouloir imposer partout leurs techniques, les appropriations sont souvent culturellement différenciées dans l’espace et le temps. Toutes relèvent de « techniques créoles », comme disait l’historien David Edgerton, mélange d’appropriations locales et mondiales. « Adopter une technique ne revient pas à en assimiler les usages ou la culture », mais passent par des formes complexes d’acclimatations, d’adaptations, de transformations qui ne se résument pas au grand récit de la diffusion des modes de vie occidentaux, soutiennent les deux historiens.

Parce qu’elles nous modifient à leur contact, les machines convoquent les corps comme le social. Leur adoption progressive passe par des entremetteurs, à l’image des domestiques qui bien souvent manoeuvrent les premières machines avant qu’elles ne servent, dès la fin du XIXe siècle, à commander des livreurs ou des artisans quand le personnel de maison s’efface des intérieurs. Les appareils tracent des frontières sociales dans leurs utilisations. Longtemps, les nouveaux appareils discriminent, car ils sont souvent réservés aux professions supérieures… C’est surtout après les années 90, que les objets cessent d’être distinctifs, quand ils sont produits à une telle échelle qu’ils en deviennent accessibles à tous. Aujourd’hui, les plus riches possèdent autant d’appareils que les plus pauvres. La distinction reste esthétique, de qualité ou de prix. Quant aux refus des technologies, elle n’est pas tant une résistance à la nouveauté bien souvent qu’une forme de distinction là encore.

Les robots ménagers sont souvent présentés comme vecteurs d’émancipation qu’ils n’ont pas vraiment été. Les esclaves mécaniques se substituent surtout aux domestiques. Mais trier le linge, lancer une machine ou repasser demeure toujours le travail des femmes – et dans les foyers les plus aisés, celui des femmes de ménage. Le temps libéré par cette mécanisation du quotidien impose surtout de nouvelles astreintes : celles de devoir s’occuper des machines, qui attachent plus les femmes au foyer qu’elles ne les libèrent.

Les machines tiennent finalement de techniques du corps. Le premier objet technique demeure notre corps, disait Marcel Mauss. Nager ou dormir sont des techniques que les machines accompagnent, comme le font les éclairages ou les réveils. L’objet technique vise souvent à dresser les corps et les comportements. Le bracelet-montre qui se diffuse dès les années 1920 achève le travail d’intériorisation de la mesure du temps. Bien souvent, la machinerie technique est un moyen de coercition et de contrôle des corps « d’intériorisation des normes », à l’image du pèse-personne, longtemps public, qui se privatise et s’intimise dès les années 50… Les machines intègrent surtout nos injonctions sociales.

Quant à notre engorgement domestique d’objets, notre syllogomanie, elle est le pendant d’une production démesurée d’objets. Entre 2000 et 2017, le transport mondial est passé de 65 millions de containers à 175 millions ! Nous croulons sous les objets depuis le début du XXIe siècle : notamment du fait de la décohabitation et de transitions générationnelles qui semblent s’accélérer. Mais surtout du fait d’une mondialisation sans précédent qui semble avoir conduit à des réplétions partout ! Aux braderies des enseignes répondent celles de nos intérieurs. Les appareils se dupliquent plutôt qu’ils ne s’économisent… Nous démultiplions chez nous les écrans comme nos machines à café. Nous démultiplions l’adoption d’appareils sans abandonner les précédents. Nous croulons sous les appareils qui ne servent qu’une fois… « Les usages procèdent par accumulation plutôt que par transition », expliquent les historiens. « Les techniques apparentées deviennent complémentaires et différentielles » selon une loi de co-évolution, à l’image de la convergence des médias, où télé, radio, presse écrite… s’entrecroisent en contenus complémentaires. Tout comme nous l’ont dit déjà d’autres historiens comme François Jarrige ou Jean-Baptiste Fressoz en parlant d’énergie, nos usages s’accumulent plus qu’ils ne transitionnent… Même dans nos usages les plus quotidiens finalement, il n’y a pas de transition, mais une accumulation éperdue. Déjà, à la fin du XIXe siècle, les modes d’éclairages coexistent selon les heures, les pièces, les usages. Nous démultiplions nos pratiques médiatiques désormais via des de multiples appareils qui les concentrent en grande partie. Nous sommes englués dans un consumérisme, comme le dénonçait le sociologue Razmig Keucheyan dans Les besoins artificiels (la Découverte, 2019). Peut-être faut-il mieux comprendre pourquoi nous sommes incapables de nous en extraire ? Finalement, tous ces appareils nous renvoient à notre façon d’être nous-mêmes. Ils nous assurent des conforts inégalés : lumière, chaleur, eau, information… qu’ils rendent disponibles en permanence et individuellement. Plus que de nous rendre heureux, nos objets nous apportent un confort à notre démesure. C’est peut-être pour cela que nous les accumulons sans fin et que nous sommes incapables d’envisager réduire un jour ce confort ou nous en couper. Nous nous sommes fondus, identifiés à nos bardas d’objets essentiels et inutiles que la mondialisation et l’industrialisation ont rendus si facilement accessibles à tous. Perclus de confort, nous regardons encore devant nous pour nous demander… : pour combien de temps ?

Hubert Guillaud

30.09.2021 à 07:00

L’évaluation de la gouvernementalité algorithmique ne peut pas être uniquement technique !

Hubert Guillaud

img
Les organismes de réglementation ont visiblement compris qu’ils doivent réglementer la manière dont les autorités utilisent les algorithmes et les technologies d’IA. Mais ce que les régulateurs oublient trop souvent quand ils élaborent des politiques, c’est de tenir compte de la manière dont les décideurs humains interagissent avec les systèmes, (...)
Texte intégral (1720 mots)

Les organismes de réglementation ont visiblement compris qu’ils doivent réglementer la manière dont les autorités utilisent les algorithmes et les technologies d’IA. Mais ce que les régulateurs oublient trop souvent quand ils élaborent des politiques, c’est de tenir compte de la manière dont les décideurs humains interagissent avec les systèmes, explique Ben Green (@benzevgreen) dans une tribune pour The Hill (@thehill). Chercheurs, journalistes, militants… n’ont cessé ces dernières années de révéler combien les systèmes algorithmiques utilisés par les tribunaux, la police, les services d’éducation, de protection sociale et autres, sont bourrés d’erreurs et de biais. Aux États-Unis, deux projets de loi proposent d’imposer aux administrations d’évaluer les algorithmes avant de pouvoir les utiliser. Le projet de loi sur l’IA de la commission européenne va dans le même sens. Mais, souligne Green, si examiner les systèmes est certes nécessaire, ces dispositions oublient la manière dont les prédictions affectent les décisions politiques.

Les outils d’aide à la décision améliorent-ils la décision ?

Bien souvent, les algorithmes sont proposés comme des outils d’aide à la décision aux personnes qui les prennent. Reste que leurs décisions doivent équilibrer les prédictions que les systèmes fourbissent avec d’autres objectifs concurrents qui ne sont, eux, pas pris en compte par les machines. Green prend l’exemple des systèmes d’évaluation des risques qu’un prévenu ne se présente pas à son procès, très utilisé par les tribunaux américains. Pour ceux en charge de juger les prévenus, ces prévisions, pour autant qu’elles soient précises et justes – ce dont doutent nombre de défenseurs des droits et de chercheurs qui les ont étudiés -, doivent s’équilibrer d’autres intérêts, comme la présomption d’innocence. Pour Green, la question centrale qui est très souvent oubliée n’est pas seulement de savoir si les prédictions sont justes, mais aussi et surtout, de savoir si ces systèmes améliorent la décision humaine. Or, même si ces systèmes proposent des prédictions, ils n’améliorent pas nécessairement la décision. Quand on leur présente ces évaluations, bien souvent, les humains ont tendance à être plus attentifs au fait de réduire le risque justement, au détriment d’autres valeurs, changeant la manière même dont ils prennent leurs décisions, explique Green à la suite d’une étude expérimentale. Dans la pratique, ces systèmes imposent leurs choix, leur angle, leur vision… d’une certaine manière, leur idéologie. Reste que trop souvent, leur premier effet est d’altérer les processus de prise de décision. Même si dans l’étude de Green, les effets de ces outils semblent assez faibles, ils n’en sont pas moins là (et ce d’autant que l’altération de la décision est difficile à apprécier). Dans le domaine judiciaire américain, plusieurs études ont montré que les juges ont tendance à passer outre les recommandations de remises en liberté que proposent ces outils ! En fait, les juges semblent devenir plus sévères que les systèmes, parce que les systèmes leur mettent sous les yeux le risque plutôt que l’esprit des lois, comme la présomption d’innocence. En fait, les systèmes aggravent la partialité des juges en les rendant sur-attentifs aux risques !

Dans un autre article de recherche, Green souligne un autre problème, celui de la surveillance humaine des décisions algorithmiques que de plus en plus de réglementations imposent. Or, explique le chercheur, derrière ces décisions, bien souvent, les personnes sont incapables de remplir les fonctions de surveillance qui leur sont attribuées. Green estime par exemple que nous devrions calculer le taux de dérogation c’est-à-dire quand la décision n’est pas conforme à la suggestion de l’algorithme pour savoir si le processus décisionnel est automatisé ou pas.

Cette surveillance des systèmes trop souvent légitime le recours à des algorithmes défectueux, sans aborder réellement les problèmes qu’ils génèrent. Pour le chercheur, la surveillance des algorithmes donne un faux sentiment de sécurité. Pour Green, il est essentiel de s’interroger d’abord sur la nécessité du déploiement et surtout d’évaluer l’efficacité du contrôle humain des traitements, explique-t-il en rappelant la nécessité d’une meilleure évaluation, non seulement technique, mais plus encore humaine. Les politiques se doivent d’être plus rigoureuses, estime-t-il, et surtout, elles ne doivent pas seulement étudier les biais techniques des systèmes, mais aussi prendre en compte la relation homme-algorithmes et les biais qu’elle génère.

Or, rappelle le chercheur, les réglementations sur l’éthique des systèmes se concentrent uniquement sur la façon dont le calcul fonctionne. Les systèmes d’évaluation de la responsabilité algorithmique ou d’impacts évaluent une responsabilité « technique » plus qu’humaine, sans tenir compte des relations tissées avec les systèmes.

Aussi précis ou juste que le calcul soit – et il ne l’est pas souvent -, il modifie la façon de décider. En fait, ces outils génèrent des changements qui déséquilibrent l’évaluation qui est au cœur même de la prise de décision. Pour Green, la question de l’évaluation de l’IA devrait nécessiter des preuves empiriques sur ses effets, c’est-à-dire qu’elle devrait également démontrer que ces systèmes sont susceptibles d’améliorer la prise de décision. Pour cela nous devrions réaliser des évaluations expérimentales sur la collaboration homme-algorithmes, en testant comment les gens interagissent avec le système pour s’assurer qu’il produit les résultats escomptés.

Evaluer les outils de la décision, mais également la décision

L’évaluation est trop souvent encore le parent pauvre de la réglementation. Au mieux, elle reste technique. Mais bien souvent, elle reste aveugle aux impacts concrets de ces outils sur ceux qui les utilisent, suggère Green qui invite à non seulement évaluer les outils de la décision, mais également leurs impacts sur la décision.

Le constat de Green souligne combien, alors que les systèmes techniques s’imposent, l’évaluation de leurs effets concrets, elle, n’est pas à la hauteur. Derrière les biais des calculs, nous devons nous préoccuper d’autres formes d’évaluation – comme le propose les méthodes développées pour que la politique fasse la preuve de son efficacité (on parle d’evidence-based policymaking). Le gouvernement britannique a initié en ce sens un réseau d’évaluation des politiques publiques, le « What Works Network », dont l’une des branches, par exemple, a évalué les systèmes d’identification automatisés des enfants à risque par les services à l’enfance, en pointant leur inefficacité manifeste. Les États-Unis viennent de lancer une plateforme dédiée à l’évaluation des politiques publiques, rapportait récemment Federal News Network. Malgé les recommandations émises par le Conseil d’État en septembre 2020 pour améliorer l’évaluation des politiques publiques, si l’on en croit l’état du site dédié à l’évaluation en France, la priorité donnée à l’évaluation n’est pas encore là ! Si des efforts ont été initiés pour l’évaluation par les usagers des services publics – via des indicateurs de performance et de satisfaction, à l’image de ceux disponibles sur resultats-services-publics.fr ou voxusagers.gouv.fr -, la question – bien plus importante, il me semble – d’une meilleure évaluation des politiques publiques selon leurs effets semble encore avoir des marges de progrès.

Hubert Guillaud

Le portail de l'évaluation publique français

PS : Sur LPE, Frank Pasquale annonce la tenue prochaine aux Etats-Unis d’un symposium sur l’analyse coût/bénéfice. Les méthodes quantitatives promettent d’apporter la rigueur et l’objectivité à l’évaluation des politiques publiques, mais dans les faits, leurs applications accélèrent souvent les injustices et les discriminations. Dès janvier 2021, l’administration Biden a annoncé vouloir « moderniser les modalités d’évaluations réglementaires ». Les initiatives réglementaires importantes sont de plus en plus souvent sommées de produire une analyse comparative de leurs coûts et avantages. Si ces initiatives semblent rationnelles (les coûts d’une réglementation ne doivent pas dépasser ses avantages), ces outils ont souvent été utilisés pour limiter la réglementation plutôt que pour améliorer son efficacité. Enfin, souligne Pasquale, tout est-il quantifiable ? Quelle est la valeur monétaire d’une journée sans aucune pollution au Grand Canyon ou d’une ressource naturelle ? À nouveau, la quantification n’a rien de neutre et ne peut être le seul mode d’évaluation des politiques publiques.

27.09.2021 à 07:00

Pour un féminisme des données

Hubert Guillaud

img
Toxique, sexiste, violent, abusif, harceleur… Le numérique révèle souvent ses pires aspects dans ses relations aux femmes. Le best-seller de la journaliste et activiste britannique, Caroline Criado-Perez (@CCriadoPerez), Femmes invisibles (First, 2020), s’inscrit pleinement dans ces critiques en les élargissant. Pour elle, si les femmes sont rendues aussi invisibles partout (...)
Texte intégral (14321 mots)

Toxique, sexiste, violent, abusif, harceleur… Le numérique révèle souvent ses pires aspects dans ses relations aux femmes. Le best-seller de la journaliste et activiste britannique, Caroline Criado-Perez (@CCriadoPerez), Femmes invisibles (First, 2020), s’inscrit pleinement dans ces critiques en les élargissant. Pour elle, si les femmes sont rendues aussi invisibles partout et tout le temps, c’est d’abord et avant tout parce qu’elles sont absentes des données qui construisent nos mondes. En dressant un long et éprouvant catalogue des conséquences de l’absence de prise en compte des femmes de la médecine au design, du travail à la vie civique… Criado-Perez déroule, d’une cascade de conséquence à l’autre, combien notre réalité est masculo-normée. « Les hommes confondent leur propre point de vue et la vérité absolue ».

Changer de point de vue !

Couverture du livre Femmes Invisibles« Femmes invisibles raconte ce qui se passe quand nous oublions de tenir compte de la moitié de l’humanité », sous la forme d’un long et éprouvant catalogue d’exemples, épuisants à force d’être édifiants.

Évoquons-en quelques-uns. Criado-Perez commence par exemple en racontant le travail réalisé dès 2011 par la ville de Karlskoga en Suède afin de réévaluer toutes leurs politiques publiques en les examinant sous l’angle du genre. Parmi les problèmes soulevés par cet examen, les autorités ont constaté que leur manière de déneiger les routes était sexiste ! Comme dans nombre de localités, Karlskoga déneigeait en commençant par les grandes artères et en terminant par les trottoirs et les pistes cyclables. Or, cette façon de faire n’affecte pas indifféremment les hommes et les femmes, notamment parce qu’ils ne se déplacent pas de la même façon : les femmes réalisent plus de déplacements de proximité pour prendre soin des plus jeunes ou des plus âgés. La ville de Karlskoga modifia donc l’ordre des opérations de déneigement pour donner la priorité aux piétons et aux utilisateurs de transports en commun au prétexte que conduire une voiture dans la neige est souvent plus simple que d’y pousser une poussette. L’un des effets de la mesure a été de diminuer le nombre de blessées suite à des chutes, un problème qui affectait surtout les femmes, remarquant d’ailleurs que le coût des accidents de piétons était deux fois supérieur au coût de l’entretien hivernal des routes. La planification du déneigement n’a jamais été conçue délibérément pour favoriser les hommes au détriment des femmes, souligne très justement Criado-Perez, mais relevait d’une absence de données genrées. Les hommes avaient conçu cette planification par rapport à leurs besoins, à leur vision, sans envisager que les besoins du reste de la population pouvaient être différents. D’ailleurs, trop souvent encore, les déplacements non motorisés ne sont pas considérés comme pertinents dans l’élaboration des politiques en matière d’infrastructures de déplacement, comme le montre très bien la place réduite qui leur est dévolue.

Cette prise en compte des déplacements selon le genre n’est pas propre aux pays socialement évolués du nord de l’Europe. Vienne, en Autriche, a été une municipalité soucieuse d’équité dès les années 90. Aujourd’hui, ce sont les grandes villes espagnoles qui sont à la pointe, à l’image du réseau des Fearless Cities initié par Barcelone dès 2017, qui a participé à renouveler le « municipalisme », visant à raviver la pratique politique locale en démultipliant les expériences de démocratie radicale (voir notamment Le Guide du municipalisme, Charles Léopold Mayer, 2019 qui documente nombre d’expériences de ce réseau). Criado-Perez dresse le même et accablant constat quant à l’utilisation des espaces publics. Quand ceux qui les conçoivent ne prennent pas en compte les questions de genre, ces espaces deviennent des espaces masculins par défaut. Dès les années 90, Vienne a montré que la présence des filles, dès 10 ans, diminuait dans les parcs et terrains de jeu publics du fait de leur conception. Les grands espaces ouverts poussaient les filles à abandonner l’espace aux garçons. Même constat en Suède où les responsables des villes se sont rendu compte que les financements publics allaient majoritairement aux sports dominés par les garçons. Non seulement les villes dépensaient plus pour l’équipement de sports masculins, mais les sports féminins étaient bien moins financés et bien souvent, les filles devaient dépenser plus d’argent que les garçons pour les pratiquer de façon privée – pour celles qui le pouvaient.

Un monde plus genré qu’on ne le pense

Bien sûr, il n’y a pas que l’équipement public qui se révèle plus genré qu’on ne le pense. On connaît les inégalités de genre dans le monde du travail, notamment et avant tout dans le fait que les femmes font l’essentiel du travail non rémunéré, du travail partiel, et bien sûr quand elles ont un travail rémunéré, c’est pour un salaire inférieur à celui des hommes. Trop souvent, les contraintes qui pèsent sur les femmes (maternité, charge d’enfants…) ne sont pas prises en compte par le monde du travail. Criado-Perez en donne un exemple assez simple et parlant. Une cadre et mère célibataire quand elle accepte un diner de travail le soir doit organiser par elle-même la garde de ses enfants et prendre à sa charge le coût afférent. Pour ses collègues masculins, la question ne se pose même pas. Ils peuvent même prendre une chambre d’hôtel et se la faire rembourser facilement, contrairement à la facture de la baby-sitter.

Nous ne voyons pas nos préjugés de genre, explique Criado-Perez… enfin, il faudrait plutôt dire que les hommes ne voient pas les œillères qui couvrent le regard qu’ils portent sur le social. Sans compter que nos préjugés sont bien souvent parfaitement institutionnalisés. C’est avec les auditions à l’aveugle que l’orchestre philharmonique de New York a changé sa composition, passant d’aucune femme à 45 %. Plusieurs études soulignent aussi que les évaluations de performances que pratiquent les entreprises sont plus sévères envers les femmes que les hommes, que les bonus récompensent davantage les hommes. Et c’est pire dans certains secteurs, comme le secteur financier ou les technologies. La méritocratie a bon dos ! « Si la méritocratie est une religion dans la Silicon Valley, son dieu est un étudiant blanc, de sexe masculin, qui a abandonné ses études à Harvard. Et la plupart de ses disciples le sont aussi ». Même constat à l’université : les doctorantes ont moins de chances que les doctorants de recevoir un financement, un poste… ou d’être publiées (sauf quand elles sont évaluées en double aveugle). « Le lieu de travail moderne est criblé de lacunes de genre », à l’image de la température standard des bureaux climatisés, des portes et outils trop lourds… « Le travail moderne, que ce soit en termes de localisation, d’horaires, ou de normes réglementaires, a été conçu en fonction de la vie des hommes, et il n’est plus adapté à ses objectifs », explique la militante en invitant à refondre ses règlements, ses équipements, notre culture. Criado-Perez enfile les études comme autant de preuves, toutes aussi accablantes les unes que les autres. On pourrait certes discuter du poids et de la pertinence de chaque élément, reste qu’au final, la masse qu’elle convoque fait effet et nous accable sous l’accumulation.

Plus inquiétante encore est la masse d’exemples qu’elle convoque sur la santé, comme le fait qu’on en sache assez peu sur les blessures des femmes au travail, comme celles des femmes de ménage ou des aides-soignantes. Trop souvent, les études bio-mécaniques, celles sur les troubles musculo-squelettiques, se basent sur un « homme de référence », un homme blanc entre 25 et 30 ans pesant 70 kilos, alors qu’hommes et femmes ont des métabolismes différents (qui varient également selon l’âge). Les femmes sont largement oubliées de la technologie, même quand elles en sont les clientes. Par exemple, explique la journaliste, les femmes âgées sont plus victimes de chutes que les hommes. Sur un mois de consultation aux services d’urgences américains, 71 % des patients examinés pour ce motif sont des femmes et leur taux de fractures est 2,2 fois plus élevé que les hommes. Une meta-analyse a montré que les appareils de détection de chutes ne précisent pas le sexe des porteurs, et qu’on ne connaît pas vraiment les facteurs de risques sexospécifiques. Sans compter que pour l’instant, les différents objets technologiques proposés n’ont jamais vraiment convaincu leurs porteurs et ne sont pas adaptés aux besoins et encore moins aux besoins féminins.

Ainsi, les femmes ont tendance à être plus petites et à avoir la peau plus fine que les hommes (mais également à avoir des systèmes immunitaires et hormonaux différents, un pourcentage de graisses corporelles plus élevé…) ce qui fait qu’elles sont plus sensibles aux radiations ou aux toxines que les hommes. Alors que les études ont trop tendance à observer les réactions aux produits chimiques pris isolément, les femmes ont tendance à y être exposées de multiples façons, que ce soit les produits de ménage ou cosmétique par exemple. Pour Criado-Perez, nous avons besoin de meilleures données sur l’exposition des femmes aux produits chimiques et à produire des politiques en fonction de ces enseignements. C’est un peu comme les équipements de protection individuelle, réalisés encore trop souvent selon les tailles et caractéristiques des populations masculines. Trop souvent encore, on fournit des équipements de protection de petites tailles aux femmes, plutôt que des protections conçues pour elles. Une forme d’approche unisexe… qui ne l’est pas du tout. C’est ce que dénonce également la cardiologue Nieca Goldberg dans son livre Les femmes ne sont pas de petits hommes (Women are not small men, Ballantine Books, 2002, non traduit), pointant que les maladies cardiaques des femmes sont fondamentalement différentes de celles des hommes et que trop souvent encore, en médecine, la plupart des études sur les pathologies oublient les spécificités de genre, ne considérant les femmes que comme des hommes en plus petits.

Criado-Perez creuse longuement ce problème de conception, c’est-à-dire le constat, répété, qu’on ne consulte pas les utilisateurs (et ici, les utilisatrices) avant de concevoir un produit. Que ce soit encore trop souvent pour concevoir des cuisinières adaptées aux besoins des femmes des pays en développement, à celles de claviers de pianos adaptés aux femmes (dont la taille des mains est en moyenne plus courte que celles des hommes… il existe d’ailleurs un clavier adapté, qui sans surprise reste totalement absent et du monde de la musique et de la fabrication industrielle de pianos).

Même constat par exemple avec les logiciels de reconnaissance vocale qui reconnaissent mieux les voix masculines que féminines alors que des études montrent qu’elles ont une voix nettement plus intelligible, produisent des voyelles plus longues, parlent plus lentement que les hommes, et utilisent moins de prononciations alternatives ou tronquées… Mais là encore, les banques de données d’enregistrements pour entrainer les outils sont majoritairement composées d’enregistrements de voix masculines – elles indiquent d’ailleurs assez peu le sexe des voix. Mêmes constats sur les corpus d’écrits, d’images, de vidéos… qui font tourner l’intelligence artificielle dans tous les domaines. Caroline Criado-Perez en tire un constat plutôt alarmant : « Notre savoir médical étant fortement axé sur le corps masculin, les IA pourraient compliquer les diagnostics qui concernent les femmes, au lieu de les améliorer ».

Même constat sur l’inadaptation des dispositifs de réalité virtuelle aux femmes. Il y a longtemps déjà, danah boyd avait attiré notre attention sur ce problème. En fait, pour déterminer la profondeur de champs, les hommes sont plus susceptibles de se fier à la « parallaxe du mouvement » pour percevoir la profondeur (c’est-à-dire à la façon dont un objet semble plus grand ou plus petit selon notre proximité par rapport à lui), alors que les femmes font plutôt appel à « la forme à partir des ombres » (c’est-à-dire à la façon dont l’ombre d’un point donné change quand on se déplace). Et la réalité virtuelle fait souvent un meilleur travail pour restituer la parallaxe que pour imiter les déplacements de l’ombre. Autre problème qui participe aux différences de perception des univers virtuels, explique le professeur de kinésiologie Tom Stoffregen, il y a des différences sexuelles dans l’oscillation du corps humain (et le balancement postural des femmes change même au cours du cycle menstruel)…

Dans tous les secteurs qu’elle passe en revue, les constats de blocages s’accumulent. Criado-Perez accable également le monde de l’entreprise, en évoquant par exemple les difficultés qu’a rencontrées Janica Alvarez pour lancer sa startup, Naya Health, qui proposait de réinventer le tire-lait, dominé par le monopole de l’entreprise Medela aux Etats-Unis et au Royaume-Uni. Pourtant, les investisseurs ne se sont pas précipités pour soutenir ce tire-lait, censé être plus confortable. Il faut dire que le monde de l’investissement, un secteur exclusivement masculin, n’a pas vraiment tendance à soutenir les entreprises dirigées par les femmes, comme le pointait une étude du Boston Consulting Group qui montrait que les femmes possédant des entreprises reçoivent en moyenne moitié moins d’investissements que leurs homologues masculins alors qu’elles produisent des bénéfices au moins deux fois supérieures. Le tire-lait de Naya Health quant à lui, n’était peut-être pas si révolutionnaire que cela, comme le soulignent des utilisatrices déçues. En tout cas, l’entreprise, par manque d’investissement, a visiblement tiré le rideau depuis.

Pour Caroline Criado-Perez, le grand enjeu, conclut-elle, consiste à nous mettre à produire des données genrées. Il nous faut « comprendre que la neutralité ne conduit pas automatiquement à l’égalité entre les sexes ». Nous avons besoin de plus de données et de meilleures données.

Les innombrables exemples donnés sont accablants, si accablants qu’ils donnent honte jusqu’à la science, dont on perçoit à chaque pas, combien jusqu’à présent elle peine à prendre au sérieux la question du genre. La brûlante actualité des exemples souligne combien les choses ne changent pas vraiment. Rien ne va dans notre océan de mecs, de préjugés à penser que notre point de vue est la norme et qu’il est neutre et objectif, au prétexte que les femmes ne seraient finalement que des hommes en plus petits. En cela, Femmes invisibles est un livre qui fout la honte. L’accumulation à charge produit son effet.

Reste à savoir si améliorer les données, comme le propose Criado-Perez, suffira. Si ce pas semble nécessaire, il ne sera peut-être pas suffisant pour politiser cette question. D’où l’intérêt de prolonger cette lecture d’une autre, qui, elle, justement nous explique que cet enjeu n’est pas seulement une question d’attention, d’amélioration des données, mais bien une question politique.

Une science des données pour l’émancipation !

Couverture du livre Data FeminismAvec Data Feminism (MIT Press, 2020, non traduit, disponible en publication ouverte), Catherine D’Ignazio (@kanarinka) et Lauren Klein (@laurenfklein), tiennent un propos un peu plus complexe et plus politique.

Pour ces deux spécialistes en science des données, la discipline a besoin du féminisme pour se réinventer. Le Féminisme des donnée est « un mode de pensée sur la donnée et sa communication informés par l’expérience directe, par un engagement à l’action et par les idées associées à la pensée féministe intersectionnelle », qui vise à déconstruire les systèmes de pouvoir, de privilège et d’oppression. A l’heure où les données façonnent le monde et notre relation au monde, il est temps de s’intéresser très précisément à celles-ci, soulignent D’Ignazio et Klein. En cela, le féminisme de la donnée n’est pas seulement un livre, il se veut aussi un mouvement, une réflexion politique, un mode d’action sur le monde. C’est un livre sur qui a le pouvoir et qui ne l’a pas, un livre sur les conséquences de ces différentiels de pouvoir pour les mettre en évidence et les changer.

La science des données a besoin du féminisme pour mettre fin à la spirale d’injustices qu’elle participe à bâtir, expliquent D’Ignazio et Klein. Pour les deux chercheuses, les corps manquent dans les données qu’on collecte. La science des données pense qu’elle peut produire le monde sans les convoquer. Que son objectivité et sa neutralité nécessitent d’appliquer une froide raison sur tout calcul. C’est tout le contraire dont nous avons besoin, expliquent les chercheuses : les problèmes structurels ne peuvent être exposés qu’en les regardant sous l’angle spécifique des personnes et des corps. Nous devons compter ce qui ne l’est pas, notamment parce que les données et le pouvoir s’alignent trop souvent. Ramener les corps des gens, des femmes, des personnes de couleurs, des marginalisés dans les discussions et les décisions, suppose bien sûr, comme le disait déjà Sasha Costanza-Chock de savoir quelles données sont collectées, par qui et pourquoi.

L’histoire est ancienne, mais reste fameuse : quand Andrew Pole, data scientist chez Target, a mis au point un algorithme de prévision de la grossesse des clientes pour favoriser des campagnes marketing dédiées, il a montré que les corps peuvent être exploités sans que les personnes visées n’aient leur mot à dire sur cette exploitation. Target a utilisé son capital de données pour consolider son pouvoir sur ses clientes, sans leur consentement. Les décisions prises du point de vue des données sont trop souvent utilisées pour amplifier les inégalités et asymétries d’information que le contraire. En se basant sur une liste de produits que les femmes enceintes achètent, Target était capable de calculer un score de prévisibilité de grossesse, que l’entreprise a utilisé sans tenir compte des impacts et conséquences sur ses clientes. C’est justement sur les conséquences des décisions qui sont prises sur les gens, par-devers eux, qu’une approche des données par l’émancipation est essentielle. Klein et D’Ignazio déploient un propos qui va à l’encontre de la manière dont on valorise les données aujourd’hui. L’enjeu n’est pas leur transparence ou leur ouverture, qui profitent trop souvent à ceux-là mêmes qui profitent également de leur opacité, mais bien à la libération des personnes que les données calculent : libérer les gens plutôt que de seulement libérer les données !

Un point de vue neutre ne l’est jamais

Cet exemple souligne l’asymétrie profonde de la data science aujourd’hui : la collecte et l’analyse de données se déroulent sans avoir à rendre de compte aux personnes et groupes concernés et ce d’autant plus que ces groupes et personnes sont le moins en capacité de se défendre. En data science, les femmes et les groupes les plus marginalisés sont absents des équipes qui décident : et personne ne pense que c’est un problème ! A la suite de Donna Haraway, les chercheuses rappellent qu’un point de vue neutre ne l’est jamais. Si nous voulons parler d’objectivité en data science, alors nous devons porter attention à la perspective par défaut que défend cette prétendue objectivité. Klein et D’Ignazio défendent une co-libération plutôt qu’une responsabilité (qui consiste à libérer les gens plutôt qu’à libérer les données), la justice plus que l’éthique, l’équité plus que la loyauté, la réflexivité plus que la transparence, la compréhension de l’histoire, de la culture et du contexte plus que la compréhension des algorithmes.

Le féminisme des données repose sur 7 principes qui dirige son action :

  • Examiner le pouvoir : le féminisme des données commence par l’analyse du fonctionnement du pouvoir.
  • Défier le pouvoir : Le data féminisme s’engage à remettre en question les structures de pouvoir inégales et à œuvrer pour la justice.
  • Valoriser l’émotion et l’incarnation. Le féminisme des données nous apprend à valoriser de multiples formes de connaissances, y compris celles qui proviennent des personnes en tant que corps vivants et sensibles dans le monde.
  • Repenser le binarisme et les hiérarchies. Le féminisme des données nous oblige à remettre en question le binaire du genre, ainsi que d’autres systèmes de comptage et de classification qui perpétuent l’oppression.
  • Adopter le pluralisme. Le féminisme des données insiste sur le fait que la connaissance la plus complète provient de la synthèse de perspectives multiples, la priorité étant donnée aux modes de connaissance locaux, autochtones et expérientiels.
  • Tenir compte du contexte. Le féminisme des données affirme que les données ne sont pas neutres ou objectives. Elles sont le produit de relations sociales inégales, et ce contexte est essentiel pour mener une analyse précise et éthique.
  • Rendre le travail visible. Le travail de la science des données, comme tout travail dans le monde, est le travail de nombreuses mains. Le féminisme des données rend ce travail visible afin qu’il soit reconnu et valorisé.

Data Feminism n’est pas seulement un propos sur les femmes ou le genre. C’est une réflexion sur l’émancipation par la science des données. La force du livre de Klein et D’Ignazio est de bâtir une réflexion politique sur les données et les calculs… de politiser la science des données sans la réduire à une injonction à l’ouverture ou à l’amélioration sans fin des données. Ce n’est pas un petit pas de côté !

Comme Caroline Criado-Perez, les deux chercheuses pointent combien les données sont faillibles, combien elles masquent d’innombrables lacunes de connaissance. Elles reviennent par exemple sur les complications postnatales que connaissent les femmes, et notamment les femmes noires (qui, aux Etats-Unis, ont trois fois plus de risque de mourir d’une complication postnatale que les femmes blanches). Ces différences structurelles sont connues depuis longtemps des associations comme Black Mamas, mais moins au-delà. La presse s’y est certes intéressée (Propublica par exemple), mais ni le détail des complications ni le nombre de femmes noires qui étaient concernées n’étaient détaillés. En 2018, USA Today montrait qu’il n’y avait pas de système national de suivi des complications subies pendant la grossesse et l’accouchement (voir également l’infographie), ni de système de rapport pour s’assurer que les hôpitaux respectaient les normes de sécurité (alors que ces modalités de reporting existent pour d’autres types d’opérations). Ce que nous choisissons de mesurer montre avant tout ce à quoi nous portons de la valeur. Ou pour le dire autrement, « ce que nous tolérons indique ce que nous sommes vraiment« , comme le disait Caterina Fake. Or, bien souvent, les problèmes de pouvoir structurels, systémiques, sont invisibles tant que les gens qui y sont confrontés ne les mettent pas à jour. Pour les deux chercheuses, l’invisibilité est un produit de la science des données et de la « matrice de domination » (un concept que forgea la sociologue Patricia Hill Collins) qui s’imposent à tous et plus encore à ceux qui sont à l’intersection de genre, de race, d’identité, de capacité, d’origine… des systèmes d’oppression.

Il faut prendre conscience de l’éléphant qui se cache dans les data centers. Pas plus les données que ceux qui pratiquent cette science ne sont représentatifs. « Les risques encourus lorsque des personnes issues de groupes dominants créent la plupart de nos produits de données – ne sont pas seulement que les ensembles de données soient biaisés ou non représentatifs, mais d’abord qu’ils ne soient jamais collectés du tout ». Comme le dénonce l’artiste Mimi Onuoha depuis son projet de Bibliothèque de jeux données manquants : qui montre un classeur rempli de dossiers de données vides. Le livre de Criado-Perez comme la fondation Data2X pointent très bien cette « fracture systématique des données de genre ». Pour combler ces lacunes, l’enjeu, bien sûr, consiste à développer et promouvoir un activisme des données, une forme de science des données participative pour collecter justement les données manquantes, à l’image du projet de surveillance communautaire AirBeat du quartier noir de Roxbury à Boston qui souhaitait collecter des données pour dénoncer la piètre qualité de l’air, ou de celui initié dès 1895 par la militante des droits civiques Ida B Wells sur les agressions et lynchages à l’encontre des noirs aux Etats-Unis. Les initiatives de « contre-données » sont nombreuses, à l’image du minutieux travail de Maria Salguero qui compile des informations sur les féminicides au Mexique depuis 2016. Ces initiatives comblent souvent des vides de données, des manques, des lacunes, des négligences statistiques… qui concernent trop souvent les corps minorisés qui ne détiennent pas le pouvoir. Pourtant, bien souvent, le problème n’est pas tant l’absence de données que l’inverse : les bases de données et les systèmes de données des institutions les plus puissantes sont construits sur et pour la surveillance excessive des groupes minoritaires, comme le montrait Virginia Eubanks dans son livre. Ces formes de surveillance excessives reposent souvent sur deux hypothèses erronées : croire que plus de données est toujours mieux et que les données sont neutres. Or, dans le cadre du modèle de prévision du risque de maltraitance des enfants en Pennsylvanie qu’étudiait Eubanks, la disproportion de parents pauvres dans la base de données concentre ses effets sur la pauvreté plus que sur la maltraitance. Pour Klein et D’Ignazio, « les données ne sont jamais neutres ; elles sont toujours le résultat biaisé de conditions et d’inégalités sociales, historiques et économiques ». La science des données masque souvent ses objectifs réels sous un principe d’efficacité qui ne tient pas compte de ses biais. Le système de prévision du risque de maltraitance visait avant tout à produire un mécanisme pour suppléer un personnel limité. La solution technique proposée ne visait pas tant à répondre à la maltraitance des enfants qu’à accélérer la capacité de traitement du donneur d’ordre. Comme le montrait l’exemple de Target, derrière la neutralité des déploiements techniques, les entreprises privilégient toujours leurs objectifs à ceux des personnes qu’elles sont censées servir.

Pour D’ignazio et Klein, la science des données est utilisée presque exclusivement au service du profit, de la surveillance et de l’efficacité. Cela s’explique certainement parce que les données restent coûteuses à produire et que seules les institutions puissantes peuvent les travailler. Les données servent principalement les objectifs des institutions et notamment à consolider leurs contrôles sur leurs clients. L’extractivisme de données engendre une profonde asymétrie entre ceux qui calculent et ceux qui sont calculés. Pour renverser ce paradigme, il est nécessaire d’être attentif à l’impact des données et à qui les assemble. A l’image de l’application IRTH développée par Kimberly Seals Allers, une application à destination des mères de la communauté noire, pour à la fois documenter leurs problèmes spécifiques, les mettre en avant et leur trouver des solutions adaptées. Pour D’Ignazio et Klein, comprendre et examiner qui détient le pouvoir sur les données ne sert pas seulement à comprendre, mais doit d’abord servir à contester ce pouvoir et à le changer, le renverser. Pour le dire autrement, c’est les gens et leurs corps qui doivent nous dire quelles données vont améliorer leur vie et comment. Plus encore, si la donnée ne fait qu’informer, que rendre plus efficace des formes d’extraction et de domination, alors elle rate son objectif principal : libérer celles et ceux qui sont l’objet des données et des calculs.

Co-libérer : libérer les gens plus que les données

Le Féminisme de données vise à remettre en question les structures de pouvoir. Trop souvent, « les données sont déployées pour soutenir les intérêts des personnes et des institutions en position de pouvoir ». Remédier à ce problème nécessite donc de compiler ses propres « contre-données », de cartographier l’oppression et cela ne peut se faire que depuis d’autres points de vue et donc par d’autres personnes. L’identité de ceux qui produisent les données, leur proximité avec le sujet, les conditions de la collaboration et la direction du projet sont essentielles. La science des données est essentielle pour contester le pouvoir, car l’examiner est essentiel. L’enjeu n’est pas tant l’équité que la co-libération, insistent les deux chercheuses. Le travail mené par Julia Angwin et ProPublica en 2016 sur les biais des systèmes d’évaluation de risque de récidive utilisés par le système judiciaire américain a montré combien les 137 questions qui président à ces évaluations encodaient les inégalités structurelles de la société américaine. Ruha Benjamin évoque d’ailleurs le concept de « nouveau code Jim » pour évoquer combien les systèmes techniques encodent le racisme de la société américaine. « Les données sont toujours le produit de relations sociales inégales ». Comme l’explique Ben Green dans son livre, l’apprentissage automatique prédit plus le passé que l’avenir. Le problème est que les résultats de ces calculs sont activement promus comme objectifs ou neutres, alors qu’ils ne le sont pas. Et cela devient bien plus difficile à mesure que les calculs sont barricadés dans des boîtes noires inscrutables, protégées derrière le droit des sociétés, et donc nécessitant de construire ses propres ensembles de données pour contourner leur inaccessibilité.

Pourtant, si l’analyse et la dénonciation de l’oppression des données peuvent obliger les institutions à rendre des comptes, l’efficacité de la production de contre-données ne suffit pas. Les données de Maria Salguero sur les féminicides ont eu besoin d’être complétées par des commissions gouvernementales, des rapports d’ONG et des décisions de tribunaux pour produire des effets concrets. Les contre-données ne suffisent donc pas à produire du changement, d’autant plus que les données et les calculs sont toujours considérés comme moins partiaux que les individus, plus objectifs par nature. Mais ce n’est le cas que parce que les perspectives de ceux qui les produisent passent pour la valeur par défaut. L’objectivité n’est pourtant pas immanente.

L’éthique des données vise à produire de la responsabilité et de la transparence pour remédier à ce manque d’objectivité. Mais pour les chercheuses, les termes posent problème. Il nous faut passer de concepts qui sécurisent (et entérinent le pouvoir) à des concepts qui le défient, expliquent-elles en nous invitant à modifier les concepts que nous utilisons dans les discussions sur l’utilisation des données et des algorithmes. En passant de l’éthique à la justice, du biais à l’oppression, de la loyauté à l’équité, de la responsabilité à la co-libération, de la transparence à la réflexivité, de la compréhension des algorithmes à la compréhension de l’histoire, de la culture et du contexte… l’enjeu est de sortir de la recherche de solutions technologiques aux problèmes que pose la technologie.

Principes du féminisme des données
Image : traduction du tableau de synthèse proposé par Klein et D’Ignazio des principes du Féminisme des données.

Pour D’Ignazio et Klein, ce tableau ne signifie pas par exemple que l’éthique n’a pas sa place dans la science des données ou que la question des biais ou de la transparence ne devrait pas être abordée, mais que ces concepts ne suffisent pour rendre compte des causes profondes de l’oppression et limitent finalement l’éventail de réponses pour démanteler l’oppression ! C’est un moyen de remettre de la politique là où certains tentent de l’ôter pour mieux conserver le pouvoir. La capacité à dépolitiser les questions n’est que le privilège de ceux qui ont déjà le pouvoir. D’où la nécessité de parler de justice plutôt que d’éthique, d’équité plus d’égalité comme nous y invitait Sasha Costanza-Chock. Le biais par exemple n’est pas un concept suffisamment fort pour ancrer les idées d’équité et de justice. En effet, pour l’éviter, on a tendance à vouloir enlever les humains de la boucle de décision, au motif que leurs préjugés personnels seraient la principale raison de la continuation des discriminations. Mais ce raisonnement suppose que le racisme par exemple serait plus le fait de mauvais acteurs individuels que de structures ou de systèmes. Alors qu’en fait, remplacer les travailleurs sociaux – qui sont souvent des femmes voire des femmes de couleur, qui font preuve d’empathie et de capacités d’écoute – par des systèmes automatisés qui appliquent un ensemble de critères rigides quelles que soient les circonstances, ne nous prémunit pas des préjugés structurels, au contraire ! « Partir du principe que c’est l’oppression qui est le problème, et non les préjugés, conduit à des décisions fondamentalement différentes sur ce sur quoi il faut travailler, avec qui il faut travailler, et quand il faut se lever et dire qu’un problème ne peut et ne doit pas être résolu par les données et la technologie. »

L’enjeu donc n’est pas tant d’ouvrir ou libérer les données, que de libérer les personnes ! La clé de cette co-libération nécessite un engagement et la croyance dans un bénéfice mutuel, tant pour les groupes dominants que pour les groupes minorisés. La libération des uns et des autres est liée. C’est ce qui motive par exemple le projet Our Data Bodies et son Digital Defense Paybook (dont nous avions déjà parlé). La co-libération nécessite également de nouveaux outils et un autre état d’esprit. « Partir du principe que l’oppression est le problème, que l’équité est la voie à suivre et que la co-libération est l’objectif souhaité conduit à des projets fondamentalement différents qui remettent en cause le pouvoir à sa source. » Cela nécessite aussi de mesurer différemment la réussite d’un projet. La réussite ne repose plus alors sur l’efficacité d’une base de données, la précision d’un algorithme ou la taille de la base de données, mais plutôt du degré de confiance établi, du partage du pouvoir et des ressources, de l’ampleur de l’apprentissage de ceux qui y participent, de la transformation des personnes et des organisations par le processus, de la quantité d’inspiration nouvelle engendrée ! Des objectifs qui sont certes plus flous à mesurer, mais qui peuvent l’être tout de même !

Lorsque Gwendolyn Warren et les chercheurs du Detroit Geographic Expedition and Institute dans les années 70 ont recueilli des données sur les accidents de voiture impliquant les enfants noirs à Détroit, ils l’ont fait pour que les chercheurs rendent à la communauté les connaissances qu’ils exploitaient et permettent à la communauté de créer une stratégie pour combattre les discriminations qu’elle subissait. Pour Warren, l’éducation était un mécanisme d’autonomisation et de transformation.

Pour y parvenir, il faut encore que les femmes comme les personnes de couleurs soient plus nombreuses dans les salles de classe de la science des données, alors que 80 % des professeurs en IA et que 66 % des professeurs d’informatique et de statistiques sont des hommes. Cela nécessite aussi de s’extraire de la croyance que tout cela ne serait qu’une question technique. Pour Laurie Rubel (@Laurie_Rubel), à l’origine du projet Local Lotto (voir également ici), l’enjeu est d’enseigner autrement les mathématiques en tenant compte de l’équité. Laurie Rubel a proposé à des élèves du secondaire de répondre à la question : est-ce que la loterie est bonne pour votre quartier ? Les billets de loterie ont une production sociale. Ils sont bien plus achetés par les travailleurs à bas salaires que par les plus riches. Lors de ces exercices, les élèves devaient parcourir leur quartier pour dresser des cartographies, rencontrer des acheteurs… comprendre les enjeux. Ce travail leur a permis surtout de rétroagir sur leurs communautés, pour leur montrer combien la loterie leur était défavorable. Local Lotto utilise la science des données pour construire une approche concrète et sociale, plutôt qu’abstraite et technique et aider à permettre aux acteurs d’en prendre conscience pour y remédier. Le projet vise à adresser des problématiques d’inégalités de la vie quotidienne. Il valorise l’expérience vécue et le partage. « La justice est un voyage » qui nécessite de travailler aux problèmes que l’injustice cause. Examiner le pouvoir ne suffit pas, rappellent les deux chercheuses. Il faut aussi le remettre en question. Pour cela, il faut prendre l’oppression et l’inégalité comme une hypothèse de base pour créer des systèmes. Cela nécessite d’apprendre des communautés et de concevoir les systèmes avec elles.

Privilégier l’incarnation et l’émotion à la fausse neutralité

Contrairement à ce que l’on pense trop souvent, l’objectivité des données nécessite non pas de promouvoir une forme de neutralité immanente, mais au contraire de mieux les incarner, c’est-à-dire de mieux montrer et valoriser leur subjectivité intrinsèque. C’est ce que propose par exemple Periscopic dans sa formidable infographie sur le nombre de personnes tuées par arme à feu aux Etats-Unis. Contrairement à une présentation traditionnelle du phénomène, l’infographie de Periscopic valorise l’émotion en permettant d’accéder aux informations individuelles sur chaque personne tuée par arme à feu aux Etats-Unis et en totalisant le nombre moyen d’années volées à toutes ces vies !

Capture d'image de l'infographie de Periscopic sur le nombre de personnes tuées par arme à feu aux Etats-Unis

Cette approche a généré certaines critiques. Alberto Cairo, auteur d’un livre sur la visualisation de données, The Truthful Art (New Riders, 2016, non traduit), estime que l’infographie de Periscopic instrumentalise une cause par l’émotion, alors que la visualisation doit rester neutre ! Dans A Unified Theroy of Information Design (Routledge, 2013, non traduit), Nicole Amare et Alan Manning, expliquent que la visualisation doit rester neutre. La sobriété est nécessaire pour que les lecteurs interprètent les résultats par eux-mêmes. Dans le domaine de la communication de données, l’ornement est souvent considéré comme suspect.

Comme le dit l’historien des sciences Theodore Porter, « la quantification est une technologie de la distance », c’est-à-dire qui met à distance sous principe d’objectivité. La neutralité en est l’idéal. C’est oublier que persuasion est partout, même dans le dépouillement de simples feuilles de calcul ou des plus simples graphiques. Haraway a pourtant été la première à souligner le lien entre l’apparente neutralité et l’objectivité des données. Pour elle, la visualisation de données encourage trop souvent à voir les phénomènes depuis nulle part – voire de loin ou d’en haut. Ce point de vue, cette « ruse », cependant présente comme neutre une perspective partielle, qui est là encore, bien souvent, la perspective du groupe dominant. Pour le grand spécialiste de statistique et de visualisation de l’information, Edward Tufte (@EdwardTufte), le concepteur de visualisation doit s’efforcer d’utiliser l’encre uniquement pour afficher les données… tout embellissement est suspect. Le minimalisme visuel est rationnel. Les éléments décoratifs sont tous suspects d’œuvrer à des formes de persuasion émotionnelle.

La recherche féministe a beaucoup critiqué cette opposition entre raison et émotion, qui vise plus à structurer et imposer des hiérarchies implicites qu’autre chose. Pour D’Ignazio et Klein, le minimalisme visuel n’est pas si neutre qu’il le clame. Trop de théoriciens et de praticiens de la visualisation de données relèvent des disciplines techniques de l’ingénierie et de l’informatique, mais oublient que tout objet, aussi neutre soit-il présenté, est rhétorique. Dans un visuel, un même constat peut être présenté de manière très différente selon sa représentation ou le discours qui l’accompagne, à l’image d’un même graphique factuel sur le chômage proposé par le New York Times, présentant les données selon un point de vue démocrate ou républicain. En fait, soulignent les chercheuses, la visualisation de données dépend toujours d’une interprétation. Les choix éditoriaux qui produisent une visualisation ont des effets de cadrage qui obscurcissent ou mettent en évidence certaines choses plutôt que d’autres. Les conventions autour du minimalisme favorisent une perception de visualisation comme étant neutre et objective. Au final, même les visualisations les plus simples, les plus factuelles, ne sont pas neutres. Par contre, elles sont très persuasives.

Dans une approche féministe des données, expurger toutes traces humaines pour produire une neutralité de façade n’est pas la bonne approche. L’enjeu, au contraire, consiste à affirmer la nature située des connaissances, à affirmer leur partialité. Pour D’Ignazio et Klein, il est nécessaire de rendre les données plus « viscérales » plutôt que neutres. L’émotion n’est pas aussi irrationnelle et illégitime que beaucoup la tiennent. Notre compréhension du monde est une combinaison d’expériences, d’intuitions, de raisons et d’émotions. En 2010, Kelly Dobson a fondé le groupe de recherche Data Visceralization, avec l’objectif de produire des données à ressentir, à expérimenter avec le corps, tant physiquement qu’émotionnellement. Cette viscéralisation n’était pas qu’une expérimentation créative. Pour ceux qui ont animé ce groupe de travail, l’enjeu était de rappeler que nous ne sommes pas des yeux attachés à un cerveau. La viscéralisation des données poursuit également un but d’accessibilité : les données ne peuvent être seulement visuelles. Klein et D’Ignazio évoquent ainsi le travail du Bureau de recherche créative pour le MoMA de New York qui s’est joué (vidéo) du catalogue des 123 951 oeuvres de la collection en faisant lire le nom des artistes masculins par des hommes et ceux des artistes féminins par des femmes pour souligner la nature hautement sexuée des collections… ou encore le travail du collectif Guerrilla Girls qui soulignait que pour entrer au Metropolitan Museum of Art, il fallait assurément être une femme nue arguant que les femmes nues sont le principal sujet des tableaux alors que les artistes femmes, elles, sont inexistantes dans les collections. Faire des données des expériences permet de casser la vue d’ensemble que les visualisations proposent et permettent de faire l’expérience des enjeux peu à peu. L’enjeu est ici de ressentir la différence de genre plutôt que de seulement la voir, comme s’ils s’adressaient à une autre partie du cerveau.

Infographie des Guerilla Girls
Image : « Moins de 5 % des artistes des sections art moderne du musée sont des femmes, mais 85 % des nus sont des femmes », infographie des Guerilla Girls, 1989.

Un autre enjeu également dans les représentations visuelles, consiste à mieux faire figurer l’incertitude, comme d’arriver à montrer la fourchette d’incertitude de sondages. Lors de l’élection de Trump en 2016, les simulations produites par les sondages étaient plus incertaines dans les intentions de vote que leurs représentations. Pour Klein et D’Ignazio, le fait que nombre de graphiques aient suggéré que Clinton allait gagner tient beaucoup au refus de montrer l’incertitude que les sondages exprimaient. Ajoutez-y les biais de nos propres raccourcis mentaux qui tendent à nous faire croire que l’avance d’une candidate sur l’autre tient d’une probabilité plus forte qu’elle gagne… Et vous comprenez mieux le risque à ne pas s’ouvrir à l’incertitude des données. Pour les deux chercheuses, ces exemples doivent nous rappeler que le contexte est roi en matière de visualisation.

Interroger les classements et les catégories

Le féminisme des données oblige à sortir des dichotomies et donc à repenser les catégories et hiérarchies. De nombreux problèmes d’inégalité structurelle sont des problèmes d’échelles. Trop souvent, seul ce qui est compté compte, et ce qui n’est pas compté ne compte pas, rappellent les chercheuses. Ici, il est nécessaire également de nous défier de l’affichage de grands principes. Ainsi, quand Facebook a élargi les modalités pour indiquer son genre, cette nouveauté a été saluée comme le signe d’une grande ouverture. Pourtant, comme l’ont montré les travaux de Rena Bivens (@renabivens), Facebook a continué de résoudre le genre des utilisateurs de manière binaire pour ses clients payants. Mêmes constats en ce qui concerne la politique des « vrais noms » de Facebook qui est justifiée pour des raisons de sécurité, mais qui met activement en danger les utilisateurs les plus marginaux de la plateforme, comme l’ont montré Oliver Haimson et Anne Lauren Hoffmann, par exemple ceux qui portent des noms Amérindiens où les personnes qui cherchent à masquer leurs identités parce qu’elle peut leur porter préjudice.

Les féministes, comme les militants antiracistes et homosexuels, ont beaucoup réfléchi aux problèmes de classification, notamment parce que cela les affectait directement. La solution pourtant ne consiste pas à refuser le classement, mais à nous interroger sur la manière dont les systèmes de classification sont construits, sur la manière dont ils encodent les valeurs et jugements, sur comment ils sont construits et dans quel but, comme l’expliquent Geoffrey Bowker et Susan Leigh Star dans Sorting Things Out (MIT Press, 2000, non traduit). Le problème consiste toujours à savoir s’il vaut mieux être compté ou pas. C’est le paradoxe de l’exposition ou de la classification. Pour un sans papier par exemple, être dénombré peut-être problématique selon ce qui est fait de ce dénombrement. Du point de vue du féminisme de données, la question est toujours de savoir si ce sont les catégories qui sont inadaptées ou le système de classification. A quoi sert-il par exemple que les scanners corporels des aéroports distinguent les hommes des femmes et s’affolent dès qu’une personne ne correspond pas à cette normativité réductrice ?

L’Association médicale américaine qualifie désormais le genre de spectre, plutôt que sur un mode binaire. L’organisme de santé publique britannique a lui développé un questionnaire inclusif et sensible qui permet d’ouvrir la question des catégories de genre en proposant des modalités de non divulgation. En fait, soulignent les chercheuses, selon les circonstances, l’institution qui collecte, et le but de ces collectes, les décisions éthiques peuvent varier. Pour le dire plus simplement, l’éthique ne peut être bornée : chaque comptage nécessite de reposer les questions de contexte et de pouvoir : faut-il compter selon le genre ? Quand et comment ? Même constat du côté de la couleur de peau… Mais la réponse à ces questions n’est possible qu’en répondant à la question à qui et à quoi servent ces comptages et plus encore en assurant que leur utilité reste circonscrite à l’objectif formulé – ce qui est plus difficile à assurer, notamment dans le monde des données, où un comptage, par nature, peut-être réutilisé à d’autres fins. Enfin, soulignent les chercheuses, la question du consentement à ces différents types de comptages est essentielle, pour les groupes minoritaires et notamment du fait des préjudices potentiels qu’il y a à distinguer les gens selon leurs identités fait peser sur eux. Respecter les gens qui sont derrière les données peut sembler tenir de l’évidence. C’est pourtant si rarement le cas qu’il faut bien le rappeler (signalons d’ailleurs sur ce sujet, le travail stimulant du Manifeste pour des technologies pleinement consenties, qui propose des principes pour des technologies de « plein consentement » : sans pression, réversibles, informées, enthousiastes et spécifiques) !

Historiquement, compter a toujours été utilisé pour dominer, discipliner et exclure. C’est pour cela qu’il est nécessaire d’interroger notre infrastructure de classification. Les chiffres ne sont pas toujours des outils d’oppression, mais ils doivent être travaillés pour rééquilibrer la répartition inégale du pouvoir.

Notre besoin de diversité est impossible à rassasier

Pour le féminisme de données, la connaissance la plus complète provient de la synthèse de perspectives multiples, et notamment les plus locales, les plus expérientielles… Sur le site Anti Eviction Map qui lutte contre les expulsions à San Francisco on trouve une centaine de cartes différentes. Beaucoup ont été produites en collaboration avec des organisations différentes afin de documenter le phénomène de l’expulsion dans sa plus complète diversité. L’une des cartes par exemple, montre que la concentration des expulsions recoupe celle des arrêts des Bus qui viennent chercher les employés des grandes entreprises de la tech. Toutes les cartes ne sont pas aussi lisibles, mais l’objectif reste de documenter ce qu’il se passe de multiples façons. Plutôt que de raconter une seule histoire « vraie » ou consensuelle, l’enjeu est aussi de reconnaître les versions multiples voire contradictoires de la réalité, explique l’architecte Katie Lloyd Thomas (@ktlloydt), fondatrice du collectif féministe Taking Place. Pour le féminisme de données, l’enjeu est d’adopter le pluralisme, de valoriser les voix, les points de vue, de la collecte à la communication… Pour se faire, il faut se défaire de la façon dont les méthodes de la science des données ont tendance à supprimer les voix, au profit de la clarté, de la propriété ou du contrôle.

Trop souvent, l’un des principaux aspects du travail du data scientist consiste à nettoyer les données pour mieux les structurer, un travail d’entretien à la fois patient et minutieux, et également un travail d’organisation glorifiant visant à dompter le chaos des chiffres. Le problème, c’est que ces processus contribuent à faire disparaitre des perspectives et à en imposer d’autres. Nettoyer les données consiste aussi à les contrôler. « Cette croyance selon laquelle les données doivent toujours être propres et contrôlées a des racines historiques douteuses ». Trop souvent, le nettoyage est « une astuce pour réduire la diversité », comme l’ont expliqué Katie Rawson (@katie_rawson) et Trevor Munoz (@trevormunoz) dans leur article « Contre le nettoyage ». Le désordre des données est riche d’informations sur les circonstances de leur collecte. Trop souvent, leur nettoyage permet qu’elles soient plus accessibles à d’autres qu’à ceux qui les ont collectés. En fait, expliquent Klein et D’Ignazio, ce nettoyage des données élargit surtout leur disponibilité et notamment leur disponibilité à un plus large niveau, les coupant du contexte de leur production. Ce nettoyage bénéficie également aux data scientists, à ces génies solitaires, souvent blancs et masculins, dont la maîtrise individuelle et l’expertise technique semblent sans bornes. L’un de ces génies est Matthew Desmond (@just_shelter), directeur de Laboratoire de l’expulsion (@evictionlab) à l’université de Princeton et auteur d’Avis d’expulsion, enquête sur l’exploitation de la pauvreté urbaine (Lux éditeur, 2019). La difficulté pour le laboratoire a longtemps consisté à trouver sur quelles données baser ses recherches. Faut-il privilégier des données plus propres et à grandes échelles, faciles à traiter et à acheter où des données plus précises, à l’échelle locale, comme celles produites par Anti Eviction Map mais qui nécessitent d’établir une relation de confiance afin qu’elles ne soient pas utilisées n’importe comment ? Comme nombre d’acteurs dans le domaine des données, le laboratoire a donné la priorité à la rapidité sur la précision. A l’inverse, si l’Anti Eviction Map a privilégié la diversité, leur décision a aussi contribué, de manière tout à fait intentionnelle, à renforcer les capacités techniques et relationnelles des acteurs locaux. L’enjeu était bien de construire une solidarité entre participants afin qu’ils s’entraident dans la lutte contre les expulsions, qu’ils apprennent les uns des autres. La multiplicité permet d’obtenir une image plus complète d’un problème et en renforce les collectifs. Encore faut-il parvenir à reconnaître la partialité de sa compréhension. Cela suppose, bien souvent, de donner accès aux données utilisées et de décrire les méthodes employées. Mais également de compléter ces informations en précisant qui a travaillé sur ces données, quels étaient les points de tensions…

« La prise en compte de la valeur des perspectives multiples ne doit pas se limiter à la transparence et à la réflexivité. Il s’agit également d’inviter activement et délibérément d’autres points de vue dans le processus d’analyse et de narration des données – plus précisément, ceux des personnes les plus marginalisées dans un contexte donné. » Pour l’Anti Eviction Map cela signifie centrer ses données sur les voix et les expériences de ceux qui ont été expulsés, à l’image de la proposition du réseau de Design Justice qui souhaite centrer son travail sur ceux les plus touchés par les données. Pour Klein et D’Ignazio, l’enjeu est bien ici de concevoir des projets de co-libération plutôt que des « données pour le bien » (ce qu’on appelle le mouvement « Data for good », un réseau de réseaux international qui promeut l’usage de la donnée pour l’intérêt général). Si le mouvement Data for good décrit des projets de science des données socialement engagés, que signifie faire le bien ? De quel bien parlons-nous ? Au profit de qui ? Pour la spécialiste en machine learning chez Google Brain et fondatrice de Delta Analytics, Sara Hooker (@sarahookr), ce concept manque de précision, notamment parce que l’engagement ne suffit pas à qualifier l’objectif – l’ingénieur Ben Green faisait une critique assez proche (.pdf) (dont nous avions rendu compte), soulignant les limites à renforcer le bien social sans interroger l’engagement. A l’inverse, la co-libération repose sur la dénonciation et la résolution des relations de pouvoir asymétriques. La co-libération présuppose une lutte qui qualifie l’enjeu… et augmente l’engagement d’objectifs, que ce soit le transfert de connaissance ou la création d’une infrastructure sociale dédiée, que ce soit pour la prise de conscience ou pour armer la lutte sociale. Elle implique des échanges à double sens pour renforcer les capacités techniques de la communauté et un renforcement de la solidarité, par exemple en allouant des ressources à l’infrastructure communautaire et pas seulement une aide technique. « Dans le modèle de co-libération, les projets de science des données deviennent des projets de science communautaire. Ils se déroulent simultanément dans la base de données et dans l’espace public. » L’enjeu est de construire une compréhension partagée autour d’une question et de mobiliser autour de cette compréhension pour en décliner des actions. Les données sont un moyen de générer une prise de conscience et de l’activer. En cela, la co-libération devient une « technologie de rassemblement », où « les informations sont échangées, la cohésion sociale est renforcée et les actions futures sont co-conspirées », une forme de « feu de camp » pour réactiver la participation politique, expliquent Kein et D’Ignazio – une forme de nouvelle cartographie d’alliances.

L’enjeu n’est pas pourtant de rester petit ou local. Les données peuvent aussi permettre d’atteindre d’autres échelles de co-libération, expliquent les chercheuses en évoquant le projet d’Atlas mondial de la justice environnementale, initié par Leah Temper et Joan Martinez-Alier qui collecte des informations sur les conflits écologiques depuis les luttes mêmes de ces acteurs. Certes, l’approche est plus pluraliste, participative et itérative que les approches extractivistes et quantitatives du Big data traditionnel, mais en fin de compte, même si cela prend plus de temps, les données, les relations et les capacités des communautés produites sont d’une bien meilleure qualité.

Les chiffres ne parlent pas d’eux-mêmes

Le féminisme des données affirme que les données ne sont ni neutres ni objectives. Elles sont le produit des inégalités et, sans contexte, elles ne disent rien : ne sont ni précises ni éthiques.

En 2014, le célèbre blog FiveThirtyEight a publié un article montrant que l’enlèvement de jeunes femmes au Nigeria était un problème qui empirait. Mais l’article a dû rapidement être rétracté. Le site avait utilisé une base de données mondiale spécialisée sur les conflits, le GDELT. Le problème est que cette base collecte des articles de presse en démultipliant les faits depuis les sources. FiveThirtyEight avait compté chaque article comme un événement alors que beaucoup d’articles de presse relayés décrivaient le même événement. L’histoire raconte la difficulté à agréger des données dont on ne sait pas grand-chose, à notre tendance à surestimer l’exhaustivité sur l’exactitude. Certains chercheurs parlent de « Big Dick Data » pour qualifier des projets qui fétichisent la taille, exagèrent leurs capacités scientifiques ou techniques et ignorent le contexte. Nous sommes de plus en plus cernés par des portails de données qui permettent de télécharger ou d’échanger de vastes ensembles de données, dans un modèle d’accès illimité à l’information que nous considérons trop souvent comme un bien inhérent.

L’un des principes centraux de la pensée féministe est que toute connaissance est située, nécessitant de relier les données au contexte de leur production pour mieux comprendre leurs limites fonctionnelles, les obligations éthiques associées et la manière dont le pouvoir a contribué à leur élaboration. Trop souvent, pourtant, rappellent les chercheuses, les jeux de données sont fournis sans contexte ni métadonnées, c’est-à-dire sans informations sur leur provenance et sans dictionnaires pour les décrire. Klein et D’Ignazio donnent l’exemple simple et courant d’un jeu de données sur les dépenses de la ville de Sao Paulo au Brésil. Le jeu de données n’est pas difficile à comprendre en tant que tel, mais le processus qui l’a produit est bien moins clair. Comment la ville gère-t-elle ses appels d’offres ? Comment décide-t-elle de leur attribution ? Les offres publiées correspondent-elles à toutes les offres ou seulement à celles qui ont passé un contrat avec la ville ? Qu’est-ce qui explique les variations de numérotation ?… Or sans réponses, il semble difficile d’explorer, analyser ou traiter ces données. Comme l’explique Christine Borgman (@scitechprof) dans son livre Big Data, Little Data, No Data (MIT Press, 2015, non traduit) : une infrastructure de connaissances est « une écologie de personnes, de pratiques, de technologies, d’institutions, d’objets matériels et de relations ».

Klein et D’Ignazio rappellent rapidement l’histoire du mouvement pour l’ouverture des données publiques, né au milieu des années 2000 d’une conjonction d’acteurs (gouvernements, associations, individus et militants) pour favoriser l’accès aux données, ces nouveaux types de documents publics. Sous prétexte de promouvoir le développement économique par la création de services les utilisant, d’accélérer le partage de connaissance et la science, et d’améliorer la transparence démocratique, nombre d’États, de villes et régions ont peu à peu ouvert des portails de données. Mais, comme elles le rappellent encore, le financement limité a conduit à prioriser l’ouverture de certaines données sur d’autres et surtout a rarement permis de documenter les jeux de données. Pour le spécialiste de l’ouverture des données britannique, Tim Davies (@timdavies), on s’est parfois retrouvé face à des « décharges de données brutes », incapables d’assurer l’engagement ou la responsabilité. Nombre de jeux de données demeurent peu utilisés, attendant que « les utilisateurs entreprennent le travail intensif de déchiffrer les arcanes bureaucratiques qui obscurcissent leur signification ». On parle aussi de données zombies pour désigner des ensembles de données publiés sans objectifs ou cas d’utilisation. Qu’importe ! Finalement, comme l’affirmait Chris Anderson de Wired en 2008, toute théorie devenait inutile, les données parleraient d’elles-mêmes ! Mais la corrélation sans contexte est clairement insuffisante, comme le montrait Safya Umoja Noble (@safiyanoble) dans son livre Algorithms of Oppression (NYU Press, 2018, non traduit), en démontrant que les résultats de Google Search ne sont pas seulement racistes et sexistes à l’image de nos sociétés, mais entretiennent le sexisme et le racisme en renvoyant vers ces contenus sous prétexte de les classer en fonction des liens et de leur audience, encourageant finalement leur audience dans une boucle de circulation perpétuelle.

Depuis 1990, suite au meurtre de Jeanne Clery, une loi visant à améliorer la collecte de données relatives aux crimes commis sur les campus américains a été votée, imposant de mettre à la disposition du public ces statistiques. En 2016, trois étudiants en journalisme de données ont téléchargé ces données collectées par le Clery Center (@CleryCenter) pour comprendre ce qu’il en était de la culture du viol sur les campus. Ils se sont rendu compte qu’un petit établissement rural du Massachusetts semblait connaître bien plus d’agressions sexuelles que la prestigieuse université de Boston. En enquêtant, ils se sont rendu compte que certains établissements publiaient leurs chiffres et que d’autres avaient les ressources institutionnelles nécessaires pour les minimiser, notamment en accompagnant les victimes pour minimiser les plaintes. Les chiffres ne parlent pas d’eux-mêmes à nouveau, les données sont bien souvent « cuites et recuites » que brutes, c’est-à-dire toujours obtenues, toujours travaillées et retravaillées, sensibles à nombre de facteurs externes qui président aux multiples étapes de leur production. Bien souvent, les données tiennent plus d’indicateurs culturels qu’elles ne décrivent une réalité. Pour les chercheuses, nous avons besoin de bien plus de théorie et de bien plus de contexte pour saisir les enjeux de pouvoir des données. Les chercheuses prennent l’exemple des travaux qu’a mené Desmond Patton (@DrDesmondPatton) du SafeLab afin d’utiliser l’IA pour comprendre le rapport à la violence des jeunes de Chicago. Mais pour mieux comprendre un jeu de données de tweets, il a utilisé certains de ces jeunes pour mieux classer les données. Il a ainsi remarqué que des tweets utilisant des termes agressifs, comme le terme « tuer » ne visait pas tant à menacer d’autres personnes qu’à faire souvent référence à des paroles de chansons et donc à partager des symboles culturels. Pour les deux chercheuses, cet exemple souligne combien il ne peut y avoir de sciences des données sans le nécessaire travail social qui en éclaire le sens et l’action.

Communiquer en contexte nécessite non pas de chercher à être neutre, mais à regarder ce que les données produisent effectivement, expliquent les chercheuses en montrant deux graphiques représentant exactement les mêmes données, le plus exact pouvant être taxé de partialité alors que le second, semblant plus neutre se révèle bien plus manipulateur et plus ouvert à une mauvaise interprétation. La justice nécessite aussi de reconnaître et nommer les formes d’oppression que ce soit le racisme, le sexisme, l’homophobie… pas de les neutraliser, expliquent-elles.

Rendre les méthodes plus robustes et conserver le contexte des données, tel est l’enjeu de Cuidando do Meu Bairro (Prendre soin de mon quartier), une initiative à destination des habitants de Sao Paulo qui vise justement à ajouter du contexte et des éclaircissements aux données locales. Heather Krause, fondatrice de Datassist et We all count (@datassist), un projet pour développer l’équité en data science, a développé nombre d’outils pour favoriser l’équité et notamment le concept de biographie des données, consistant à demander à leurs producteurs de répondre à des questions de base : « d’où vient le jeu de données ? Qui l’a collecté ? Quand ? Comment ? Pourquoi ? ». C’est exactement l’enjeu du « datasheets for datasets » développé par Timnit Gebru pour Microsoft (voir notre article Utiliser l’IA pour détecter ses propres biais ? »). Les guides d’utilisation de données sont une piste essentielle, insistent Klein et D’Ignazio ! Les deux chercheuses signalent ainsi l’exemple de Woman Stats initié par le géographe Chad Emmett (@emmett_chad) et la professeure de sciences politiques Valerie Hudson, une vaste base de données sur les violences faites aux femmes qui distingue des variables de pratiques et de droit selon les conditions juridiques des pays d’où proviennent les données. Une façon de souligner l’incomplétude de leurs données. Ainsi les statistiques sur le viol soulignent que les modalités d’enregistrements sont peu comparables d’un pays à l’autre.

Reste à savoir qui doit éclaircir les données. Bien souvent, les journalistes et les ONG font un bon travail de nettoyage et de contextualisation, pour autant qu’ils bénéficient de financements durables, d’expertises et de normes. Le problème, trop souvent, c’est que gérer les données nécessite de l’investissement au risque de garder durablement des ressources de qualité médiocres, voire dangereuses. Sans argent, la production de contexte risque de rester l’exception plus que la norme.

Rendre le travail visible

L’ultime principe du féminisme de données consiste à rendre le travail visible. Une étude sur Github, cette plateforme collaborative de travail sur le code source, montrait que les utilisatrices avaient moins de chances de voir leurs contributions acceptées si elles s’identifiaient comme femmes. Pourtant, en permettant de voir les contributions à chaque projet, Github a participé à changer le regard sur la réalité du travail du code, montrant combien il relève d’abord et avant tout d’une collaboration patiente. Mais contrairement à Github, la production de données et de visualisations s’inscrit dans de longues chaînes de collaborations qui tendent à écraser les contributions plutôt qu’à les mettre en avant. La formidable cartographie des navires qui naviguent à travers le monde est le résultat d’un long travail d’innombrables contributeurs. Comme l’explique Miriam Posner, les chaînes d’approvisionnements elles-mêmes, ont trop souvent intérêt à écraser et transformer les contributions. Et on constate la même chose dans le monde de la production de données.

La dénonciation des formes de travail invisibles est ancienne et s’est cristallisée longtemps sur le travail domestique non rémunéré des femmes. Elle s’est considérablement élargie depuis, notamment à celui des utilisateurs des plateformes. Reste que la science des données prospère largement sur cette invisibilisation en mobilisant largement des plateformes de crowdsourcing que ce soit pour étiqueter des films, des documents, corriger des fautes… comme l’ont montré nombre d’études sur la sous-classe mondiale de la modération, allant de Ghost Work (Mariner Books, 2019, non traduit) de Mary Gray et Siddharth Suri, à Derrière les écrans (La découverte, 2020) de Sarah T. Roberts (@ubiquity75) en passant par En attendant les robots (Seuil, 2019) d’Antonio Casilli (@antoniocasilli). Derrière les hiérarchies actuelles du travail des données se répètent d’anciennes hiérarchies technologiques fondées sur le sexe, la classe sociale et la race, explique Lilly Irani (@gleemie), comme celles de la première génération d’informaticiennes, ces Figures de l’ombre (Harper Collins France, 2017) qu’évoquait Margot Lee Shetterly (@margotshetterly). En 2008, d’ailleurs, Irani avait lancé le Turkopticon pour permettre aux utilisateurs du Mechanical Turk d’Amazon de signaler les conditions de travail que les commanditaires de la plateforme leur imposaient. Mais après 10 ans de service, le service, entièrement bénévole, a fermé sous l’épuisement. L’exploitation d’une main d’œuvre précaire trouve son origine bien sûr dans la longue histoire coloniale et esclavagiste, qui ne cesse de prolonger ce même schéma d’exploitation.

Pour répondre à ces invisibilisations, nous devons améliorer les études sur la production de données, estiment Klein et D’Ignazio, comme le propose Anatomy of an AI System de Kate Crawford (@katecrawford) et Vladlan Joler (@TheCreaturesLab). Montrer le travail invisible est un moyen de résister au storytelling de l’innovation dominante. Documenter qui y participe, comme y invite la Charte des droits des collaborateurs, également. Documenter ce travail permet également de montrer la quantité de travail physique nécessaire à la numérisation, comme l’a pointé la représentation visuelle du catalogage des livres pour la librairie du Congrès imaginé par Ben Schmidt (@benmschmidt). Enfin, bien sûr, c’est un moyen de valoriser également le travail de soin et le travail émotionnel à l’image du projet Atlas of Caregiving, visant à documenter le travail nécessaire autour de malades atteints de maladies chroniques afin d’en souligner sa complexité et sa pluralité.

Les déséquilibres du pouvoir sont partout dans les données… Ce n’est qu’en montrant toute la fragilité de chaque donnée que nous pourrons défier et relever leurs conséquences.

Réinventer notre rapport aux données et aux calculs

La force du livre de Klein et D’Ignazio consiste à nous confronter à nos propres impasses. Elles nous invitent à mettre à jour nos concepts, à renverser nos catégories de pensées et, pour y parvenir, à dépasser, renforcer et politiser plus avant nos exigences. Peut-être est-il plus que jamais nécessaire, comme elles nous y invitent, de modifier notre cadre de réflexion, de changer les concepts avec lesquels nous légitimons les évolutions des calculs… Les limites de l’ouverture et de la transparence dans les systèmes techniques sont dénoncées depuis longtemps. Peut-être que pour les dépasser, faut-il remiser et réinventer les concepts qu’on utilise, en tout cas les mettre à jour ! En nous invitant à passer de l’éthique à la justice, du biais à l’oppression, de la loyauté à l’équité, de la responsabilité à la co-libération, de la transparence à la réflexivité, de la compréhension des algorithmes à la compréhension de l’histoire, de la culture et du contexte… l’enjeu que Klein et D’Ignazio formulent nous invite à sortir de la recherche de solutions technologiques aux problèmes que pose la technologie. Ce n’est pas un petit pas de côté. En nous invitant notamment à dépasser les limites de l’ouverture des données ou du gouvernement ouvert, pour revenir au sens et à l’impact des données elles-mêmes, les deux chercheuses nous montrent une voie d’appropriation et de libération pour résister à l’impact des calculs et des bases de données.

Dans la conclusion de leur ouvrage, Klein et D’Ignazio nous invitent, à l’image des contestations qu’ont connu l’industrie de la technologie, notamment la grève chez Google de 2018 (le Google Walkout for real change), à « occuper en masse les infrastructures numériques », à ralentir les chaînes numériques, à canaliser les solidarités numériques vers les espaces physiques… De la Tech Workers Coalition (@techworkersco) aux plateformes comme Coworker.org (@teamcoworker) ou aux organisations comme Tech Solidarity (@techsolidarity) en passant par l’essor des coopératives technologiques aux manifestes comme ceux de Design Action Collective et bien sûr aux communautés de pratiques elles aussi revendicatrices comme le réseau Design Justice (@design__justice), Data for Black Lives (@data4blacklives) ou l’Algorithmic Justice League (@ajlunited)… sont autant de formes de mobilisation qui visent à faire des données un outil de changement social profond plutôt qu’une arme d’oppression au service du pouvoir financier (voir notre article « Vers un renouveau militant des questions technologiques ?).

La science des données doit désormais dépasser ses présupposés premiers, à savoir ses méthodes uniquement quantitatives reposant sur la seule puissance des données, la force brute des traitements automatisés, sa fausse neutralité, son ouverture sans enjeu… Le féminisme des données ne vise pas à produire de la technologie pour elle-même, mais au contraire, à en libérer les acteurs. Utiliser les données pour mettre fin à l’oppression est un objectif bien plus stimulant que les utiliser pour la perpétuer.

Hubert Guillaud

20.09.2021 à 07:00

Application de suivi de contact : quel bilan ?

Hubert Guillaud

img
Cet été, Algorithm Watch (@algorithmwatch) a publié une analyse sur les applications de suivi de contact. Pour l’ONG, les résultats sont assez contradictoires, notamment parce que les applications et les situations sont peu comparables les unes les autres. Selon le Covid Tracing Tracker de la Technology Review, on en répertorie (...)
Texte intégral (5699 mots)

Cet été, Algorithm Watch (@algorithmwatch) a publié une analyse sur les applications de suivi de contact. Pour l’ONG, les résultats sont assez contradictoires, notamment parce que les applications et les situations sont peu comparables les unes les autres. Selon le Covid Tracing Tracker de la Technology Review, on en répertorie plus d’une cinquantaine dans le monde. Pour l’ONG cependant, nous ne disposons même pas d’une définition partagée de ce que signifie l’efficacité de ces applications : faut-il compter le nombre de contacts identifiés ou la réduction épidémique que produit ce traçage automatisé ? Pendant plusieurs mois, on a entendu que l’efficacité était liée au volume d’adoption de ces applications (notamment via le fameux seuil des 60 % de téléchargement et d’utilisation !), alors qu’elles peuvent avoir des effets protecteurs à des niveaux bien plus bas. En fait, le haut niveau de téléchargement de certaines d’entre elles ne s’est pas nécessairement traduit par des réponses efficaces en matière de recherche de contact, comme le soulignent les exemples irlandais et finlandais. Pour certains chercheurs, le déploiement de ces applications sans preuve réelle de leur efficacité demeure problématique. Reste qu’il n’aurait pas été possible d’obtenir la preuve de leur inefficacité sans les déployer. Pour autant, la conclusion reste cinglante : l’efficacité des applications de suivi de contact dans leur contribution à la lutte contre le Covid-19 n’est pas concluante !

Covid Vaccine Tracker

Le suivi « manuel » des contacts, via des spécialistes humains, s’est révélé toujours plus efficace. Une autre analyse, elle aussi, conclut que les applications ne sont ni une panacée ni une solution miracle, et encore moins dans les pays les moins développés. En France, une étude de perception a montré que les personnes les plus précaires, qui sont aussi les plus exposées au virus, sont également les plus réticentes à utiliser une application. Pour le dire autrement, il ne peut y avoir d’adoption optimale sans réduction des inégalités qui agissent sur les déterminants structurels, notamment ceux qui président à la connectivité ou à l’alphabétisation numérique. Une étude parue dans The Lancet a même montré que les outils de recherche de contacts automatisés déployés entre 2000 et 2020 pour d’autres virus, n’ont, là encore, montré aucune preuve d’efficacité, tant en terme de contacts identifiés que pour réduire les transmissions. Là encore, seule la recherche « manuelle », humaine, se révèle essentielle. Les applications décentralisées de notification d’exposition (celles qui adoptent le protocole GAEN, Google/Apple Exposure Notification, développé par Apple et Google), elles, semblent avoir montré un peu plus d’efficacité que celles déployées par nombres d’États ! En Angleterre, la recherche numérique de contacts estime une étude pour Nature a permis d’atteindre plus de contacts que la recherche manuelle (4,4 contre 1,8), notamment pour identifier les contacts en dehors du foyer. Les auteurs estiment qu’entre 4 et 8000 décès ont été évités grâce à ces outils (pour 32 000 décès durant la période étudiée), ce qui n’est pas un petit effet. Ils ont estimé également qu’une augmentation de 1 % de l’utilisation de l’application se traduit par une réduction de 0,8 à 2,3 % des infections, c’est-à-dire que chaque personne positive au Covid qui a consenti à notifier ses contacts par l’application a évité en moyenne un nouveau cas. Pour Florian Gallwitz cependant, l’étude ne répond pas à une question de fond : quel pourcentage de personnes averties par l’application ont été réellement infectées ? Pour le spécialiste, il n’y a pas de preuve crédible que les avertissements automatisés soient liés à des événements d’infection réels… En Suisse, où les débats ont été vifs, notamment du fait de la présence de chercheurs qui ont poussé à l’adoption d’applications décentralisées et très protectrices de la vie privée, une étude a pointé le fait que les contacts notifiés par l’application SwissCovid entraient en moyenne en quarantaine un jour plus tôt que ceux qui n’étaient pas notifiés par l’application, mais cela tient peut-être plus du fait d’alertes pairs à pairs ou du fait que ceux qui utilisent l’application sont moins susceptibles de subir un préjudice lié à leur quarantaine, comme l’explique, critique, le chercheur Paul-Olivier Dehaye, qui parle d’un biais d’utilisation, car l’usage de ces applications n’est pas distribué uniformément dans la population. Leur utilisation privilégie des personnes en moyenne plus riches, qui ont tendance à faire confiance aux autorités, plus conscientes et engagées dans la pandémie.

Pour Lucie White et Philippe van Basshuysen, la promesse des applications de recherche de contact semble aujourd’hui largement abandonnée. Pour nombre de gouvernements, leur rôle est vu désormais comme limité. Pour les deux chercheurs, cet échec est lié à la généralisation de solutions décentralisées où les données de proximités sont calculées par les téléphones de chacun plutôt que d’être collectés et analysés dans une base de données centrale gérée par les autorités sanitaires qui aurait permis de mieux signaler le risque de contamination avant que les tests ne confirment ou non la contamination. Une étude préliminaire sur l’efficacité de l’application centralisée norvégienne souligne que l’application a permis de découvrir 11 % de contacts que la recherche manuelle de contacts n’avait pas identifiés. L’application norvégienne a cependant été suspendue en juin 2020 du fait des problèmes de confidentialité qu’elle portait. Amnesty International l’a qualifiée de profondément intrusive, tout autant que celles du Bahreïn et du Koweït, en permettant un suivi quasi direct des déplacements des utilisateurs. Reste que selon l’étude préliminaire sur l’application norvégienne, malgré ses résultats, rien ne prouve que les applications centralisées fonctionnent mieux que les applications décentralisées, au contraire.

La littérature fournit une image très mitigée en termes d’efficacité des applications. L’application israélienne HaMagen, elle, a été considérée comme un échec colossal. Le Japon a vu son programme d’application s’effondrer sous le poids des problèmes techniques. Même constat de défaillance pour l’application italienne Immuni. Aux États-Unis seuls 13 États ont atteint le seuil d’adoption de 15 % que les études de modélisation considèrent comme le premier palier de protection. Mais là encore, difficile de répondre à la question centrale : combien d’infections ont été évitées grâce aux notifications d’exposition ? Pour la journaliste de la Technology Review Betsy Ladyzhets : notre incapacité à répondre à cette question est due à la nature fracturée du système et au fait que mesurer l’efficacité de ces technologies n’était finalement pas une priorité. Pour de nombreux décideurs – en tout cas comme beaucoup s’en justifiaient à l’origine de ces déploiements applicatifs -, ne trouver ne serait-ce qu’un cas supplémentaire grâce à une application est utile – même si cette affirmation un peu rapide évacue la prise en compte du rapport coût/efficacité qui est pourtant mobilisé partout ailleurs, comme si finalement la technologie bénéficiait toujours d’un régime d’exception par rapport aux contraintes qui s’imposent partout ailleurs.

Bref, la question de l’efficacité demeure non tranchée, estime un peu facilement, Algorithm Watch. Au mieux, de nombreux déploiements indiquent un impact modéré sur la dynamique de l’infection. Les résultats obtenus restent peu comparables les uns les autres parce que les politiques de santé publique sont restées hautement contextuelles. Le problème qui demeure, pointe l’ONG, est que, dans l’urgence, ces systèmes ont été déployés sans justification, en tout cas sans apporter de preuves et de justifications d’efficacité… et souvent au déni des discussions démocratiques (notamment quand des données de santé ont pu finir dans les mains de la police). Pour Algorithm Watch, nous devons mieux comprendre quand et pourquoi la recherche de contact numérique a un sens et donc quand elle n’en a pas, c’est-à-dire « comment, quand et pourquoi elle doit cesser ». Il n’est pas certain que le déploiement de ces applications nous y ait aidés !

La confidentialité est toujours critique

Couverture du livre People CountUn avis qui sera certainement partagé par la mathématicienne et spécialiste en sécurité informatique de l’université de Tufts, Susan Landau, qui a publié avant l’été un petit livre People Count : contact-tracing apps and public health (MIT Press, 2021, non traduit). La spécialiste y rappelle qu’il n’y a ni santé publique ni suivi épidémiologique sans un profond et réel respect de la vie privée, ni sans s’assurer de l’équité des mesures mises en place par les politiques de santé publique, car les épidémies touchent d’une manière très différenciée les gens, selon leur niveau social, leurs professions, leurs origines, leurs statuts. L’histoire du suivi de contact que dresse en quelques pages la spécialiste souligne que « la confidentialité est toujours critique ». Or, explique-t-elle, la technologie peine à assurer de la confidentialité qu’elle déploie. Pour elle, la technologie apporte plus de biais que d’avantages, notamment parce qu’elle permet de multiplier les objectifs, provenant de multiples parties, sans les rendre nécessairement ou facilement compatibles entre eux. L’intérêt des épidémiologistes n’est pas nécessairement compatible avec celui de la médecine ou des politiques publiques. C’est l’autre aspect du problème. Enfin, sur l’efficacité globale des dispositifs, la spécialiste reste, elle aussi, circonspecte.

Dans son livre, la spécialiste fait l’histoire du suivi de contact, montrant que son efficacité fluctue selon les maladies, leurs modalités de transmission et leur contagiosité. Le caractère asymptomatique de certains malades rend le « tester, tracer, isoler » plus difficile, rappelle la chercheuse. Le travail de suivi de contact est un travail de travailleur social particulièrement intensif et très invasif en terme de vie privée. Quand il fonctionne, c’est un outil très efficace. Imaginée dès 1934 par Thomas Parran, ministre de la santé américain qui a étudié le contrôle de la syphilis, la pratique est devenue un outil essentiel pour lutter contre les maladies infectieuses ou les maladies sexuellement transmissibles. Reste que dans le cas de la syphilis, dès l’origine donc, la question de la confidentialité et de la confiance ont été primordiales. Les responsables du suivi de contact étaient chargés à la fois d’éduquer les patients sur la maladie et d’établir un lien de confiance pour qu’ils leur confient des informations on ne peut plus personnelles, puisque liées à leur sexualité. Cela nécessitait beaucoup de tact, d’écoute et d’empathie. Mais également d’établir une confiance infaillible, d’abord et avant tout en garantissant une confidentialité totale. Comme elle l’explique, « la confidentialité a toujours été critique », et notamment pour lutter contre les maladies où les questions posées par les traceurs nécessitaient d’être les plus invasives possible. Dans la lutte contre le Sida, le fait de savoir que quelqu’un était infecté pouvait avoir des conséquences dramatiques. Si la personne chargée du suivi de contact est responsable de la santé publique, son premier devoir est de respecter la confidentialité et l’autonomie des patients. Face au virus Ebola par exemple, les responsables du suivi de contact se sont heurtés à la rigueur des interdictions mises en place face du fait de la forte létalité et contagiosité du virus rendant leur travail auprès des populations touchées très difficile à réaliser.

Chaque maladie nécessite des enquêtes différentes selon ses caractéristiques infectieuses propres. Effectivement, aux questions où étiez-vous les jours précédents votre positivité et qui était avec vous, il est probable que votre téléphone le sache mieux que vous, en tout cas, c’est une information qu’il peut collecter de multiples manières. Mais pas si simplement qu’automatiquement. Détecter la proximité des personnes par Bluetooth, GPS ou via les antennes de téléphonie mobile près desquelles ils se connectent est « peut-être utile pour tracer les communications de voleurs ou de terroristes, mais est certainement bien moins efficace pour tracer des infections respiratoires ». Ces modalités sont insuffisamment précises, ne voient pas les parois de verre qui peuvent séparer deux personnes à proximité ou peuvent décider d’une proximité qui n’est pas exacte. Tracer une maladie consiste aussi à la définir même avec des approximations, comme le fait de borner la période infectieuse de la maladie ou la distance de contamination. Reste que même face à ces décisions, les technologies ne sont pas suffisamment précises. Dans son livre, Landau détaille les limites de fonctionnement de plusieurs applications, notamment celles déployées par Singapour ou l’application du gouvernement indien Aarogya Setu.

Inégalités et dérives fonctionnelles

L’une des difficultés que pointe Landau, c’est que le coût de leur utilisation n’est pas le même pour tous. Le fait d’être cas contact et contraint à l’isolement n’a pas les mêmes conséquences pour chacun. Mais surtout, constate la chercheuse, l’un des grands problèmes de ces outils numériques est leur « dérive fonctionnelle », c’est-à-dire l’élargissement de leur utilisation à d’autres modalités explique-t-elle, en prenant l’exemple des écoutes téléphoniques qui à l’origine, aux États-Unis, étaient limitées à 25 types de crimes graves, alors qu’aujourd’hui, la liste des cas qui permet leur utilisation s’est élargie à plus de 100 types d’infractions. Pour Susan Landau, nombre de ces applications, par leur très grande intrusivité, adresse de sérieuses menaces aux libertés civiles, menaces que leurs promoteurs devraient prendre plus au sérieux, et ce d’autant que la confidentialité est justement critique en santé publique. Or, les données collectées, tout anonymisées qu’elles puissent être, collectent des informations sur les déplacements et les contacts qui peuvent divulguer bien d’autres informations, comme des déplacements indus en temps de couvre-feu, ou des craintes légitimes sur l’activité de ceux qui sont dans des situations irrégulières. Répondre à ces défis nécessite de mettre la protection de la vie privée en premier, estime Carmela Troncoso (@carmelatroncoso), spécialiste de la sécurité à l’École polytechnique fédérale de Lausanne, très investi dans le développement d’applications de suivi de contact décentralisées et respectueuses de la vie privée. Nombre de chercheurs ont exploré ces idées, pour imaginer des applications qui signalent l’exposition au virus, mais pas les contacts, c’est-à-dire non pas des systèmes de suivis de contact, mais bien des systèmes de notification d’exposition, comme GAEN. Des modèles plus respectueux de la vie privée, mais qui désavantagent les autorités de santé qui cherchent, dans les logiques qui sont les leurs, à démultiplier leurs connaissances sur le suivi épidémiologique. Dans les modèles les plus respectueux, les épidémiologistes ne peuvent même pas savoir où la contamination a lieu, excluant finalement le suivi médical tel qu’ils le pratiquent.

Dans la grande galerie des applications, d’innombrables ajustements et spécificités ont pris place, chacune se démarquant des autres par les orientations locales choisies. Le respect de la vie privée a été la force de certaines applications… Mais pour la protéger, il est essentiel de savoir « Qui veut savoir des choses sur moi ? Que veulent-ils savoir ? Que veulent-ils faire de ces informations ? »… Quand les questions de santé publique impactent la société, comme dans le cas d’une pandémie, plusieurs types d’autorité souhaitent accéder aux informations de santé. La santé publique et la recherche bien sûr, mais également, trop souvent, les autorités chargées de l’application des lois, notamment pour veiller à l’application des mesures de police, comme l’isolement ou le couvre-feu. Bien sûr, il faut aussi veiller à la sécurité des dispositifs, explique longuement la spécialiste, ce qui n’est pas toujours si simple. Au final, « les applications de recherche de contacts reposent sur l’idée que la technologie peut contribuer à résoudre un problème insoluble », notamment parce que ce problème est trop souvent multiple et qu’on pense que la technologie peut tous les adresser dans une seule solution.

Dans son livre, Susan Landau pose elle aussi, la question de l’efficacité, et comme le soulignait Algorithm Watch, explique que cette efficacité est difficile à établir. La promesse des applications de suivi de contact est de notifier les gens potentiellement infectés plus vite que ne saurait le faire le traçage manuel et ainsi de diminuer la propagation de l’infection. Les applications déterminent des distances et des durées d’exposition, sans parvenir à les déterminer correctement à 100 %. La force des signaux, la fréquence de connectivité varient d’un modèle de téléphone à l’autre et sont sensibles à de multiples éléments, comme la présence de murs, la position du téléphone (selon la poche où vous le tenez par exemple), la forme des pièces, les matériaux de construction, etc. Ainsi, deux personnes détectées à proximité peuvent être dans deux appartements différents. Les applications ne savent pas détecter si les gens portent des masques ou pas, si l’une chante ou si elles sont silencieuses, ne connaissent pas les conditions de ventilation des lieux… Les applications au final, peuvent faire remonter des cas que les humains qui s’occupent de suivi de contact n’auraient pas considérés, ce qui peut-être un bénéfice comme un désavantage. Elles produisent à la fois des faux positifs et des faux négatifs. L’application britannique, lors de sa phase de test, a produit 45 % de faux positifs et 31 % de faux négatifs. Ces inexactitudes sont des défis en soi, non seulement pour la santé publique, mais peut-être plus encore pour les individus, notamment du fait des inégalités des conditions leur permettant de s’isoler facilement ou pas. En fait, souligne Landau, l’efficacité des applications reste conditionnée aux réalités et inégalités socio-économiques de la société… « 23 % des habitants de Chicago sont noirs, mais en avril 2020, 58 % des habitants de la ville décédés du Covid étaient Noirs ». Or, explique-t-elle, fort à propos : « ces applications n’ont pas été construites pour adresser les besoins spécifiques des communautés marginalisées. Elles apparaissent comme basées sur un modèle d’utilisateur de la classe moyenne ou supérieure, doté d’un travail qui peut être effectué à la maison. Elles n’ont pas été conçues pour tenir compte des craintes ou de la défiance de communautés qui sont trop souvent sur-surveillées et qui ne peuvent pas tirer parti des recommandations à rester chez soi ». Où comment les préconceptions que les concepteurs ont sur les usagers inscrivent des limites aux objets eux-mêmes, oubliant que les archétypes, que le modèle moyen de l’usager comme le citoyen modèle n’existent pas. Comme elle le dit très bien : « une application qui échoue à fonctionner pour une communauté donnée est une application qui échoue pour nous tous ».

Bien souvent, rappelle-t-elle, le suivi de contact manuel, humain, lui, doit s’adapter aux conditions, explique-t-elle en pointant le succès de celui-ci dans les réserves indiennes de l’Arizona. Là-bas, beaucoup de gens ont été infectés, mais peu en sont décédés, notamment parce que les équipes médicales locales ont adapté leur pratique aux modalités d’existences locales. Dans les communautés indigènes, les grandes distances limitent en théorie la diffusion de la maladie, mais la plupart des familles vivent dans des foyers multigénérationnels. Les enquêteurs ont concentré leurs efforts sur les aînés en demandant à ceux qui avaient des symptômes, qui sont vos grands-parents et en faisant vérifier très vite leur taux d’oxygénation du sang. Au final, les réserves ont eu un taux de mortalité moindre que le reste de l’Arizona. Comment une application générique aurait-elle pu fonctionner aussi bien que l’adaptabilité dont ont su faire preuve les personnes chargées du suivi de contact sur les réserves indiennes d’Arizona ?, questionne Landau.

Tracer les contacts n’est pas facile. Les résultats ont d’ailleurs été différents d’un pays à l’autre, d’une communauté à l’autre. À Taïwan, une personne contaminée fournit en moyenne 15 noms, en Espagne c’est seulement 3, à Philadelphie, un tiers des personnes contactées ont affirmé n’avoir été en contact avec personne. Même la réponse à cette question est éminemment sociale et culturelle. Il n’y a pas que la recherche de contact qui est difficile, l’isolement l’est tout autant. Entre mars et août 2020, en Angleterre, seuls 18 % de ceux qui ont eu des symptômes se sont pleinement isolés, pointait une enquête. L’absence de services sociaux dédiés explique largement ces lacunes : aller chercher à manger, travailler et gagner de l’argent, avoir un endroit où s’isoler, s’occuper de proches isolés sont restés des facteurs pesants sur l’inégalité des possibilités d’isolement. L’efficacité d’une application devrait surtout être testée sur différentes communautés avec différents besoins. Pour Susan Landau, assurément, les solutions qui restent sous le contrôle de l’utilisateur sont toujours celles à privilégier.

Couverture de la revue des Annales des Mines sur les enjeux numériques de la crise pandémiqueL’une des alternatives aux applications pour la population a consisté à construire de meilleurs outils pour assurer le suivi de contact « manuel », humain – même si, dans son livre, Susan Landau reste hélas, complètement silencieuse sur les déficiences des outils qui ont armé les enquêteurs : des scripts d’enquêtes robotiques et peu adaptés, en passant par des systèmes d’alerte produits pour passer à l’échelle plus que pour être précis ou pratiques, la difficulté du suivi de contact « manuel » ne semble pas toujours avoir été mieux loti que sa version applicative. Évaluer la portée des formes d’automatisation qui ont été produites spécifiquement pour les systèmes de santé et pour accompagner les efforts de suivis dans le cadre de la pandémie est encore à faire. Maurice Ronai (@mauriceronai) – qui a d’ailleurs produit une veille spécifique sur le sujet sur un blog dédié – tente d’en dresser pour la France dans un très intéressant numéro de la revue Enjeux numériques consacré aux réponses numériques à la crise sanitaire. Il souligne notamment dans un article consacré à « La construction accélérée d’un système d’information épidémiologique » (.pdf) combien le suivi de contact a nécessité d’organiser et de déployer des outils dédiés pour identifier les clusters. Mais, comme il le souligne dans un second article sur « La numérisation à marche forcée du système de santé face à la Covid-19 » (.pdf), en reprenant les constats accablants de la commission d’enquête du Sénat, « le constat global du traçage reste celui d’un échec ». Traçage lacunaire, défaut d’interconnexion des outils, défaut d’implication, éviction des médecins… L’enjeu de construction d’un millefeuille de surveillance épidémiologique pour armer le suivi et la décision médicale s’est fait dans l’urgence, négligeant l’interopérabilité, favorisant une forme d’industrialisation des réponses pour passer à l’échelle des besoins au détriment de leur qualité. Comme le pointaient les chercheurs en sociologie des organisations dans Covid-19 : une crise organisationnelle (Presses de SciencesPo, 2020), la coopération et la coordination sont restés le maillon faible, et les dispositifs techniques mis en place n’ont pas créé l’organisation nécessaire – pour autant qu’ils puissent suffire à le faire (voir notre article, « Dégouverner »).

Dans l’urgence, nous n’avons pas eu de discussion publique quant à savoir si le déploiement d’applications était une mesure de politique publique appropriée, regrette la chercheuse. Les autorités de santé utilisent les termes « surveiller et confiner » pour décrire les plus puissants outils qu’ils mobilisent à l’encontre des maladies. Avec la pandémie, les modalités de surveillance et de confinement ont été multiples et souvent sévères. Google et Apple ont été les premiers à proposer des solutions techniques dès avril 2020. En juin, SwissCovid a été la première application disponible. Durant l’été, nombre d’autres applications ont été lancées en Europe. Google et Apple, qui ne sont ni l’un ni l’autre des autorités de santé bien sûr, ont posé les bases des briques techniques et imposé à tous, par leurs spécifications, de nombreuses limites aux autres outils. S’ils ont promu des garanties comme la protection des données des utilisateurs, ils ont minimisé d’autres éléments, comme la protection des utilisateurs par exemple en optant pour une solution qui favorise de hauts niveaux de faux positifs et de faux négatifs. Pour Landau, si les applications sont des outils de santé publique, alors il faut pouvoir savoir si leur usage améliore l’équité de santé ou la dégrade.

Les applications de suivi de contact ont été une expérimentation sociale dans le monde réel. Le problème, estime Landau, c’est le risque de dérapage, de glissement qu’introduisent ces outils… Ils introduisent l’idée que la collecte de données de ce type peut devenir finalement une nouvelle normalité. Même si nous pensons aux outils les plus respectueux de la vie privée parmi ceux déployés, ils restent conçus pour révéler par qui, quand et où, notre exposition à eu lieu. Cette idée seule finalement pourrait être utilisée à d’autres objectifs, comme pour nous mettre à l’abri de la criminalité. La police utilise déjà les données de proximité des antennes de téléphones mobiles pour retrouver des criminels. Des autorités plus répressives pourraient vouloir user d’informations de ce type pour analyser les relations politiques d’opposants, de migrants, d’activistes… ou de lanceurs d’alertes ! L’usage de ces outils nous conditionne à accepter qu’il soit normal que nos outils tracent nos contacts, comme le font déjà nombre d’applications commerciales et sociales que nous utilisons tous les jours, même si nous vendre de la publicité n’a pas les mêmes conséquences que nous dénoncer aux autorités.

Les épidémies sont à la fois un phénomène médical et social. La technologie ne suffit pas à nous protéger. Sans infrastructures de santé, sans lois qui empêchent les autorités chargées du maintien de l’ordre ou de l’immigration d’accéder à ces informations, sans infrastructures de santé pour soutenir financièrement les gens en difficulté quand on les isole, la technologie seule a une valeur limitée. Oui, les épidémies tuent des gens. Reste que décider comment prioriser les interventions sociales et médicales nécessaires pour mener une lutte la plus efficace possible n’est pas immanent. Nos efforts techniques n’ont pas été des plus probants dans la lutte contre l’épidémie, comme s’en désolaient de nombreux acteurs il y a quelques mois. Comme souvent, semble-t-il, plus il y a d’impacts sociaux, moins la technologie est une bonne réponse au problème.

Enfin, toutes ces difficultés évoluent également dans le temps et c’est également un problème. Les autorités de Singapour par exemple ont d’abord affirmé que l’application de suivi de contact ne servirait qu’au suivi de contact, avant de l’utiliser pour faire surveiller l’application de la loi par les autorités chargées du maintien de l’ordre. De volontaire, l’application est devenue obligatoire pour accéder aux bureaux et locaux, passant d’une application de suivi de contact à une prémisse de passe sanitaire… Nombre d’applications ont ainsi changé d’objectifs et de fonctions au fil du temps, sans qu’on sache toujours très bien l’étendue de leurs fonctions d’ailleurs. Mais il n’y a pas que les applications qui ont évolué, le contexte sanitaire et le rapport des gens à la maladie a évolué également. Un récent article du Monde rapportait par exemple que le traçage des cas contacts avait ralenti avec l’extension de la vaccination. Alors que les agents chargés du suivi de contacts recueillaient environ 2,3 noms de personnes exposées en mars 2021, elle ne serait plus que de 1,4 contact désormais. Comme le rappellent les spécialistes du traçage, le nombre moyen de contacts déclaré a tendance à baisser lorsque la circulation du virus est forte. En fait, trop souvent, les outils se vident de leur sens à mesure qu’on les utilise, comme si, finalement, les données qu’ils produisent n’avaient une utilité que le temps qu’elles produisent la confirmation qu’on en attend. Comme s’il fallait toujours que la solution technique déroule ses impasses pour se rendre compte qu’elle ne les résout pas. La publication d’information sur les foyers de contagion a été arrêtée en novembre 2020 en France au prétexte qu’elles restaient fortement sous-estimées et qu’ils ne représentaient qu’une très faible part de l’ensemble des personnes positives. Au final, c’est comme si chaque outil, derrière ses promesses, ne faisait que révéler surtout et partout ses limites.

La pandémie interroge le sens même et la portée des infrastructures de surveillance que nous sommes capables de produire pour nous protéger. Nous n’avons pas attendu la pandémie pour construire des réseaux de vidéosurveillance disproportionnés à leurs efficacités. C’est un peu finalement comme si la pandémie avait favorisé nos pires travers, comme si la sécurité pouvait être notre seule liberté, alors qu’elle n’en est qu’une composante parmi d’autres, qui semble d’ailleurs bien plus dépendre de l’égalité et de la fraternité que de la seule surveillance.

Hubert Guillaud

13.09.2021 à 08:17

L’automatisation, une idéologie ?

Hubert Guillaud

img
En 2018, McKinsey a publié un épais rapport sur la révolution de l’automatisation, prédisant que les robots et l’IA allaient rendre obsolètes la plupart des travailleurs. Mais ce n’est pas la tendance qu’on lisait dans les statistiques publiées par le ministère américain du Travail, explique l’historien Jason Resnikoff, dans les (...)
Texte intégral (3319 mots)

En 2018, McKinsey a publié un épais rapport sur la révolution de l’automatisation, prédisant que les robots et l’IA allaient rendre obsolètes la plupart des travailleurs. Mais ce n’est pas la tendance qu’on lisait dans les statistiques publiées par le ministère américain du Travail, explique l’historien Jason Resnikoff, dans les bonnes feuilles d’un livre à paraître La fin du travail : comment la promesse de l’automatisation a dégradé le travail (Labor’s End : How the Promise of Automation Degraded Work, University of Illinois Press, 2021) publiées par le magazine en ligne Zocalo. Les statistiques montraient qu’entre 2005 et 2018, alors que nous étions « à l’aube d’une nouvelle ère d’automatisation », les États-Unis ont connu une chute remarquable de la productivité du travail, avec une croissance moyenne inférieure de 60 % à la période précédente, 1998-2004. Alors que la promesse de notre remplacement par les machines aurait du faire augmenter la productivité du travail, on constatait l’inverse ! Pour les chercheurs, cet effondrement de la productivité était un phénomène économique majeur, apportant un démenti cinglant à la perspective d’un progrès technologique inédit. Très concrètement, nombre de personnes expérimentent cette dichotomie en étant soit sous-employées ou inemployées, soit en travaillant plus que jamais. Alors que les ordinateurs étaient supposés réduire le temps de travail, ils nous ont surtout fait travailler plus que jamais !

L’automatisation : travailler plus et moins cher

Couverture du livre Labor's EndPour Jason Resnikoff, les promesses infinies de l’automatisation de l’industrie automobile ou de l’informatique étaient un cadre de discussion permettant de tirer profit de l’enthousiasme technologique d’une époque. Mais pour lui, le terme même d’automatisation relève bien plus d’une invention idéologique que technique qui n’a jamais vraiment profité aux travailleurs, puisque son sens même signifiait « l’écrasement mécanique des travailleurs », plus que leur remplacement. En fait, si on la lit depuis ce sens, l’automatisation n’a cessé de rendre la vie des travailleurs plus dure et ingrate. Les outils de l’automatisation ont surtout été utilisés pour dégrader, intensifier et accélérer le travail humain et plus encore pour l’invisibiliser derrière les machines.

« Tout ce que l’automatisation a signifié pour nous, c’est le chômage et le surmenage », déclarait un ouvrier de l’automobile dans les années 1950 ; un autre faisait remarquer que « l’automatisation n’a pas réduit la pénibilité du travail… pour le travailleur de la production, cela signifie un retour aux conditions de l’atelier clandestin, une accélération de la vitesse et une adaptation de l’homme à la machine, au lieu de la machine à l’homme ».

L’ordinateur est certainement le meilleur symbole de cette menace et promesse de l’automatisation, explique Jason Resnikoff. En 1952, l’entrepreneur américain John Diebold publie Automation (qui fut traduit en 1957 chez Dunod sous le titre Automatisme, vers l’usine automatique). Il fait de l’automatisation un terme familier et surtout introduit l’idée que l’ordinateur pourrait traiter l’information, tâche qui était jusqu’alors dévolue aux employés de bureau, en permettant d’échapper aux limites humaines de ces traitements, d’une manière plus rapide et plus fiable. Les employeurs ont été séduits par ce message, non pas tant par l’attrait de puissance ou le fantasme de machines qui écriraient toutes seules… mais parce qu’au sortir de la Seconde Guerre mondiale, les entreprises s’inquiétaient de la syndicalisation, et ce alors qu’elles s’étaient dotées d’un nombre sans précédent d’employés de bureau à bas salaire, essentiellement des femmes. « Entre 1947 et 1956, l’emploi de bureau a augmenté de 50 %, passant de 4,5 à 9 millions de personnes. En 1954, une femme salariée sur quatre aux États-Unis était employée de bureau. » Le boom d’une main d’œuvre de bureau à bas salaire était en train de transformer les bureaux en usine. Les ordinateurs ont été installés, pas tant pour accélérer le traitement que pour réduire le nombre d’employés de bureau nécessaires… sans y parvenir.

En effet, le nombre d’employés de bureau aux États-Unis a continué à augmenter jusque dans les années 80… tout comme l’information. Si les ordinateurs étaient capables de traiter l’information rapidement, la saisie de données, elle, restait une tâche humaine. « Incapables d’éliminer la main-d’œuvre humaine du travail de bureau, les gestionnaires sont revenus à ce qu’ils faisaient depuis l’aube de la révolution industrielle : ils ont utilisé des machines pour dégrader les emplois et économiser de l’argent. » Ils se sont inspirés du Taylorisme et des manuels de « gestion scientifique du travail » du début du XXe siècle et ont rebaptisé cette pratique l’automatisation… Dans une grande compagnie d’assurance des années 50, il y avait 20 employées de bureau pour chaque directeur. Bien moins de secrétariat qualifié et bien rémunéré qu’on le pense. 3 personnes sur 5 qui travaillaient avec des ordinateurs dans l’industrie de l’informatique dans les années 50 et 60 étaient des employés de bureau mal rémunérés. Cette réalité pourtant a été masquée par une rhétorique vantant l’automatisation…

« L’automatisation » dans les bureaux américains signifiait que davantage de personnes étaient contraintes de travailler comme des machines. Parfois, cela permettait aux employeurs d’engager moins de travailleurs, comme dans les industries de l’automobile, des mines de charbon et de l’emballage de la viande, où un employé faisait désormais le travail de deux. Parfois, il a fallu embaucher davantage de personnes, comme dans le cas du travail de bureau. »

Pour Jason Resnikoff, c’est encore l’histoire de l’automatisation aujourd’hui, explique-t-il en évoquant Slack, cet outil qui permet de partager un espace de discussion dans les organisations. Sur son site web, Slack présente son application comme un outil de flexibilité, quand il permet surtout d’insinuer l’idée d’un travail sans fin, où que vous vous trouviez et à n’importe quelle heure. Il y a 70 ans, les employeurs ont utilisé les technologies pour faire travailler plus et moins cher. On y est encore !

C’est visiblement le propos du livre de Resnikoff : nous aider à voir l’automatisation comme une idéologie plutôt que comme une technologie, permettant de masquer l’intensification du travail humain, de nous faire croire que la liberté consiste en l’absence de travail, et de minimiser le rôle politique de nos lieux de travail. Comme nous l’expliquait déjà Jerry Muller dans son livre, le taylorisme a permis d’éclipser ce qui était important au profit de ce qui pouvait être mesuré. À croire que nous sommes toujours englués dans ces difficultés.

Coincés dans le paradoxe de la productivité de la technologie : l’accélération plus que l’efficacité

Voilà longtemps que le paradoxe de la productivité des nouvelles technologies est mis sur la sellette, à l’image des travaux de l’économiste Robert Gordon qui montrent que les technologies de l’information et de la communication n’ont pas eu un fort impact sur la productivité. Pour certains, cela s’expliquerait par le fait que les développements technologiques seraient finalement toujours insuffisants. D’autres estiment que c’est la proposition de valeur même de nos outils technologiques qui est inadaptée.

Couverture du livre Cal NewportC’est le propos notamment de l’éditorialiste et professeur d’informatique Cal Newport (blog) dans son dernier livre : Un monde sans e-mail : réimaginer le travail à l’ère de la surcharge de communication (A World Without E-mail : reimagining work in an age of communication overload, Penguin Random House, 2021, non traduit). Comme on peut le lire sur Wired ou le New Yorker, la technologie ne nous a pas aidés à travailler plus efficacement. En 1997 déjà, l’historien des technologies Edward Tenner (@edward_tenner) dans Why Things Bite Back : Technology and Revenge of Unintended Consequences (Vintage, 1997, non traduit) interrogeait le paradoxe de la productivité malgré l’introduction de l’ordinateur de bureau et soulignait déjà que la facilité n’était pas l’efficacité. « L’ordinateur a rendu certaines activités courantes plus efficaces, mais il a aussi créé davantage de travail global à effectuer », explique Newport à la suite de Tenner. En 1992, l’économiste Peter Sassone, étudiant l’impact des nouvelles technologies dans de grandes entreprises, avait montré que celles-ci avaient licencié du personnel avec l’arrivée des ordinateurs, concentrant le travail en moins de mains. Les petits employés de bureau ont alors disparu, mais, pour maintenir le niveau de production, les entreprises ont embauché plus d’employés de niveau supérieur. Pour Sassone, l’introduction des ordinateurs pour améliorer la productivité a surtout coûté plus cher aux entreprises.

Dans son livre, Newport pointe les limites de nos modes de communication actuels, que ce soit par e-mail ou via des outils comme Slack. En 2005, nous envoyions et recevions en moyenne 50 mails par jours. En moyenne, nous en sommes à 126 aujourd’hui, se désole-t-il. En 2017, l’économiste Dan Nixon soulignait que la productivité dans les économies avancées était restée faible à l’époque de l’arrivée massive des smartphones. Pour Newport, les innovations technologiques visant à rendre la communication plus rapide et omniprésente n’ont pas réussi à changer les choses. En fait, nos outils n’ont cessé d’accélérer la communication, à l’image de Gmail, qui complète nos réponses avant qu’on les écrive et qui classe et hiérarchise nos messages avant qu’on les lise. Mais accélérer les tâches ne garantit pas de nous rendre plus productifs ! S’il est facile d’envoyer un rapport à ses collègues, il est certainement plus difficile qu’avant de trouver le temps de le lire voir de le rédiger. Pour Newport, nous ne pouvons pas nous contenter de multiplier les outils, comme le font trop d’entreprises en disant aux gens débrouillez-vous. Ce qui nous manque souvent, c’est de la structure, de l’organisation. Pour le dire plus simplement, l’accélération technique ne produit ni méthode ni productivité.

Couverture du livre de Anne Helen PetersenDans un autre article de Wired, la journaliste Anne Helen Petersen (@annehelen, blog), qui a publié Je ne peux même pas : comment les Millennials sont devenus la génération Burnout (Can’t Even : How Millennials Became the Burnout Generation, Mariner Books, 2020, non traduit), fait le même constat. Au lieu d’optimiser le travail, la technologie a surtout créé un barrage ininterrompu de notifications et d’interactions… Avec les réseaux sociaux de travail, la dépendance au travail (le Workaholisme) a cessé d’être un problème personnel. Comme si le numérique avait aboli toute limite au travail et renforcé l’anxiété générale. Nous travaillons tout le temps pour compenser la « sous-évaluation générale de notre propre travail », constate de dépit la journaliste. « Plutôt que de briser le système », nous nous fondons dans ses spécificités. Le Burnout n’est pas une affliction temporaire, c’est la condition de travail moderne.

« Internet n’est pas la cause première de notre épuisement. Mais sa promesse de « nous faciliter la vie » est profondément brisée, car elle est responsable de l’illusion que « tout faire » n’est pas seulement possible, mais obligatoire. Lorsque nous n’y parvenons pas, nous ne blâmons pas les outils défectueux : nous nous en prenons à nous-mêmes. Au fond de nous, nous savons que ce qui exacerbe l’épuisement professionnel n’est pas vraiment l’e-mail, ou Instagram, ou un flux constant d’alertes. C’est l’échec continu à atteindre les attentes impossibles que nous nous sommes fixées. »

Même constat de Newport dans le New Yorker : le stress est devenu la mesure par défaut pour juger si nous sommes suffisamment occupés ! Et les systèmes de travail sont devenus suffisamment autonomes pour évoluer indépendamment de tout plan rationnel. Pour Newport, le problème repose surtout sur l’autonomie accordée aux individus par nos systèmes techniques pour décider de leur travail ! Pour redevenir plus productif, il faudrait que nous en fassions moins.

Reste à savoir si ces descriptions de l’enfer des travailleurs intellectuels dépassent le cadre des Bullshit Jobs. La désorganisation de nos outils numériques favorise-t-elle l’autonomie, comme s’en désole Newport, alors que ceux-ci produisent une surveillance sans précédent de nos pratiques ? Certes, ils aident peu à démêler les priorités, comme le soulignaient les chercheurs en économie Sheila Dodge, Don Kieffer et Nelson Repenning, et malgré leurs aspects symbiotiques, produisent surtout de l’individualisation des collectifs de travail, chacun déchargeant son travail sur d’autres, au détriment de son organisation.

Pourtant, renvoyer la culpabilité à l’utilisateur final, au dernier maillon de la chaîne, est trop commode pour convaincre. Certes, ils désorganisent bien plus qu’on le pense. Mais est-ce suffisant pour expliquer la stagnation endémique de la productivité ?

L’automatisation n’annonce pas la fin du travail : le problème est bien plus économique que technologique

Couverture du livre de Aaron BenanavAlors, prenons un peu de hauteur. On peut également regarder cette question, non pas à un niveau individuel ou organisationnel, mais à un niveau macro-économique.

Cet été, le journaliste économique de Médiapart, Romaric Godin (@RomaricGodin) – qui a signé en 2019 l’excellent La guerre sociale en France (La Découverte) -, revenait sur le récent livre de l’historien de l’économie Aaron Benanav (@abenanav) : L’automatisation et l’avenir du travail (Automation and the Future of Work, Verso, 2020, non traduit).

Pour Benanav, comme pour nombre d’autres analystes que nous avons évoqué ici, « l’idée que la désindustrialisation et le sous-emploi endémique s’expliquent par une accélération de l’automatisation et de la technologie ne résistent pas aux faits ». Comme l’explique Juan Sebastian Carbonell dans un compte-rendu du même livre pour Grand Continent : « la source du chômage et du sous-emploi chroniques n’est pas technologique, mais économique ». La crainte d’une automatisation totale qui se débarrassait des travailleurs ne résiste pas aux perspectives. Depuis 4 décennies, la croissance de la productivité n’a cessé de ralentir, alors que les théoriciens de l’automatisation n’ont cessé de prédire le contraire. Pour Benanav, la désindustrialisation de l’emploi n’est pas tant le produit de l’automatisation que du ralentissement de la croissance de la production. Pour l’économiste, ce n’est pas tant la technologie qui détruit l’emploi que la surproduction. La demande ne suit pas l’évolution de nos capacités industrielles que la concurrence internationale a rendue trop redondante. Au final, dans l’industrie automobile par exemple, l’innovation technologique autour d’une quatrième révolution industrielle propose des gains de productivité trop faibles par rapport à l’investissement nécessaire pour faire advenir ce nouvel âge technologique. Il y a des secteurs où la technologie a bien supprimé le travail, l’agriculture industrielle par exemple, mais dans nombre de secteurs, l’investissement technologique n’est pas assez profitable pour se faire. Cela n’empêche pas les gourous de l’automatisation du travail de continuer à être très écoutés : leur capacité à dépeindre un futur meilleur qu’il ne se profile y est certainement pour beaucoup.

Plus qu’un chômage de masse provoqué par la technologie, la perspective à venir tient surtout d’un futur sans emploi de qualité, fait d’emplois précaires, notamment pour les plus défavorisés. Quant à la productivité, selon Kim Moody, elle serait plus le fait de l’innovation organisationnelle et du lean management que de l’automatisation technologique.

Pour dépasser cette impasse, il faudrait réorganiser la production autour d’une logique de dépassement de la rareté (post scarcity) c’est-à-dire partir des besoins collectifs pour répartir le travail, estime Benanav. « Ce n’est plus alors la logique du profit qui décide de l’attribution de l’emploi, mais celle du bien commun, prenant en compte les besoins, mais aussi les limites écologiques et sociales. »

On semble en être encore très loin.

Reste que toutes ces critiques semblent s’accorder sur un point : l’automatisation pour elle-même ne nous conduit nulle part.

Hubert Guillaud

15 / 25

 

  GÉNÉRALISTES
Basta
Blast
L'Autre Quotidien
Alternatives Eco.
La Croix
Euronews
Le Figaro
France 24
FTVI
HuffPost
L'Humanité
LCP
Le Media
Le Monde
Libération
Mediapart
La Tribune
 
  EUROPE
Courrier Europe Centle
Euractiv
Toute l'Europe
 
  INTERNATIONAL
Equaltimes
CADTM
Courrier International
Global Voices
Info Asie
Inkyfada
I.R.I.S
Jeune Afrique
Kurdistan au féminin
N-Y Times
Orient XXI
Of AFP
Rojava I.C
 
  OSINT / INVESTIGATION
OFF Investigation
OpenFacto°
Bellingcat
Disclose
G.I.J.N
 
  MÉDIAS D'OPINION
AOC
Au Poste
Cause Commune
CrimethInc.
Issues
Les Jours
Le Monde Moderne
LVSL
Marianne
Médias Libres
Quartier Général
Rapports de force
Reflets
Rézo
StreetPress
 
  OBSERVATOIRES
Armements
Acrimed
Catastrophes naturelles
Conspis
Culture
Extrême-droite
Human Rights
Inégalités
Information
Internet actu ✝
Justice fiscale
Liberté de création
Multinationales
Situationnisme
Sondages
Street-Médics
Routes de la Soie
Vrai ou Fake ?
🌞