Lien du flux RSS

Accès libre Publication de la Fondation Internet Nouvelle Génération, « le think tank qui porte la voix d’un numérique ouvert, humain, et durable »
▸ les 25 dernières parutions

28.10.2021 à 07:00

Applications contre les violences sexuelles ? Pourquoi ça marche pas !

Hubert Guillaud

img
Dans un article de 2018 pour la revue de recherche Information, Communication & Society (@ICSjournal), Rena Bivens (@renabivens) et Amy Hasinoff (@amyadele, auteure de Sexting Panic, University Press of Illinois, 2015, non traduit), livrent une très intéressante analyse des caractéristiques des applications contre le viol. Les deux chercheuses ont enquêté (...)
Texte intégral (2496 mots)

Dans un article de 2018 pour la revue de recherche Information, Communication & Society (@ICSjournal), Rena Bivens (@renabivens) et Amy Hasinoff (@amyadele, auteure de Sexting Panic, University Press of Illinois, 2015, non traduit), livrent une très intéressante analyse des caractéristiques des applications contre le viol.

Les deux chercheuses ont enquêté sur 215 applications pour téléphones mobiles (en langue anglaise) conçues pour prévenir les violences sexuelles. L’enjeu pour elles : comprendre à travers l’examen des fonctionnalités, comment les développeurs comprennent l’intervention dans les problèmes de violence sexuelle ? À qui se destinent ces applications ? Quelles stratégies de prévention sont intégrées dans ces outils ? Quelles idéologies sur la nature, la cause ou la prévention du problème sont intégrées à ces fonctionnalités ?

Dans leur article, les deux chercheuses rappellent que les applications contre le viol s’inscrivent dans une longue histoire de solutions technologiques contre les violences sexuelles. Or, celles-ci relèvent bien plus d’un problème social qui nécessite des efforts systémiques et à long terme, plutôt que des solutions ponctuelles.

Malgré leurs bonnes intentions, ces « solutions » technologiques ont plutôt tendance à exacerber les problèmes qu’elles cherchent à résoudre, expliquent les deux spécialistes. Dans l’ensemble, l’essentiel de ces applications reproduit surtout des mythes que les spécialistes des violences sexuelles réfutent depuis des décennies, notamment le fait que les auteurs de violences sont généralement et très massivement des proches des victimes, très rarement des inconnus. Or, la grande majorité des applications sont conçues pour intervenir lors d’un incident où un étranger attaque soudainement quelqu’un et pour s’éteindre quand l’utilisatrice entre dans un espace sûr, comme son domicile ou son lieu de travail (alors que les dangers sont plutôt là !). Autre problème, ces applications de prévention ciblent surtout les victimes potentielles plutôt que les agresseurs (seul 0,02 % des applications étaient destinées aux agresseurs). Pour les deux chercheuses, ces applications sont surtout conçues pour accroître la vigilance des victimes potentielles, encourageant l’acceptation de mesures de surveillance très intrusives pour elles, et produisent un discours sur les tactiques d’évitement assez culpabilisant pour les victimes potentielles. Les applications reposent sur l’idée que les violences sexuelles peuvent finalement être évitées pour autant que les victimes potentielles soient vigilantes et responsables. Ce qui est loin d’être la réalité.

Des fonctionnalités qui n’adressent pas les problèmes

Nombre d’initiatives, comme l’initiative américaine Apps Against Abuse (une compétition lancée en 2011 par la Maison-Blanche pour imaginer des solutions techniques à l’encontre des violences et abus sexuels) ou l’application Circle of 6 (qui emporta d’ailleurs le challenge), rendent les victimes potentielles comme responsables de la prévention de la violence et se limitent souvent à des conseils standards qui présupposent que les femmes peinent à résister aux agressions (parce qu’elles s’habillent mal, boivent, vont dans des lieux dangereux…). Les deux chercheuses estiment qu’il faut regarder les applications comme des plateformes culturelles et normatives, dont il faut analyser, derrière les choix de conception, les idéologies. Derrière les « bonnes intentions » des solutions, il nous faut comprendre pourquoi aucune de ces applications n’a réduit les violences qu’elles promettaient d’adresser !

Pour analyser les applications, les deux chercheuses ont listé leurs fonctions, leurs actions (comme de pouvoir suivre ses déplacements, enregistrer des éléments, alerter une autre personne…) et leur stratégie de prévention (à savoir si elles proposent des formes d’intervention ou plutôt des éléments d’information…). La majorité des applications visent à alerter d’autres personnes qu’un incident est en train de se produire. Beaucoup délivrent également un matériel d’information et de sensibilisation au risque. Elles sont souvent produites par des institutions éducatives, des ONG voire des services de police. 87 % se destinent aux victimes potentielles, 12 % à ceux qui assistent à des violences et seulement 1 % aux auteurs de violence. 74 % sont principalement conçues pour intervenir en cas d’incident et 26 % proposent d’abord des fonctions d’éducation et de sensibilisation. Pour celles qui proposent des fonctions d’alertes, plus de la moitié visent à alerter une liste de contacts prédéfinis ou à partager des informations sur l’incident avec ces personnes (comme la localisation de l’incident). Une autre caractéristique très commune de ces applications est le bouton d’assistance téléphonique qui permet de joindre soit un centre d’aide aux victimes d’agression, soit la police, soit les services d’urgences.

Très souvent, leurs fonctionnalités proposent, en cas de risque, de renforcer la surveillance de la victime potentielle pour détecter les signes d’incidents que ce soit en activant le GPS, l’enregistrement audio, la capture d’images ou le détecteur de mouvements… qui sont alors partagés instantanément ou stockés. D’autres fonctions visent à créer des formes d’évitement, c’est-à-dire par exemple, des modes furtifs, comme de faux écrans d’accueil, des alertes silencieuses, des systèmes de messagerie qui se masquent dans des jeux… Les applications centrées sur l’éducation et la sensibilisation proposent surtout des informations statiques et statistiques sur la violence, les signes d’alerte, les contacts sur les organisations de soutiens ou des exercices pour réduire son stress… D’autres proposent des moyens pour éviter les personnes et lieux dangereux ou pour les signaler et les géoréférencer…

Les applications destinées à ceux qui sont témoins de violence sont surtout axées sur l’éducation et la sensibilisation, la surveillance de milieux spécifiques et la collecte de preuves. Plus rares sont celles qui invitent à l’intervention des témoins, notamment en apportant des conseils pour entraver les actions d’un agresseur potentiel.

Très peu d’applications sont conçues pour les auteurs de crimes (6 sur 205). Le moins qu’on puisse dire, c’est qu’elles semblent particulièrement étranges. L’une d’elles, Consenting Adults, vise à fournir un accord explicite avant de s’engager dans des activités sexuelles, comme pour mieux protéger les agresseurs potentiels.

Des solutions qui semblent n’avoir jamais vu la moindre victime

Au terme de cette étude, les deux chercheuses expliquent que l’essentiel de ces applications renforce deux mythes : celui que la violence sexuelle est principalement perpétrée par des inconnus et que les victimes potentielles sont responsables de la prévention de cette violence. Autant dire qu’elles risquent surtout de contribuer au problème plus que de l’atténuer !

Les fonctionnalités sociales de ces applications ne voient les relations sociales que comme de possibles intervenants d’urgence plus que comme des moyens de relever les niveaux de vigilance ou d’engagement citoyens… Les principales fonctions de ces applications, à savoir le fait de pouvoir contacter d’autres personnes pour obtenir de l’aide ou pour surveiller l’agression ou la victime, ont peu de chance d’être efficaces contre les attaques perpétrées par des auteurs connus des victimes. Aucune de ces solutions ne s’attaque aux formes de coercition, de manipulation émotionnelle, d’abus, de relations de pouvoir dont sont réellement victimes les victimes. Quant à la surveillance géolocalisée, elle n’offre pas beaucoup d’appui quand on sait que l’essentiel des crimes a lieu dans les espaces familiers.

Surtout, expliquent les chercheuses, ces solutions créent une culture de la peur qui n’est pas adressée au bon endroit. Beaucoup de conseils qu’elles délivrent incitent finalement à intérioriser un contrôle social, comme de réduire sa mobilité, faire attention à son comportement… Au final, elles blâment surtout les victimes reprenant les messages dominants, à savoir que c’est aux victimes d’être responsables… Les concepteurs d’application considèrent majoritairement que les actions individuelles des victimes potentielles sont les meilleures voire la seule réponse au problème, renforçant l’idée qu’elles sont les seules à pouvoir se défendre ! Quand les applications font participer les témoins, elles se focalisent majoritairement sur les situations d’urgence. Finalement, en n’invitant pas à intervenir dans nombre d’autres situations problématiques, elles limitent l’intervention, mettent l’accent sur des moments isolés, particuliers, sur une forme d’héroïsme, sans voir combien le problème tient surtout d’une violence normalisée, minimisée et qui se déroule dans nos interactions les plus quotidiennes. Au final, dans ces applications, si les incidents ne sont pas extrêmes, ils ne sont pas considérés comme des problèmes ! Pour les deux chercheuses, les dispositifs d’intervention n’adressent pas le problème social fondamental des inégalités des rapports de genre. Pire, pourrait-on ajouter, les caractéristiques des outils soulignent combien ceux en charge de leur conception semblent finalement n’avoir jamais croisé la moindre victime d’abus, et n’ont jamais associé celles-ci aux solutions qu’ils proposent.

Dans la dernière partie de leur article, les deux chercheuses relèvent le défi de faire des propositions. Sur la question de la prévention, les deux chercheuses rappellent que beaucoup de programmes de formation à destination des victimes consistent à apprendre des compétences d’autodéfense verbale et physique pour mieux résister aux agresseurs connus. Si ces programmes ont également des limites (on sait qu’il est difficile pour les victimes de s’opposer à des personnes qui abusent d’elles et qui ont souvent des formes d’emprise ou de pouvoir sur elles), cette piste est totalement absente des applications existantes. « Les applications qui traitent les violences sexuelles comme une catastrophe imminente ne contribuent pas à éliminer le problème social des violences sexuelles ».

Les programmes de prévention de la violence à l’encontre des prédateurs, eux, sont souvent multimodaux. Ils impliquent parents, pairs, éducateurs et surtout des figures d’autorité modèles. Ceux qui ont des résultats positifs permettent de critiquer et démonter les stéréotypes de genre ou d’acquérir des compétences pour gérer les relations et conflits tout en augmentant l’empathie à l’égard des victimes. Reste que le public des prédateurs est certainement difficile à adresser en dehors des programmes de rééducation spécifiques… Quant aux témoins, des applications de sensibilisation et de formation à l’intervention seraient peut-être là aussi plus efficaces pour améliorer la sensibilité à la large gamme des violences existantes et à mieux intervenir, dans le réel, comme sur les réseaux sociaux, lorsqu’ils sont témoins non pas seulement de violences, mais plus largement de comportements déplacés. Elles soulignent également qu’il est possible de documenter et construire des stratégies responsables à l’égard des comportements abusifs au travail ou dans des communautés spécifiques, là encore via des programmes de formation spécifiques que des applications pourraient encadrer. La force de ces propositions consiste justement à ne pas seulement répondre aux violences les plus graves, mais de tenter de changer les normes et attitudes sociales qui autorisent et permettent nombre de formes de violences à l’égard des femmes.

Comprendre les idéologies de la conception

Dans un article bien plus récent, pour le Journal of Digital Social Research (@jdsr_journal), les deux chercheuses proposent une méthode pour analyser le rôle de l’idéologie dans la conception d’applications. « Les solutions proposées par les développeurs (pour résoudre un problème) reflètent surtout la façon dont ils pensent que les utilisateurs et autres parties prenantes comprennent le problème ». Pour elles, en analysant le fonctionnement des outils que les designers proposent (comme elles l’ont fait plus tôt en observant le scope des applications de lutte contre le viol), ont peu révéler la façon typique dont les développeurs et innovateurs pensent résoudre un problème. Pour cela, il faut observer le contenu, les interfaces, les fonctionnalités, les affordances des outils… Elles proposent donc une méthode pour « analyser les caractéristiques » de solutions techniques dédiées à un problème spécifique. Un moyen de comprendre les normes, les hypothèses et les idéologies culturelles qu’elles recouvrent.

La méthode est très proche de celle exposée dans leur étude sur les applications de viol. Elle consiste à identifier les outils, puis à identifier et classer les fonctionnalités que ces outils mettent à disposition, puis à catégoriser comment les fonctionnalités adressent le problème en s’intéressant aux actions qu’elles proposent. Enfin, elles proposent d’utiliser la conception spéculative pour imaginer des alternatives. Elles invitent également à étudier les développeurs, à être attentifs aux publics auxquels ces outils s’adressent. Peut-être oublient-elles un peu rapidement l’importance à rappeler les apports de la littérature scientifique sur les questions étudiées, notamment parce qu’elle aide plus que jamais à comprendre combien les outils répondent bien souvent à côté de ce que la science sait.

Cette étude vient compléter des observations que d’autres avaient déjà faites et que nous avions déjà évoquées. À savoir que « les applications pour l’accessibilité des personnes handicapées ne suffisent pas à rendre la ville plus accessible », que celles pour les réfugiés ne répondent pas à leur besoin… À nouveau, pour lutter contre le solutionnisme et l’idéologisme du solutionnisme, nous continuons à avoir besoin des utilisateurs… Le mantra du « Pas pour nous sans nous », consistant à remettre l’usager dans la boucle de la conception, a encore – hélas – bien du mal à s’imposer !

Hubert Guillaud

14.10.2021 à 07:00

Pourquoi la science ne peut-elle pas régler nos différends politiques ?

Hubert Guillaud

img
« La science est un puissant outil politique ». Pourtant, si nous avons appris quelque chose de ces deux années de pandémie, c’est certainement combien elle n’est pas neutre. Combien elle n’est pas à même de régler les désaccords publics… explique le spécialiste de la gestion de risque à la New Mexico (...)
Texte intégral (4478 mots)

Couverture du livre The Divide« La science est un puissant outil politique ». Pourtant, si nous avons appris quelque chose de ces deux années de pandémie, c’est certainement combien elle n’est pas neutre. Combien elle n’est pas à même de régler les désaccords publics… explique le spécialiste de la gestion de risque à la New Mexico Tech Taylor Dotson (@dots_t) dans un lumineux extrait de son livre The Divide : how fanatical certitude is destroying democracy (Le clivage : comment la certitude fanatique détruit la démocratie, MIT Press, 2021, non traduit).

La science est souvent présentée comme pure, exempte de valeurs. De prime abord, la méthode scientifique semble à l’opposé la méthode politique. « La première présente les faits pour se demander quelle conclusion en tirer, quand la seconde présente ses conclusions pour chercher les faits capables de la soutenir ». Dans le rapport entre les deux, le problème à résoudre semble relativement simple : il y a souvent trop de politique et pas assez de science ! Mais c’est encore croire que la science serait quelque chose d’intrinsèquement pur, uniquement corrompue par des forces qui lui sont extérieures. Pour le spécialiste des rapports science-société, Daniel Sarewitz, la science a toujours été façonnée par la société. Archimède, ce scientifique modèle, a surtout fabriqué des machines de guerre, tout comme aujourd’hui la science est largement orientée par les entreprises. Reconnaître ces influences ne signifie pas que tout financement corrompt, mais que de puissants groupes d’intérêts économiques et politiques orientent effectivement la recherche. La science est orientée d’intérêts. La recherche est traditionnellement masculine et bien plus à destination des populations aisées, blanches et âgées qu’autre chose. On dépense bien plus pour les dysfonctionnements érectiles que pour les maladies tropicales. « Les valeurs façonnent la science à presque tous les stades, qu’il s’agisse de décider des phénomènes à étudier ou de choisir comment les étudier et en parler ».

« Qualifier un produit chimique de « perturbateur endocrinien » plutôt que d' »agent hormonal actif » met en évidence son potentiel de nuisance. Les scientifiques font chaque jour des choix chargés de valeurs en ce qui concerne leur terminologie, leurs questions de recherche, leurs hypothèses et leurs méthodes expérimentales, qui peuvent souvent avoir des conséquences politiques. Partout où les spécialistes des sciences sociales ont regardé de près, ils ont trouvé des éléments de politique dans la conduite de la science. Tant et si bien qu’il n’est pas simple de discerner précisément et exactement où finit la science et où commence la politique.

Certaines recherches deviennent problématiques quand d’autres ne sont toujours pas remises en question (comme les partis-pris en faveur de de l’industrie de l’armement que dénonçait brillamment le journaliste Romaric Godin de Mediapart en soulignant combien ce secteur particulièrement aidé ne produisait que très peu d’effets d’entraînement industriel ou de ruissellement d’innovation…). Le fait de considérer la science comme pure jusqu’à ce qu’elle soit politisée de l’extérieur empêche donc un débat plus large sur la question suivante : « Quels types d’influences politiques sur la science sont appropriés et quand ? »

« Améliorer la capacité des femmes et des minorités à devenir des scientifiques ou orienter la science vers des objectifs plus pacifiques ou plus satisfaisants pour la vie est politique dans un sens différent de celui qui consiste à occulter intentionnellement les effets nocifs du tabagisme », explique Taylor Dotson. Reste que pour faire ces distinctions, il serait nécessaire d’arrêter de croire au mythe d’une science apolitique – et en la croyance que la politique pourrait être basée sur LA science. Là encore, l’un des problèmes c’est certainement de croire qu’il n’y en a qu’une ! La pandémie nous a pourtant pleinement montré que la vérité de l’épidémiologie n’était pas là même selon les spécialités médicales d’où on la regardait. Pour beaucoup, il suffirait pourtant de placer des experts à la tête des décisions politiques pour éclaircir les influences que la science subit et mieux révéler une vérité qui serait, elle, impartiale. Mais, explique Taylor Dotson, « la scientisation de la politique repose sur la même hypothèse que les attaques contre la politisation explicite de la science ». Bien souvent, elle vise à dépolitiser les questions publiques qui posent problème.

Pourtant, rappelle-t-il, nous croulons sous les études scientifiques mal menées, mal conçues, aux résultats peu reproductibles ou peu fiables… Une politique guidée par la preuve scientifique ne nous garantit pas vraiment qu’elle soit guidée par la réalité. En fait, on peut largement douter que la science puisse fournir une base solide et indiscutable à l’élaboration des politiques. Reste, souligne Dotson, même si les valeurs et la politique jouent un rôle dans la recherche, la science doit rester un moyen dominant de régler les questions publiques. « Il ne fait aucun doute qu’il est préférable d’avoir recours à certaines recherches scientifiques pour décider d’une question complexe plutôt que de ne pas en avoir du tout. De plus, même si les résultats scientifiques sont parfois biaisés ou même complètement faux, les institutions scientifiques valorisent au moins le fait d’essayer d’améliorer la qualité des connaissances. »

La science s’établit progressivement, par l’accumulation de preuves et de démonstrations qui vont dans le même sens. Mais l’expertise doit toujours pouvoir être balancée et contre-balancée. Et dans ce domaine, rappelle très justement Dotson, la scientisation des controverses publiques empêche souvent de reconnaître que les personnes qui ne sont pas scientifiques ont d’importantes contributions à apporter. À Flint, dans le Michigan, les scientifiques n’ont pas porté beaucoup d’attention aux plaintes des habitants qui signalaient d’importants problèmes de santé jusqu’à ce que les études soulignent qu’ils avaient raison.

Dans la science, les controverses sont nombreuses. Bien souvent, elles sont politiques. Les écologistes sont plus critiques à l’égard des cultures génétiquement modifiées que ceux qui travaillent dans le secteur de la transformation des organismes. Aucun groupe d’experts ne peut donner une analyse complète et juste d’un problème, soutient Dotson. Dans Uncertain Hazards (Cornell University Press, 2001, non traduit), Silvia Noble Tesh explique qu’il est souvent très difficile, voire impossible, de prouver qu’une substance a des effets néfastes sur le corps humain. Les tests sont réalisés sur des animaux pour des raisons éthiques et leurs réactions sont très différentes de celles des humains. La thalidomide par exemple, qui même en quantités infimes produit des malformations congénitales chez l’homme, n’affecte les chiens qu’à fortes doses. De même, il est difficile d’obtenir une mesure précise d’une quantité de toxine à laquelle des gens peuvent être exposés et trop de facteurs favorisent des confusions (tabagisme, autres substances toxiques…) d’autant que les populations exposées tiennent de petits groupes… L’examen approfondi de cas litigieux révèle souvent des perspectives contradictoires plus que des convergences d’opinions. Daniel Sarewitz estime que dans de nombreux cas la science aggrave les controverses plus qu’elle ne les résout, notamment parce que la politique attend des certitudes, quand la science produit surtout de nouvelles questions. La science avance souvent en produisant de nouvelles incertitudes et de nouvelles complexités. On pourrait ajouter aussi qu’elle produit souvent des tendances, plus que nécessairement des certitudes.

En fait, l’un des problèmes de la science est d’introduire ses propres biais. Dans Seeds, Science and Struggle (MIT Press, 2012, non traduit), « la sociologue des sciences Abby Kinchy (@abbykinchy) a constaté que le fait de privilégier les évaluations fondées sur des faits tend à écarter les préoccupations non scientifiques. La controverse sur les cultures génétiquement modifiées est souvent réduite à la seule probabilité d’un dommage évident pour l’environnement ou le corps humain. Pour de nombreux opposants, cependant, les conséquences les plus inquiétantes des cultures OGM sont d’ordre économique, culturel et éthique », et notamment sur les cultures non transgéniques. Pour que le débat reste ancré dans la science, il exclut très souvent ce qui n’en relève pas. Ainsi dans notre réponse scientifique à la pandémie, les considérations médicales se sont faites au détriment de toutes autres considérations, notamment celles liées aux libertés publiques. De même, les débats sur le génie génétique oublient les préoccupations socio-économiques qui vont à l’encontre d’une vision industrielle de l’agriculture. De même, dans le débat sur les voitures sans conducteur, on oublie d’observer si l’avenir de nos déplacements ne bénéficierait pas bien mieux d’un monde de transports en commun…

« La politique scientifique privilégie les dimensions de la vie qui sont facilement quantifiables et rend moins visibles celles qui ne le sont pas ». Les débats scientifiques sont également biaisés quant à la charge de la preuve. Les lobbies d’entreprises exigent que les réglementations les affectant soient prouvées par une science solide, mais cela signifie qu’aucune réglementation stricte ne peut être élaborée tant qu’un préjudice n’est pas démontré de manière concluante – et ce sans compter que les camps n’ont pas toujours le même rapport de force pour élaborer ces preuves. Enfin, les scientifiques peinent souvent à fournir des réponses fermes, notamment face à des phénomènes complexes, comme c’est le cas en médecine ou dans les sciences de l’environnement. Les appels à une science solide finissent par être une tactique dilatoire qui donne un avantage aux produits industriels, et ce malgré leurs risques… Ainsi, « les scientifiques ont appris dans les années 1930 que le bisphénol A, un composant de nombreux plastiques, imitait les œstrogènes dans les cellules des mammifères, mais ce n’est qu’en 1988 que l’Agence américaine de protection de l’environnement a commencé à réglementer l’utilisation du bisphénol A et ce n’est qu’en 2016 que les fabricants ont finalement été contraints de le retirer de leurs produits. » Dans ce cas, pendant des années, les partisans du bisphénol ont fait passer leurs adversaires plus prudents pour des antiscientifiques au prétexte que les faits (c’est-à-dire l’absence de preuve concluante) n’étaient pas établis. Trop souvent finalement « l’absence de preuve est considérée comme une preuve de l’absence ».

Pourtant, chacun semble de plus en plus agir comme si la science pouvait être apolitique, alors qu’actions et discours qui résultent de cette croyance relèvent bien plus du fanatisme que du scientisme. « Dans une culture dominée par le scientisme politique, les citoyens et les responsables politiques oublient comment écouter, débattre et explorer les possibilités de compromis ou de concession les uns avec les autres. Au lieu de cela, nous en venons à croire que nos opposants n’ont qu’à être informés des faits ou vérités « corrects », sévèrement sanctionnés ou simplement ignorés. Il existe sans doute des cas où le fanatisme peut être justifié, mais le scientisme politique risque de transformer tout débat comportant un élément factuel en un débat fanatique. »

Les risques d’une politique factuelle

Dans un long article pour disponible sur The New Atlantis, Taylor Dotson rappelle que pour le philosophe Karl Popper déjà, dans La société ouverte et ses ennemis, la menace à laquelle sont confrontés nos sociétés démocratiques et ouvertes, n’est pas la désinformation ou l’ignorance, mais la certitude. Pour Popper, la connaissance scientifique est par nature provisoire. L’objectivité scientifique ne découle pas tant des qualités cognitives ou de la neutralité des chercheurs, mais de leur engagement critique vis-à-vis de leurs travaux respectifs, dans une forme de dissidence productive. Les ennemis de ce système sont ceux qui insistent d’abord et avant tout sur une certitude parfaite. « La conviction que la désinformation est aujourd’hui la principale menace pour la démocratie nous rend aveugles aux effets pernicieux de la certitude ». Popper promouvait une défense épistémologique de la démocratie, c’est-à-dire l’idée que la démocratie comprend en elle même un ensemble de stratégies pour aider les sociétés à faire face à l’incertitude. Elle met l’accent sur le caractère provisoire des vérités politiques. La politique est le résultat d’un processus de négociation dans lequel les individus se défient les uns les autres, et pas la décision liée à une compréhension supérieure d’une classe d’experts. Popper n’avait pas imaginé que la certitude fanatique descendrait jusqu’aux individus.

Le danger d'une politique par les faits sur The New Atlantis

Internet permet de choisir son propre chemin de découverte. L’expérience que l’individu y fait lui semble libre, même si les messages, informations et recherches peuvent être sélectionnés par des algorithmes ou présentés de manière partiale. Les médias sociaux promettent une forme de liberté intellectuelle, suggérant que nous pouvons nous débrouiller seuls dans le dédale de l’information. Le scientisme est une théorie simple de l’expertise qui consiste à déléguer les questions spécifiques et techniques aux experts. Le problème, c’est que le scientisme refuse aux non-experts tout rôle dans les réponses spécifiques. Les non-experts se doivent d’écouter la science, comme si les compromis politiques qu’elle produisait n’étaient pas de leur ressort ni problématiques. Depuis que l’expression post-vérité est entrée dans notre vocabulaire, les inquiétudes liées au conspirationnisme ont explosé. Reste que la désinformation et la mésinformation ne s’y réduisent pas. D’abord parce que les conspirations existent et surtout parce que nous sommes en droit d’interroger et critiquer. Bien sûr, le conspirationnisme réduit toutes les questions politiques à des machinations, dans une forme de théorie cynique de l’expertise, où les experts ne servent que les nantis et les puissants.

Conspirationnisme comme scientisme sont tous deux préoccupés par la certitude, estime Taylor Dotson, qui les renvoie dos à dos. Les deux séduisent nos sociétés ouvertes et incertaines en promettant un monde plus simplement ordonné. D’un côté en rejetant les expertises, de l’autre en les adoubant. Pour Dotson, nous devons résister à la tentation de les mettre sur le compte de la personnalité des gens, de leur état mental ou même des médias sociaux. Car les deux tirent leur pouvoir de séduction de la préoccupation de notre culture pour les faits et les données. L’un comme l’autre produit une « politique factuelle », où les citoyens ne débattent plus, ne délibèrent plus, mais consacrent leur énergie à aligner les preuves pour étayer leurs croyances et intérêts. Ils construisent des formes d’intolérance excessives qui sont pour l’un comme l’autre camp, indiscutablement rationnelles et objectives. « Cette politique est pathologiquement pathologisante – c’est-à-dire qu’elle vise à disqualifier les opposants en les diagnostiquant comme pathologiques » Le risque est de transformer tout désaccord en maladie psychique et à en immuniser celui qui fournit le diagnostic. Pire, cela suggère que la seule raison de participer à la politique est d’avoir des opinions fondées sur des preuves. Certes, les preuves et les faits ont une grande importance, mais les valeurs en ont tout autant. Le risque, en masquant nos oppositions sur les valeurs, est de miner nos capacités à délibérer, et finalement à dépolitiser nos désaccords, à leur enlever leur complexité morale et pratique. « Dès lors que nous considérons que la politique est définie uniquement par « les faits », la politique n’existe plus », rappelle Dotson. « La démocratie fonctionne traditionnellement par le biais de la fracturation et de la reformation constantes de coalitions, d’alliances composées de groupes disparates cherchant chacun à transformer leurs propres aspirations en lois. Elle dépend des ennemis précédents qui s’associent et négocient pour conclure des accords, pour atteindre des objectifs communs ». Mais si l’opposition politique n’est considérée que comme le produit de la désinformation ou de l’analphabétisme scientifique, tout compromis devient impossible, irrationnel, puisqu’il consiste à sacrifier la vérité. « Nous nous sommes profondément trompés en croyant que l’ère de la post-vérité pouvait être combattue en redoublant d’efforts en faveur de la science », estime Dotson. Au contraire, le scientisme rend plus difficile l’enjeu à réconcilier des positions antagonistes et qui deviennent méfiantes l’une envers l’autre. La politique factuelle attise le conspirationnisme. « En se retranchant à tout bout de champ derrière le principe « suivre la science », nos dirigeants ont réduit les gens à des vecteurs de propagation de la maladie, à des points de données à contrôler, tout en affichant une attitude indifférente à l’égard de leurs réalités vécues ». Ce « leadership » rend assurément les personnes sceptiques, explique Dotson en se référant à une étude qui s’intéresse à l’impact du leadership sur les croyances conspirationnistes de leurs employés. Les leaderships despotiques – « où les employés se sentent dominés, contrôlés et marginalisés » – nourrissent les craintes. Là où les leaders sont despotiques, les employés sont plus susceptibles de croire que leurs managers sont ligués contre eux. En minimisant le caractère faillible des avis d’experts et la nature provisoire des connaissances, en minimisant le doute, le scientisme alimente le conspirationnisme. Lorsque les erreurs et changements d’avis des experts ne sont pas ouvertement discutés, l’intention malveillante devient souvent la seule explication. La politique factuelle oublie de tenir compte de l’essence même de la politique : à savoir des visions morales différentes, l’évaluation et la recherche de compromis constants. Le scientisme comme le complotisme promettent un monde où la politique serait pure. Tous deux produisent une société fermée aux désaccords politiques.

Pour Dotson, la politique devrait se préoccuper bien plus de connexion que de savoir. Pour l’historienne Sofia Rosenfeld, « ce dont les individus ont besoin, c’est du retour à un type de vie publique qui les oblige à peser et à considérer constamment les choses du point de vue des autres » – or, à tout voir par les données, le risque est de n’embrasser aucun point de vue, comme nous le disaient Lauren Klein et Catherine D’Ignazio. Pour le politiste Benjamin Barber, le discours démocratique fort incorpore « l’écoute aussi bien que la parole, le sentiment aussi bien que la pensée, et l’action aussi bien que la réflexion » Le désaccord est inéluctable. La politique est un processus d’apprentissage qui doit accepter ses incertitudes. « Les experts de la santé n’auraient pas dû décourager aussi vigoureusement le port de masques au début de la pandémie, surtout pas en affirmant avec une confiance aussi mal placée qu’il n’y avait aucune preuve que les masques fonctionnaient. Au lieu de cela, ils auraient dû faire part de leurs préoccupations concernant la pénurie de masques et de leur incertitude quant à l’utilité exacte des masques en dehors d’un hôpital ». Pour Dotson, le déploiement du vaccin restera entravé tant que les experts et les responsables nieront leurs incertitudes les concernant. Les accidents nucléaires du milieu du XXe siècle sont en partie imputables aux faits que les centrales aient été déployées plus rapidement que la reconnaissance de leurs dangers potentiels. Boeing a poussé ses ingénieurs à travailler deux fois plus vite qu’à l’accoutumée pour mettre au point la conception du 737 Max compromettant sa stabilité. L’adoption généralisée de techniques agricoles intensives a généré des problèmes environnementaux imprévus. « La nouveauté, le rythme et l’échelle se combinent pour mettre à l’épreuve la capacité des organisations, même les meilleures, à reconnaître et à corriger les erreurs. »

Dans Dealing with an Angry Public (Free Press, 1996, non traduit), Lawrence Susskind et Patrick Field soulignaient que les colères des publics sont alimentées lorsqu’elles sont minimisées ou sous-estimées. Lorsque les erreurs se produisent – et elles se produisent -, la confiance est bien souvent irrévocablement perdue. « Tant que les experts et les politiques tenteront de forcer le consensus en faisant appel à la science, les préoccupations des citoyens ne feront que croître ». Et Dotson de rappeler, à la suite du livre de l’historienne Nadja Durbach Bodily Matters (2004) que le mouvement de résistance nourri contre la vaccination antivariolique en Angleterre au XIXe et début du XXe siècle a été apaisé en introduisant l’objection de conscience. Pour Dotson, nous devrions apprendre des désaccords et leur laisser de l’espace. Être d’accord est plus la fin de la politique plus que son début, et même ainsi, être d’accord est souvent partiel, provisoire et contingent. Pour lui, en abandonnant l’idée que le consensus doit précéder la politique, nous pouvons promouvoir une gouvernance plus réactive, qui aspire à gagner la confiance progressivement en testant de nouvelles politiques.

Partir de l’expérience des gens pour les amener à considérer les points de vue différents et à créer des liens, fonctionne mieux qu’une approche basée sur les faits ou l’information. Enfin, il souligne qu’il est plus que nécessaire de s’intéresser sérieusement aux expériences de ceux qui hésitent à se faire vacciner. Les Afro-Américains par exemple, sont plus sceptiques à l’égard des vaccins alors qu’ils ont été plus touchés par le virus. Mais leur hésitation est le fruit d’une longue méfiance à l’égard du système médical, lié aux injustices raciales historiques et aux disparités de traitement actuelles, bien plus qu’à leur analphabétisme scientifique ! Le scepticisme vaccinal des personnels de santé s’explique bien plus par le fait qu’ils aient travaillé pendant des mois sans protection efficace et que le système, finalement, ne fait pas de leur bien-être une priorité. « Si notre politique avait été ancrée dans l’appréciation de l’expérience plutôt que dans l’idolâtrie de l’expertise, nous aurions depuis longtemps reconnu que l’hésitation à se faire vacciner n’est pas seulement une question d’ignorance. Nous aurions remarqué les dysfonctionnements plus profonds de notre système médical. »

Enfin, estime Dotson, nous devons ouvrir nos débats à une diversité de considérations morales plutôt que de ne regarder que les modèles épidémiologiques.

Dotson ne semble pas confiant. Remettre l’incertitude, l’expérience et le désaccord moral en politique nécessite un long chemin. Nos dirigeants préfèrent maintenir le cap d’une politique factuelle. Pour résoudre ces difficultés, Helene Landmore propose de transférer davantage de gouvernance à des conseils délibératifs… comme l’a été, en France, la convention citoyenne pour le climat. Encore faut-il entendre ce que ces conventions disent ! Pour Dotson, nous devons trouver la voie d’une démocratie qui cherche moins à avoir raison et qui recherche un peu plus la délibération et l’interconnexion.

Pas sûr que nous en prenions le chemin. Dans un monde où la donnée devient centrale, celle-ci risque de produire beaucoup d’illusion du consensus que d’antagonismes et de diversité.

Hubert Guillaud

11.10.2021 à 07:00

Dé-monopoliser l’internet par l’interopérabilité

Hubert Guillaud

img
Et si nous réparions l’internet plutôt que les géants de la tech, explique le toujours pertinent Cory Doctorow (@doctorow) dans un édito pour la revue Communications de l’ACM (@cacmmag). Plutôt que de chercher à réparer FB en le forçant à lutter contre la désinformation ou Google en l’obligeant à filtrer (...)
Texte intégral (3049 mots)

Et si nous réparions l’internet plutôt que les géants de la tech, explique le toujours pertinent Cory Doctorow (@doctorow) dans un édito pour la revue Communications de l’ACM (@cacmmag).

Plutôt que de chercher à réparer FB en le forçant à lutter contre la désinformation ou Google en l’obligeant à filtrer les contenus qui contreviennent au droit d’auteur – sans qu’il soit certain que ces approches portent leurs fruits, puisqu’il reste difficile de faire la distinction entre la parodie, le commentaire et leurs formes problématiques ou illicites – peut-être est-il temps d’opter pour une autre approche ? Et Doctorow de proposer de déporter notre regard pour mieux embrasser le problème. Pour lui, nous avons plutôt un problème de concurrence qu’autre chose. Les monopoles du « cartel des Big Tech », comme il les appelle, ne se résoudront pas en les contraignant à réparer leurs effets toxiques (au risque de leur donner toujours plus de pouvoir), mais en regardant ce qui cause et permet leur puissance. Pour Doctorow, c’est l’internet qu’il faut donc réparer. Pour combattre la concentration et la monopolisation des géants, c’est leurs silos qu’il faut abattre. Et pour cela, le régulateur dispose d’une arme assez simple et efficace et qui a déjà fait ses preuves : l’interopérabilité !

L’interopérabilité, rappelle Doctorow, c’est la capacité des produits et services à travailler ensembles depuis des normes, standards et pratiques communes. L’interopérabilité permet à de nouveaux entrants sur un marché de profiter des avantages de « l’effet réseau » déjà établi pour l’utiliser à leur propre avantage. Doctorow rappelle d’ailleurs l’histoire d’AT&T. Jusque dans les années 70, l’opérateur historique américain détenait un impressionnant monopole sur les télécommunications américaines. Outre son monopole sur le réseau, ses abonnées devaient non seulement payer l’abonnement et la connexion, mais également la location de téléphones AT&T : l’entreprise leur interdisant l’achat ou l’utilisation de téléphones d’autres marques ! Non seulement l’entreprise finira par être scindée en différentes entités, mais surtout, elle sera poussée par le régulateur à l’interopérabilité. Ses concurrents ont pu accéder à ses réseaux et ses clients ont été libérés de la contrainte de la location monopolitistique que l’entreprise imposait.

Pour Doctorow, dans la bataille actuelle à l’encontre du cartel des Big Tech, le régulateur oublie trop souvent la valeur de l’interopérabilité.

Il en propose d’ailleurs une intéressante taxonomie.

La forme la plus courante de l’interopérabilité est une interopérabilité indifférente, c’est-à-dire quand un système ne prend aucune mesure pour faciliter ou bloquer l’interopérabilité. Une entreprise fait un produit. Une autre fait un produit qui fonctionne avec le précédent, sans lui en parler et la première laisse faire. C’est le cas par exemple de l’allume-cigare des voitures, né dans les années 20, que les constructeurs d’automobiles ont fini par monter en série pour répondre à son succès. La normalisation de ce port électrique s’est faite sans entrave, tant et si bien que cette prise permet désormais de brancher tout et n’importe quoi. C’est le cas également de la prise Jack par exemple que l’on trouve sur nombre d’appareils et qui permet d’y brancher n’importe quel casque ou écouteurs.

La seconde forme est l’interopérabilité coopérative, qui repose principalement sur la normalisation et la standardisation. Ainsi un fournisseur de téléphone mobile ou un constructeur automobile qui installe une puce Bluetooth permet à n’importe quel appareil de s’y connecter. Ici, l’enjeu est de permettre l’ajout de fonctionnalités normées ou standardisées accessibles à tous… à l’image d’API ouvertes qui permettent de récupérer des données ou des fonctionnalités pour les réutiliser. C’est là le fonctionnement assez traditionnel de l’industrie qui consiste à bâtir des normes communes afin qu’elles profitent à tous.

La limite ici, c’est qu’avec le numérique, on peut ajouter des programmes informatiques ou des conditions pour discriminer accessoires ou services normalisés. Ces programmes informatiques peuvent être avantageux pour l’utilisateur : ils peuvent par exemple vous avertir quand vous connectez un appareil Bluetooth qui a des défauts de sécurité ou qui figure sur une liste noire d’appareils malveillants qui siphonnent vos données. Mais ils peuvent également être riches d’inconvénients pour les utilisateurs : ces programmes peuvent être ajustés pour empêcher de connecter des écouteurs ou le clavier d’une marque concurrente par exemple. Les appareils et services connectés peuvent ajuster le degré d’interopérabilité de leurs interfaces numériques d’un moment à l’autre, sans préavis ni appel, ce qui signifie que le plug-in d’un navigateur peut d’un coup cesser de fonctionner du jour au lendemain parce qu’un accès a été coupé. Cette forme d’interopérabilité est donc limitée à la volonté changeante des entreprises, à leurs politiques… Normes, standards et API peuvent donc rendre le dialogue entre les systèmes plus simples… comme plus compliqués.

La troisième forme qu’évoque Doctorow est l’interopérabilité adversariale (on parle aussi d’interopérabilité contradictoire, antagoniste ou de « comptabilité compétitive »). Ici, Doctorow évoque des produits qui se connectent à un objet ou service en lui étant « hostile ». C’est le cas par exemple d’applications pour téléphones non autorisées ou plus encore de cartouches d’encre ou de capsules à café compatibles avec celles qu’imposent les marques et formats propriétaires. Bien évidemment, là encore, le numérique permet d’introduire des contre-mesures de contrôle pour tenter de pallier ces formes d’interopérabilité forcée !

Ces trois formes d’interopérabilité, explique Doctorow, reposent sur des moyens permettant d’étendre ou limiter les fonctionnalités. Ce qui les différencie, bien sûr, c’est la façon dont ils prennent en compte les priorités des utilisateurs. Fort heureusement, rappelle Doctorow, l’interopérabilité l’emporte souvent, notamment parce que c’est « l’état par défaut du monde ». « Le fabricant de chaussettes n’a pas le droit de spécifier les chaussures que vous devez porter avec elles, pas plus que la laiterie ne peut dicter sur quelles céréales vous pouvez verser son lait ».

Pour que des marchés réellement concurrentiels, innovants et dynamiques se mettent en place, l’interopérabilité ne suffit pas. Il est nécessaire de pouvoir mettre en place une interopérabilité contradictoire, c’est-à-dire une interopérabilité qui se « branche » sur des services ou produits existants « sans autorisation » des entreprises qui les fabriquent. À l’heure où l’interopérabilité s’est considérablement refermée avec le développement des brevets logiciels ou des outils de gestion des droits numériques, il faut souvent montrer patte blanche pour interconnecter ses systèmes à d’autres. Favoriser l’interopérabilité contradictoire est une partie de la solution à la concentration, estime Doctorow. Le problème est que le numérique rend l’interopérabilité contradictoire toujours plus difficile, notamment parce que l’une de ses caractéristiques est justement de pouvoir créer et démultiplier des fonctions et modalités de contrôle aux accès. Les règles se démultiplient et si vous ne les respectez pas, vos accès sont fermés. L’interopérabilité est d’autant plus mise à mal que l’incompatibilité s’étend. La fermeture favorise la domination de quelques-uns sur tous les autres.

L’interopérabilité reste pourtant un levier simple et fort pour renforcer la concurrence. Le problème est que comme elle est de plus en plus rendue compliquée, elle devient une finalité. Pour Doctorow, permettre aux utilisateurs de transférer leurs données, d’un service à l’autre, d’une entreprise à une autre devrait être un point de départ, pas une finalité. Le risque, estime-t-il, est que « l’interopérabilité soit le plafond de l’innovation plus que son plancher ».

Pour Doctorow, l’interopérabilité n’est pas le seul levier. L’Electronic Frontier Foundation (@eff), l’association de protection des libertés numérique – dont Doctorow est l’un des piliers – défend ainsi un Access Act, un projet de loi antitrust en plusieurs mesures qui vise à promulguer des lois pour : interdire l’autoréférencement (et faire passer ses produits avant ceux de ses rivaux) ; bloquer les acquisitions anticoncurrentielles ; bloquer les « jardins clos » ; à imposer l’interopérabilité en forçant les grandes entreprises à proposer des API pour permettre aux utilisateurs d’aller sur un service concurrent tout en continuant à pouvoir discuter avec ceux qui ne font pas le même choix ; et à mieux financer l’organisme régulateur américain pour s’assurer d’un meilleur contrôle. Comme l’explique l’article, il manque encore un « droit d’action privé », permettant au public de poursuivre une entreprise qui ne respecte pas ces mesures (équivalent à l’article 82.1 du RGPD, qui permet aux utilisateurs qui subissent un dommage matériel ou moral d’obtenir réparation). Le cartel des Big Tech doit avoir plus de limites légales sur l’utilisation et le traitement des données des utilisateurs, et ce en renforçant la protection de la vie privée et les droits des utilisateurs.

Mettre fin aux monopoles plutôt que les améliorer

« Bien mieux que d’essayer de transformer les monopoles massifs et peu fiables en « bons monopoles », il faut mettre fin aux monopoles et créer un monde en ligne fédéré où les utilisateurs peuvent choisir les normes d’expression qui leur conviennent et se connecter aux utilisateurs d’autres services », explique Doctorow. Plutôt que pousser les entreprises monopolistiques au filtrage et à la surveillance des contenus des utilisateurs, il serait plus efficace de les pousser à l’interopérabilité et à la portabilité.

Le problème est que nous prenons le problème à l’envers, estime Doctorow. « Au lieu de faire de Google, Facebook, Amazon, Apple et Microsoft les maîtres permanents de l’internet et de s’efforcer de les rendre aussi inoffensifs que possible, nous pouvons réparer l’internet en faisant en sorte que les grandes entreprises technologiques jouent un rôle moins central dans son avenir. ». En imposant le filtrage et la surveillance des contenus plutôt que l’interopérabilité, nous promouvons un internet hostile aux nouveaux entrants (qui ne peuvent se mettre en conformité avec les règles édictées, tant la marche technique et financière est haute) et nous minons l’autodétermination technologique des utilisateurs en faisant que les violations des conditions de services ou que la neutralisation des mesures techniques de protection (MTP ou DRM) soient transformées en infractions civiles ou pénales. Certes, reconnait Doctorow, il est probable que les gens fassent des choses mal avisées en connectant des outils à leurs comptes FB, Google ou Apple, comme cela peut arriver quand ils branchent n’importe quoi à leur prise d’allume-cigare. Mais nous les empêchons aussi de prendre soin d’eux ! C’est par exemple ce que raconte le développeur Louis Barclay @louisbarclay, blog), le fondateur de Nudge.io dans un article pour Slate. Non seulement Facebook s’en prend aux chercheurs en coupant leurs accès (comme cela a été le cas cet été à l’encontre de chercheurs de la New York University), mais il s’en prend également aux outils qui tentent de donner aux utilisateurs un plus grand contrôle sur leurs données et leur expérience. Barclay y raconte comment FB l’a menacé d’une action en justice et a désactivé définitivement tous ses comptes. Sa faute, avoir créé un outil pour rendre FB moins addictif. Cet outil était une extension pour navigateur permettant aux utilisateurs de supprimer leur fil d’actualité quand ils se rendent sur FB. À la place, ils accédaient à une page vide. Pour Barclay, c’était là un moyen de lutter contre la toxicité attentionnelle de la plateforme. Pour obtenir de l’information depuis ce plug-in, il faut se rendre sur les pages ou profils de ses amis directement, permettant d’acquérir un contrôle inédit sur les contenus disponibles (et surtout de mieux maîtriser le temps qu’on y passe). On peut supprimer manuellement les contenus de son fil en allant dans les paramètres, rappelle Barclay, mais c’est long et fastidieux. Il a juste proposé un outil pour automatiser le processus via un plug-in disponible sur le Chrome Store. Face aux menaces, Barclay a cédé : il n’a pas les moyens d’affronter le géant ! Il n’est pas le seul à subir les foudres du géant. L’été dernier FB s’en est pris à Friendly, un outil permettant aux utilisateurs de basculer entre plusieurs comptes de médias sociaux… Pour Barclay, « le comportement de FB n’est pas seulement anti-concurrentiel, il est aussi anti-consommateur ». « On nous enferme dans des plateformes (…) puis on nous empêche de faire des choix légitimes sur la façon dont nous pouvons les utiliser ».

Le fil d'information de FB avant et après installation du plug-in de Louis Barclay

L’essor des plateformes monopolistiques a concentré leurs pouvoirs. Leurs trésoreries illimitées leur permettent de mener un intense lobbying pour miner toute compatibilité et interopérabilité, alors que nous avons là un outil assez simple et disponible. Pour l’instant, les autorités et les États tentent de se servir des pouvoirs des plateformes pour assurer leurs propres missions. Pas sûr que cela fonctionne longtemps. Doctow rappelle qu’AT&T avait failli être démantelée dès 1956, mais que le Pentagone s’y était opposé en utilisant AT&T pour qu’elle rende des services à l’État plutôt que d’utiliser le pouvoir de l’État pour l’affaiblir. Les restrictions imposées à l’entreprise n’avaient cessé d’être bafouées… Et au final, l’État américain, 26 ans plus tard, avait été contraint de jeter l’éponge et de démanteler l’ogre du fait des protestations des entreprises et des utilisateurs. Un rappel historique qui devrait faire réfléchir en tout cas, conclut Doctorow en soulignant que les entreprises ne sont pas des gouvernements et qu’elles n’ont pas à nous gouverner !

Pour Doctorow, finalement, la tentation aujourd’hui est forte de punir les grandes entreprises en leur accordant une position encore plus dominante et permanente qu’elle n’est ! À l’heure où les problèmes qu’elles génèrent se multiplient, la tendance est forte de leur demander d’être plus répressives encore et donc d’accélérer leurs incompatibilités entre elles ! Pire : de refermer des marchés. Le filtre de YouTube, Content ID, dont le coût de développement est estimé à 100 millions de dollars est inaccessible à tout nouvel acteur qui voudrait se lancer dans la vidéo en ligne et qui serait contraint d’avoir des outils de modération équivalents. Pour Doctorow, ce filtrage coûteux devrait être une responsabilité d’État, mais comme il est le fait d’entreprises privées, il rend bien plus difficile l’émergence d’une quelconque concurrence.

Alors qu’ils doivent tous leur existence à l’interopérabilité, ironise Doctorow, le cartel des Big Tech est désormais déterminé à empêcher tous nouveaux venus de leur faire ce qu’ils ont eux-mêmes fait aux autres ! Le problème, c’est qu’elles ont truqué le système pour qu’il soit douloureux pour vous d’aller ailleurs. Alors que l’interopérabilité réduit le coût à changer, l’absence d’interopérabilité tient durablement l’usager en otage ! Pour Doctorow, l’interopérabilité est assurément l’outil dont nous avons besoin. Mais nous ne devons pas seulement ouvrir aux utilisateurs leurs possibilités, il faut aussi permettre aux plateformes de se connecter entre elles au profit des utilisateurs et pas seulement au profit de leurs seuls modèles d’affaires.

Hubert Guillaud

07.10.2021 à 07:00

Rationalité et irrationalité pandémiques

Hubert Guillaud

img
« Apprendre à vivre avec le virus » est un message peu rassurant qui nous demande d’apprendre à vivre avec l’incertitude, explique Lauren Collee (@lacollee) dans l’indispensable Real Life (@_reallifemag). « Ce message est aussi effrayant pour les organismes que pour le grand public, car l’incertitude est fondamentalement en contradiction avec le type (...)
Texte intégral (3073 mots)

« Apprendre à vivre avec le virus » est un message peu rassurant qui nous demande d’apprendre à vivre avec l’incertitude, explique Lauren Collee (@lacollee) dans l’indispensable Real Life (@_reallifemag). « Ce message est aussi effrayant pour les organismes que pour le grand public, car l’incertitude est fondamentalement en contradiction avec le type de rationalisme empirique qui génère des récits rassurants sur la fermeture », c’est-à-dire sur la fin possible de la pandémie. Or, après 2 années de pandémie, le soulagement d’une fin de pandémie ne semble toujours pas à l’horizon.

En psychanalyse, Arie Kruglanski, dans les années 90 a imaginé le concept de « besoin de closure cognitive », c’est-à-dire le besoin de mettre fin à quelque chose pour en évacuer l’incertitude, l’inconfort ou l’ambiguïté. Pour la sociologue Nancy Berns (@nancy_berns), qui a étudié La fin du deuil et ce qu’il nous coûte (Temple University Press, 2011, non traduit), la fermeture est souvent considérée comme essentielle à la guérison ou à l’acceptation. Nous n’avons cessé de nous accrocher à un espoir que le moment Covid s’arrête, que le monde revienne à la normale, comme le fait une tempête. Mais, ni le Covid à court ou moyen terme, ni le réchauffement climatique à long terme n’annoncent de retour à la normale.

Pour la spécialiste de bioéthique, Catherine Belling (@CateBelling), auteure de La condition du doute : le sens de l’hypocondrie (Oxford University Press, 2012, non traduit), nous devrions plutôt prendre mieux en compte l’hypocondrie, c’est-à-dire, derrière notre inquiétude obsessionnelle à la santé, revoir le schéma trop simple qui nous mène d’un symptôme à une guérison. Pour elle, l’hypocondrie n’est pas tant un trouble psychique, que quelque chose d’inhérent à la médecine contemporaine où la connaissance est nécessairement confrontée à son propre doute. Elle n’est pas qu’une façon de se croire malade, mais un terrain d’anxiétés sociétales partagées lié à un système médical qui se pense plus omniscient qu’il n’est ! L’hypocondriaque est le reflet sombre de la biomédecine, explique-t-elle. Il pose la question de ce que l’on sait et de ce que l’on ne sait pas. Nous avons tous eu l’impression depuis le début de l’épidémie d’avoir plusieurs fois eu les symptômes du Covid. Nous sommes nombreux à être inquiets dès que quelqu’un tousse ou expectore à nos côtés ! Pourtant, l’hypocondriaque est bien le contraire du malade chronique : il ne cesse de chercher obsessionnellement une fin à ses symptômes, quand le malade chronique sait lui combien le mot guérison est un piège. Et pourtant, l’hypocondriaque ne parvient pas à fermer la page, à clore son rapport à ses angoisses médicales. Pour Belling, l’hypocondrie est finalement la condition d’un être humain rationnel dans une société médicalisée aux connaissances par nature instables. Pour l’hypocondriaque, le diagnostic du médecin est lu en relation avec nombre d’autres informations. La fermeture du diagnostic semble alors plus difficile à accepter. Comme si plus d’informations ne conduisaient jamais à plus de certitudes. Ici, l’internet n’a pas changé la donne, au contraire, comme nous le pointions nous-mêmes. Même si nous percevons l’information comme un narrateur omniscient, nous sommes surpris de constater qu’il ne peut pas toujours répondre à nos questions, comme le pointait très bien Linda Besner dans un précédent article de Real Life sur ce que nous ne pouvons pas googliser et les réponses que ne nous apportent pas l’information. Pour Belling, les récits de santé publique s’appuient souvent sur des conventions narratives assez linéaires. À l’heure où les vaccins montrent qu’ils ne sont pas la solution miracle attendue et que rien ne nous garantit d’une « fin » du Covid, on comprend que les récits simplistes et solutionnistes des autorités politiques ou scientifiques soient brouillés par des actualités qui montrent justement que cette lecture est trop simpliste et que l’avenir est plus complexe et incertain. Pour Belling la stratégie des autorités à utiliser la peur comme outil de communication finit souvent par produire une anxiété moins cohérente, qui résiste à toute réassurance. Pour Belling, le doute et l’incertitude font partie intégrante de la médecine qui ne doit pas chercher à la nier. L’hypocondrie ne vise pas tant à saper l’expertise médicale finalement, mais l’invite à adopter des modes plus auto-réflexifs et finalement plus complexes. L’idée d’avoir à vivre avec le virus nous renvoie à une cohabitation qui va continuer à façonner nos vies et nos décisions d’une manière plus incertaine que nous ne le voudrions. Accepter ces incertitudes devrait être essentiel pour construire des systèmes médicaux plus humains, plus justes, plus durables… et finalement moins coercitifs et injonctifs. Pour autant, l’espoir de fermeture demeure fort. Il explique peut-être pourquoi nous nous accrochons à des solutions imparfaites en termes de mesures de santé publique, comme ont pu l’être les confinements ou comme peut l’être le passe sanitaire.

Aimee Walleston (@AimeeWalleston) propose un constat assez proche dans un autre article pour Real Life. Le refus vaccinal doit lui aussi s’entendre dans le contexte d’une médicalisation toujours plus étendue de la société. La promesse vaccinale qui se dessinait dès l’hiver 2020 a apporté l’espoir d’un retour à la normale. Mais les variants et la difficulté à atteindre une efficacité vaccinale optimale ont rapidement douché les espoirs. Les vaccins se sont avérés protecteurs notamment contre les formes graves de la maladie. Mais tout comme les masques ou les tests, les vaccins sont également devenus un point de division de la société. Pourquoi ce vaccin a-t-il été considéré par tant de personnes comme suspicieux (contrairement aux autres obligations vaccinales, dont le rejet est finalement très marginal) ou comme une atteinte à la liberté individuelle ? À l’inverse, pourquoi ce vaccin a-t-il été promu comme LE moyen de mettre fin à la pandémie ? Ces deux réactions sont opposées, mais s’inscrivent l’une comme l’autre dans la même histoire de médicalisation de la société et la croyance que nombre de nos problèmes de santé peuvent être résolus par une intervention médicale individuelle.

La distanciation sociale, le port du masque, la fiabilité des tests, comme la vaccination… ont tous reçu le même accueil. D’un côté, ils étaient la nouvelle liturgie des uns, de l’autre ils étaient la nouvelle profanation des libertés fondamentales des autres. Les uns considérant les autres comme paranoïaques, égoïstes, soumis à un lavage de cerveau et totalement déconnectés de la réalité… et inversement. Le scepticisme comme la foi en l’autorité de l’expertise médicale étaient pour les uns comme pour les autres considérés comme de l’ignorance ou de l’aveuglement.

Les informations sont toujours restées confuses, comme elles l’ont longtemps été sur le port du masque ou comme elles le demeurent encore un peu sur ses modalités concrètes d’utilisation. Les désaccords scientifiques ont été nombreux (par exemple sur le mode de transmission). Les incohérences nourries. Les critiques à l’encontre de la médicalisation de nos sociétés et du régime de vérité imposé par la santé remontent aux années 60, armées par des sociologues, des philosophes et des psychiatres comme Irving Zola, Ivan Illich, Peter Conrad ou Thomas Szasz. Ces critiques ne disent pas que la médecine a souvent tort, mais pointent surtout combien la santé personnelle a cherché à imposer des formes de conformité sociale, comme l’explique Tiago Correia (@correia_tiag) dans un article « Revisiter la médicalisation : une critique des postulats de ce qui compte dans la connaissance médicale ». La médicalisation évoque d’abord l’influence et le rôle de la réglementation médicale dans la vie quotidienne qui a remplacé les institutions de contrôle social précédentes, notamment l’Église et l’État, notamment dans la gestion de la déviance. La maladie a pris la suite du péché et du crime dans la condamnation des comportements non conformes. Ces changements de perspectives n’ont pas eu que des effets délétères, bien sûr. La médicalisation a certainement largement participé à l’amélioration des conditions de vie sur terre. Elle a élargi ses impacts : certains comportements ne relevaient plus d’une défaillance morale personnelle ou d’un crime, mais d’une maladie, comme l’a montré la montée de la prise en compte des addictions. Mais la médicalisation a également étendu son regard sur des états qui ne relevaient ni du crime ni de la morale, recouvrant un éventail toujours plus large d’expériences. C’est un peu comme si tous nos comportements étaient désormais devenus médicaux, comme si les frontières entre les questions médicales et les autres questions s’étaient estompées. La société semble avoir pathologisé les problèmes quotidiens. C’est ce que dénonçait notamment Illich dans son livre, Némésis médicale : l’expropriation de la santé (Le Seuil, 1975), expliquant que la règle médicale s’imposait partout. « La maladie est présumée jusqu’à ce que la santé soit prouvée, tout le système juridique prétend présumer l’innocence », explique Walleston. Pour Illich, le médecin est efficace quand il diagnostique, mais, s’il ne présume pas que le patient est atteint d’une maladie, c’est néanmoins ce qu’il recherche. Il diagnostique donc la maladie plutôt que la santé. Pour Illich, nous sommes désormais dans une société qui transforme les gens en patients où les professionnels de santé exercent une autorité qui va au-delà de la salle de soins, comme l’a montré plus que jamais la pandémie. Pour Illich, nous sommes entrés dans un « impérialisme du diagnostic » qui permet aux « bureaucrates médicaux » de « subdiviser les gens entre ceux qui peuvent conduire une voiture, ceux qui peuvent s’absenter du travail, ceux qui doivent être enfermés, ceux qui peuvent devenir soldats, ceux qui peuvent franchir les frontières, cuisiner, pratiquer la prostitution… ceux qui ne peuvent pas se présenter aux élections (…) ».

Même si cela ne suffit pas pour rejeter les mesures de santé publique, l’idée permet de considérer le refus de la souveraineté médicale non pas tant comme un acte d’ignorance volontaire, mais comme une forme de lutte politique contre ce qui est perçu comme un excès de bureaucratie ou de décision du système médical comme des autorités. Si la médecine a tout pouvoir, la seule façon de s’y soustraire est de la refuser. Dans La médecine comme institution du contrôle social (1972), le sociologue Irving Zola affirme que le discours médical « écarte, voire incorpore, les institutions plus traditionnelles que sont la religion ou l’État. Il devient le nouveau dépositaire de la vérité, le lieu où les jugements absolus et souvent définitifs sont portés par des experts supposés moralement neutres et objectifs », contrairement au clergé ou aux représentants de la loi. Les jugements portés au nom de la santé semblent toujours incontestables (qui voudrait être en mauvaise santé ?), pourtant elle reste un concept politique comme un autre. La santé est ouverte au débat, complexe, multidimensionnel et évolutif, selon par exemple l’importance accordée aux objectifs individuels ou collectifs ou ce qu’on mesure comme relevant de la santé ou n’en relevant pas. « Tout comme il existe de nombreuses façons d’être désavantagés dans la société américaine, il existe de nombreuses façons de définir ce que le terme d’incapacité (ou de maladie ou de handicape) recouvre ». La crise des opioïdes est l’exemple classique de ce qu’Illich qualifiait d’iatrogenèse, par lequel l’intervention médicale accroit la maladie et ses maux sociaux.

Le Covid est bien une crise de santé publique, estime Walleston qu’on peut atténuer par les gestes barrières ou les vaccins. Reste que le scepticisme n’est pas qu’une question de désinformation, il est aussi l’expression de ce que la médicalisation de la société et l’individualisme produisent. Comme l’ont rappelé Caroline Buckee, Abdisalan Noor et Lisa Sattenspiel dans un article pour Nature, les forces centrales qui façonnent les variations locales et mondiales de la charge et de la dynamique de la maladie sont sociales, plus que biologiques. Si d’importantes questions biologiques restent sans réponses, les multiples vagues d’infections qui ont eu lieu ont aussi été favorisées par des politiques de contrôle changeantes et hétérogènes et notamment sur l’impact disproportionné que la maladie a eu sur les communautés les plus pauvres et éloignées des soins. « La perspective d’une réponse médicalisée a négligé de tenir compte de la manière dont les normes communautaires ont un impact sur la santé globale de la société – et ce d’autant plus que dans son cadre limité de diagnostics individuels, elle ne donne pas la priorité à la santé « sociale ». » La médecine est elle aussi sous l’emprise des impératifs du capitalisme et des exigences du consumérisme, comme l’a montré la crise des opioïdes et la réponse à la pandémie ne s’est pas extraite de ce contexte-ci.

Ces dernières années, l’expansion du médical dans nos vies a produit une contre-réaction importante, faite de discours alternatifs entre médecine alternative et promotion du bien-être. Le soin personnel (self-care ou auto-soin) est un concept qui a été proposé par la théoricienne des soins infirmiers Dorothea Orem pour décrire la responsabilité d’un individu dans la gestion et le maintien de sa propre santé. Pour elle, un patient ne doit pas être trop dépendant de l’assistance médicale. C’est à lui d’abord de prendre soin de lui, la médecine prenant le relais quand cela ne suffit plus. Le capitalisme a depuis avalé le concept en faisant à la fois de la santé un produit à consommer et du soin personnel une alternative à la médecine.

Enfin, explique Walleston, la question de la santé et notamment de l’assurance maladie, aux États-Unis, est largement liée à l’emploi. La santé est liée à la viabilité économique d’une personne, « comme si le maintien du bien-être était une question de maintien de la productivité du travailleur ». La santé, la sécurité ou le bonheur sont de plus en plus souvent présentés comme quelque chose qui peut être consommé de manière individuelle. Et c’est là un héritage du cadre médicalisé dans lequel nous vivons et qui a façonné la logique des réponses à la pandémie, tant de l’État, que du système de soin, que des individus. Le vaccin est devenu un combat entre factions en guerre : « un groupe veut une sécurité parfaite grâce au médical, l’autre veut une liberté parfaite grâce au refus. Mais prendre ou ne pas prendre le vaccin ne peut apporter ni l’un ni l’autre. »

Bien sûr, souligne Walleston, ces constats n’apportent aucun argument au refus vaccinal. Choisir d’être vacciné pour répondre à une crise de santé publique est la meilleure approche et la plus universellement bénéfique que nous ayons en ce moment. Reste que les controverses sur l’obligation vaccinale ne devraient pas nous servir à haïr les autres, mais à nous poser la question de la santé que nous voulons. Et celle-ci ne peut assurément pas reposer uniquement sur les ordres qu’on nous donne. Surtout quand ceux-ci finalement ne perçoivent de leurs objectifs que la seule santé au détriment de tous les autres droits. C’est un peu comme cette rengaine que la sécurité serait la première des libertés. Nos droits sont un équilibre. Les ordres de la médecine ne suffisent pas à faire société, au contraire, à mesure qu’ils se démultiplient, ils en interrogent plus que jamais le sens !

Hubert Guillaud

04.10.2021 à 07:00

Sans transition : de nos vies avec et dans les machines du quotidien

Hubert Guillaud

img
Le petit livre des historiens Gil Bartholeyns (@bartholeyns) et Manuel Charpy, L’étrange et folle aventure du grille-pain, de la machine à coudre et des gens qui s’en servent (Premier Parallèle, 2021) est un petit essai accessible et ludique qui tisse à grands traits la complexité de notre rapport aux machines (...)
Texte intégral (1964 mots)

Couverture du livre de Gil Bartholeyns et Manuel CharpyLe petit livre des historiens Gil Bartholeyns (@bartholeyns) et Manuel Charpy, L’étrange et folle aventure du grille-pain, de la machine à coudre et des gens qui s’en servent (Premier Parallèle, 2021) est un petit essai accessible et ludique qui tisse à grands traits la complexité de notre rapport aux machines qui ont envahi notre quotidien.

Nous possédons en moyenne quelque 70 appareils électromécaniques et électroniques dans nos intérieurs (120 si nous habitons dans une maison avec jardin, du fait de l’ajout des objets de bricolage et de jardinage)… Des appareils qui nous semblent à la fois simples et complexes, comme l’a rappelé le Toaster Project (Princeton Architectural Press, 2012, non traduit) du designer Thomas Thwaites (@thomas_thwaites) qui avait tenté de se lancer dans la fabrication de A à Z d’un grille-pain. Une aventure toute en déconvenue, puisque malgré la simplicité du projet, le fait de le construire sans avoir recours à des composants industriels, souligna surtout combien l’entreprise se révélait impossible. Avec son projet de grille-pain, Thwaites montrait surtout combien nous sommes devenus extrêmement dépendants de la mondialisation et de l’industrialisation. Le monde des appareils qui composent notre quotidien n’est plus à notre portée.

En nous replongeant dans l’histoire des objets qui assurent notre confort moderne, les deux historiens élargissent ce constat, comme si depuis qu’ils sont parmi nous, nos appareils domestiques nous avaient plus domestiqués que nous ne les avons maîtrisés. D’ailleurs, nous n’avons jamais cessé d’apprendre à nous en servir, expliquent-ils, en rappelant les innombrables formes qu’ont pris ces apprentissages : démonstrations, expositions, porte-à-porte, manuels d’utilisation, réunions à domiciles, placement de produits… qui aujourd’hui sont prolongés par le téléachat, les publicités déguisées et tutoriels vidéos… Nous ne cessons de courir après leur maîtrise, sans jamais y parvenir vraiment, d’autant plus que leurs fonctionnalités et interdépendances croissantes semblent participer sans cesse à nous en éloigner.

Il faut dire que ces objets eux-mêmes s’inscrivent dans des généalogies complexes, de techniques, d’imaginaires, d’habitudes et de gestes, dans des parcours sinueux d’évolutions esthétiques et fonctionnelles. Les premières ampoules avaient la forme de bougies comme les lampes LED d’aujourd’hui imitent les ampoules à incandescence d’hier. Les nouveautés techniques s’habillent souvent d’esthétiques anciennes, les technostalgies se recouvrent d’une couche l’autre, jusqu’à se dissimuler sous de nouvelles carrosseries, qui semblent toujours chercher à réaffirmer leur modernité. Pourtant, semblent rappeler les deux historiens, la plupart de nos appareils domestiques ont des origines plus anciennes que nous le pensons. Les premiers manuels d’utilisation naissent au XVIIIe siècle, en précisant bien souvent les façons de réparer et notamment comment faire forger ou tailler certaines pièces pour pouvoir les reproduire localement. Ils se développent massivement dès les années 1860 avec l’explosion de la vente par correspondance. Le réveil matin naît à la fin des années 1840… Les W-C également, même s’il faut attendre le début du XXe siècle pour qu’ils se généralisent en ville, d’abord sur un mode collectif, sur le palier. Le quotidien se mécanise tôt, dès les années 1830-1840 (douches chauffantes, fourneaux à gaz…)… Une première domotique naît avec le XIXe siècle qui ne va cesser de se sophistiquer et dont l’usage ne va cesser de s’étendre. Notre rapport aux objets techniques semble toujours devoir être analysé sous les épaisseurs culturelles qui les recouvrent.

C’est suite à la crise des années 30 que s’imagine l’obsolescence planifiée, comme moyen de sortir de la dépression. Prescience ? Peut-être ? Peu à peu, des formes de concurrences symboliques se mettent en place, comme quand General Motors, à l’inverse de Ford, décide de changer ses modèles de voitures pour inciter au renouvellement. Peu à peu, l’interopérabilité entre machines est délibérément compromise. L’évolution des normes et standards incite également au renouvellement. « La qualité est devenue une variable de la production ». La durabilité des produits électriques et électroniques n’a cessé de se réduire et l’interdépendance technique a accentué le phénomène. Peu à peu, l’artisanat de la réparation se réduit. Mais c’est vraiment à partir des années 1990 que la délocalisation achève la réparabilité : désormais, remplacer un produit est moins cher que le réparer. Si aujourd’hui, la réparabilité semble reprendre des lettres de noblesse, en permettant de récupérer du pouvoir sur le monde, elle semble surtout chercher à produire un peu de sens sur un monde qui nous semble irrémédiablement cassé.

Chaque adoption d’un objet technique modifie la vie quotidienne. La montre modifie le rapport au temps, la bicyclette à l’espace, les lampes à la vie nocturne, les lunettes à notre manière de voir le monde… Mais si les objets semblent vouloir imposer partout leurs techniques, les appropriations sont souvent culturellement différenciées dans l’espace et le temps. Toutes relèvent de « techniques créoles », comme disait l’historien David Edgerton, mélange d’appropriations locales et mondiales. « Adopter une technique ne revient pas à en assimiler les usages ou la culture », mais passent par des formes complexes d’acclimatations, d’adaptations, de transformations qui ne se résument pas au grand récit de la diffusion des modes de vie occidentaux, soutiennent les deux historiens.

Parce qu’elles nous modifient à leur contact, les machines convoquent les corps comme le social. Leur adoption progressive passe par des entremetteurs, à l’image des domestiques qui bien souvent manoeuvrent les premières machines avant qu’elles ne servent, dès la fin du XIXe siècle, à commander des livreurs ou des artisans quand le personnel de maison s’efface des intérieurs. Les appareils tracent des frontières sociales dans leurs utilisations. Longtemps, les nouveaux appareils discriminent, car ils sont souvent réservés aux professions supérieures… C’est surtout après les années 90, que les objets cessent d’être distinctifs, quand ils sont produits à une telle échelle qu’ils en deviennent accessibles à tous. Aujourd’hui, les plus riches possèdent autant d’appareils que les plus pauvres. La distinction reste esthétique, de qualité ou de prix. Quant aux refus des technologies, elle n’est pas tant une résistance à la nouveauté bien souvent qu’une forme de distinction là encore.

Les robots ménagers sont souvent présentés comme vecteurs d’émancipation qu’ils n’ont pas vraiment été. Les esclaves mécaniques se substituent surtout aux domestiques. Mais trier le linge, lancer une machine ou repasser demeure toujours le travail des femmes – et dans les foyers les plus aisés, celui des femmes de ménage. Le temps libéré par cette mécanisation du quotidien impose surtout de nouvelles astreintes : celles de devoir s’occuper des machines, qui attachent plus les femmes au foyer qu’elles ne les libèrent.

Les machines tiennent finalement de techniques du corps. Le premier objet technique demeure notre corps, disait Marcel Mauss. Nager ou dormir sont des techniques que les machines accompagnent, comme le font les éclairages ou les réveils. L’objet technique vise souvent à dresser les corps et les comportements. Le bracelet-montre qui se diffuse dès les années 1920 achève le travail d’intériorisation de la mesure du temps. Bien souvent, la machinerie technique est un moyen de coercition et de contrôle des corps « d’intériorisation des normes », à l’image du pèse-personne, longtemps public, qui se privatise et s’intimise dès les années 50… Les machines intègrent surtout nos injonctions sociales.

Quant à notre engorgement domestique d’objets, notre syllogomanie, elle est le pendant d’une production démesurée d’objets. Entre 2000 et 2017, le transport mondial est passé de 65 millions de containers à 175 millions ! Nous croulons sous les objets depuis le début du XXIe siècle : notamment du fait de la décohabitation et de transitions générationnelles qui semblent s’accélérer. Mais surtout du fait d’une mondialisation sans précédent qui semble avoir conduit à des réplétions partout ! Aux braderies des enseignes répondent celles de nos intérieurs. Les appareils se dupliquent plutôt qu’ils ne s’économisent… Nous démultiplions chez nous les écrans comme nos machines à café. Nous démultiplions l’adoption d’appareils sans abandonner les précédents. Nous croulons sous les appareils qui ne servent qu’une fois… « Les usages procèdent par accumulation plutôt que par transition », expliquent les historiens. « Les techniques apparentées deviennent complémentaires et différentielles » selon une loi de co-évolution, à l’image de la convergence des médias, où télé, radio, presse écrite… s’entrecroisent en contenus complémentaires. Tout comme nous l’ont dit déjà d’autres historiens comme François Jarrige ou Jean-Baptiste Fressoz en parlant d’énergie, nos usages s’accumulent plus qu’ils ne transitionnent… Même dans nos usages les plus quotidiens finalement, il n’y a pas de transition, mais une accumulation éperdue. Déjà, à la fin du XIXe siècle, les modes d’éclairages coexistent selon les heures, les pièces, les usages. Nous démultiplions nos pratiques médiatiques désormais via des de multiples appareils qui les concentrent en grande partie. Nous sommes englués dans un consumérisme, comme le dénonçait le sociologue Razmig Keucheyan dans Les besoins artificiels (la Découverte, 2019). Peut-être faut-il mieux comprendre pourquoi nous sommes incapables de nous en extraire ? Finalement, tous ces appareils nous renvoient à notre façon d’être nous-mêmes. Ils nous assurent des conforts inégalés : lumière, chaleur, eau, information… qu’ils rendent disponibles en permanence et individuellement. Plus que de nous rendre heureux, nos objets nous apportent un confort à notre démesure. C’est peut-être pour cela que nous les accumulons sans fin et que nous sommes incapables d’envisager réduire un jour ce confort ou nous en couper. Nous nous sommes fondus, identifiés à nos bardas d’objets essentiels et inutiles que la mondialisation et l’industrialisation ont rendus si facilement accessibles à tous. Perclus de confort, nous regardons encore devant nous pour nous demander… : pour combien de temps ?

Hubert Guillaud

30.09.2021 à 07:00

L’évaluation de la gouvernementalité algorithmique ne peut pas être uniquement technique !

Hubert Guillaud

img
Les organismes de réglementation ont visiblement compris qu’ils doivent réglementer la manière dont les autorités utilisent les algorithmes et les technologies d’IA. Mais ce que les régulateurs oublient trop souvent quand ils élaborent des politiques, c’est de tenir compte de la manière dont les décideurs humains interagissent avec les systèmes, (...)
Texte intégral (1720 mots)

Les organismes de réglementation ont visiblement compris qu’ils doivent réglementer la manière dont les autorités utilisent les algorithmes et les technologies d’IA. Mais ce que les régulateurs oublient trop souvent quand ils élaborent des politiques, c’est de tenir compte de la manière dont les décideurs humains interagissent avec les systèmes, explique Ben Green (@benzevgreen) dans une tribune pour The Hill (@thehill). Chercheurs, journalistes, militants… n’ont cessé ces dernières années de révéler combien les systèmes algorithmiques utilisés par les tribunaux, la police, les services d’éducation, de protection sociale et autres, sont bourrés d’erreurs et de biais. Aux États-Unis, deux projets de loi proposent d’imposer aux administrations d’évaluer les algorithmes avant de pouvoir les utiliser. Le projet de loi sur l’IA de la commission européenne va dans le même sens. Mais, souligne Green, si examiner les systèmes est certes nécessaire, ces dispositions oublient la manière dont les prédictions affectent les décisions politiques.

Les outils d’aide à la décision améliorent-ils la décision ?

Bien souvent, les algorithmes sont proposés comme des outils d’aide à la décision aux personnes qui les prennent. Reste que leurs décisions doivent équilibrer les prédictions que les systèmes fourbissent avec d’autres objectifs concurrents qui ne sont, eux, pas pris en compte par les machines. Green prend l’exemple des systèmes d’évaluation des risques qu’un prévenu ne se présente pas à son procès, très utilisé par les tribunaux américains. Pour ceux en charge de juger les prévenus, ces prévisions, pour autant qu’elles soient précises et justes – ce dont doutent nombre de défenseurs des droits et de chercheurs qui les ont étudiés -, doivent s’équilibrer d’autres intérêts, comme la présomption d’innocence. Pour Green, la question centrale qui est très souvent oubliée n’est pas seulement de savoir si les prédictions sont justes, mais aussi et surtout, de savoir si ces systèmes améliorent la décision humaine. Or, même si ces systèmes proposent des prédictions, ils n’améliorent pas nécessairement la décision. Quand on leur présente ces évaluations, bien souvent, les humains ont tendance à être plus attentifs au fait de réduire le risque justement, au détriment d’autres valeurs, changeant la manière même dont ils prennent leurs décisions, explique Green à la suite d’une étude expérimentale. Dans la pratique, ces systèmes imposent leurs choix, leur angle, leur vision… d’une certaine manière, leur idéologie. Reste que trop souvent, leur premier effet est d’altérer les processus de prise de décision. Même si dans l’étude de Green, les effets de ces outils semblent assez faibles, ils n’en sont pas moins là (et ce d’autant que l’altération de la décision est difficile à apprécier). Dans le domaine judiciaire américain, plusieurs études ont montré que les juges ont tendance à passer outre les recommandations de remises en liberté que proposent ces outils ! En fait, les juges semblent devenir plus sévères que les systèmes, parce que les systèmes leur mettent sous les yeux le risque plutôt que l’esprit des lois, comme la présomption d’innocence. En fait, les systèmes aggravent la partialité des juges en les rendant sur-attentifs aux risques !

Dans un autre article de recherche, Green souligne un autre problème, celui de la surveillance humaine des décisions algorithmiques que de plus en plus de réglementations imposent. Or, explique le chercheur, derrière ces décisions, bien souvent, les personnes sont incapables de remplir les fonctions de surveillance qui leur sont attribuées. Green estime par exemple que nous devrions calculer le taux de dérogation c’est-à-dire quand la décision n’est pas conforme à la suggestion de l’algorithme pour savoir si le processus décisionnel est automatisé ou pas.

Cette surveillance des systèmes trop souvent légitime le recours à des algorithmes défectueux, sans aborder réellement les problèmes qu’ils génèrent. Pour le chercheur, la surveillance des algorithmes donne un faux sentiment de sécurité. Pour Green, il est essentiel de s’interroger d’abord sur la nécessité du déploiement et surtout d’évaluer l’efficacité du contrôle humain des traitements, explique-t-il en rappelant la nécessité d’une meilleure évaluation, non seulement technique, mais plus encore humaine. Les politiques se doivent d’être plus rigoureuses, estime-t-il, et surtout, elles ne doivent pas seulement étudier les biais techniques des systèmes, mais aussi prendre en compte la relation homme-algorithmes et les biais qu’elle génère.

Or, rappelle le chercheur, les réglementations sur l’éthique des systèmes se concentrent uniquement sur la façon dont le calcul fonctionne. Les systèmes d’évaluation de la responsabilité algorithmique ou d’impacts évaluent une responsabilité « technique » plus qu’humaine, sans tenir compte des relations tissées avec les systèmes.

Aussi précis ou juste que le calcul soit – et il ne l’est pas souvent -, il modifie la façon de décider. En fait, ces outils génèrent des changements qui déséquilibrent l’évaluation qui est au cœur même de la prise de décision. Pour Green, la question de l’évaluation de l’IA devrait nécessiter des preuves empiriques sur ses effets, c’est-à-dire qu’elle devrait également démontrer que ces systèmes sont susceptibles d’améliorer la prise de décision. Pour cela nous devrions réaliser des évaluations expérimentales sur la collaboration homme-algorithmes, en testant comment les gens interagissent avec le système pour s’assurer qu’il produit les résultats escomptés.

Evaluer les outils de la décision, mais également la décision

L’évaluation est trop souvent encore le parent pauvre de la réglementation. Au mieux, elle reste technique. Mais bien souvent, elle reste aveugle aux impacts concrets de ces outils sur ceux qui les utilisent, suggère Green qui invite à non seulement évaluer les outils de la décision, mais également leurs impacts sur la décision.

Le constat de Green souligne combien, alors que les systèmes techniques s’imposent, l’évaluation de leurs effets concrets, elle, n’est pas à la hauteur. Derrière les biais des calculs, nous devons nous préoccuper d’autres formes d’évaluation – comme le propose les méthodes développées pour que la politique fasse la preuve de son efficacité (on parle d’evidence-based policymaking). Le gouvernement britannique a initié en ce sens un réseau d’évaluation des politiques publiques, le « What Works Network », dont l’une des branches, par exemple, a évalué les systèmes d’identification automatisés des enfants à risque par les services à l’enfance, en pointant leur inefficacité manifeste. Les États-Unis viennent de lancer une plateforme dédiée à l’évaluation des politiques publiques, rapportait récemment Federal News Network. Malgé les recommandations émises par le Conseil d’État en septembre 2020 pour améliorer l’évaluation des politiques publiques, si l’on en croit l’état du site dédié à l’évaluation en France, la priorité donnée à l’évaluation n’est pas encore là ! Si des efforts ont été initiés pour l’évaluation par les usagers des services publics – via des indicateurs de performance et de satisfaction, à l’image de ceux disponibles sur resultats-services-publics.fr ou voxusagers.gouv.fr -, la question – bien plus importante, il me semble – d’une meilleure évaluation des politiques publiques selon leurs effets semble encore avoir des marges de progrès.

Hubert Guillaud

Le portail de l'évaluation publique français

PS : Sur LPE, Frank Pasquale annonce la tenue prochaine aux Etats-Unis d’un symposium sur l’analyse coût/bénéfice. Les méthodes quantitatives promettent d’apporter la rigueur et l’objectivité à l’évaluation des politiques publiques, mais dans les faits, leurs applications accélèrent souvent les injustices et les discriminations. Dès janvier 2021, l’administration Biden a annoncé vouloir « moderniser les modalités d’évaluations réglementaires ». Les initiatives réglementaires importantes sont de plus en plus souvent sommées de produire une analyse comparative de leurs coûts et avantages. Si ces initiatives semblent rationnelles (les coûts d’une réglementation ne doivent pas dépasser ses avantages), ces outils ont souvent été utilisés pour limiter la réglementation plutôt que pour améliorer son efficacité. Enfin, souligne Pasquale, tout est-il quantifiable ? Quelle est la valeur monétaire d’une journée sans aucune pollution au Grand Canyon ou d’une ressource naturelle ? À nouveau, la quantification n’a rien de neutre et ne peut être le seul mode d’évaluation des politiques publiques.

12 / 25

 

  GÉNÉRALISTES
Basta
Blast
L'Autre Quotidien
Alternatives Eco.
La Croix
Euronews
Le Figaro
France 24
FTVI
HuffPost
L'Humanité
LCP
Le Media
Le Monde
Libération
Mediapart
La Tribune
 
  EUROPE
Courrier Europe Centle
Euractiv
Toute l'Europe
 
  INTERNATIONAL
Equaltimes
CADTM
Courrier International
Global Voices
Info Asie
Inkyfada
I.R.I.S
Jeune Afrique
Kurdistan au féminin
N-Y Times
Orient XXI
Of AFP
Rojava I.C
 
  OSINT / INVESTIGATION
OFF Investigation
OpenFacto°
Bellingcat
Disclose
G.I.J.N
 
  MÉDIAS D'OPINION
AOC
Au Poste
Cause Commune
CrimethInc.
Issues
Les Jours
Le Monde Moderne
LVSL
Marianne
Médias Libres
Quartier Général
Rapports de force
Reflets
Rézo
StreetPress
 
  OBSERVATOIRES
Armements
Acrimed
Catastrophes naturelles
Conspis
Culture
Extrême-droite
Human Rights
Inégalités
Information
Internet actu ✝
Justice fiscale
Liberté de création
Multinationales
Situationnisme
Sondages
Street-Médics
Routes de la Soie
Vrai ou Fake ?
🌞