Médias
GÉNÉRALISTES
Basta Blast Capital France 24 FTVI L'Humanité La Croix LCP Le Monde La Tribune Le Figaro Mediapart L'Autre Quotidien Le Media Slate Korii Vrai ou Fake ?
INTERNATIONAL
CADTM Courrier d'Europe Centrale Eurojournalist Equaltimes Info Asie Inkyfada Jeune Afrique Le Grand Continent Orient XXI Rojava I.C N-Y Times fr Toute l'Europe
MÉDIAS D'OPINION
L'Autre France-Presse Acta AOC Issues Les Jours Le Monde Moderne LVSL Médias Libres Marianne Quartier Général Rapports de force Reflets Rézo StreetPress
OBSERVATOIRES
Acrimed Internet actu Catastrophes naturelles Conspis Culture Extrême-droite Inégalités Information Médias Multinationales Présidentielle Routes de la Soie
+
Accès libre Publication de la Fondation Internet Nouvelle Génération, « le think tank qui porte la voix d’un numérique ouvert, humain, et durable »

▸ les 25 dernières parutions

10.11.2021 à 06:00

Des enjeux de nos données de santé (1/2) : le risque d’un changement radical de notre système de santé

Hubert Guillaud
Les enjeux des données de santé sont devenus très visibles avec la crise sanitaire, expliquent Audrey Boulard (@audrey_boulard), Eugène Favier-Baron (@BaronFavier) et Simon Woillet (@SimonWoillet) dans leur livre Le business de nos données médicales : enquête sur un scandale d’État (Fyp édition, 2021). Pour les trois coordinateurs des questions numériques du (...)

Texte intégral 5096 mots

Couverture du livre Le Business de nos données médicalesLes enjeux des données de santé sont devenus très visibles avec la crise sanitaire, expliquent Audrey Boulard (@audrey_boulard), Eugène Favier-Baron (@BaronFavier) et Simon Woillet (@SimonWoillet) dans leur livre Le business de nos données médicales : enquête sur un scandale d’État (Fyp édition, 2021). Pour les trois coordinateurs des questions numériques du média en ligne Le vent se lève (@lvslmedia), les mobilisations récentes autour du passe sanitaire sont aussi révélatrices d’une crise de confiance à l’égard des politiques numériques de santé. Alors que nos données de santé sont plus protégées que jamais depuis le Règlement général sur la protection des données (RGPD), elles ont été rendues plus disponibles que jamais, que ce soit via le passe sanitaire comme via les bases de données créées à l’occasion de la crise sanitaire. Cet exemple illustre certainement très bien les contradictions à l’œuvre autour des données de santé, et notamment l’appétence dont elles sont la cible : les protections dont elles font l’objet ne semblent pas tant en protéger l’accès que le fluidifier.

Les transformations en cours ne sont pas neutres politiquement : « la réforme numérique de nos institutions de santé n’est pas une affaire apartisane », comme elle nous est trop souvent présentée. C’est d’ailleurs là, l’intérêt de cet ouvrage : repolitiser ces enjeux. Certes, la question du devenir de nos données médicales n’est pas un sujet simple. Le livre de Boulard, Favier-Baron et Woillet est souvent exigeant, aride, voire même un peu brouillon, pour qui ne possède ni les codes du monde de la santé ni ceux des questions numériques. Bien souvent, derrière cette complexité, le citoyen peine à comprendre de quoi on parle. Pourtant, derrière les questions techniques relatives à la souveraineté numérique (de quelles juridictions dépendent l’analyse et la collecte de nos données ?), derrière les questions techniques d’une fluidification sans fin des données, l’enjeu est de comprendre comment ces transformations vont impacter et transformer notre modèle de santé.

Ne nous y trompons pas, expliquent les trois auteurs : la logique de fluidification de nos données ne vise pas le bénéfice du patient ni de la relation avec nos médecins… Elle masque des logiques de privatisation, de marchandisation et d’optimisation qui ne nous bénéficieront pas. Le risque, expliquent-ils, c’est que les modèles et les indicateurs que visent à produire nos données de santé finissent de mettre à mal le modèle clinique lui-même, c’est-à-dire remettent en cause le rapport humain qui est au fondement même du soin. Nos données de santé sont une aubaine pour trop d’acteurs. Et leur confidentialité, pourtant toujours critique (comme nous le rappelait Susan Landau), risque bien d’être la dernière chose qui sera protégée par ces transformations à venir.

Transformer notre système de santé par les données !

« La numérisation tous azimuts des données de santé (…) fait peser une série de menaces sur notre système social », que ce soit le remplacement des personnels par des machines (en fait, plus certainement, le découplage des métiers selon les actes, à l’image des ophtalmologistes qui ne réalisent plus tous les actes techniques de mesures dans certains centres de soins) et plus encore des diagnostics et des traitements par des calculs automatisés qui menacent la levée de la confidentialité sur notre santé. Mais surtout, elle implique un changement de paradigme, un changement de modèle où les chiffres sont partout reliés à une logique d’austérité comptable, où la mesure sert bien plus à minimiser la santé qu’à la développer.

Les enjeux des données de santé aujourd’hui se cristallisent beaucoup dans la question de la souveraineté. Sous prétexte que nos systèmes de soins ne sont pas au niveau technique espéré ou attendu, les autorités souhaitent confier le stockage et le traitement des données à des entreprises américaines, avec le risque bien sûr que nos données tombent sous leurs juridictions et contraintes. Ce n’est pas un petit risque comme s’en émouvait la CNIL ou le collectif InterHop (@interchu). Les autorités semblent tellement désireuses qu’on accélère l’analyse des données de santé, qu’elles semblent prêtes à céder la nécessaire construction des infrastructures de collecte à des acteurs tiers. Reste que l’enjeu à construire des infrastructures souveraines, libres et open sources, nationales, qu’on maîtriserait de bout en bout, que défend avec raison le collectif InterHop, pour nous préserver de l’ingérence américaine, ne suffit pas à préserver notre modèle de santé, si on n’oriente pas également la finalité des traitements. C’est justement là où le collectif InterHop dépasse ce seul enjeu de souveraineté en promouvant notamment la minimisation des données, leur collecte, gestion et analyse à un niveau local plus que global et en refusant l’exploitation des données des patients. L’enjeu de la maîtrise des outils de santé n’est pas qu’une question d’indépendance et de souveraineté, mais consiste à construire un modèle démocratique de nos données de santé qui nous assure de la conservation du modèle social qui est le nôtre, plutôt que d’importer un modèle social calqué sur le modèle libéral anglo-saxon.

Page d'accueil et principes du collectif InterHop

Or, pour les trois auteurs, la technologie telle qu’elle est convoquée pour innerver notre système de soin risque de produire un modèle de santé très libéral. La technologie, là encore, est au service d’un modèle économique, politique et idéologique qui n’est pas celui du modèle de solidarité que nous avons bâti avec la sécurité sociale, mais un modèle bien plus assurantiel et comptable qui vise à produire des indicateurs pour piloter la santé, plutôt que des soins solidaires. La numérisation des données de santé vise d’abord à servir « de levier de contrôle sur la dépense publique de santé ». Pour le collectif InterHop, l’algorithmisation de la santé fait courir le risque de sa personnalisation au détriment du modèle de collectivisation des risques.

« La promotion des technologies et systèmes d’information pour la structuration des données de santé entretient un flou entre efficacité de la gestion du système de santé et progrès thérapeutique ». En fait, sous couvert d’une analyse sans précédent de nos données de santé que leur fluidification permettrait, c’est-à-dire une avancée sans précédent des connaissances sur les maladies – une affirmation souvent répétée, mais qui n’est pourtant jamais vraiment démontrée ! -, on nous vend une transformation majeure de la relation entre instances de régulation et prestataires de soins. Or, rappellent les auteurs, la première utilisation des données de santé répond à des enjeux comptables, à des enjeux de performance du système de soin. La promesse des finalités thérapeutiques de l’analyse des données qui permettraient de concevoir de nouveaux médicaments ou dispositifs de soins, ou du développement d’une santé personnalisée ou prédictive, semble surtout relever du mythe (voir par exemple « En médecine, l’IA est en plein essor, mais pas sa crédibilité »). Elle repose sur cette antienne si caractéristique du numérique d’une capture, d’un colonialisme sans fin sur les données, qui promet que la vérité sera au bout d’un chemin sans fin de rafle de données, d’agrégation, de traitements, de calculs…

Le croisement des données par l’IA que l’interconnexion des données promet, masquent surtout une « tentative de régulation libérale du système de santé », ouverte à nombres « d’apomédiaires », des intermédiaires commerciaux comme les entreprises d’assurances ou les laboratoires pharmaceutiques et plus encore comme nombre de fournisseurs de solutions logicielles ou d’analyses de données tels qu’IQVIA, Palantir, Google Health (que ce soit via Verily ou via le Baseline Project), Microsoft Azure Cloud, 1492 ou le Health Navigator d’Amazon… qui s’immiscent dans le système de santé sans que leur statut ne soit clair.

Les données de santé visent d’abord à produire des nomenclatures et indicateurs pour améliorer la gestion, des indicateurs statistiques, des logiques comptables au service de contraintes budgétaires. Les données de santé produisent d’abord la réduction des lits et des personnels, expliquent les auteurs. Elles produisent d’abord une surveillance comptable du soin. Elles visent l’efficience économique avant tout au risque de renforcer les inégalités de l’accès au soin déjà lourdes, que soulignaient les travaux du géographe de la santé Emmanuel Vigneron. Mais surtout, alors que nos données elles sont à la table et au menu, les indicateurs produits, eux, ne sont pas ouverts et accessibles… pas plus que les recherches que des entreprises privées vont pouvoir faire depuis nos données et s’approprier leurs résultats, sans qu’on n’exige aucune contrepartie.

Tweet de Guillaume Rozier

Image : dans un récent tweet, Guillaume Rozier, data scientist chez OctoTechnology et fondateur notamment de Covid Tracker qui a été l’un des tableaux de bord modèle de suivi de la pandémie en temps réel en France – tableaux de bords qui ont été des accélérateurs de l’ouverture des données, de leur amélioration en continu et qui ont stimulé la recherche de meilleures modalités de visualisation, comme le pointait Bloomberg -, défendait l’ouverture des données pour améliorer les indicateurs hospitaliers. Reste à savoir si les autorités de santé ne disposent pas déjà de ce type d’indicateurs… et le rôle d’une « ingéniérisation de la question », comme le commentait @maisouvaleweb. Comme le soulignent Pierre-André Juven (@pa_juven), Frédéric Pierru et Fanny Vincent (@F_Vincent_) dans leur livre La casse du siècle, à propos des réformes de l’hôpital public (Raison d’agir, 2019), ce n’est pas comme si les indicateurs de rentabilité à l’hôpital n’existaient pas déjà depuis quelques années…

Le business de nos données médicales développe longuement (et parfois un peu fastidieusement) les collisions entre ces nouveaux acteurs, les services d’assurances ou les groupes pharmaceutiques, pour montrer l’actif lobbying en cours de ces innombrables sociétés spécialisées dans la gestion de données médicales afin d’intégrer et piloter les transformations de l’infrastructure de nos données de santé. Autant d’acteurs qui semblent aujourd’hui orienter les politiques publiques à leurs profits. Comme le soulignent les auteurs, ces apomédiaires, tout comme les compagnies d’assurances et les laboratoires pharmaceutiques, sont bien souvent aussi les premiers acheteurs de nos données de santé, quelles que soient les méthodes avec lesquelles elles ont été acquises. Tous cherchent à accéder aux données, à déréguler leur accès. Et dans ces perspectives, le rôle de l’État est trouble. Lui aussi cherche à réduire le coût de la santé, à transformer l’hôpital en sa version la plus mercantile, à améliorer l’efficience économique du système de soin par le profilage, la prédiction, le suivi temps réel…

Le projet de Health Data Hub (HDH), une plateforme pour centraliser toutes les données de santé de la population française afin de les rendre accessibles à des formes inédites de calculs par nombre d’acteurs de la santé, mais plus encore au secteur privé, comme l’expliquait très clairement la Quadrature du Net (@laquadrature), est aujourd’hui au cœur des polémiques. La principale polémique tient du risque que cette plateforme de collecte et d’analyse de données de santé, opérée par Microsoft, fait peser sur la divulgation de nos données aux autorités américaines, comme l’explique le site d’information médical, What’s Up Doc (@whatsuupdoc_mag). Mais cette polémique masque d’autres enjeux. Les traitements que les projets de recherche en IA que la plateforme accueille visent essentiellement à produire des quantifications des risques associés à certaines pathologies pour un meilleur contrôle des coûts, mais également des analyses de données pour mieux évaluer leur rentabilité. Le Health Data Hub lancé en décembre 2019 est une structure de collecte de données de santé pour la recherche, comme le montrent les projets que le Hub accueille. Pour cela, elle agrège une multitude de bases de données auxquelles elle donne des accès : notamment la base de données du Sniiram (Système national d’information inter-régimes de l’assurance maladie) qui collecte les feuilles de soin de la Caisse nationale d’assurance maladie, le PMSI (programme de médicalisation des systèmes d’information, qui contient les dossiers de chaque patient hospitalisé en France), la Base de causes médicales de décès, mais aussi Vaccin Covid, Covidom (la base qui suit les personnes déclarées positives au Covid), Contact Covid (la base pour la recherche de contact autour des cas positifs au Covid)… Ainsi que nombre de bases de données hospitalières. L’enjeu du HDH vise à construire une forme « d’hôpital comme plateforme », où la centralisation des données de santé devient une matière première pour les algorithmes des medtechs.

Le Health Data Hub a, par exemple, lancé trois projets de recherche sur la pandémie : Frog Covid (qui s’intéresse aux parcours des patients admis en réanimation), CoviSAS (pour prévenir les risques des populations vulnérables) et CoData (qui se concentre sur la non-prise en charge des personnes atteintes d’un cancer du sein durant l’épidémie), qui ne semblent pas à ce jour avoir livré de résultats, souligne la journaliste Coralie Lemke dans son livre Ma santé, mes données (Premier Parallèle, 2021). Pour Woillet, Favier-Baron et Boulard, comme ils l’expliquaient sur LVSL, le Health Data Hub vise à permettre à des entreprises privées d’accéder à des données pour construire des produits privés, qui ne bénéficieront pas nécessairement aux structures publiques.

Page d'accueil du Health Data Hub

La plateformisation de la santé par les données, produit à la fois un risque de perte de souveraineté sur nos données de santé, mais bien plus un modèle de santé publique hors-sol, commercial et libéral. Derrière ces projets, le risque est bien celui d’une centralisation sans précédent de nos données de santé, sous prétexte de recherche.

Au-delà des enjeux de souveraineté

La souveraineté dans le monde des plateformes est juridique, infrastructurelle, économique et géostratégique, rappellent les auteurs du business de nos données médicales. Avec les plateformes, la technologie façonne le droit. « Le code est la loi et l’architecture informatique est politique », disait avec pertinence le juriste Lawrence Lessig. Les choix opérés en matière d’organisation des infrastructures informationnelles sont politiques. Confier la gestion du Health Data Hub à Microsoft Azure n’est pas un simple choix de prestataire technique. Il oriente la plateforme bien au-delà de faire tomber nos actifs de santé sous la coupe de législations extraterritoriales, notamment en les enfermant dans des solutions logicielles spécifiques et non ou peu réversibles, comme s’en inquiétait le député LREM Philippe Latombe dans son rapport. Il souligne un désengagement de l’État dans l’investissement lourd, infrastructurel, de long terme, dans la production de systèmes d’information maîtrisés de bout en bout, mais surtout produit des risques de centralisation des données au détriment des droits des individus et génère des risques de sécurité forts du fait des centralisations que ces plateformes génèrent. Le scandale du Health Data Hub, qui a choisi Microsoft sans même appel d’offres ni cahier des charges souligne combien ce choix manque de garanties. Le risque d’extraterritorialité des données a fait réagir jusqu’au Conseil d’État qui préconise un changement de fournisseur. Plus que le risque d’une captivité numérique, au final, pointent les auteurs, le risque est bien celui d’une « économie de santé intégrée par le numérique » qui risque de créer des oligopoles cliniques et assurantiels, qui visent à favoriser, « au bout du tunnel de la numérisation », non seulement la privatisation, mais bien l’accélération des inégalités de santé en documentant la rentabilité de chacune de nos capacités médicales par les données.

Couverture de l'ebook de Tariq KrimEn fait, la question de la souveraineté est importante – comme le répète et le défend l’entrepreneur Tariq Krim (@tariqkrim) dans nombre d’interviews tout comme dans sa « Lettre à ceux qui veulent faire tourner la France sur l’ordinateur de quelqu’un d’autre » -, mais ce n’est peut-être pas la seule question à poser. La menace n’est pas seulement celle que des plateformes étrangères s’accaparent nos données, mais que le principe même de plateforme vienne transformer notre système de santé. À nouveau, la préférence que l’on pourrait donner à des acteurs nationaux pour opérer ce type de plateforme ne signifie pas un changement de logique. Au contraire ! L’ubérisation de la santé par le numérique que propose « l’hôpital comme plateforme » est d’abord dans la logique de la mise à disposition d’une agrégation sans fin de données, quels que soient les acteurs qui l’opèrent. Comme le pointe Coralie Lemke dans son livre, « rien ne garantit cependant que des acteurs nationaux agiront de manière plus éthique ». Le risque est bien de reproduire les pratiques des acteurs internationaux afin d’accélérer « les flux de données pour soutenir l’innovation ».

Comment résister à la plateformisation de la santé ?

Dans un excellent chapitre sur l’État plateforme, les auteurs du Business de nos données médicales soulignent très bien ce que les plateformes produisent. Ils y rappellent, combien le concept d’État plateforme a surtout été mobilisé dans un objectif comptable et dans une perspective de réduction des coûts visant à dégraisser l’administration (voir notamment « Mais comment passer des startups à l’État plateforme ? »). La plateformisation vise à produire une boîte à outils pour gouverner par l’efficacité, en pilotant l’offre par la mesure de la demande, c’est-à-dire à estimer les coûts médicaux de manière toujours plus dynamique. Le risque, comme le pointait le Conseil national de l’ordre des médecins, est bien celui d’une ubérisation de la médecine (.pdf). Pour Tim O’Reilly lui-même, initiateur du concept d’État plateforme (voir nos articles « Du gouvernement comme plateforme… ou l’inverse »), l’État plateforme vise à privilégier l’efficacité du résultat. « Cette vision prétendument post-idéologique ou post-politique présente le risque d’une dérive autoritaire puisqu’il s’agit d’autoriser pour un seul et même type d’objectif régalien – sanitaire par exemple -, toutes les techniques gouvernementales possibles pourvu qu’elles l’atteignent « efficacement ». » Le risque est bien de réduire la politique à une technique de résolution de problèmes logiques, à une « névrose solutionniste » à la recherche de sa seule efficacité. L’État n’a plus que vocation à départager les fournisseurs de service selon des critères d’efficacité, de rentabilité, d’optimisation des coûts, et non plus selon des critères de fourniture d’un service public ou d’une mission sociale de l’État ! « Le gouvernement devrait-il fournir des soins de santé ou laisser cette tâche au secteur privé ? La réponse se trouve dans les résultats ». Le problème c’est que l’État risque toujours d’être désavantagé dans cette balance, puisque les critères de succès qu’on y applique sont ceux du secteur privé. « Cette instrumentalisation de la puissance publique au service d’intérêts privés s’incarne en France encore une fois avec le cas d’école du Health Data Hub dont la stratégie affichée de « valorisation des données publiques » aboutit paradoxalement à son ouverture au privé, à une extension de l’empire du marché sur un bien public. » Derrière l’ouverture des données publiques promue comme un enjeu démocratique se cache l’enjeu de leur privatisation et de leur marchandisation. Le gain scientifique ou démocratique de l’ouverture des données semble trop souvent un prétexte bien commode à leur valorisation marchande. Au final, l’ouverture des données couvre surtout une transmission numérique (Boulard, Favier-Baron et Woillet parlent plutôt de « transition numérique », mais pour ma part, cette transformation me semble plus tenir d’une délégation de pouvoir que d’un passage d’un état pré-numérique à un autre). Derrière l’ouverture des données de la santé, l’enjeu est d’abord que le secteur privé prenne le relais des investissements publics. À plus long terme, la technologie a pour mission d’ajuster en temps réel les remboursements et les tarifications de santé, c’est-à-dire de piloter la santé par les données.

Des données de santé plus protégées… et plus exploitées

Ne nous y trompons pas cependant. Le RGPD a considérablement renforcé la protection des données de santé. Et c’est ce qui est difficile à comprendre pour l’utilisateur. Ses données sont plus protégées et en même temps sont prêtes à être plus exploitées que jamais. Le RGPD notamment a considérablement délimité la revente des données de santé et a renforcé l’obligation d’obtenir le consentement des personnes – un consentement « clair positif, libre et spécifique » et qui doit définir précisément le cadre ou l’objet auquel il s’applique. Pourtant, dans le même temps, le RGPD a prévu des exceptions pour certaines finalités, notamment pour la gestion des systèmes et services de santé ou de protection sociale, pour la préservation de la santé publique et l’appréciation médicale… ainsi que pour la recherche. Au final, si on lit bien ces exceptions, le RGPD a renforcé l’utilisation des données de santé pour la santé en les excluant de tout autre type d’usages. Sûr le fond, cela semble très positif : nous souhaitons tous que nos données de santé puissent servir le progrès médical et soient réservées à des acteurs de la santé, notamment afin qu’ils soient soumis au secret médical qui l’encadre. Ce n’est pourtant pas la limite qui se dessine, puisque ces accès s’ouvrent non seulement aux praticiens, mais plus encore à nombre d’apomédiaires de la santé. Avec le HDH notamment, nous sommes confrontés à un changement de paradigme qui fait de l’accès aux données de santé la norme plutôt que l’exception, comme le pointait très justement La Quadrature du net.

Le problème est que ces accès ne sont pas toujours vertueux. Le meilleur exemple est certainement le scandale IQVIA révélé par Cash Investigation en mai 2021. IQVIA est l’un des principaux fournisseurs de logiciel de gestion des pharmacies. Depuis 2018, il a été autorisé par la Cnil à constituer une base de données des clients de ces pharmacies pour proposer aux officines des outils de pilotage de leurs activités ainsi que pour agréger ces données pour les revendre à des laboratoires ou produire des études. Le problème, c’est que les clients de ces pharmacies devraient être informés de cette collecte et pouvoir la refuser le cas échéant… Ce qui n’a pas été le cas jusqu’alors. Plus problématique d’ailleurs, le pharmacien – qui est ici l’interlocuteur de l’usager – est juge et partie dans cette information. Il doit informer ses clients et recueillir leur consentement ou leur refus, mais sans grande neutralité, puisqu’il tire lui-même profit de leur consentement. Enfin, rapportait Zdnet, la Cnil a rappelé à IQVIA la nécessité de pseudonymiser les données clients, ce que visiblement l’entreprise ne faisait pas. Reste que le principal problème, c’est qu’IQVIA sous couvert de recherche exploite des données qui servent surtout à fournir un produit aux officines : difficile donc de défendre l’exception de recherche !

Cet exemple montre bien la complexité du problème. Aucune entreprise n’accepterait pourtant que ses données comptables puissent être exploitées par le fournisseur du logiciel sur lequel elle les saisit. Pas plus que nous n’accepterions que les documents que nous collectons sur Google Drive soient la propriété de Google ou qu’il puisse les lire et y réaliser des traitements – autres que la publicité automatisée. Doctolib par exemple n’a pas le droit d’exploiter les données qu’il recueille pour le compte des établissements de santé (même si l’entreprise n’a pas été exempte de critiques ces dernières années). Sous exception de recherche, d’études, d’ouverture… on assiste à des formes de fluidification de l’exploitation de nos données de santé. Le problème, c’est qu’il est possible que cela ne s’arrête pas là !

Hubert Guillaud

Dossier, les enjeux de nos données de santé :


28.10.2021 à 07:00

Applications contre les violences sexuelles ? Pourquoi ça marche pas !

Hubert Guillaud
Dans un article de 2018 pour la revue de recherche Information, Communication & Society (@ICSjournal), Rena Bivens (@renabivens) et Amy Hasinoff (@amyadele, auteure de Sexting Panic, University Press of Illinois, 2015, non traduit), livrent une très intéressante analyse des caractéristiques des applications contre le viol. Les deux chercheuses ont enquêté (...)

Texte intégral 2494 mots

Dans un article de 2018 pour la revue de recherche Information, Communication & Society (@ICSjournal), Rena Bivens (@renabivens) et Amy Hasinoff (@amyadele, auteure de Sexting Panic, University Press of Illinois, 2015, non traduit), livrent une très intéressante analyse des caractéristiques des applications contre le viol.

Les deux chercheuses ont enquêté sur 215 applications pour téléphones mobiles (en langue anglaise) conçues pour prévenir les violences sexuelles. L’enjeu pour elles : comprendre à travers l’examen des fonctionnalités, comment les développeurs comprennent l’intervention dans les problèmes de violence sexuelle ? À qui se destinent ces applications ? Quelles stratégies de prévention sont intégrées dans ces outils ? Quelles idéologies sur la nature, la cause ou la prévention du problème sont intégrées à ces fonctionnalités ?

Dans leur article, les deux chercheuses rappellent que les applications contre le viol s’inscrivent dans une longue histoire de solutions technologiques contre les violences sexuelles. Or, celles-ci relèvent bien plus d’un problème social qui nécessite des efforts systémiques et à long terme, plutôt que des solutions ponctuelles.

Malgré leurs bonnes intentions, ces « solutions » technologiques ont plutôt tendance à exacerber les problèmes qu’elles cherchent à résoudre, expliquent les deux spécialistes. Dans l’ensemble, l’essentiel de ces applications reproduit surtout des mythes que les spécialistes des violences sexuelles réfutent depuis des décennies, notamment le fait que les auteurs de violences sont généralement et très massivement des proches des victimes, très rarement des inconnus. Or, la grande majorité des applications sont conçues pour intervenir lors d’un incident où un étranger attaque soudainement quelqu’un et pour s’éteindre quand l’utilisatrice entre dans un espace sûr, comme son domicile ou son lieu de travail (alors que les dangers sont plutôt là !). Autre problème, ces applications de prévention ciblent surtout les victimes potentielles plutôt que les agresseurs (seul 0,02 % des applications étaient destinées aux agresseurs). Pour les deux chercheuses, ces applications sont surtout conçues pour accroître la vigilance des victimes potentielles, encourageant l’acceptation de mesures de surveillance très intrusives pour elles, et produisent un discours sur les tactiques d’évitement assez culpabilisant pour les victimes potentielles. Les applications reposent sur l’idée que les violences sexuelles peuvent finalement être évitées pour autant que les victimes potentielles soient vigilantes et responsables. Ce qui est loin d’être la réalité.

Des fonctionnalités qui n’adressent pas les problèmes

Nombre d’initiatives, comme l’initiative américaine Apps Against Abuse (une compétition lancée en 2011 par la Maison-Blanche pour imaginer des solutions techniques à l’encontre des violences et abus sexuels) ou l’application Circle of 6 (qui emporta d’ailleurs le challenge), rendent les victimes potentielles comme responsables de la prévention de la violence et se limitent souvent à des conseils standards qui présupposent que les femmes peinent à résister aux agressions (parce qu’elles s’habillent mal, boivent, vont dans des lieux dangereux…). Les deux chercheuses estiment qu’il faut regarder les applications comme des plateformes culturelles et normatives, dont il faut analyser, derrière les choix de conception, les idéologies. Derrière les « bonnes intentions » des solutions, il nous faut comprendre pourquoi aucune de ces applications n’a réduit les violences qu’elles promettaient d’adresser !

Pour analyser les applications, les deux chercheuses ont listé leurs fonctions, leurs actions (comme de pouvoir suivre ses déplacements, enregistrer des éléments, alerter une autre personne…) et leur stratégie de prévention (à savoir si elles proposent des formes d’intervention ou plutôt des éléments d’information…). La majorité des applications visent à alerter d’autres personnes qu’un incident est en train de se produire. Beaucoup délivrent également un matériel d’information et de sensibilisation au risque. Elles sont souvent produites par des institutions éducatives, des ONG voire des services de police. 87 % se destinent aux victimes potentielles, 12 % à ceux qui assistent à des violences et seulement 1 % aux auteurs de violence. 74 % sont principalement conçues pour intervenir en cas d’incident et 26 % proposent d’abord des fonctions d’éducation et de sensibilisation. Pour celles qui proposent des fonctions d’alertes, plus de la moitié visent à alerter une liste de contacts prédéfinis ou à partager des informations sur l’incident avec ces personnes (comme la localisation de l’incident). Une autre caractéristique très commune de ces applications est le bouton d’assistance téléphonique qui permet de joindre soit un centre d’aide aux victimes d’agression, soit la police, soit les services d’urgences.

Très souvent, leurs fonctionnalités proposent, en cas de risque, de renforcer la surveillance de la victime potentielle pour détecter les signes d’incidents que ce soit en activant le GPS, l’enregistrement audio, la capture d’images ou le détecteur de mouvements… qui sont alors partagés instantanément ou stockés. D’autres fonctions visent à créer des formes d’évitement, c’est-à-dire par exemple, des modes furtifs, comme de faux écrans d’accueil, des alertes silencieuses, des systèmes de messagerie qui se masquent dans des jeux… Les applications centrées sur l’éducation et la sensibilisation proposent surtout des informations statiques et statistiques sur la violence, les signes d’alerte, les contacts sur les organisations de soutiens ou des exercices pour réduire son stress… D’autres proposent des moyens pour éviter les personnes et lieux dangereux ou pour les signaler et les géoréférencer…

Les applications destinées à ceux qui sont témoins de violence sont surtout axées sur l’éducation et la sensibilisation, la surveillance de milieux spécifiques et la collecte de preuves. Plus rares sont celles qui invitent à l’intervention des témoins, notamment en apportant des conseils pour entraver les actions d’un agresseur potentiel.

Très peu d’applications sont conçues pour les auteurs de crimes (6 sur 205). Le moins qu’on puisse dire, c’est qu’elles semblent particulièrement étranges. L’une d’elles, Consenting Adults, vise à fournir un accord explicite avant de s’engager dans des activités sexuelles, comme pour mieux protéger les agresseurs potentiels.

Des solutions qui semblent n’avoir jamais vu la moindre victime

Au terme de cette étude, les deux chercheuses expliquent que l’essentiel de ces applications renforce deux mythes : celui que la violence sexuelle est principalement perpétrée par des inconnus et que les victimes potentielles sont responsables de la prévention de cette violence. Autant dire qu’elles risquent surtout de contribuer au problème plus que de l’atténuer !

Les fonctionnalités sociales de ces applications ne voient les relations sociales que comme de possibles intervenants d’urgence plus que comme des moyens de relever les niveaux de vigilance ou d’engagement citoyens… Les principales fonctions de ces applications, à savoir le fait de pouvoir contacter d’autres personnes pour obtenir de l’aide ou pour surveiller l’agression ou la victime, ont peu de chance d’être efficaces contre les attaques perpétrées par des auteurs connus des victimes. Aucune de ces solutions ne s’attaque aux formes de coercition, de manipulation émotionnelle, d’abus, de relations de pouvoir dont sont réellement victimes les victimes. Quant à la surveillance géolocalisée, elle n’offre pas beaucoup d’appui quand on sait que l’essentiel des crimes a lieu dans les espaces familiers.

Surtout, expliquent les chercheuses, ces solutions créent une culture de la peur qui n’est pas adressée au bon endroit. Beaucoup de conseils qu’elles délivrent incitent finalement à intérioriser un contrôle social, comme de réduire sa mobilité, faire attention à son comportement… Au final, elles blâment surtout les victimes reprenant les messages dominants, à savoir que c’est aux victimes d’être responsables… Les concepteurs d’application considèrent majoritairement que les actions individuelles des victimes potentielles sont les meilleures voire la seule réponse au problème, renforçant l’idée qu’elles sont les seules à pouvoir se défendre ! Quand les applications font participer les témoins, elles se focalisent majoritairement sur les situations d’urgence. Finalement, en n’invitant pas à intervenir dans nombre d’autres situations problématiques, elles limitent l’intervention, mettent l’accent sur des moments isolés, particuliers, sur une forme d’héroïsme, sans voir combien le problème tient surtout d’une violence normalisée, minimisée et qui se déroule dans nos interactions les plus quotidiennes. Au final, dans ces applications, si les incidents ne sont pas extrêmes, ils ne sont pas considérés comme des problèmes ! Pour les deux chercheuses, les dispositifs d’intervention n’adressent pas le problème social fondamental des inégalités des rapports de genre. Pire, pourrait-on ajouter, les caractéristiques des outils soulignent combien ceux en charge de leur conception semblent finalement n’avoir jamais croisé la moindre victime d’abus, et n’ont jamais associé celles-ci aux solutions qu’ils proposent.

Dans la dernière partie de leur article, les deux chercheuses relèvent le défi de faire des propositions. Sur la question de la prévention, les deux chercheuses rappellent que beaucoup de programmes de formation à destination des victimes consistent à apprendre des compétences d’autodéfense verbale et physique pour mieux résister aux agresseurs connus. Si ces programmes ont également des limites (on sait qu’il est difficile pour les victimes de s’opposer à des personnes qui abusent d’elles et qui ont souvent des formes d’emprise ou de pouvoir sur elles), cette piste est totalement absente des applications existantes. « Les applications qui traitent les violences sexuelles comme une catastrophe imminente ne contribuent pas à éliminer le problème social des violences sexuelles ».

Les programmes de prévention de la violence à l’encontre des prédateurs, eux, sont souvent multimodaux. Ils impliquent parents, pairs, éducateurs et surtout des figures d’autorité modèles. Ceux qui ont des résultats positifs permettent de critiquer et démonter les stéréotypes de genre ou d’acquérir des compétences pour gérer les relations et conflits tout en augmentant l’empathie à l’égard des victimes. Reste que le public des prédateurs est certainement difficile à adresser en dehors des programmes de rééducation spécifiques… Quant aux témoins, des applications de sensibilisation et de formation à l’intervention seraient peut-être là aussi plus efficaces pour améliorer la sensibilité à la large gamme des violences existantes et à mieux intervenir, dans le réel, comme sur les réseaux sociaux, lorsqu’ils sont témoins non pas seulement de violences, mais plus largement de comportements déplacés. Elles soulignent également qu’il est possible de documenter et construire des stratégies responsables à l’égard des comportements abusifs au travail ou dans des communautés spécifiques, là encore via des programmes de formation spécifiques que des applications pourraient encadrer. La force de ces propositions consiste justement à ne pas seulement répondre aux violences les plus graves, mais de tenter de changer les normes et attitudes sociales qui autorisent et permettent nombre de formes de violences à l’égard des femmes.

Comprendre les idéologies de la conception

Dans un article bien plus récent, pour le Journal of Digital Social Research (@jdsr_journal), les deux chercheuses proposent une méthode pour analyser le rôle de l’idéologie dans la conception d’applications. « Les solutions proposées par les développeurs (pour résoudre un problème) reflètent surtout la façon dont ils pensent que les utilisateurs et autres parties prenantes comprennent le problème ». Pour elles, en analysant le fonctionnement des outils que les designers proposent (comme elles l’ont fait plus tôt en observant le scope des applications de lutte contre le viol), ont peu révéler la façon typique dont les développeurs et innovateurs pensent résoudre un problème. Pour cela, il faut observer le contenu, les interfaces, les fonctionnalités, les affordances des outils… Elles proposent donc une méthode pour « analyser les caractéristiques » de solutions techniques dédiées à un problème spécifique. Un moyen de comprendre les normes, les hypothèses et les idéologies culturelles qu’elles recouvrent.

La méthode est très proche de celle exposée dans leur étude sur les applications de viol. Elle consiste à identifier les outils, puis à identifier et classer les fonctionnalités que ces outils mettent à disposition, puis à catégoriser comment les fonctionnalités adressent le problème en s’intéressant aux actions qu’elles proposent. Enfin, elles proposent d’utiliser la conception spéculative pour imaginer des alternatives. Elles invitent également à étudier les développeurs, à être attentifs aux publics auxquels ces outils s’adressent. Peut-être oublient-elles un peu rapidement l’importance à rappeler les apports de la littérature scientifique sur les questions étudiées, notamment parce qu’elle aide plus que jamais à comprendre combien les outils répondent bien souvent à côté de ce que la science sait.

Cette étude vient compléter des observations que d’autres avaient déjà faites et que nous avions déjà évoquées. À savoir que « les applications pour l’accessibilité des personnes handicapées ne suffisent pas à rendre la ville plus accessible », que celles pour les réfugiés ne répondent pas à leur besoin… À nouveau, pour lutter contre le solutionnisme et l’idéologisme du solutionnisme, nous continuons à avoir besoin des utilisateurs… Le mantra du « Pas pour nous sans nous », consistant à remettre l’usager dans la boucle de la conception, a encore – hélas – bien du mal à s’imposer !

Hubert Guillaud


14.10.2021 à 07:00

Pourquoi la science ne peut-elle pas régler nos différends politiques ?

Hubert Guillaud
« La science est un puissant outil politique ». Pourtant, si nous avons appris quelque chose de ces deux années de pandémie, c’est certainement combien elle n’est pas neutre. Combien elle n’est pas à même de régler les désaccords publics… explique le spécialiste de la gestion de risque à la New Mexico (...)

Texte intégral 4472 mots

Couverture du livre The Divide« La science est un puissant outil politique ». Pourtant, si nous avons appris quelque chose de ces deux années de pandémie, c’est certainement combien elle n’est pas neutre. Combien elle n’est pas à même de régler les désaccords publics… explique le spécialiste de la gestion de risque à la New Mexico Tech Taylor Dotson (@dots_t) dans un lumineux extrait de son livre The Divide : how fanatical certitude is destroying democracy (Le clivage : comment la certitude fanatique détruit la démocratie, MIT Press, 2021, non traduit).

La science est souvent présentée comme pure, exempte de valeurs. De prime abord, la méthode scientifique semble à l’opposé la méthode politique. « La première présente les faits pour se demander quelle conclusion en tirer, quand la seconde présente ses conclusions pour chercher les faits capables de la soutenir ». Dans le rapport entre les deux, le problème à résoudre semble relativement simple : il y a souvent trop de politique et pas assez de science ! Mais c’est encore croire que la science serait quelque chose d’intrinsèquement pur, uniquement corrompue par des forces qui lui sont extérieures. Pour le spécialiste des rapports science-société, Daniel Sarewitz, la science a toujours été façonnée par la société. Archimède, ce scientifique modèle, a surtout fabriqué des machines de guerre, tout comme aujourd’hui la science est largement orientée par les entreprises. Reconnaître ces influences ne signifie pas que tout financement corrompt, mais que de puissants groupes d’intérêts économiques et politiques orientent effectivement la recherche. La science est orientée d’intérêts. La recherche est traditionnellement masculine et bien plus à destination des populations aisées, blanches et âgées qu’autre chose. On dépense bien plus pour les dysfonctionnements érectiles que pour les maladies tropicales. « Les valeurs façonnent la science à presque tous les stades, qu’il s’agisse de décider des phénomènes à étudier ou de choisir comment les étudier et en parler ».

« Qualifier un produit chimique de « perturbateur endocrinien » plutôt que d' »agent hormonal actif » met en évidence son potentiel de nuisance. Les scientifiques font chaque jour des choix chargés de valeurs en ce qui concerne leur terminologie, leurs questions de recherche, leurs hypothèses et leurs méthodes expérimentales, qui peuvent souvent avoir des conséquences politiques. Partout où les spécialistes des sciences sociales ont regardé de près, ils ont trouvé des éléments de politique dans la conduite de la science. Tant et si bien qu’il n’est pas simple de discerner précisément et exactement où finit la science et où commence la politique.

Certaines recherches deviennent problématiques quand d’autres ne sont toujours pas remises en question (comme les partis-pris en faveur de de l’industrie de l’armement que dénonçait brillamment le journaliste Romaric Godin de Mediapart en soulignant combien ce secteur particulièrement aidé ne produisait que très peu d’effets d’entraînement industriel ou de ruissellement d’innovation…). Le fait de considérer la science comme pure jusqu’à ce qu’elle soit politisée de l’extérieur empêche donc un débat plus large sur la question suivante : « Quels types d’influences politiques sur la science sont appropriés et quand ? »

« Améliorer la capacité des femmes et des minorités à devenir des scientifiques ou orienter la science vers des objectifs plus pacifiques ou plus satisfaisants pour la vie est politique dans un sens différent de celui qui consiste à occulter intentionnellement les effets nocifs du tabagisme », explique Taylor Dotson. Reste que pour faire ces distinctions, il serait nécessaire d’arrêter de croire au mythe d’une science apolitique – et en la croyance que la politique pourrait être basée sur LA science. Là encore, l’un des problèmes c’est certainement de croire qu’il n’y en a qu’une ! La pandémie nous a pourtant pleinement montré que la vérité de l’épidémiologie n’était pas là même selon les spécialités médicales d’où on la regardait. Pour beaucoup, il suffirait pourtant de placer des experts à la tête des décisions politiques pour éclaircir les influences que la science subit et mieux révéler une vérité qui serait, elle, impartiale. Mais, explique Taylor Dotson, « la scientisation de la politique repose sur la même hypothèse que les attaques contre la politisation explicite de la science ». Bien souvent, elle vise à dépolitiser les questions publiques qui posent problème.

Pourtant, rappelle-t-il, nous croulons sous les études scientifiques mal menées, mal conçues, aux résultats peu reproductibles ou peu fiables… Une politique guidée par la preuve scientifique ne nous garantit pas vraiment qu’elle soit guidée par la réalité. En fait, on peut largement douter que la science puisse fournir une base solide et indiscutable à l’élaboration des politiques. Reste, souligne Dotson, même si les valeurs et la politique jouent un rôle dans la recherche, la science doit rester un moyen dominant de régler les questions publiques. « Il ne fait aucun doute qu’il est préférable d’avoir recours à certaines recherches scientifiques pour décider d’une question complexe plutôt que de ne pas en avoir du tout. De plus, même si les résultats scientifiques sont parfois biaisés ou même complètement faux, les institutions scientifiques valorisent au moins le fait d’essayer d’améliorer la qualité des connaissances. »

La science s’établit progressivement, par l’accumulation de preuves et de démonstrations qui vont dans le même sens. Mais l’expertise doit toujours pouvoir être balancée et contre-balancée. Et dans ce domaine, rappelle très justement Dotson, la scientisation des controverses publiques empêche souvent de reconnaître que les personnes qui ne sont pas scientifiques ont d’importantes contributions à apporter. À Flint, dans le Michigan, les scientifiques n’ont pas porté beaucoup d’attention aux plaintes des habitants qui signalaient d’importants problèmes de santé jusqu’à ce que les études soulignent qu’ils avaient raison.

Dans la science, les controverses sont nombreuses. Bien souvent, elles sont politiques. Les écologistes sont plus critiques à l’égard des cultures génétiquement modifiées que ceux qui travaillent dans le secteur de la transformation des organismes. Aucun groupe d’experts ne peut donner une analyse complète et juste d’un problème, soutient Dotson. Dans Uncertain Hazards (Cornell University Press, 2001, non traduit), Silvia Noble Tesh explique qu’il est souvent très difficile, voire impossible, de prouver qu’une substance a des effets néfastes sur le corps humain. Les tests sont réalisés sur des animaux pour des raisons éthiques et leurs réactions sont très différentes de celles des humains. La thalidomide par exemple, qui même en quantités infimes produit des malformations congénitales chez l’homme, n’affecte les chiens qu’à fortes doses. De même, il est difficile d’obtenir une mesure précise d’une quantité de toxine à laquelle des gens peuvent être exposés et trop de facteurs favorisent des confusions (tabagisme, autres substances toxiques…) d’autant que les populations exposées tiennent de petits groupes… L’examen approfondi de cas litigieux révèle souvent des perspectives contradictoires plus que des convergences d’opinions. Daniel Sarewitz estime que dans de nombreux cas la science aggrave les controverses plus qu’elle ne les résout, notamment parce que la politique attend des certitudes, quand la science produit surtout de nouvelles questions. La science avance souvent en produisant de nouvelles incertitudes et de nouvelles complexités. On pourrait ajouter aussi qu’elle produit souvent des tendances, plus que nécessairement des certitudes.

En fait, l’un des problèmes de la science est d’introduire ses propres biais. Dans Seeds, Science and Struggle (MIT Press, 2012, non traduit), « la sociologue des sciences Abby Kinchy (@abbykinchy) a constaté que le fait de privilégier les évaluations fondées sur des faits tend à écarter les préoccupations non scientifiques. La controverse sur les cultures génétiquement modifiées est souvent réduite à la seule probabilité d’un dommage évident pour l’environnement ou le corps humain. Pour de nombreux opposants, cependant, les conséquences les plus inquiétantes des cultures OGM sont d’ordre économique, culturel et éthique », et notamment sur les cultures non transgéniques. Pour que le débat reste ancré dans la science, il exclut très souvent ce qui n’en relève pas. Ainsi dans notre réponse scientifique à la pandémie, les considérations médicales se sont faites au détriment de toutes autres considérations, notamment celles liées aux libertés publiques. De même, les débats sur le génie génétique oublient les préoccupations socio-économiques qui vont à l’encontre d’une vision industrielle de l’agriculture. De même, dans le débat sur les voitures sans conducteur, on oublie d’observer si l’avenir de nos déplacements ne bénéficierait pas bien mieux d’un monde de transports en commun…

« La politique scientifique privilégie les dimensions de la vie qui sont facilement quantifiables et rend moins visibles celles qui ne le sont pas ». Les débats scientifiques sont également biaisés quant à la charge de la preuve. Les lobbies d’entreprises exigent que les réglementations les affectant soient prouvées par une science solide, mais cela signifie qu’aucune réglementation stricte ne peut être élaborée tant qu’un préjudice n’est pas démontré de manière concluante – et ce sans compter que les camps n’ont pas toujours le même rapport de force pour élaborer ces preuves. Enfin, les scientifiques peinent souvent à fournir des réponses fermes, notamment face à des phénomènes complexes, comme c’est le cas en médecine ou dans les sciences de l’environnement. Les appels à une science solide finissent par être une tactique dilatoire qui donne un avantage aux produits industriels, et ce malgré leurs risques… Ainsi, « les scientifiques ont appris dans les années 1930 que le bisphénol A, un composant de nombreux plastiques, imitait les œstrogènes dans les cellules des mammifères, mais ce n’est qu’en 1988 que l’Agence américaine de protection de l’environnement a commencé à réglementer l’utilisation du bisphénol A et ce n’est qu’en 2016 que les fabricants ont finalement été contraints de le retirer de leurs produits. » Dans ce cas, pendant des années, les partisans du bisphénol ont fait passer leurs adversaires plus prudents pour des antiscientifiques au prétexte que les faits (c’est-à-dire l’absence de preuve concluante) n’étaient pas établis. Trop souvent finalement « l’absence de preuve est considérée comme une preuve de l’absence ».

Pourtant, chacun semble de plus en plus agir comme si la science pouvait être apolitique, alors qu’actions et discours qui résultent de cette croyance relèvent bien plus du fanatisme que du scientisme. « Dans une culture dominée par le scientisme politique, les citoyens et les responsables politiques oublient comment écouter, débattre et explorer les possibilités de compromis ou de concession les uns avec les autres. Au lieu de cela, nous en venons à croire que nos opposants n’ont qu’à être informés des faits ou vérités « corrects », sévèrement sanctionnés ou simplement ignorés. Il existe sans doute des cas où le fanatisme peut être justifié, mais le scientisme politique risque de transformer tout débat comportant un élément factuel en un débat fanatique. »

Les risques d’une politique factuelle

Dans un long article pour disponible sur The New Atlantis, Taylor Dotson rappelle que pour le philosophe Karl Popper déjà, dans La société ouverte et ses ennemis, la menace à laquelle sont confrontés nos sociétés démocratiques et ouvertes, n’est pas la désinformation ou l’ignorance, mais la certitude. Pour Popper, la connaissance scientifique est par nature provisoire. L’objectivité scientifique ne découle pas tant des qualités cognitives ou de la neutralité des chercheurs, mais de leur engagement critique vis-à-vis de leurs travaux respectifs, dans une forme de dissidence productive. Les ennemis de ce système sont ceux qui insistent d’abord et avant tout sur une certitude parfaite. « La conviction que la désinformation est aujourd’hui la principale menace pour la démocratie nous rend aveugles aux effets pernicieux de la certitude ». Popper promouvait une défense épistémologique de la démocratie, c’est-à-dire l’idée que la démocratie comprend en elle même un ensemble de stratégies pour aider les sociétés à faire face à l’incertitude. Elle met l’accent sur le caractère provisoire des vérités politiques. La politique est le résultat d’un processus de négociation dans lequel les individus se défient les uns les autres, et pas la décision liée à une compréhension supérieure d’une classe d’experts. Popper n’avait pas imaginé que la certitude fanatique descendrait jusqu’aux individus.

Le danger d'une politique par les faits sur The New Atlantis

Internet permet de choisir son propre chemin de découverte. L’expérience que l’individu y fait lui semble libre, même si les messages, informations et recherches peuvent être sélectionnés par des algorithmes ou présentés de manière partiale. Les médias sociaux promettent une forme de liberté intellectuelle, suggérant que nous pouvons nous débrouiller seuls dans le dédale de l’information. Le scientisme est une théorie simple de l’expertise qui consiste à déléguer les questions spécifiques et techniques aux experts. Le problème, c’est que le scientisme refuse aux non-experts tout rôle dans les réponses spécifiques. Les non-experts se doivent d’écouter la science, comme si les compromis politiques qu’elle produisait n’étaient pas de leur ressort ni problématiques. Depuis que l’expression post-vérité est entrée dans notre vocabulaire, les inquiétudes liées au conspirationnisme ont explosé. Reste que la désinformation et la mésinformation ne s’y réduisent pas. D’abord parce que les conspirations existent et surtout parce que nous sommes en droit d’interroger et critiquer. Bien sûr, le conspirationnisme réduit toutes les questions politiques à des machinations, dans une forme de théorie cynique de l’expertise, où les experts ne servent que les nantis et les puissants.

Conspirationnisme comme scientisme sont tous deux préoccupés par la certitude, estime Taylor Dotson, qui les renvoie dos à dos. Les deux séduisent nos sociétés ouvertes et incertaines en promettant un monde plus simplement ordonné. D’un côté en rejetant les expertises, de l’autre en les adoubant. Pour Dotson, nous devons résister à la tentation de les mettre sur le compte de la personnalité des gens, de leur état mental ou même des médias sociaux. Car les deux tirent leur pouvoir de séduction de la préoccupation de notre culture pour les faits et les données. L’un comme l’autre produit une « politique factuelle », où les citoyens ne débattent plus, ne délibèrent plus, mais consacrent leur énergie à aligner les preuves pour étayer leurs croyances et intérêts. Ils construisent des formes d’intolérance excessives qui sont pour l’un comme l’autre camp, indiscutablement rationnelles et objectives. « Cette politique est pathologiquement pathologisante – c’est-à-dire qu’elle vise à disqualifier les opposants en les diagnostiquant comme pathologiques » Le risque est de transformer tout désaccord en maladie psychique et à en immuniser celui qui fournit le diagnostic. Pire, cela suggère que la seule raison de participer à la politique est d’avoir des opinions fondées sur des preuves. Certes, les preuves et les faits ont une grande importance, mais les valeurs en ont tout autant. Le risque, en masquant nos oppositions sur les valeurs, est de miner nos capacités à délibérer, et finalement à dépolitiser nos désaccords, à leur enlever leur complexité morale et pratique. « Dès lors que nous considérons que la politique est définie uniquement par « les faits », la politique n’existe plus », rappelle Dotson. « La démocratie fonctionne traditionnellement par le biais de la fracturation et de la reformation constantes de coalitions, d’alliances composées de groupes disparates cherchant chacun à transformer leurs propres aspirations en lois. Elle dépend des ennemis précédents qui s’associent et négocient pour conclure des accords, pour atteindre des objectifs communs ». Mais si l’opposition politique n’est considérée que comme le produit de la désinformation ou de l’analphabétisme scientifique, tout compromis devient impossible, irrationnel, puisqu’il consiste à sacrifier la vérité. « Nous nous sommes profondément trompés en croyant que l’ère de la post-vérité pouvait être combattue en redoublant d’efforts en faveur de la science », estime Dotson. Au contraire, le scientisme rend plus difficile l’enjeu à réconcilier des positions antagonistes et qui deviennent méfiantes l’une envers l’autre. La politique factuelle attise le conspirationnisme. « En se retranchant à tout bout de champ derrière le principe « suivre la science », nos dirigeants ont réduit les gens à des vecteurs de propagation de la maladie, à des points de données à contrôler, tout en affichant une attitude indifférente à l’égard de leurs réalités vécues ». Ce « leadership » rend assurément les personnes sceptiques, explique Dotson en se référant à une étude qui s’intéresse à l’impact du leadership sur les croyances conspirationnistes de leurs employés. Les leaderships despotiques – « où les employés se sentent dominés, contrôlés et marginalisés » – nourrissent les craintes. Là où les leaders sont despotiques, les employés sont plus susceptibles de croire que leurs managers sont ligués contre eux. En minimisant le caractère faillible des avis d’experts et la nature provisoire des connaissances, en minimisant le doute, le scientisme alimente le conspirationnisme. Lorsque les erreurs et changements d’avis des experts ne sont pas ouvertement discutés, l’intention malveillante devient souvent la seule explication. La politique factuelle oublie de tenir compte de l’essence même de la politique : à savoir des visions morales différentes, l’évaluation et la recherche de compromis constants. Le scientisme comme le complotisme promettent un monde où la politique serait pure. Tous deux produisent une société fermée aux désaccords politiques.

Pour Dotson, la politique devrait se préoccuper bien plus de connexion que de savoir. Pour l’historienne Sofia Rosenfeld, « ce dont les individus ont besoin, c’est du retour à un type de vie publique qui les oblige à peser et à considérer constamment les choses du point de vue des autres » – or, à tout voir par les données, le risque est de n’embrasser aucun point de vue, comme nous le disaient Lauren Klein et Catherine D’Ignazio. Pour le politiste Benjamin Barber, le discours démocratique fort incorpore « l’écoute aussi bien que la parole, le sentiment aussi bien que la pensée, et l’action aussi bien que la réflexion » Le désaccord est inéluctable. La politique est un processus d’apprentissage qui doit accepter ses incertitudes. « Les experts de la santé n’auraient pas dû décourager aussi vigoureusement le port de masques au début de la pandémie, surtout pas en affirmant avec une confiance aussi mal placée qu’il n’y avait aucune preuve que les masques fonctionnaient. Au lieu de cela, ils auraient dû faire part de leurs préoccupations concernant la pénurie de masques et de leur incertitude quant à l’utilité exacte des masques en dehors d’un hôpital ». Pour Dotson, le déploiement du vaccin restera entravé tant que les experts et les responsables nieront leurs incertitudes les concernant. Les accidents nucléaires du milieu du XXe siècle sont en partie imputables aux faits que les centrales aient été déployées plus rapidement que la reconnaissance de leurs dangers potentiels. Boeing a poussé ses ingénieurs à travailler deux fois plus vite qu’à l’accoutumée pour mettre au point la conception du 737 Max compromettant sa stabilité. L’adoption généralisée de techniques agricoles intensives a généré des problèmes environnementaux imprévus. « La nouveauté, le rythme et l’échelle se combinent pour mettre à l’épreuve la capacité des organisations, même les meilleures, à reconnaître et à corriger les erreurs. »

Dans Dealing with an Angry Public (Free Press, 1996, non traduit), Lawrence Susskind et Patrick Field soulignaient que les colères des publics sont alimentées lorsqu’elles sont minimisées ou sous-estimées. Lorsque les erreurs se produisent – et elles se produisent -, la confiance est bien souvent irrévocablement perdue. « Tant que les experts et les politiques tenteront de forcer le consensus en faisant appel à la science, les préoccupations des citoyens ne feront que croître ». Et Dotson de rappeler, à la suite du livre de l’historienne Nadja Durbach Bodily Matters (2004) que le mouvement de résistance nourri contre la vaccination antivariolique en Angleterre au XIXe et début du XXe siècle a été apaisé en introduisant l’objection de conscience. Pour Dotson, nous devrions apprendre des désaccords et leur laisser de l’espace. Être d’accord est plus la fin de la politique plus que son début, et même ainsi, être d’accord est souvent partiel, provisoire et contingent. Pour lui, en abandonnant l’idée que le consensus doit précéder la politique, nous pouvons promouvoir une gouvernance plus réactive, qui aspire à gagner la confiance progressivement en testant de nouvelles politiques.

Partir de l’expérience des gens pour les amener à considérer les points de vue différents et à créer des liens, fonctionne mieux qu’une approche basée sur les faits ou l’information. Enfin, il souligne qu’il est plus que nécessaire de s’intéresser sérieusement aux expériences de ceux qui hésitent à se faire vacciner. Les Afro-Américains par exemple, sont plus sceptiques à l’égard des vaccins alors qu’ils ont été plus touchés par le virus. Mais leur hésitation est le fruit d’une longue méfiance à l’égard du système médical, lié aux injustices raciales historiques et aux disparités de traitement actuelles, bien plus qu’à leur analphabétisme scientifique ! Le scepticisme vaccinal des personnels de santé s’explique bien plus par le fait qu’ils aient travaillé pendant des mois sans protection efficace et que le système, finalement, ne fait pas de leur bien-être une priorité. « Si notre politique avait été ancrée dans l’appréciation de l’expérience plutôt que dans l’idolâtrie de l’expertise, nous aurions depuis longtemps reconnu que l’hésitation à se faire vacciner n’est pas seulement une question d’ignorance. Nous aurions remarqué les dysfonctionnements plus profonds de notre système médical. »

Enfin, estime Dotson, nous devons ouvrir nos débats à une diversité de considérations morales plutôt que de ne regarder que les modèles épidémiologiques.

Dotson ne semble pas confiant. Remettre l’incertitude, l’expérience et le désaccord moral en politique nécessite un long chemin. Nos dirigeants préfèrent maintenir le cap d’une politique factuelle. Pour résoudre ces difficultés, Helene Landmore propose de transférer davantage de gouvernance à des conseils délibératifs… comme l’a été, en France, la convention citoyenne pour le climat. Encore faut-il entendre ce que ces conventions disent ! Pour Dotson, nous devons trouver la voie d’une démocratie qui cherche moins à avoir raison et qui recherche un peu plus la délibération et l’interconnexion.

Pas sûr que nous en prenions le chemin. Dans un monde où la donnée devient centrale, celle-ci risque de produire beaucoup d’illusion du consensus que d’antagonismes et de diversité.

Hubert Guillaud