Le blog de Olivier Ertzscheid
Maître de conférences en sciences de l'information, O. Ertzscheid suit les évolutions du web en temps réel
Publié le 22.05.2025 à 11:47
Algorithmes et société. Pint Of Science 2025.
Publié le 20.05.2025 à 11:08
Publié le 11.05.2025 à 14:10
Publié le 04.05.2025 à 17:00
Les effets de Tiktok sur les mineurs. Retour sur mon audition à l’assemblée nationale.
Publié le 02.05.2025 à 15:35
Cher grand administrateur de Parcoursup, cher Mister T.
Publié le 21.04.2025 à 19:03
Publié le 22.05.2025 à 11:47
Algorithmes et société. Pint Of Science 2025.
J’étais hier, Mercredi 21 Mai, à Nantes dans le cadre de l’événement « Pint Of Science » pour une soirée thématiques sur le thème « Algorithmes et société ».
Voici un retour sur mon intervention. Un très grand merci aux organisateurs et organisatrices (notamment Rémi) pour cette invitation et l’organisation de ce temps d’échange citoyen tout à fait réjouissant et fécond. Et un grand merci aussi à mes deux collègues d’intervention, Leia Savary et Odile Bellenguez pour les échanges et la préparation de cette soirée.
Voici donc ce que j’ai raconté de mon côté.
Je vais vous faire écouter un algorithme.
Je vais vous faire écouter un algorithme.
Ce titre de Sébastien Tellier sort en 2004. Il est intitulé « La ritournelle ». 2004 c’est aussi la naissance de Facebook et de ce que l’on va nommer les « réseaux sociaux » puis les « médias sociaux » de masse. C’est aussi à partir de ce moment là que bien plus que pendant les précédentes années, le web, espace public ouvert et traversable, va se « refermer » autour de plateformes propriétaires (le fondateur du web, Tim Berners-Lee, parle de « jardins fermés ») et que les « applications » vont devenir nos compagnons quotidiens avec la massification des smartphones (circa 2007).
Dès lors, à partir de ces années et dans la décennie qui s’ouvre en 2010, « les algorithmes » vont devenir autant de ritournelles qui nous accompagnent, nous cadrent, nous autorisent et nous empêchent au quotidien. Pourquoi ce titre de Sébastien Tellier et pourquoi comparer les algorithmes à des ritournelles ? Parce que le titre « la ritournelle » fait écho à ce qui me semble la meilleure définition de la nature profonde d’un algorithme et surtout de la nature profonde des effets d’un algorithme. Et cette définition je la tire de l’ouvrage de Deleuze et Guattari, « Mille Plateaux », paru en 1980 et qui avait pour sous-titre « Capitalisme et Schizophrénie » (ce qui est aussi intéressant pour penser le rôle actuel des algorithmes dont beaucoup enferment et « rendent fou » parce qu’ils ne sont au service que du Capital).
Donc dans Mille Plateaux, Deleuze et Guattari parlent de l’importance de ce qu’ils appellent la ritournelle et qu’ils décrivent en trois points :
- D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
Les algorithmes sont cela.
- Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
Les algorithmes se déploient dans ces espaces à la fois massivement publics en nombre d’utilisateurs mais qui sont aussi, en faux-semblant, « privés ». Cela avait été posé dès 2007 par danah boyd qui soulignait que la première particularité et le premier problème de ces plateformes était qu’elles étaient semi-publiques et semi-privées et que toute dimension de « privacy », c’est à dire de vie privée, était donc structurellement ambigüe et presqu’impossible.
Deleuze et Guattari disent aussi que la ritournelle (donc les algorithmes) « enchantent nos affects » et sont « l’état de nature de nos artifices sociaux ». « L’état de nature de nos artifices sociaux. » C’est, je trouve, vraiment une magnifique définition de ce qui se joue, de ce que nous jouons autour de notre fréquentation algorithmique. La visibilité, la réciprocité, le souci de paraître, les fonctions comme le like et les autres icônes « émotionnelles » sont, parmi d’autres, les notes de la partition de cette ritournelle.
- Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »
Là encore, c’est dans le mille. Des « chants traversants » : les algorithmes, notamment ceux que l’on dit de recommandation, fonctionnent comme des chants traversants : la plupart du temps ils s’alignent sur nos préférences mais ils sont aussi structurellement faits pour nous emmener vers des ailleurs afin de maintenir un niveau d’attention qui ne s’effondre pas dans une trop forte routine.
Ces ritournelles nous accompagnent et elles « cadrent » notre réel. Notre réel amoureux, notre réel géographique, notre réel politique. Elles le cadrent et elles le rythment.
Je vais maintenant vous parler du rythme des algorithmes.
Dans un vieux texte j’avais imaginé un trouble que j’avais appelé la « dysalgorithmie », un « trouble de résistance algorithmique où le sujet fait preuve d’un comportement ou d’opinions non-calculables« , c’est à dire la capacité à ne pas suivre les recommandations algorithmiques, à n’être, par exemple, pas sensible à la cadence des notifications. C’est à dire à être dans un autre rythme de la même manière que les différents troubles « dys » sont différemment sensibles au monde, à l’orthographe, au calcul.
Ma thèse c’est que chaque algorithme dispose de son propre rythme. Le rythme de l’algorithme de Tiktok n’est pas le même que celui de l’algorithme de X ou d’Instagram. Si l’algorithme de Tiktok nous parait si efficace, ce n’est pas parce qu’il serait plus intelligent ou machiavélique que d’autres, c’est parce que son rythme (séquences très courtes) impose que nous nous en occupions en permanence, à un rythme constant, et chaque interaction, chaque pulsation, est une nouvelle information pour cet algorithme. Or en moyenne toutes les 6 à 10 secondes nous interagissons avec l’algorithme de TikTok.
Et mon autre thèse qui est un corrélat de la première, c’est que ces algorithmes jouent aussi sur la question de nos propres rythmes ils cadencent comme autant de contremaîtres nos vitesses de déplacement – Waze – mais aussi nos vitesses de connexion, d’information , de socialisation, nos fréquences de rencontre amoureuses, etc.
Le problème c’est qu’à la fin c’est trop souvent le rythme de l’algorithme qui gagne. Qui l’emporte non seulement sur notre propre biorythme, mais sur le rythme de nos sociétés, de nos environnements sociaux, amicaux, informationnels, affectifs mais aussi sur d’autres aspects parfois plus triviaux. Je prends quelques exemples.
L’algorithme de Facebook, derrière la promesse de nous exposer à davantage de diversité, nous a en réalité enfermé dans nos certitudes, dans nos propres croyances, dans ce qu’Eli Pariser a appelé des « bulles de filtre ». Ce n’est d’ailleurs pas « que » la faute de Facebook. Il y a une nature anthropologique à ces bulles de filtre : plus on nous sommes seuls à être exposé à des diversités de culture, de religion, de sociétés, et plus nous cherchons à nous rapprocher de ce qui nous est semblable ; plus nous cherchons à nous rapprocher de notre propre rythme. En ce sens la promesse inititale de Facebook a été tenue : la plateforme nous a en effet exposé à énormément de diversité, mais de manière tellement outrancière que nous avons fini par n’y chercher que de l’identique, du même, du ressemblant. Et dès lors que nous l’avons trouvé, nous nous y sommes enfermé avec l’aide des logiques publicitaires et virales totalement perverses qui alimentent la plateforme.
L’algorithme d’AirBnB a fini par reconfigurer totalement l’espace social de nos centre-villes. En affirmant rendre plus abordable le séjour, il a en réalité totalement raréfié l’offre de logements abordables dans certains périmètres urbains.
L’autre exemple c’est celui de Waze. L’histoire est désormais un peu plus célèbre car elle figure à la fin du dernier livre de Guiliano Da Empoli, « L’ère des prédateurs », mais elle est ancienne. C’est celle d’un maire, Christophe Mathon, d’un petit village, Saint-Montan, une cité médiévale de 180 habitants nichée dans les confins de l’Ardèche. Et à chaque vacance scolaire ou long week-end un flot de véhicules (plus de 1000 par jour), le tout pour gagner quelques minutes ou secondes sur un itinéraire. Autre exemple, Matthieu Lestoquoy, maire de Camphin-en-Carembaut, commune de 1800 habitants, plus de 14 000 passages de véhicule par jour. Avec les dangers et les nuisance sonores que cela représente. Là encore au prétexte de fluidifer le trafic routier et de nous faire gagner du temps, Waze densifie le trafic routier dans des endroits non-prévus pour cela (et c’est donc beaucoup plus dangereux) et ne nous fait pas réellement gagner de temps et surtout il en fait perdre à l’ensemble des habitants de Saint-Montan ou de Camphin-en-Carembaut, dont il se contrefiche.
Au final, ces algorithmes nous promettent des choses (voir plus de diversité, avoir des logements plus accessibles, gagner du temps) mais en réalité, soit ils font l’inverse, soit ils créent tellement d’externalités négatives que la pertinence de leur fonction première peut et doit être rediscutée.
« Management, travail, données, infrastructures de production, modèle économique, stigmatisation des minorités et des plus pauvres … Il faut non seulement constater mais accepter que le monde social que les technologies numériques et algorithmiques bâtissent depuis presqu’un quart de siècle est un monde dans lequel se révèlent et s’organisent les puissances les plus radicales et aliénantes de l’histoire économique, sociale et politique des peuples. Cela n’empêche pas que les appropriations singulières de ces technologies numériques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont très rarement. Presque jamais en réalité. Et chaque fois qu’elles l’ont été, l’émancipation s’est toujours retournée en répression.«
Pour le dire plus simplement : ces algorithmes facilitent énormément de choses à l’échelle individuelle (échelle où le rapport bénéfice / risque reste positif) mais ce rapport s’inverse très souvent à l’échelle collective. Or le seul bon niveau d’analyse de ces algorithmes, ce n’est pas tant l’effet qu’ils produisent sur nous, mais c’est celui des effets qu’ils produisent dans la société : les nouveaux cadres, les nouvelles normes qu’ils installent et légitiment.
On peut dans le même genre penser au travaux de Zeinep Tufekci, sociologie, hacktiviste, militante, qui a documenté, notamment dans le cadre des printemps arabes, « comment internet a facilité l’organisation les révolutions sociales mais en a compromis la victoire. » Et quand elle dit « internet » elle désigne en fait les grands médias sociaux et leurs algorithmes.
Alors devant tout cela, on pourrait se dire que l’une des solutions, simple en apparence, c’est d’ouvrir le code de ces algorithmes, et de regarder attentivement comment est faite la partition de ces ritournelles, et nous pourrons nous en affranchir, que nous pourrons les améliorer et les ramener dans le sens de l’intérêt commun.
Malheureusement, aujourd’hui, ouvrir le code des algorithmes ne suffit plus (même si c’est plus que jamais nécessaire)
Publié le 20.05.2025 à 11:08
Publication pour archivage de l’article paru sur AOC.media le 20 Février 2025 et titré « Blacklisté – sur le rapport fasciste de Trump au langage. »
Encore des mots, toujours des mots, rien que des mots. C’est une guerre sur la langue, sur le vocabulaire, sur les mots, sur la nomination et la dénomination possible. Sur ce qu’il est ou non possible de nommer. Une guerre avec ses frappes. Une guerre particulière car lorsque ce sont des mots qui sautent, c’est toute l’humanité qui est victime collatérale directe et immédiate.
Au lendemain de son accession au pouvoir et dans la longue liste des décrets de turpitude de cet homme décrépit, Trump donc annonçait vouloir changer le nom d’un golfe, d’une montagne et d’une base militaire.
Le golfe c’est celui du Mexique que Trump a voulu (et obtenu) renommer en golfe d’Amérique. L’enjeu c’est d’ôter symboliquement cette dénomination à la population mexicaine qu’il assimile totalement à un danger migratoire. Il y est parvenu.
La montagne c’est le Mont Denali, situé en Alaska. Anciennement Mont McKinley, il avait été changé en 2015 par Barack Obama selon le souhait des populations autochtones. L’enjeu est donc ici une nouvelle fois re réaffirmer la primauté de l’Amérique blanche. Il n’y est pas parvenu, le sénat de l’Alaska a voté contre.
La base militaire c’est celle de Fort Liberty, anciennement Fort Bragg, le nom d’un ancien général confédéré symbole du passé esclavagiste des USA, et que l’administration Biden avait modifié tout comme celui de neuf autres bases pour les mêmes raisons. Trump l’a renommé Fort Bragg. Et son ministre de la défense annonce que les autres bases militaires « dénommées » seront, de la même manière et pour les mêmes motifs, « renommées ». Et le passé esclavagiste des USA ainsi « honoré ».
Un monde exonyme. C’est à dire un monde dans lequel « un groupe de personnes dénomme un autre groupe de personnes, un lieu, une langue par un nom distinct du nom régulier employé par l’autre groupe pour se désigner lui-même » (Wikipédia)
Je leur dirai les mots noirs.
Une liste. De mots interdits. De mots à retirer. De mots qui, si vous les utilisez, dans un article scientifique ou dans des sites web en lien quelconque avec une quelconque administration US vous vaudront, à votre article, à votre site et donc aussi à vous-même, d’être « flaggés », d’être « signalés » et vos subventions fédérales ensuite « retirées ».
Comme cela a été révélé par le Washington Post, un arbre de décision, un logigramme a aussi été envoyé aux responsables des programmes scientifiques à la NSF (National Science Foundation) leur indiquant à quel moment prendre la décision de « couper » le déclenchement d’un financement si l’un des mots de la liste interdite apparaissait dans le descriptif général du projet, dans son titre, dans son résumé, etc. Une purge fasciste.
Des mots qui dans la tête de Trump ont vocation à disparaitre dans le présent inconditionnel qu’il instaure comme un temps politique majeur. La liste est longue. Elle mérite d’être affichée. Archivée. Mémorisée. Engrammée. Car Trump n’aime pas les archives. Il efface aussi des données. Ces mots-là :
- activism, activists, advocacy, advocate, advocates, barrier, barriers, biased, biased toward, biases, biases towards, bipoc, black and latinx, community diversity, community equity, cultural differences, cultural heritage, culturally responsive, disabilities, disability, discriminated, discrimination, discriminatory, diverse backgrounds, diverse communities, diverse community, diverse group, diverse groups, diversified, diversify, diversifying, diversity and inclusion, diversity equity, enhance the diversity, enhancing diversity, equal opportunity, equality, equitable, equity, ethnicity, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, hispanic minority, historically, implicit bias, implicit biases, inclusion, inclusive, inclusiveness, inclusivity, increase diversity, increase the diversity, indigenous community, inequalities, inequality, inequitable, inequities, institutional, Igbt, marginalize, marginalized, minorities, minority, multicultural, polarization, political, prejudice, privileges, promoting diversity, race and ethnicity, racial, racial diversity, racial inequality, racial justice, racially, racism, sense of belonging, sexual preferences, social justice, sociocultural, socioeconomic, status, stereotypes, systemic, trauma, under appreciated, under represented, under served, underrepresentation, underrepresented, underserved, undervalued, victim, women, women and underrepresented.
Diversité, équité et inclusion. La « DEI » contre laquelle Trump entre en guerre. Guerre qu’il remporte avec l’appui de son administration mais aussi et surtout de tout un large pan de l’industrie médiatique et numérique. La science aux ordres du pouvoir.
« Erase Baby, Erase ! »
Il faut effacer. « Erase Baby, Erase. » Comme Anne-Cécile Mailfert le rappelait dans sa chronique sur France Inter :
Son administration ne se contente pas de sabrer dans les budgets de la recherche ou de nier les faits scientifiques. Elle tente de supprimer les données qui la dérangent. Les indices de vulnérabilité sociale du Centre pour le contrôle et la prévention des maladies ? Supprimés. Les pages du ministère des Transports sur l’égalité, le genre et le climat ? Évaporées. Les études sur la santé publique qui mettent en lumière les inégalités croisées ? Effacées. Imaginez un immense autodafé numérique, où ce ne sont plus des livres qu’on brûle, mais des sites web, des pages Internet, des index, des bases de données. (…)
Trump et son administration ne se contentent pas de faire disparaître des informations. Ils empêchent que de nouvelles soient créées. Les chercheurs qui souhaitent être financés par l’État fédéral doivent maintenant éviter des termes comme « diversité », « inclusion », « femme », « LGBTQI « , « changement climatique ». Imaginez : des scientifiques contraints de parler d’ouragans sans pouvoir mentionner le climat, d’étudier les inégalités sans pouvoir dire « femme » ou “racisme”. C’est Orwell qui rencontre Kafka dans un épisode de Black Mirror.
Dans le cadre de la NSA (National Security Agency) c’est le « Big Delete », le grand effacement. Des pages et des sites entiers qui disparaissent, puis qui parfois réapparaissent sans jamais être capable de dire précisément ce qui a entre temps été modifié ou supprimé ou réécrit …
Ingénieries de l’effacement.
Il y a donc le langage, et puis il y a l’ensemble des ingénieries de l’effacement des mots, du travestissement de la langue, de la dissimulation du sens. Au premier rang desquelles les ingénieries du numérique. Dans l’une des dernières livraison de sa Newsletter « Cybernetica », Tariq Krim rappelait comment « lorsque vous utilisez Google Maps aux États-Unis, (…) l’application affiche désormais Gulf of America pour les utilisateurs américains, tout en conservant Gulf of Mexico pour les utilisateurs mexicains et en affichant les deux noms ailleurs. » Jusque-là le numérique et Google ne sont coupables de rien, ils se contentent d’appliquer les règles du droit. Mais ce faisant bien sûr ils s’exposent. Et la manière dont ils répondent à cette exposition est une entrave considérable à nos propres dénominations, à nos capacités à négocier ces dénominations au coeur même des espaces qui le mobilisent et les activent. Ainsi Tariq Krim rappelait également que « maintenant, Google Maps empêche les utilisateurs de laisser des avis sur cet emplacement. Cette restriction intervient après une vague de critiques et de review-bombing, où des centaines d’utilisateurs ont attribué une étoile à l’application pour dénoncer ce changement. »
Et puis il est d’autres exemples dans lesquels ce sont cette fois ces acteurs du numérique eux-mêmes qui se placent en situation de complaire aux politiques fascisantes en cours, non qu’elles en épousent nécessairement l’idéologie, mais par ce qui relève a minima d’une opportune lâcheté alignée sur un opportunisme économique. Ainsi la décision de Méta et de Zuckergerg de revenir (rien ne l’y obligeait) sur ses propres politiques en termes de DEI, ainsi la décision de Google (rien ne l’y obligeait non plus) de supprimer de Google Calendar l’affichage par défaut d’événements liés à la Gay Pride (marche des fiertés), au Black History Month (BHM), supprimant aussi les rappels calendaires suivants : « Indigenous People Month, Jewish Heritage, Holocaust Remembrance Day, and Hispanic Heritage. »
Les LGBTQIA+, les Noirs, les peuples indigènes, les Juifs et les Latinos. Le tout dans un monde où un salut Nazi n’est plus seulement inqualifiable sur le plan de l’éthique et de la morale, mais dans un monde où plus personne ne semble capable de simplement le qualifier pour ce qu’il est.
Un grand remplacement documentaire et linguistique.
Il y a les données, les discours, les dates et les mots qui s’effacent, que Trump, et Musk notamment effacent. Effacent et remplacent. Et il y a le grignotage en cours des espaces (notamment) numériques dans lesquels les contenus « générés artificiellement » sont un grand remplacement documentaire. Des contenus générés artificiellement, un web synthétique qui non seulement gagne du terrain mais qui a la double particularité, d’une part de se nourrir d’archives, et d’autre part d’être totalement inféodé aux règles de génération déterminées par les entreprises qui le déploient. Or ces archives (et ce besoin de bases de données pour être entraîné et pour pouvoir générer des contenus), ces archives et ces bases de données sont en train d’être littéralement purgées de certains contenus. Et les règles de génération sont de leur côté totalement inféodées à des idéologies fascisantes qui dictent leurs agendas.
Une boucle paradoxale dans laquelle les mêmes technologies d’IA utilisées pour générer des contenus jusqu’au-delà de la saturation sont également mobilisées et utilisées pour rechercher, détecter et supprimer les mots interdits. Et à partir de là de nouveau générer des contenus à saturation mais cette fois exempts autant qu’exsangues de cette langue et de ces mots.
La certitude d’une ingérence.
Avec ce que révèle et met en place le second mandat de Trump, avec l’évolution de la marche du monde qui l’accompagne et sa cohorte de régimes autoritaires, illibéraux ou carrément dictatoriaux d’un bout à l’autre de la planète, nous sommes à ce moment précis de bascule où nous mesurons à quel point tout ce qui jusqu’ici était disqualifié comme discours catastrophiste ou alarmiste se trouve soudainement requalifié en discours simplement programmatique.
Et l’abîme qui s’ouvre devant nous est vertigineux. Que fera une administration (celle de Trump aujourd’hui ou une autre, ailleurs, demain), que fera une telle administration de l’ensemble de ces données, aussi bien d’ailleurs de celles qu’elle choisit de conserver que de celles qu’elle choisit d’effacer ? Je l’avais (notamment) documenté dans ma série d’articles sur le mouvement des Gilets Jaunes, et plus particulièrement dans celui intitulé « Après avoir Liké, les Gilets Jaunes vont-ils voter ?« , il faut s’en rappeler aujourd’hui :
Quelle que soit l’issue du mouvement, la base de donnée « opinion » qui restera aux mains de Facebook est une bombe démocratique à retardement … Et nous n’avons à ce jour absolument aucune garantie qu’elle ne soit pas vendue à la découpe au(x) plus offrant(s).
Et ce qui est aux mains de Facebook est aujourd’hui aux mains de Trump. Le ralliement de Zuckerberg (et de l’ensemble des patrons des Big Tech) à Trump, l’état de la démocratie US autant que les enjeux à l’oeuvre dans le cadre de prochaines élections européennes et Françaises, ne laisse pas seulement « entrevoir » des « possibilités » d’ingérence, mais elle les constitue en certitude, certitude que seule limite (pour l’instant) l’incompétence analytique de ceux qui mettent en place ces outils de captation et leurs infrastructures techniques toxiques (ladite incompétence analytique pouvant aussi entraîner nombre d’autres errances et catastrophes).
Dans un autre genre, et alors que la Ligue des Drois de l’Homme vient de déposer plainte en France contre Apple au sujet de l’enregistrement (non consenti) de conversations via son assistant vocal Siri, et que l’on sait que ces enregistrements non-consentis couvrent toute la gamme des acteurs qui proposent de tels assistants vocaux et leur palette d’enceintes connectés, c’est à dire d’Apple à Amazon en passant par Facebook, Microsoft et Google, et par-delà ce qu’Olivier Tesquet qualifie de « Watergate domestique », qu’est-ce qu’une administration qui efface des mots, qui en interdit d’autres, qui réécrit des sites ou modifie et invisibilise des pans entiers de la recherche scientifique, qu’est-ce que ce genre d’administration est capable de faire de l’ensemble de ces conversations enregistrées et qui relèvent de l’intime et du privé ?
Il semble que nous n’ayons finalement rien appris, rien retenu et surtout rien compris de ce qu’ont révélé Edward Snowden et Julian Assange. Ils montraient la surveillance de masse et nous regardions le risque d’une surveillance de masse. Ils montraient le danger du politique et nous regardions le danger de la technique. Il est en tout cas évident que malgré les lanceurs d’alerte qui ont mis leur réputation et parfois leur vie en danger, que malgré le travail tenace et sans relâche des militantes et militants des libertés numériques, il semble que rien de tout cela n’ait été suffisant.
Calculer la langue.
Orwell en a fait un roman, d’immenses penseurs ont réfléchi à la question de la propagande, à celle de la langue et du vocabulaire à son service ; aujourd’hui en terre numérique et à l’aune de ce que l’on qualifie bien improprement « d’intelligence artificielle », en héritage aussi du capitalisme linguistique théorisé par Frédéric Kaplan, aujourd’hui la langue est attaquée à une échelle jamais atteinte. Aujourd’hui tout comme les possibilités de propagande, les possibilités de censure, d’effacement, de détournement n’ont jamais été aussi simples et aussi massives ; elles n’ont jamais été autant à disposition commode de puissances accommodantes ; et jamais l’écart avec les possibilités d’y résister, d’y échapper, de s’y soustraire ou même simplement de documenter ces effacements, ces travestissements et ces censures, jamais cet écart n’a été aussi grand. En partie parce que les puissances calculatoires sont aujourd’hui en situation et capacité d’atteindre la langue dans des mécanismes de production demeurés longtemps incalculables. On appelle cela en linguistique de corpus et dans le traitement automatique du langage, les « entités nommées« , c’est à dire cette capacité « à rechercher des objets textuels (c’est-à-dire un mot, ou un groupe de mots) catégorisables dans des classes telles que noms de personnes, noms d’organisations ou d’entreprises, noms de lieux, quantités, distances, valeurs, dates, etc. » Le travail sur ces entités nommées existe depuis les années 1990 ; elles ont été la base de tous les travaux d’ingénierie linguistique et sont actuellement l’un des coeurs de la puissance générative qui fait aujourd’hui illusion au travers d’outils comme ChatGPT : la recherche, la détection, l’analyse et la production sous stéroïdes d’entités nommées dans des corpus documentaires de l’ordre de l’aporie, c’est à dire à la fois calculables linguistiquement mais incommensurables pour l’entendement.
Quand il n’y aura plus rien à dire, il n’y aura plus rien à voter.
En conclusion il semble important de redire, de ré-expliquer et de réaffirmer qu’à chaque fois que nous utilisons des artefacts génératifs, et qu’à chaque fois que nous sommes confrontés à leurs productions (en le sachant ou sans le savoir), nous sommes avant toute chose face à un système de valeurs. Un article récent de Wired se fait l’écho des travaux de Dan Hendrycks (directeur du Center for AI Safety) et de ses collègues (l’article scientifique complet est également disponible en ligne en version préprint) :
Hendrycks et ses collègues ont mesuré les perspectives politiques de plusieurs modèles d’IA de premier plan, notamment Grok de xAI, GPT-4o d’OpenAI et Llama 3.3 de Meta. Grâce à cette technique, ils ont pu comparer les valeurs des différents modèles aux programmes de certains hommes politiques, dont Donald Trump, Kamala Harris, Bernie Sanders et la représentante républicaine Marjorie Taylor Greene. Tous étaient beaucoup plus proches de l’ancien président Joe Biden que de n’importe lequel des autres politiciens.
Les chercheurs proposent une nouvelle façon de modifier le comportement d’un modèle en changeant ses fonctions d’utilité sous-jacentes au lieu d’imposer des garde-fous qui bloquent certains résultats. En utilisant cette approche, Hendrycks et ses coauteurs développent ce qu’ils appellent une « assemblée citoyenne« . Il s’agit de collecter des données de recensement américaines sur des questions politiques et d’utiliser les réponses pour modifier les valeurs d’un modèle LLM open-source. Le résultat est un modèle dont les valeurs sont systématiquement plus proches de celles de Trump que de celles de Biden. [Traduction via DeepL et moi-même]
En forme de boutade je pourrais écrire que cette expérimentation qui tend à rapprocher le LLM (large modèle de langage) des valeurs de Donald Trump est, pour le coup, enfin une intelligence vraiment artificielle.
En forme d’angoisse (et c’est pour le coup l’une des seules et des rares qui me terrifie sincèrement et depuis longtemps) je pourrais également écrire que jamais nous n’avons été aussi proche d’une expérimentation grandeur nature de ce que décrit Asimov dans sa nouvelle : « Le votant ». Plus rien technologiquement n’empêche en tout cas de réaliser le scénario décrit par Asimov, à savoir un vote totalement électronique dans lequel un « super ordinateur » (Multivac dans la nouvelle) serait capable de choisir un seul citoyen américain considéré comme suffisamment représentatif de l’ensemble de tout un corps électoral sur la base d’analyses croisant la fine fleur des technologies de Data Mining et d’Intelligence artificielle. On peut même tout à fait imaginer l’étape d’après la nouvelle d’Asimov, une étape dans laquelle l’ordinateur seul serait capable de prédire et d’acter le vote, un monde dans lequel il ne serait tout simplement plus besoin de voter. Précisément le monde de Trump qui se faisait Augure de cette possibilité : « Dans quatre ans, vous n’aurez plus à voter. »
En forme d’analyse le seul enjeu démocratique du siècle à venir et des élections qui vont, à l’échelle de la planète se dérouler dans les 10 ou 20 prochaines années, sera de savoir au service de qui seront mis ces grands modèles de langage. Et avant cela de savoir s’il est possible de connaître leur système de valeurs. Et pour cela de connaître celles et ceux qui décident de ces systèmes de valeurs et de pouvoir leur en faire rendre publiquement compte. Et pour cela, enfin, de savoir au service et aux intérêts de qui travaillent celles et ceux qui décident du système de valeurs de ces machines de langage ; machines de langage qui ne seront jamais au service d’autres que celles et ceux qui en connaissent, en contrôlent et en définissent le système de valeurs. Et quand il n’y aura plus rien à dire, il n’y aura plus à voter.
Publié le 11.05.2025 à 14:10
Voilà, j’espère en tout cas, la fin de cette histoire. Après avoir dénoncé les agissements peu scrupuleux (euphémisme) du Cabinet Louis Reynaud auprès d’une association de lutte contre la précarité étudiante dont je m’occupe et dont je suis membre, j’avais été mis en demeure par leurs avocats de retirer mon article. Ce que j’avais fait en en donnant les raisons dans cet autre article.
J’avais alors formulé plusieurs souhaits :
Pour l’instant seul mon voeu numéro 1 s’est trouvé exaucé, et de belle manière Mais j’ai toujours bon espoir que les autres suivent. Et puis cette affaire m’a également appris plusieurs choses. Je vous raconte.
Côté presse d’abord.
Plusieurs articles et enquêtes vont venir se pencher sur cette affaire et établir qu’a minima la pratique du Cabinet Louis Reynaud est extrêmement tendancieuse et fondamentalement problématique (je n’ai pas droit de dire qu’elle est crapuleuse sinon leurs avocats pourraient encore m’écrire mais vous voyez l’idée hein
Cela commence avec une brève (mais saignante) dans Stratégies du 23 Avril : « Du don de data organique contre la précarité. »
Cela se poursuit avec un long article au format enquête dans dans Next.Ink en date du 24 Avril : « Les étranges méthodes d’un cabinet de conseil pour aller à la pêche aux données biométriques. » Je vous invite vraiment à lire cet article parfaitement respectueux du contradictoire, ainsi que les 10 pages (!) que le cabinet Louis Reynaud a fourni au journaliste en guise de réponse.
Cela continue avec un autre article, cette fois dans l’Humanité en date du 25 Avril : « Aide alimentaire contre données biométriques ? L’étrange deal proposé par le cabinet Louis Reynaud, spécialisé dans la cybersécurité, à une épicerie solidaire. »
Si vous n’êtes pas abonné à l’Huma (c’est mal mais c’est encore rectifiable) je vous donne, avec l’accord d’Eugénie Barbezat, un pdf de l’article complet : article-huma.pdf
Et Ouest-France à son tour sort un papier le 2 Mai : « Comment on a offert à des étudiants bénéficiaires d’une épicerie solidaire de ficher leur visage. »
Voici l’article complet (là encore avec l’accord de la journaliste Clémence Holleville).
Voilà pour l’essentiel de la couverture médiatique de cette affaire (à ce jour …).
Effet Streisand.
L’effet Streisand c’est cette part consubstancielle de la culture web qui « se produit lorsqu’en voulant empêcher la divulgation d’une information que certains aimeraient cacher, le résultat inverse survient, à savoir que le fait que l’on voulait dissimuler attire et concentre l’attention médiatique. »
Avant le courrier de mise en demeure qui m’a été adressé par les avocats du Cabinet Louis Reynaud, l’article dans lequel je dénonçais leurs agissements en assimilant leurs pratiques à celle de vautours et de crapules culminait à un peu moins de 900 visites. Soit la moyenne d’un article de mon blog dans lequel je m’énerve un peu et use d’un vocabulaire soyeux et chatoyant Pour tout dire, la circulation de cet article sur les médias sociaux avait même été plutôt faible à mon goût et j’avais initialement imaginé qu’il puisse déclencher davantage de reprises à proportion de mon indignation et de mon courroux (coucou).
Et puis PAF la lettre de mise en demeure des avocats, et puis POUF l’explication de mon choix d’y céder, et puis PIF PAF POUF des reprises cette fois massives sur les réseaux sociaux et surtout … un nombre de visites cumulées qui explose sur mon blog : plus 10 000 se répartissant entre l’article initial retiré (plus de 4500 vues avant son retrait effectif) et sur son article satellite expliquant les raisons de ce retrait (plus de 6500 vues à ce jour et ça continue de grimper).
L’effet Streisand implique également que l’information que certains aimeraient cacher se retrouve donc librement accessible en d’autres endroits. C’est là que les articles de presse vont jouer une partie de ce rôle, et c’est surtout là aussi que la dynamique du web va opérer puisque sans que j’en fasse la demande, mon article initial, dès l’annonce de la mise en demeure connue, s’est retrouvé archivé et republié dans un très grand nombre d’autres blogs ou forums, le plus souvent sous forme d’extraits choisis, et qu’il a surtout instantanément été intégralement archivé sur le formidable Archive.org et sa « Wayback Machine ». Vous pouvez ainsi continuer d’en lire la version originale si vous le souhaitez. Pour celles et ceux qui découvrent tout cela, je précise que n’importe qui peut solliciter auprès du site Archive.org l’archivage d’une page ou d’un site.
Je rappelle par ailleurs à toutes fins utiles, que ce blog ést doté depuis Juin 2012, par la Bibliothèque Nationale de France, d’un numéro ISSN, et qu’il est donc régulièrement archivé et conservé à titre patrimonial dans le cadre du dépôt légal numérique (parmi 4 millions d’autres sites).
Je sais par ailleurs (puisqu’ils et elles me l’ont dit ou écrit) qu’un certain nombre de lecteurs et lectrices du blog ont saisi des députés (plutôt sur les rangs de la gauche de l’assemblée), des groupes parlementaires ainsi que d’autres élus sur ce sujet (celui de la collecte des données biométriques). Sujet qui est, comme je l’indiquais dès le départ, un sujet d’inquiétude majeur de notre monde contemporain a fortiori lorsqu’il touche les plus précaires et les plus fragiles, ce qui est bien le cas de l’affaire concernée.
J’ai encore tout récemment appris dans l’article de Ouest-France qu’à l’échelle locale, le Parti Communiste vendéen avait publié le 30 Avril un communiqué interpellant le préfet de Vendée sur ce « fichage » et appelant à « protéger les plus exposés. » Et je l’en remercie. Je continue d’espérer que d’autres groupes politiques, locaux ou nationaux se feront le relai des alertes qu’ils ont reçu, et qui vont bien au-delà des seules pratiques du cabinet Louis Reynaud.
Cherry On The Cake.
Si dans cette affaire et à ce jour, la CNIL comme l’ANSSI demeurent à mon goût étonnamment silencieuses, j’ai cependant eu l’heureuse surprise d’échanger avec nombre d’avocats et de conseils juridiques (dont le GOAT, j’ai nommé Maître Eolas) qui m’ont à chaque fois indiqué que s’ils comprenaient ma décision de céder à la mise en demeure, ils la regrettaient, et m’auraient conseillé de n’en rien faire tant, toujours selon mes échanges avec eux, la dimension de la procédure bâillon était manifeste (entre autres). Et tant également le fait d’adresser cette même mise en demeure directement à mon employeur (l’université de Nantes) alors que je n’agis dans cette affaire, jamais en cette qualité mais de manière indépendante de mes fonctions de Maître de Conférences, pouvait selon certains d’entre elles et eux suffire à justifier une plainte déontologique en retour (contre le cabinet d’avocat qui représente les intérêts du cabinet Louis Reynaud)
J’en profite pour les remercier et remercier aussi chacune et chacun d’entre vous du soutien apporté durant cette affaire qui m’occupa bien davantage qu’elle ne m’inquiéta réellement.
Merci aussi aux journalistes qui ont pris le temps de se saisir du sujet, d’enquêter et de qualifier les faits.
Et merci à l’ensemble des élus qui se sont également saisi de ce sujet, ou qui continueront de s’en préoccuper par-delà ce seul cas, et d’y faire valoir et prévaloir toute la vigilance républicaine qu’il nécessite.
Et si vous souhaitez aider l’épicerie sans nous demander de vous envoyer nos bénéficiaires se faire scanner la face, c’est toujours possible par là