Lien du flux RSS
Directrice de publication : Aude Lancelin

Abonnés Émission

▸ les 10 dernières parutions

09.07.2025 à 17:07

Hubert Guillaud : « Les algorithmes publics et privés fonctionnent de manière opaque et biaisée »

img
Souvent présentée sous son meilleur jour par les grandes entreprises et les figures politiques, l’intelligence artificielle (IA) est décrite comme une révolution technologique, une avancée sociale, une aide précieuse capable de répondre à tous les besoins. Derrière ce discours idéaliste, c’est pourtant bien à un monstre numérique que nous avons affaire, une pieuvre aux mille … Continued
Texte intégral (3973 mots)

Souvent présentée sous son meilleur jour par les grandes entreprises et les figures politiques, l’intelligence artificielle (IA) est décrite comme une révolution technologique, une avancée sociale, une aide précieuse capable de répondre à tous les besoins. Derrière ce discours idéaliste, c’est pourtant bien à un monstre numérique que nous avons affaire, une pieuvre aux mille tentacules, qui s’immisce dans nos vies, nos foyers, nos travails, nos manières de penser et de débattre. L’IA fragilise les fondements de la démocratie, éloigne les citoyens du pouvoir, et influence les décisions des institutions, des entreprises aux services publics. En France, elle s’est installée sans bruit au cœur des administrations : Caisses d’Allocations, France Travail, plateformes d’orientation scolaire… Froids, impassibles, insensibles aux rapports qu’entretiennent les hommes et les femmes à l’intérieur d’une société, les algorithmes décident du sort de millions de personnes. Hubert Guillaud, qui publie Les algorithmes contre la société aux éditions La Fabrique, ouvre une brèche dans un monde qui paraît impénétrable et très technique. Le directeur de la revue « Dans les algorithmes » dénonce des modes de calculs faillibles et intéressés et appelle à penser une IA compatible avec la justice sociale et non au service d’une nouvelle forme d’exploitation des classes précaires par une infime partie de nos sociétés.

QG : Vous démontrez que l’essence d’Internet et de l’interconnexion des données – « renverser les inégalités, étendre la liberté d’expression », etc.. – a été détournée par des intérêts privés. Pourquoi parler de « dépossession » et de « privation » ?

Hubert Guillaud : Oui, Internet a représenté une forme de dépossession parce qu’à l’origine, il s’agissait d’un réseau conçu pour les chercheurs, pour les utilisateurs, pensé comme un outil d’échange d’informations et de liens. Ces liens deviendront d’ailleurs très rapidement l’une des ressources majeures des premiers réseaux. Cette dépossession s’est produite très vite : ce réseau de recherche a rapidement attiré d’autres enjeux, notamment militaires, qui sont eux aussi à l’origine du développement d’Internet. En effet, la création même de ce réseau s’explique par une commande militaire, avec l’idée de concevoir une infrastructure distribuée et résiliente (1). Mais la dépossession s’accentue lorsque des intérêts financiers s’en emparent, avec cette logique : “Que peut-on faire de ce réseau ? Comment le transformer en autre chose qu’un bien commun, pour lequel il avait pourtant été conçu ?” Le chercheur Ben Tarnoff l’explique très bien dans son livre Internet for the People (2). Il montre comment ce réseau, pensé comme un bien commun de l’humanité – ouvert, libre, décentralisé – a été très rapidement récupéré par des intérêts capitalistes, qui l’ont restructuré, doté d’une infrastructure propre, et refermé. Le symbole fort de cette dynamique, c’est le boom des années 2000, avec l’arrivée de nombreux services et outils marchands, qui façonnent aujourd’hui en profondeur notre rapport au réseau. À tel point qu’on pourrait presque cesser de parler “d’Internet” pour évoquer à la place les réseaux Google, Meta ou OpenAI. Dépossession et privatisation vont de pair.

QG : Une interconnexion des données et un échange s’effectuent dans le domaine privé mais également dans les organisations publiques. Quelles sont les administrations concernées par ces partages et quelles conséquences sur la population ?

Cela concerne les impôts, la CAF ou France Travail. Le cadre exact de ces échanges reste flou : s’agit-il simplement d’accès en consultation, ou bien de transferts de données que chaque administration peut ensuite exploiter librement ? Prenons l’exemple de FICOBA, le fichier des comptes bancaires. Selon les administrations, l’accès à ce fichier varie : certaines ne peuvent consulter que la liste des comptes à votre nom, d’autres ont accès aux relevés bancaires mensuels. Ce type de consultation étendue n’existait pas auparavant. Cela représente un vrai changement dans la manière dont fonctionnent les administrations publiques. Elles étaient auparavant très cloisonnées, indépendantes les unes des autres. Lorsqu’une administration avait besoin d’une information, elle devait la demander spécifiquement et individuellement. Il ne s’agissait pas de données massives sur l’ensemble des usagers. Aujourd’hui, ce cloisonnement a disparu. Les données échangées sont souvent personnelles ou sensibles : numéro de sécurité sociale, identité, composition du foyer, revenus. Les administrations peuvent effectuer des requêtes globales, des enquêtes croisées, des recoupements massifs. Et cela ouvre la voie à des dérives. Ce cloisonnement avait un rôle : il protégeait les citoyens d’éventuels abus administratifs, de contrôles qui se prolongent d’un service à l’autre sans limites. Ce n’est plus le cas. Et le risque de dérive, aujourd’hui, est très largement sous-estimé.

QG : Dans les système de recommandations (réseaux sociaux, plateformes) et depuis « l’âge de la souscription et la recommandation simple » , quels ont été les changements marquants pour arriver à ce que vous appelez “l’âge du cynisme et des distorsions de marchés”

À l’origine, les premiers échanges de données concernaient simplement le numéro de sécurité sociale, afin d’identifier correctement les individus, éviter les erreurs d’orthographe sur les noms. Mais à mesure que les bases de données se sont structurées, que les échanges entre services se sont organisés, les possibilités de croisements et de traitements se sont elles aussi complexifiées. Aujourd’hui, ces croisements permettent des analyses bien plus poussées. C’est un parallèle que je trace aussi avec les systèmes de recommandation sur les plateformes privées. Ce que j’appelle « l’âge du cynisme et des distorsions de marché« , c’est cette période actuelle où les algorithmes, qu’ils soient publics ou privés, fonctionnent souvent selon des logiques opaques, biaisées ou intéressées. C’est ce que l’on observe aujourd’hui, par exemple, avec les problèmes algorithmiques de Parcoursup, de France Travail ou encore de la CAF. On peut faire le parallèle avec Amazon, qui utilise ses algorithmes non pas pour vous faire économiser, mais pour maximiser ses profits, parfois au détriment de l’intérêt de l’usager ou du consommateur. On est entré dans un âge des algorithmes – ou de l’intelligence artificielle – où tout traitement semble possible, où l’on peut faire n’importe quoi avec les données… sans toujours se demander si on le doit vraiment.

Les organismes de services publics ont incorporé l’IA et ses calculs dans leurs contrôles, leurs fichage. La CAF est notamment pointée du doigt pour les utiliser afin de contrôler les foyers précaires et évaluer des « risques de fraudes », jamais pour avertir du non-recours à un droit ou à une prestation sociale

QG : La politique austéritaire des gouvernements français successifs a été menée en parallèle du développement des outils numériques. À quel point ces derniers se sont immiscés dans nos sociétés et dans des enjeux collectifs essentiels ? 

Aujourd’hui, ces systèmes de traitement numérique sont omniprésents. Ils se sont fortement développés dans le contexte politique des 15 ou 20 dernières années, marqué par une logique austéritaire. L’objectif a été de rendre les services publics les moins coûteux possible, tout en traitant un volume toujours plus important de demandes. Cela a entraîné une numérisation massive des services publics, en particulier dans le domaine de l’attribution des droits sociaux : places à l’université, en crèche, surveillance des allocations, gestion des aides, mais aussi systèmes de contrôle concernant diverses populations — de la détection de la maltraitance infantile jusqu’à la gestion des places pour les personnes sans-abri. Les travaux pionniers de Virginia Eubanks (3) aux États-Unis ont mis en lumière ces systèmes numérisés dans le champ social. Elle montre — et ce constat reste valable aujourd’hui — que ces outils sont souvent développés et mis en place non pas par les services publics eux-mêmes, mais par des entreprises privées, mandatées pour les concevoir et les gérer. Et ces outils obéissent à des logiques similaires: restreindre l’accès aux droits, réduire les montants versés, rationaliser les prestations. La logique néolibérale et austéritaire de réduction des coûts est inscrite directement dans les outils eux-mêmes. Beaucoup de ces systèmes sont conçus par les mêmes entreprises, qui les revendent d’un pays à l’autre. Résultat: toutes les politiques sociales sont aujourd’hui encadrées par des systèmes qui visent à minimiser l’accès aux droits, à restreindre les remboursements, à réduire les aides. Pour les usagers, cela se traduit par un sentiment d’impuissance. Ils se heurtent à des refus, à des calculs qu’ils ne comprennent pas, à des exclusions arbitraires.

QG : “Plus que de vous piquer votre job, l’IA risque surtout de vous empêcher d’être embauché”. L’IA s’est-elle imposée comme moteur et pilote de recrutement dans beaucoup d’entreprises privées ? 

La numérisation et la dématérialisation sont aujourd’hui généralisées, elles sont partout. Désormais, lorsque vous postulez dans les grandes entreprises, votre CV et votre lettre de motivation ne sont plus analysés par des humains, mais par des robots. Toutes les enquêtes que j’ai pu lire sur le sujet sont catastrophiques, et ne montrent que des défaillances généralisées. Ces systèmes essaient de faire correspondre les mots d’un CV avec ceux d’une offre d’emploi, ou de les comparer à ceux des personnes déjà embauchées à un poste similaire. Mais concrètement, il manque souvent des dictionnaires de synonymes, et les critères sont tellement stricts que, par exemple, un trou de six mois dans un CV ou des dates manquantes entraînent un rejet automatique. C’est une analyse automatisée qui oublie l’humain, qui applique des règles d’exclusion rigides, et qui empêche toute forme de discussion normale et structurée. Aujourd’hui, l’intelligence artificielle empêche de nombreuses personnes d’accéder à un emploi. Si vous n’avez jamais été directeur, il devient très difficile de postuler à un poste de direction, même si vous en avez les compétences : le système privilégie ceux qui ont déjà occupé un poste équivalent. Nous sommes pris dans des logiques de calcul que l’on imagine objectives, fiables, fluides, alors qu’en réalité, elles sont souvent mal comprises, autant par ceux qui les utilisent que par ceux qui y sont soumis.

QG : On observe une numérisation croissante du management dans les entreprises. Comment ces outils transforment-ils concrètement les conditions de travail des salariés ?

Dans de plus en plus d’entreprises, les employés sont gérés via des applications. C’est quelque chose que tout le monde a déjà expérimenté, par exemple avec un chauffeur Uber ou un réparateur Darty. Le réparateur, lorsqu’il intervient chez vous, passe son temps sur son téléphone à renseigner ce qu’il fait, parce qu’il est soumis à des contraintes précises, avec des tâches à accomplir dans un temps donné. Cette forme de surveillance à distance des salariés se généralise, dans tous les secteurs, de la logistique au soin. Les infirmières, notamment celles qui travaillent à domicile, sont elles aussi surveillées. Aujourd’hui, nous sommes contrôlés par des machines qui imposent des règles à suivre, avec des moyennes de temps à respecter pour chaque service ou déplacement. Le risque, c’est que nous devenions tous soumis à ces outils, à ces contraintes, à ces moyennes qui résultent de la compétition entre les personnes exerçant le même métier.

QG : Le rôle de la publicité est considérable dans le traitement des données mais semble de moins en moins efficace. Comment marchent les ciblages publicitaires ?

Le web ne s’est développé qu’à travers la publicité. Les revenus de Meta, Google, Amazon, voire même d’Uber, sont de plus en plus publicitaires. Tout est donc fait pour exploiter, de quelque manière que ce soit, les données personnelles des utilisateurs, afin de les partager ou de les monnayer à des fins publicitaires. On nous vante alors une publicité “formidable”, ciblée, adaptée à nos envies, capable de nous proposer ce que nous voulons, au moment où nous le voulons. Mais c’est un mythe qu’il faut essayer de détruire. Sur ces réseaux ou applications, vous n’êtes pas individualisé mais massifié : votre profil est comparé à celui de tous les autres. On vous attribue des étiquettes publicitaires en fonction de ce que vous regardez, likez ou commentez. Les mots sont analysés, et vous pouvez vous retrouver classé dans une catégorie simplement parce que vous avez liké un contenu sur une grève des cheminots, par exemple. Résultat : vous recevrez de la publicité pour les trains Ouigo. Quand on comprend ça, on saisit la folie de ce monde. Tout repose sur des calculs statistiques complexes, destinés à vous vendre quelque chose dont vous ne voulez pas. Et le plus inquiétant, c’est qu’on ne se contente plus aujourd’hui de vous cibler avec de la publicité, mais qu’on cherche aussi à optimiser votre propension à dépenser.

Sur les plateformes de fast-fashion, de commerces en ligne ou même sur l’application McDonald’s, le « meilleur prix est celui que le consommateur est prêt à payer » selon Hubert Guillaud. Des systèmes tarifaires algorithmiques qui proposent des prix différents selon les utilisateurs

QG : Avec le commerce en ligne, la question des prix personnalisés se pose de plus en plus. Quels risques posent ces pratiques pour l’équité entre les consommateurs ?

La question se pose sur des applications très courantes comme Temu. Avant, dans le monde physique, vous aviez un prix public, le même pour tout le monde, dans une région ou un magasin. Mais aujourd’hui, sur ces plateformes de fast-fashion ou de commerce en ligne, qu’est-ce qui vous garantit que vous payez le même prix que votre conjoint ou votre voisine ? Plus rien. Et c’est un vrai enjeu de société. Le risque est que cette pratique se généralise, que les tarifs soient optimisés sur ce que vous êtes capable et prêt à payer et non sur votre possibilité de le faire. Et quand on étudie ces systèmes de tarification algorithmique, on se rend compte qu’ils ne proposent pas des prix plus bas aux plus démunis. Au contraire, ils ont tendance à offrir de meilleures promotions à ceux qui ont justement les moyens de payer.

QG : La numérisation de nos vies s’est imposée très rapidement, souvent sans débat. Que dit cet essor de l’intelligence artificielle de la manière dont nous perdons peu à peu le contrôle sur notre rapport à l’information et à la connaissance ?

Tout au long de cette histoire, de cette rapide numérisation, nous n’avons jamais vraiment eu notre mot à dire. Et aujourd’hui, nous en sommes tous complètement dépendants. Très peu de gens paient encore en espèces, nous avons tous des cartes bancaires, des téléphones, des smartphones dans nos poches. Ces transformations se sont imposées très rapidement, sans que nous ayons véritablement donné notre avis, avec un consentement tacite, parce que cela nous a rendu beaucoup de services. Aujourd’hui, une nouvelle évolution d’Internet se profile : la disparition du web tel que nous le connaissons, au profit d’un Internet dominé par l’intelligence artificielle. Bientôt, nous n’irons plus simplement surfer sur des sites comme Mediapart ou QG, mais ce seront des robots conversationnels qui nous diront ce que pense Aude Lancelin, ce que pense Edwy Plenel. Mais n’aurait-on pas préféré pouvoir accéder directement à la source ? C’est précisément cela qui est en jeu : la disparition de l’idéal d’Internet tel qu’il a été fondé par des scientifiques, comme un moyen de diffuser la connaissance, de tisser des liens entre les savoirs, de relier un livre à un autre, une page à une autre, une citation à sa source. C’était une sorte de promesse des Lumières augmentées, un peu comme la révolution philosophique du XVIIIe siècle, où tout devenait soudain accessible. Et c’est ce modèle-là qui est menacé aujourd’hui, avec l’arrivée de l’IA. Le risque, d’une certaine manière, est que cela entraîne une forme de régression — une régression de la raison, de la compréhension, de l’intelligence elle-même.

L’Union Européenne a adopté son texte phare, IA Act, en mars 2024. Il doit permettre de régulariser l’utilisation de l’IA dans l’embauche, prévenir des cyberattaques ou protéger les citoyens des manipulations ou des catégorisations biométriques

QG : La course avec les Etats-Unis et la Chine est-elle encore possible pour nos autres Européens, notamment en contribuant à un développement et à une utilisation « éthique » de cette technologie ?

On voudrait bien faire la course avec les autres, mais on n’en a peut-être pas les capacités — fort heureusement. L’enjeu n’est pas d’entrer dans cette course sans nom, mais, au contraire, de mettre en place une régulation. Parce que la régulation est la protection de chacun d’entre nous, et non le contraire. Elle nous oblige à innover en pensant aux enjeux, aux valeurs, à l’intérêt général, et pas seulement aux intérêts privés de certains acteurs. Notre grand déficit démocratique — qui est en réalité un déficit démocratique de la technique depuis toujours —, c’est qu’on n’associe pas les gens, parce que c’est “trop compliqué pour eux” et il est facile de les exclure. À mesure que les systèmes se complexifient, se pacifient et deviennent plus puissants, nous avons justement encore plus besoin des gens, des utilisateurs, des bénéficiaires. Ce sont eux, et eux seuls, qui peuvent nous aider à montrer les limites, à les pointer, et à nous aider à les défier ou à les dépasser. Nous devons absolument faire entrer les usagers dans ces systèmes, pour que ceux qui en sont impactés puissent décider de leur orientation. Un vrai message est à adresser tant aux services publics qu’aux services privés : nous devons améliorer le niveau démocratique de ces outils, il n’y a pas d’autre solution.

(1) Une infrastructure distribuée et résiliente, aux débuts d’Internet, désigne un réseau sans centre, réparti entre de nombreux nœuds autonomes, capable de résister aux pannes ou attaques, en redirigeant les flux de données à travers des chemins alternatifs.
(2) Ben Tarnoff, Internet for the people, the fight for the future (Verso, 2022)
(3)Virginia Eubanks, Automating Inequality (St Martin’s Press, 2018

Interview par Thibaut Combe

Hubert Guillaud est journaliste et rédacteur en chef du média Dans les algorithmes. Il est spécialiste des systèmes techniques et numériques et de leurs impacts sur nos sociétés. Auteur, il publié notamment Coincés dans Zoom, à qui profite le télétravail ? (octobre 2022, Fyp édition), Les algorithmes contre la société (2025, La Fabrique)

5 / 10

 

  GÉNÉRALISTES
Basta
Blast
Le Canard Enchaîné
L'Autre Quotidien
Alternatives Eco.
La Croix
Le Figaro
France 24
France-Culture
FTVI
HuffPost
L'Humanité
LCP / Public Senat
Le Media
Le Monde
Libération
Mediapart
La Tribune
 
  EUROPE ‧ RUSSIE
Courrier Europe Centrale
Desk-Russie
Euractiv
Euronews
Toute l'Europe
 
  Afrique du Nord ‧ Proche-Orient
Haaretz
Info Asie
Inkyfada
Jeune Afrique
Kurdistan au féminin
L'Orient - Le Jour
Orient XXI
Rojava I.C
 
  INTERNATIONAL
CADTM
Courrier International
Equaltimes
Global Voices
I.R.I.S
The New-York Times
 
  OSINT ‧ INVESTIGATION
OFF Investigation
OpenFacto°
Bellingcat
Disclose
Global.Inv.Journalism
 
  MÉDIAS D'OPINION
AOC
Au Poste
Cause Commune
CrimethInc.
L'Insoumission
Les Jours
LVSL
Médias Libres
Politis
Quartier Général
Rapports de force
Reflets
Reseau Bastille
Rézo
StreetPress
 
  OBSERVATOIRES
Armements
Acrimed
Catastrophes naturelles
Conspis
Culture
Curation IA
Extrême-droite
Human Rights
Inégalités
Information
Internet actu ✝
Justice fiscale
Liberté de création
Multinationales
Situationnisme
Sondages
Street-Médics
Routes de la Soie
🌞