08.06.2025 à 09:00
L’IA ne va pas vous piquer votre job : elle va vous empêcher d’être embauché !
Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 28 mars 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA. « Les dégâts qu’un responsable du recrutement humain partial peut causer sont réels, mais limités. Un algorithme utilisé pour évaluer des centaines de milliers de travailleurs pour une promotion ou de candidats à l’emploi, s’il est défectueux, peut nuire à bien plus de personnes que n’importe quel être humain », affirmait dans Wired la journaliste américaine Hilke Schellmann. Après avoir publié depuis plusieurs années de nombreuses enquêtes sur les défaillances des systèmes automatisés appliqués à l’emploi, elle vient de faire paraître un livre permettant de faire le point sur leurs limites : The Algorithm : How AI decides who gets hired, monitored, promoted, and fired and why we need to fight back now (L’algorithme : comment l’IA décide de qui sera embauché, surveillé, promu et viré et pourquoi nous devons riposter, Hachette, 2024, non traduit). Son constat est sans appel : dans l’industrie technologique des ressources humaines (la « HRTech » comme on l’appelle), rien ne marche ! Pour elle, l’IA risque bien plus de vous empêcher d’être embauché que de vous piquer votre job ! Dans le domaine des ressources humaines, beaucoup trop de décisions sont basées sur de la « mauvaise camelote algorithmique », explique-t-elle. Des systèmes d’évaluation qui produisent déjà des préjudices bien réels pour nombre d’employés comme pour nombre de candidats à l’emploi. Dans son livre, la journaliste passe en revue les innombrables systèmes que les entreprises utilisent pour sélectionner des candidats et évaluer leurs employés… que ce soit les entretiens automatisés, les évaluations basées sur les jeux, les outils qui parcourent les publications sur les réseaux sociaux et surtout ceux qui examinent les CV en ligne… Tous cherchent à produire des correspondances entre les compétences des candidats et ceux des employés et à prédire les personnalités… sans grand succès. Ce qu’elle montre avant tout, c’est que les entreprises qui ont recours à ces solutions ne sont pas suffisamment critiques envers leurs défaillances massives. En guise de calculs, ces systèmes produisent surtout des approximations généralisées. Sous l’apparence de scientificité des scores et des chiffres qu’ils déterminent se cache en fait beaucoup de pseudo-science, de comparaisons mots à mots peu efficaces. Quand on s’intéresse au fonctionnement concret de ces outils, on constate surtout que leur caractéristique principale, ce n’est pas tant qu’ils hallucinent, mais de nous faire halluciner, c’est-à-dire de nous faire croire en leurs effets. Les algorithmes et l’intelligence artificielle que ces systèmes mobilisent de plus en plus promettent de rendre le travail des ressources humaines plus simple. En l’absence de régulation forte, souligne la journaliste, ni les vendeurs de solutions ni leurs acheteurs n’ont d’obligation à se conformer au moindre standard. Or, poser des questions sur le fonctionnement de ces outils, les valider, demande beaucoup de travail. Un travail que les départements RH ne savent et ne peuvent pas faire. Nous aurions besoin d’un index pour mesurer la qualité des outils proposés, propose la journaliste… tout en constatant que nous n’en prenons pas le chemin. L’industrie RH se contente parfaitement de la situation, souligne-t-elle. Les avocats américains recommandent d’ailleurs aux services RH des entreprises de ne pas enquêter sur les outils qu’ils utilisent pour ne pas être tenu responsables de leurs dysfonctionnements ! À croire que la responsabilité sociale fonctionne mieux avec des œillères ! L’automatisation s’est imposée pour répondre aux innombrables demandes que recevaient les plus grandes entreprises et notamment les grandes multinationales de la Tech. Comment traiter les millions de CV que reçoivent IBM ou Google chaque année ? Qu’ils soient déposés sur les grands portails de candidatures et d’offres d’emplois que sont Indeed, Monster, Linkedin ou ZipRecruiter comme sur les sites d’entreprises, l’essentiel des CV sont désormais lus par des logiciels plutôt que par des humains. Les plateformes développées d’abord pour l’intérim puis pour les employés de la logistique, de la restauration rapide et du commerce de détail sont désormais massivement utilisées pour recruter dans tous les secteurs et pour tous types de profils. Mais elles se sont particulièrement développées pour recruter les cols blancs, notamment en entrée de tous les grands secteurs professionnels, comme l’informatique ou la finance. Si ces plateformes ont permis aux candidats de démultiplier facilement leurs candidatures, c’est au détriment de leur compréhension à savoir comment celles-ci seront prises en compte. Les fonctionnalités de tri massifs et automatisés restent encore l’apanage des grandes entreprises, notamment parce qu’elles nécessitent souvent d’accéder à des logiciels dédiés, comme les « systèmes de suivis de candidatures » (ATS, Applicant Tracking Systems) qui permettent de trier et gérer les candidats. Une grande majorité des employeurs y ont recours. Ces logiciels sont moins connus que les grandes plateformes de candidatures avec lesquelles ils s’interfacent. Ils s’appellent Workday, Taleo, Greenhouse, Lever, Phenom, Pintpoint, Recruitee, Jobvite… Sans compter les plus innovants parmi ces interfaces du recrutement, comme Sapia ou Hirevue, qui proposent d’automatiser jusqu’à l’entretien lui-même en mobilisant reconnaissance faciale, transcription des propos et analyse émotionnelle. Tous ces systèmes font la même promesse aux entreprises qui les utilisent : minimiser et optimiser le nombre de candidats à un poste et réduire le temps de sélection des candidats. Pour ce faire, ces systèmes lisent les mots des CV selon les paramètres qu’en précisent les entreprises et que rendent disponibles les plateformes. Ils cherchent dans les CV les occurrences des termes qui décrivent le poste depuis l’annonce ou comparent les termes des CV candidats à ceux de personnes déjà en poste. La plupart utilisent des attributs par procuration pour détecter des compétences, comme le fait d’avoir un diplôme du supérieur ou le fait d’avoir des compétences précises formalisées par des mots-clefs littéraux. Face à l’afflux des candidatures – en 2015, Glassdoor estimait qu’il y avait en moyenne 250 réponses par offre d’emploi pour 4 à 6 sélectionnés pour un entretien ; Jobvite, lui estime que le nombre moyen de candidats par offre tournerait plutôt autour de 29 en 2018, alors qu’il était de 52 en 2016, une baisse qui résulterait d’une meilleure optimisation des offres quand on pourrait questionner plutôt le recul de leur diffusion –, le recrutement automatisé s’est généralisé et ce dans une grande opacité au détriment des candidatures les plus précaires. Car dans ces outils, pour accélérer le tri, il est facile de ne retenir par exemple que ceux qui ont un diplôme du supérieur pour un poste qui n’en nécessite pas nécessairement. Les capacités de réglages sont bien plus conçues pour exclure et rejeter les candidatures que pour intégrer les candidats. Par exemple, comme souvent en informatique, si l’une des compétences exigée n’est pas présente, quelles que soit les qualifications et les qualités des autres compétences évaluées, le candidat va bien souvent être rejeté ou sa note globale dégradée, selon une moyennisation qui lisse les écarts plutôt que de capitaliser sur les forces et faiblesses des candidats. Dans leur livre, The Ordinal Society, les sociologues Marion Fourcade et Kieran Healy, parlent très justement du « lumpenscoretariat » pour qualifier le prolétariat du score dans le capitalisme numérique, pour parler de ceux qui sont toujours mal classés par les systèmes parce que les standards de ceux-ci s’adaptent extrêmement mal à tous les publics. Ces logiciels de recrutement examinent, évaluent et classent les candidatures en leur attribuant des scores sur un certain nombre de critères définis par les possibilités du système et par l’entreprise qui recrute. Plusieurs scores sur plusieurs attributs sont produits (par exemple un score sur l’expérience requise, un score sur les compétences exigées, etc.) et forment un score unique qui permet de classer les candidatures les unes par rapport aux autres. Un très fort pourcentage de candidatures sont rejetées parce qu’elles ne remplissent pas les critères demandés. Et ce, alors que les employeurs ont tendance à démultiplier les critères pour réduire le nombre de candidats à examiner. Pour un simple emploi de vendeur, le nombre de compétences requises dans les offres d’embauche en ligne est en moyenne de 31 compétences différentes ! De plus en plus d’offres d’emploi demandent d’ailleurs des compétences qui étaient associées à d’autres professions : un vendeur doit savoir vendre, mais doit également désormais savoir utiliser tel ou tel logiciel par exemple ou disposer de compétences transverses, les fameux « soft skills », des aptitudes interpersonnelles qui n’ont pas toujours de liens avec les compétences techniques (qui elles relèvent par exemple de la maîtrise d’une langue étrangère ou de techniques de ventes spécifiques), que ce soient « l’autonomie », la « capacité à négocier » ou la « flexibilité », autant de « talents » dont l’appréciation est bien souvent difficile et subjective et que les calculs promettent de résoudre par des scores dont la formule est suffisamment complexe pour que nul ne regarde leurs défauts. Bien souvent, les entreprises qui embauchent sont les premières responsables du sur-filtrage qu’elles utilisent. Mais surtout, à force de démultiplier les critères, elles ne parviennent pas à ouvrir leurs canaux de recrutement, comme s’en émouvait le rapport Fuller, Hidden Workers (2021). Joseph Fuller, le chercheur de la business school d’Harvard, montrait que nombre de candidats qualifiés n’étaient pas considérés par ces systèmes de tri automatisés. Nombre de systèmes de recrutement rejettent des candidats qui font de très bons scores sur nombre de critères, mais échouent totalement sur un seul d’entre eux, au profit de candidats qui peuvent être très moyens sur tous les critères. Ainsi, dans la moitié des outils d’analyse automatisés testés par son équipe, avoir un trou de 6 mois dans sa carrière conduit à une exclusion automatique, quelle que soit la raison de ce passage à vide (congé natalité, maladie…) et ce même si la candidature est par ailleurs très bien notée. Cet exemple montre que la qualification n’est pas le seul critère pris en compte. Ces systèmes font d’abord ce pour quoi ils sont programmés : minimiser le temps et le coût passé à recruter ! Pour Hilke Schellmann, ces exemples démontrent que les responsables RH devraient enquêter sur les outils qu’ils utilisent et comprendre les critères de sélection qu’ils mettent en œuvre. Les processus d’embauches automatisés se concentrent bien plus sur la détection de références que sur les capacités des candidats. L’automatisation du recrutement conduit à configurer les systèmes de manière inflexible afin d’en minimiser le nombre. Or, pour Fuller, ces outils devraient surtout permettre d’élargir le recrutement que de le resserrer, ils devraient permettre de s’intéresser aux expériences plus qu’aux compétences, explique-t-il en montrant que nombre de personnes compétentes ne sont pas recrutées parce que leur expérience peut-être sur des compétences similaires, mais dans un autre métier. Les descriptions de postes se complexifient, écartant certains postulants, et notamment les femmes qui ont tendance à postuler que si elles sont convaincues qu’elles satisfont à l’essentiel des exigences d’un poste. Vous aussi entraînez une IA de recrutement ! Les responsables RH comme les recruteurs savent pertinemment que leurs outils ne sont pas toujours pertinents : 88 % d’entre eux reconnaissent que ces outils excluent du processus d’embauche des candidats hautement qualifiés ou tout à fait qualifiés ! Leur efficacité elle-même est limitée, puisque 50 % des employés embauchés ne sont plus en poste 18 mois après leur arrivée. Au final, comme leurs outils, les responsables RH ont souvent bien plus confiance dans les diplômes, la réputation des écoles que dans l’expérience. Les filtres des systèmes fonctionnent comme des proxys : avoir été embauché dans un rôle similaire à celui de l’annonce dans les derniers mois est souvent plus important que de trouver des personnes qui ont des expériences multiples qui devraient leur permettre de s’épanouir dans le poste. La recherche de l’adéquation empêche bien souvent de chercher l’adaptation. Le recrutement, dans sa logique, cherche à minimiser son coût plutôt que de maximiser le capital humain. Et ces systèmes qui visent d’abord à matcher avec des exigences strictes, peinent à favoriser la diversité plutôt que la similarité, les manières dont les gens ont progressé plutôt que les statuts qu’ils ont acquis. Hilke Schellmann n’est pas la seule à s’inquiéter du fonctionnement des systèmes de recrutement. La professeure de droit américaine, Ifeoma Ajunwa, qui a publié l’année dernière The Quantified Worker (Le travailleur quantifié, Cambridge University Press, 2023 non traduit), explique elle aussi que les systèmes d’embauche automatisés réduisent tous les candidats à des scores. Dans ces scores, les pratiques discriminatoires, liées à l’âge, au sexe, à la couleur de peau, au handicap, au niveau social… sont invisibilisées. Or, ces systèmes se déploient sans contrôle, sans régulation, sans audit, sans label de qualité, sans informations aux candidats… Dans une tribune pour Wired, elle demandait à la Fédération du commerce qui régule ces questions aux États-Unis de faire son job : c’est-à-dire contrôler et sanctionner les pires pratiques ! Les systèmes servent à répliquer, amplifier et obfusquer les discriminations à grande échelle, estime la juriste. Dans l’histoire du développement des plateformes d’embauches depuis les années 1990, qu’elle dresse avec Daniel Greene, la principale raison de leur développement repose sur la promesse de réduire les biais de décisions en utilisant des processus techniques « neutres ». C’est pourtant bien à l’inverse qu’on a assisté : les décisions algorithmiques sont devenues le véhicule d’amplification des biais ! Mais, pour la juriste, la question des biais de ces systèmes est bien plus un problème légal que technique. Le problème, c’est que les biais des systèmes sont démultipliés à un niveau sans précédent. « La recherche d’un meilleur fonctionnement technique nous empêche trop souvent de regarder les limites légales de ces systèmes », explique Ajunwa. Trop de données sont des proxies pour contourner les interdictions légales à la discrimination inscrite dans la loi. Les discriminations de race, de genre, sociales… sont déguisées derrière une « nébuleuse adéquation culturelle » des candidats aux offres. Plus que les compétences ou l’expérience, les recruteurs et leurs machines sont à la recherche d’un « matching socio-culturel » qui masque ses motivations discriminatoires d’un couvert de neutralité, qui occulte combien nos stéréotypes acquis influencent en profondeur nos décisions, comme le fait de préférer certaines écoles à d’autres dans les recrutements, ou le fait que les systèmes de recrutements favorisent certains termes sur d’autres. Les exemples de biais de ce type sont nombreux et se démultiplient quand tous les termes d’un CV peuvent devenir prédictifs. C’est ainsi que parfois des prénoms, des formations ou des hobbies ont pu devenir des paramètres clefs de ces systèmes. Les systèmes d’analyse des CV fonctionnent bien trop sur des mots- clefs qui prennent alors des valeurs qui dépassent leur portée. L’avocat spécialiste des questions de travail Ken Willner a ainsi montré que des termes comme « Afric » ou « Latin », qu’ils soient associés à un travail où à un hobby (comme le fait de pratiquer la danse Afro par exemple) pouvaient dégrader le score d’un CV juste parce que la présence du terme renvoie à des publics afro-américains. Sur les douzaines de systèmes d’embauche que l’avocat a examinés, il a trouvé des variables problématiques dans plus d’un quart ! Pour Willner, les entreprises qui développent ces outils ne font même pas le travail liminaire de contrôle et de non prise en compte de termes potentiellement discriminatoires. Willner en a trouvé bien d’autres, comme la pratique du baseball et du softball, le second surtout joué par des femmes, dont l’occurrence pouvait être prise en compte pour dégrader le score des secondes. Les systèmes d’embauche automatisés permettent d’abord d’obscurcir les discriminations. Par exemple, celles liées à l’âge, alors que la loi les interdit. Plusieurs études ont montré que la discrimination liée à l’âge est exacerbée par l’automatisation. Un audit de la banque of America a montré que les gens de plus de 40 ans avaient un taux de rappel suite à une candidature 30 % moins élevée que les plus jeunes pour des emplois de base et que ce taux s’effondrait plus encore pour les femmes de plus de 40 ans. Le problème, estime Ifeoma Ajunwa c’est que ces discriminations liées à l’âge sont facilitées sur les plateformes, comme l’avait souligné une enquête de CNBC. Reste, souligne la juriste, que les disparités de traitements sont difficiles à prouver, d’abord et avant tout parce que les plateformes d’emploi ne sont contraintes à aucune transparence statistique sur ce qu’elles font. Une étude a même montré que pour quelque 600 plaintes pour discrimination raciale à l’emploi aux Etats-Unis, la majorité des jugements rendus peinent à reconnaître la discrimination à l’œuvre. Ajunwa parle « d’autoritarisme de plateforme » pour évoquer les contradictions entre les politiques des plateformes et les législations. Cet autoritarisme masque la relation qu’elles entretiennent avec les candidats comme intermédiaires qui bénéficie bien plus aux employeurs et aux plateformes qu’aux utilisateurs. Pas étonnant dès lors que le public soit très critique à l’égard des plateformes d’embauche, comme le montrait un sondage du Pew sur la très vive défiance du grand public à l’encontre de l’embauche automatisée (avec un autre biais récurrent, qui est de croire que le système a plus de conséquences négatives globalement que pour soi personnellement). Plus que de résoudre les dérives du recrutement, son automatisation a surtout généré un empilement de problèmes, que toute la chaîne de la HR tech tente de mettre sous le tapis, plutôt que de l’affronter. Il n’est pas sûr que ce soit une position longtemps tenable… (à suivre) Texte intégral 4319 mots
De l’automatisation des recrutements : tous scorés !
Survival of the best fit est un jeu en ligne qui permet de comprendre les limites du recrutement automatisé.Discriminations invisibles
L’autoritarisme de plateforme pour obscurcir les discriminations
02.06.2025 à 07:42
Khrys’presso du lundi 2 juin 2025
Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.
Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-) Alors que la planète s’enfonce dans des crises écologiques, sociales et économiques, les appels à un changement de cap radical se multiplient. Cette fois, c’est une voix institutionnelle d’envergure qui prend la parole : l’Université des Nations Unies (UNU-EHS). Dans un rapport alarmant et structurant, elle affirme qu’il ne suffira plus d’adapter le système actuel à la marge. Il faut le transformer en profondeur. Et si, chez les mammifères, la naissance pouvait se passer de l’union des cellules sexuelles d’un père et d’une mère ? Début 2025, une équipe chinoise franchissait une étape inédite en donnant naissance, à partir de deux pères, à des souris qui ont pu atteindre l’âge adulte, bouleversant ainsi des certitudes sur la reproduction sexuée et le rôle du génome paternel. In Taiwan’s AI-fueled chip boom, brokers control everything from paychecks to dorm beds, leaving workers feeling trapped and exploited. Saudi Arabia, Qatar, and the UAE have pledged trillions of dollars in return for access to cutting-edge chips for AI development. Despite overwhelming opposition from civil society, academic experts, and sex workers, the Swedish Parliament voted to adopt a law that expand the criminalisation of sex work. This will have have a chilling effect nationally and internationally, and affect digital rights. Regardless of the final court judgment, this case highlights the urgent need for Poland to implement the DSA. Without its enforcement, users of the largest social media platforms — whether private individuals or CSOs — still stand little chance against the dominance of tech giants. At the start of Pride month, groups report rise in hate crimes as politicians use laws and speeches to target trans people in particular Campagne in lotta est un réseau informel luttant depuis plus d’une décennie contre l’exploitation des travailleur·euses migrant·es, principalement dans le secteur agricole. Leur objectif : s’organiser, malgré la répression, pour démanteler les mécaniques perverses du marché de « l’accueil de migrant·es ». Le 18 avril dernier, Me Ahmed Souab, avocat, ancien magistrat, figure respectée du barreau tunisien, s’exprimait devant la Maison de l’avocat à Tunis. Ce jour-là, en robe, entouré de ses confrères et consœurs, il a osé dire ce que tout le monde sait et voit mais que beaucoup n’osent pas nommer : « La justice est dans une situation de destruction massive, son état ressemble à celui de Gaza. Les couteaux ne sont pas sur les détenus mais sur le président de la Chambre qui va les juger ».[…] Ces paroles – et ces seules paroles – ont suffi à faire de lui, aux yeux du régime, un « terroriste ». Une nouvelle pollution intoxique la Méditerranée : le scrubbing. Pensée pour filtrer les émissions de gaz des navires, cette technologie ne fait que déplacer le mal de l’air vers l’eau, bien aidée par une législation permissive. Les 300 habitants du village de Blatten avaient été évacués il y a neuf jours en raison du danger. Et Réchauffement climatique : après l’effondrement d’un glacier sur un village suisse, les autorités craignent des inondations massives (humanite.fr) Il semble peu probable que le lac fasse se casser soudainement, brutalement cette énorme masse de détritus qui résulte de l’éboulement. C’est peu probable, mais on n’aime pas tellement ce mot peu probable ici depuis hier, parce qu’on sait que peu probable peut devenir probable Devoir re-commander pour atteindre les 65 € de consommation par tête : c’est ce qu’ont vécu ces clients en Belgique. Une règle indiquée à la réservation, et qui peut aussi vous arriver en France. To the dismay of Elon Musk and Mark Zuckerberg, the law currently prevents Big Tech companies from opening banks. But if Congress passes the GENIUS Act, tech firms may start issuing private currencies and forcing us to use them. some timelines might be, shall we say, unrealistic : three new experimental reactors reaching criticality in just over a year. Move is another attempt to make it tougher for China to develop cutting-edge AI hardware. Les revirements incessants de Donald Trump dans ses déclarations sur les droits de douane lui valent un nouveau surnom depuis le début du mois : « TACO trade ». Cet acronyme, inventé par le chroniqueur du Financial Times Robert Armstrong, signifie « Trump Always Chickens Out » – ou « Trump se dégonfle toujours ». Le multimilliardaire retourne à son business sans avoir mené à bien sa tâche de remodelage de l’État fédéral, mais les dégâts qu’il a causés en quelques semaines sont déjà immenses. Son parcours politique ressemble à celui de ses fusées : une explosion en vol. Voir aussi Elon Musk signe son dernier jour dans l’Administration Trump ce mercredi (lefigaro.fr) S’il fait ses valises en milieu de semaine, cela n’est pas par hasard. Au-delà de 130 jours en poste au DOGE, le milliardaire aurait dû passer devant le Congrès pour publier ses comptes et remplir des obligations de contrôle et de transparence. Malgré les échecs et les explosions, Elon Musk et SpaceX multiplient les essais sur la mégafusée Starship pour mener à bien son projet : « Coloniser Mars ». Situé au cœur de l’Amazonie, l’État de l’Amapa (Brésil) est grand comme l’Hexagone. Là-bas, les ouvrier·es de la forêt sont de plus en plus nombreux·ses à défendre une gestion durable de celle-ci, tandis que d’autres sont toujours sous l’emprise des groupes criminels, au service de l’exploitation illégale du bois. Brazil is piloting dWallet, a project that lets citizens earn money from their data. It is ahead of similar U.S-based initiatives. Éducation, transport, énergie, médias : une multiplicité de secteurs sont frappés par une restriction du droit de grève, pourtant inscrit dans la Constitution argentine. Un décret signé le 20 mai par le gouvernement d’extrême-droite de Javier Milei leur impose de maintenir l’activité à 75 % minimum. Une nouvelle étude internationale publiée aujourd’hui dans la revue Science, révèle que Mycobacterium lepromatosis, une bactérie récemment identifiée qui cause la lèpre, infecte les humains en Amérique depuis au moins 1 000 ans, soit plusieurs siècles avant le contact européen. Une étude dirigée par la chercheuse française du CNRS Caroline Freissinet a permis de détecter, sur la planète rouge, les plus grosses molécules identifiées à ce jour. For the first time, scientists have caught a key driver of the ongoing erosion of the atmosphere of Mars in action. It took more than nine years’ worth of satellite data, but a team led by planetary scientist Shannon Curry of the University of Colorado Boulder has finally detected unmistakable signs of atmospheric sputtering. Google a imaginé quelques temps donner le choix aux sites de presse et d’information concernant leur nouveau service de recherche amélioré par intelligence artificielle : autoriser ou non l’IA à venir fouiller dans les données des sites. Si le document parlait de laisser le choix indépendamment du référencement dans le moteur de recherche « standard », cette possibilité a été rapidement écartée par Alphabet. À la place, les plateformes n’ont qu’un choix possible, tout ou rien : soit accepter le référencement ET l’IA, soit sortir totalement de Google. Expert analysis shows Anthropic’s attempts to skip chatbot praise and avoid copyrighted content. A chaos monkey disguised as a teammate. No tests. No profiling. No understanding of side effects or performance impact. Just blind clicking and tapping and typing. The programming equivalent of punching your TV to make the static stop. GitHub will soon start allowing GitHub users to submit issues which they did not write themselves and were machine-generated. I would consider these issues/PRs to be both a waste of my time and a violation of my projects’ code of conduct. La chaire “Futurs de l’industrie et du travail : formation, innovation, territoires” (au sein de la Fondation des Mines Paris), publie un rapport bien documenté autour des usages de l’intelligence artificielle générative (IA Gen) avec une focalisation sur le monde du conseil. Les auteurices, Marie-Laure Cahier et Pierre Quesson, ont mené l’enquête dans deux cabinets. Some leaders are starting to realize the extent to which AI has broken their ability to prioritize and ship value. Others are still doubling down AI systems are an attack on workers, climate goals, our information environment, and civil liberties. Rather than enhancing our human qualities, these systems degrade our social relations, and undermine our capacity for empathy and care. The push to adopt AI is, at its core, a political project of dehumanization, and serious consideration should be given to the idea of rejecting the deployment of these systems entirely, especially within Canada’s public sector. So-called ‘AI’ does not reduce, but rather diffuses and renders labour practically invisible. Les racines du scandale remontent à l’époque où Engineer.ai prétendait que sa plateforme était autonome – mais derrière l’AI, beaucoup d’humains en sueur tapaient le vrai code, selon le Wall Street Journal. Gayanne Potter is one of the UK’s leading voiceover artists and features in adverts for B&Q, Este Lauder and Apple, but her voice has now been used without her knowing. Prediction : General-purpose AI could start getting worse The incident happened at around midday as the Irish soldiers of the 126th Infantry Battalion were patrolling with soldiers from the Lebanese Armed Forces. Israël a annoncé jeudi la création de 22 nouvelles colonies juives en Cisjordanie occupée. Une décision qui pourrait renforcer l’isolement diplomatique de l’État hébreu le rouleau compresseur du « mirage rose » a fait long feu, à l’heure où Israël tente de faire disparaître les Palestiniens, hétéros comme homos, de Gaza et de la Cisjordanie. À Gaza, les morts se comptent par dizaines de milliers, mais les chiffres seuls n’ont plus de sens. Iels s’appelaient Amina, Youssef, Amna… Des vies brisées qu’il faut regarder en face, une à une. Dénoncer un massacre en cours en Palestine, proposer des espaces académiques d’analyse et de discussion critique de la politique menée par l’État israélien a valu à nombre d’enseignant·es et de chercheureuses français·es des sanctions disciplinaires ou des poursuites judiciaires pour « apologie du terrorisme ». Why has Sangita Myska (LBC) not been on the air since interviewing Israeli Government spokesman, Avi Hyman, in April ? Des millions vivent leurs règles dans la précarité, le silence ou l’humiliation. Parce que les menstruations restent taboues, elles entraînent de fortes inégalités sociales et de genre et génèrent des risques pour la santé. Pour le Planning familial et Plan international, « faire du droit à la santé menstruelle une réalité pour tous·tes, c’est faire un pas décisif vers l’égalité. Il est temps de le franchir. » A growing number of incels are NEET (Not in Education, Employment, or Training). That should concern us all. The young lawmaker is leading the fight to preserve Māori rights. L’examen va devenir inévitable pour les athlètes si elles souhaitent prendre part aux événements organisés par World Boxing. Le jeune homme de 23 ans a dit à son amie “qu’elle devrait rester dans la cuisine à faire des scones” si elle ne pouvait pas supporter de boire avec les garçons […] La jeune femme, alors sous l’emprise de l’alcool et de stupéfiants, s’est emparée d’un gallon d’essence dans le garage et a aspergé son ami. Elle a ensuite agité un briquet de manière menaçante : “Vas-y, fais-le”, lui a crié Jake Loader. Son amie l’a touché avec le briquet, ce qui a enflammé le jeune homme. Jake Loader a subi des brûlures sur 55 % de son corps. Il a dû subir 10 opérations et a passé 74 jours dans l’unité des grands brûlés d’un hôpital de Melbourne. L’exploration des télégrammes diplomatiques révélés par WikiLeaks en 2010 montre que les dirigeants du Parti socialiste essayaient d’amadouer Washington en se déclarant pro-américains mais aussi… pro-européens. Les conversations secrètes entre les « éléphants » et les diplomates états-uniens dévoilent une ingérence américaine dans la campagne pour le référendum sur le traité constitutionnel européen en 2005. Les médias ont totalement occulté cet épisode, y compris Le Monde, pourtant partenaire de WikiLeaks sur le dossier « Cablegate ». Les dirigeants du CAC40 ne cachent pas leur agacement d’être interrogés par des commissions d’enquête parlementaires. Mais n’est-ce pas surtout le signe qu’ils ne sont pas habitués au jeu démocratique ? En 2024, les avantages accordés aux « ex » de Matignon ont représenté un budget de 1,58 million d’euros. Dominique de Villepin obtient la première place. Lors de l’examen du projet de loi de « simplification », une majorité de députés a approuvé la suppression, mercredi 28 mai au soir, des Zones à faibles émissions (ZFE). Une décision qui doit encore être confirmée par le vote sur l’ensemble du texte, et le cas échéant par le Conseil constitutionnel. Dernier maire de droite de la capitale, de 1995 à 2001, ce fidèle de Jacques Chirac est décédé à l’âge de 90 ans. Longtemps maire du 5e arrondissement, l’élu a été empêtré dans des affaires judiciaires, notamment de fraude électorale. La pollution à la dioxine des abords de l’incinérateur de déchets d’Ivry-sur-Seine (Val-de-Marne) se confirme. Le Monde a relayé le 27 mai les mesures de polluants réalisées par le Syctom […] Elles confirment que les niveaux de dioxine les plus élevés ont été mesurés dans un rayon d’un kilomètre autour de l’incinérateur. À partir du 1er juillet, allumer une cigarette dans les lieux publics extérieurs fréquentés par des enfants sera interdit en France. Sont concernés “les plages, parcs et jardins publics, abords des écoles, abris de bus, équipements sportifs”, a détaillé ce jeudi 29 mai la ministre de la Santé Catherine Vautrin. L’avenir de l’emblématique papeterie de Grand-Couronne est toujours suspendu à l’intervention de l’État, aux abonnés absents pendant des semaines. Les meurtres de femmes sont pourtant au cœur de son texte. Le Commissariat à l’énergie atomique a orchestré une campagne de propagande visant à discréditer les révélations de « Toxique », l’enquête de Disclose sur les conséquences des essais nucléaires en Polynésie française. Mercredi 28 mai, la cour criminelle du Morbihan a condamné Joël Le Scouarnec, un chirurgien de 74 ans, à vingt ans de réclusion — dont deux tiers de peine de sûreté — pour des viols et des agressions sexuelles commises sur 299 personnes, majoritairement des enfants, entre 1989 et 2014. Voir aussi « Je me souviendrai toute ma vie de ce verdict » (politis.fr) L’une des 299 victimes de Joël Le Scouarnec, Gabriel Trouvé, 34 ans, réagit au verdict d’un procès qu’il juge particulièrement décevant. Suite aux fuites sur le rapport concernant les Frères musulmans, le chef de l’État est entré « dans une colère froide ». Un élément de langage transmis volontairement par l’Élysée aux journalistes, et largement repris. L’Élysée aurait tort de changer de stratégie. S’il se défend depuis des mois de ne pas avoir été au courant des violences physiques et sexuelles commises à Notre-Dame-de-Bétharram, une enquête du journal Mediapart, met en cause le Premier ministre et remet également en doute les preuves apportées par François Bayrou sur son site, avant qu’il ne devienne inaccessible. Une résistante tout sourire aux côtés d’un soldat de la Wehrmacht ? Vous n’en rêviez pas, les réseaux sociaux du gouvernement l’ont fait quand même. Voir aussi Le gouvernement retire une vidéo générée par IA sur la Résistance, à la suite d’une erreur historique (lemonde.fr) et « C’est comme si on privatisait le discours historique mémoriel » : le gouvernement publie – puis supprime – une vidéo sur la Résistance générée par IA et truffée d’erreurs (humanite.fr) Le collectif marseillais Le Nuage était sous nos pieds dénonce le projet de loi de la « simplification de la vie économique », qui vise à accélérer la création de centres de données polluants et énergivores en France. Derrière les 20 milliards d’euros d’investissement annoncés par Emmanuel Macron se cache une crise de l’industrie jamais abordée par le sommet Choose France. Le sommet est peu créateur d’emplois, alors que les plans sociaux se multiplient ces dernières années. La CGT vient de publier une carte actualisée des plans de suppression d’emploi. Depuis septembre 2023, près de 90 000 emplois directs sont menacés ou supprimés. Un chiffre qu’Emmanuel Macron ignore. Pire, lui et ses gouvernements refusent toute intervention politique pour endiguer cette saignée sociale. Voir aussi Incendie(s) (humanite.fr) Est-il utile de rappeler que jamais notre économie contemporaine n’aura connu une telle situation ? Une saignée historique, qui pourrait concerner jusqu’à 300 000 emplois directs, auxquels il conviendra d’ajouter les effets domino sur les fournisseurs, les villes, etc. La CGT relève également la part importante du nombre de plans de suppression de postes dans le secteur public et le domaine du sanitaire et du social : près de 6 500 postes détruits. À l’heure des célébrations des 80 ans de la création de la Sécurité sociale et alors que la CGT s’apprête à souffler ses 130 bougies, la Macronie et son gouvernement de droite entendent parachever le détricotage des conquis de 1945, en s’attaquant à son mur porteur : le financement de la protection sociale. Sans attendre le procès en appel sur le fond, la cour administrative a réautorisé, ce mercredi 28 mai, le chantier stoppé il y a trois mois, au risque que la construction de la voie rapide soit achevée avant d’être définitivement tranchée. Les opposant·es appellent à une nouvelle mobilisation. Une étude exclusive, réalisée par Politis et Data for Good, montre l’influence majeure de la FNSEA sur les débats de la loi visant à « lever les contraintes à l’exercice du métier d’agriculteur ». 37 % des amendements déposés par les parlementaires hors-NFP sont des demandes directes du puissant syndicat agricole. Il est des jours au cours desquels de violents télescopages devraient aider à ouvrir les yeux. En voici trois dans la même journée du 27 mai. Alors qu’en juin doivent entrer en vigueur les décrets appliquant les sanctions prévues par la loi plein emploi, la Quadrature du Net révèle que France Travail utilise des robots pour contrôler les chômeurs. Une procédure algorithmique qui permet de sanctionner plus vite. En parallèle, l’organisme développe l’IA dans tous ses services. le Maire de Nice a fait part de son courroux. La gauche juge l’expression « indigne » d’un ministre de l’Intérieur, tandis que le RN point le « fiasco » sécuritaire de la soirée. Le ministre de l’intérieur, trouvera-t-il le temps, entre deux saillies sur les dangers du wokisme et de l’immigration, de dissoudre ce groupe néo-nazi ? Le collectif Némésis s’est rendu le 27 mai au meeting unitaire contre les OQTF porté par le collectif des Jeunes du Parc de Belleville. Affichant des slogans xénophobes, des heurts ont éclaté avec des sympathisants. Les vidéos de l’altercation ont donné lieu à un déchaînement de violence sur les réseaux sociaux, sans réel soutien des responsables politiques de gauche aux militant·es impacté·es. Le mis en cause a également blessé, samedi soir, un autre de ses voisins, de nationalité turque. Il a « diffusé avant et après son passage à l’acte deux vidéos sur son compte d’un réseau social au contenu raciste et haineux », a fait savoir le procureur. Présentation du site Surveillance under Surveillance, un outil permettant de répertorier et cartographier les caméras partout dans le monde. Twenty years after the conclusion of the World Summit on the Information Society (WSIS), we find ourselves in a now-or-never moment. The vision of a people-centered, inclusive, and development-oriented digital order has never seemed more elusive, yet so urgent, to claim. The new digital order dictated by corporate greed and state control is, unfortunately, a far cry from the ideals of the WSIS consensus. (See the Global Digital Justice Forum’s Johannesburg Communique for our analysis of what is wrong with the status quo.) The weaponization of data and AI has already seen widespread job precarity, misinformation, war crimes, the climate catastrophe, and more. Our autonomy, agency, shared humanity, and planetary well-being are under siege. We need Digital Justice, Now ! Ce mercredi 28 mai, 250 personnes sont venues apporter leur soutien à une professeure, suspendue après avoir organisé une minute de silence en hommage aux victimes de bombardements à Gaza. Près du ministère de l’Éducation nationale, tou·tes dénoncent la répression de ces sujets dans l’enseignement. Aggiornamento, un collectif d’enseignant·es, estime qu’éviter de parler de génocide à Gaza en classe relève d’une posture politique contraire à la « neutralité » demandée aux professeurs par le ministère, alors que le rectorat de Dijon a suspendu une professeure pour un hommage aux victimes gazaouies. « Stop au bain de sang », « Macron doit enfin agir » : une poignée de militants se sont donnés rendez-vous en début de matinée à la fontaine des Innocents, dans la capitale française, où ils ont déversé plusieurs litres de colorant alimentaire rouge sur les marches du bassin et brandi des pancartes appelant les autorités à l’action face au désastre humanitaire à Gaza. Face au massacre des enfants palestiniens, des mères de France appellent à marcher le 15 juin devant l’Élysée pour exiger des sanctions contre Israël et des actions immédiates de la part d’Emmanuel Macron. L’Assemblée pour des soins antiracistes et populaires, dans une lettre ouverte, demande à la Société française de pédiatrie de faire pression sur les autorités françaises afin d’obtenir une action diplomatique internationale auprès du gouvernement israélien. Treize activistes ont été jugé·es pour une action de désobéissance civile contre les jets privés. Au-delà des faits reprochés, le procès soulève une question : celle de la légitimité de mener des actions illégales face à l’urgence climatique. Après l’annonce de l’autorisation de reprise du chantier de l’A69, les opposant·es à cette autoroute ont organisé des rassemblements partout en France. De nombreuses voix de la société civile se sont élevées pour dire leur indignation après le vote, le 26 mai, par les députés du centre et de la droite, d’une résolution de rejet « tactique » contre leur propre texte, pour éviter un débat en séance plénière et envoyer le texte décrié directement en commission mixte paritaire. Le Projet de Loi de Finance 2025 adopté en force par le parlement annonce un véritable « carnage associatif ». Protection et accompagnement des personnes, aide sociale, culture et éducation populaire, défense des droits, solidarité internationale, écologie, sport … le choc est immense dans le monde associatif et solidaire pourtant indispensable à la vitalité démocratique et au tissu social. Amplifié par de nombreuses collectivités locales pratiquant la même politique de la terre brûlée, l’effet domino est terrible et aucune association, aucune initiative citoyenne ne sera épargnée. Alors qu’ArcelorMittal a annoncé un vaste plan de suppressions de postes, la CGT a décidé d’entamer une « guerre » pour préserver les emplois et éviter le départ du producteur d’acier de l’Hexagone. Ce week-end, en plein 78e Festival de Cannes, trois installations électriques ont été sabotées dans les Alpes-maritimes. Un poste électrique incendié à Tanneron, un pylône scié près de Villeneuve-Loubet, et un transformateur incendié à l’ouest de Nice provocant « une panne d’électricité géante » Voir aussi Communiqué sur les sabotages de la Côte d’Azur (lagrappe.info) Alors que plus de 200 000 personnes manquent dans la restauration, les violences qui y règnent expliquent de nombreux départs. L’association Bondir·e, créée en 2020 par des cheffes, sensibilise les futurs professionnels au caractère inacceptable de pratiques trop longtemps tolérées. Lyon célèbre ce week-end les 50 ans de l’occupation de l’église Saint-Nizier par les travailleurs et travailleuses du sexe (TDS). Une date désormais ancrée dans les mémoires, bien au-delà des frontières, mais qui rappelle que même à Lyon, les droits des TDS restent encore à conquérir. une discussion sérieuse sur la réparation commence par la reconnaissance de l’irréparable, c’est-à-dire l’impossibilité de « solutionner » ou de gérer le désastre nucléaire comme un simple paramètre de plus dans l’administration des choses. Parmi les principes fondamentaux de l’ONU concernant le droit à la réparation figure la garantie de non-répétition14 : réparer le passé, c’est déjà garantir que des faits similaires ne se produiront plus dans le futur. Considérant que l’industrie nucléaire, tant civile que militaire, repose sur une chaîne de production et de contaminations coloniales irréversibles, il est antithétique de proclamer une « paix » sans avoir préalablement procédé à une dénucléarisation et à une décolonisation totales des sociétés française et maohi. When acquiring a new laptop you often end up dealing with an imposed pre-installed Microsoft Windows operating system. Even if you do not want to use it, you still need to pay for the Windows license. This is unfair. The Refund4Freedom initiative guides users in how to get their money back in these cases and demands the end of this practice that limits user freedom. Signal Desktop now includes support for a new “Screen security” setting that is designed to help prevent your own computer from capturing screenshots of your Signal chats on Windows. This setting is automatically enabled by default in Signal Desktop on Windows 11. The concept of consent doesn’t exist on the modern internet. You didn’t read the terms of service. You didn’t agree to accept cookies. I didn’t consent to having my site pulled into the training model for that artificial intelligence system that’s going to use to sell the fruit of my labor for profit. I didn’t agree to have my activity tracked across all these different websites and cobbled together into a creepy and inaccurate profile of my preferences that gets sold without my permission. Nobody asks for anything, they just take it. There’s not even an acknowledgement, that any of this stuff is happening let alone a conversation about it. Every time I open up a Google doc I’m hit in the face by this giant ass-button telling me that I’m probably not good enough to do what I’m trying to do. I should reconsider trying to do it on my own. I’m inadequate. My mother as a button.The weight of an entire industry attempting to convince me that I’m inadequate is infuriating. […] And while it would be one thing to build tools that help people who need help, we need to be very clear that’s now what’s happening. We are not building people up by giving them helpful tools, we are tearing people down by convincing them they can’t function without the tools. And we are doing this purely because very rich oligarchs would like to become richer. There is nothing benevolent about it. According to novelist Elif Shafak, the platform suggested she make her talk shorter because viewers can’t focus for 19 minutes. Now … where was I ? To the extent that personal computing had a politics, it was a politics of independence, not social justice Inside the world of extreme-privacy consultants, who, for the right fee, will make you and your personal information very hard to find Humilier – opprimer – néantiser Il y a 50 ans dans le quartier Cordeliers à Lyon, des dizaines de prostituées occupent l’église Saint-Nizier pour dénoncer le harcèlement qu’elles subissent de la part de la police. Ce geste fait boule de neige et bientôt des dizaines d’églises en France sont occupées pour que le regard que l’on porte sur celles que l’on appelle encore filles de joie, change. Cette semaine on revient sur l’histoire de cette occupation et à travers le témoignage d’un travailleur du sexe et d’une danseuse de pole dance, on essaie de mesurer quel chemin a été parcouru depuis par celles et ceux qui de près ou de loin ont affaire au travail du sexe. Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog. Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys). 10404 mots
Brave New World
RIP
Spécial IA
Spécial Palestine et Israël
Spécial femmes dans le monde
Spécial France
Spécial femmes en France
Spécial médias et pouvoir
Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)
Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…
Spécial résistances
Spécial outils de résistance
Spécial GAFAM et cie
Les autres lectures de la semaine
Les BDs/graphiques/photos de la semaine
Les vidéos/podcasts de la semaine
Soutenir
Les trucs chouettes de la semaine
01.06.2025 à 09:00
Inférences : comment les outils nous voient-ils ?
Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 18 mars 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA. Dans le miroir des données inférées, qui sommes-nous ? Et comment arrêter ce délire d’hallucinations ? Comment les systèmes interprètent-ils les images ? Ente, une entreprise qui propose de chiffrer vos images pour les échanger de manière sécurisée sans que personne d’autres que ceux que vous autorisez ne puisse les voir, a utilisé l’API Google Vision pour montrer comment les entreprises infèrent des informations des images. C’est-à-dire comment ils les voient, comment les systèmes automatisés les décrivent. Ils ont mis à disposition un site pour nous expliquer comment « ILS » voient nos photos, qui permet à chacun d’uploader une image et voir comment Google Vision l’interprète. Le procédé rappelle le projet ImageNet Roulette de Kate Crawford et Trevor Paglen, qui renvoyait aux gens les étiquettes stéréotypées dont les premiers systèmes d’intelligence artificielle affublaient les images. Ici, ce ne sont pas seulement des étiquettes dont nous sommes affublés, mais d’innombrables données inférées. Pour chaque image, le système produit des informations sur le genre, l’origine ethnique, la localisation, la religion, le niveau de revenu, les émotions, l’affiliation politique, décrit les habits et les objets, pour en déduire des passe-temps… mais également des éléments de psychologie qui peuvent être utilisés par le marketing, ce qu’on appelle les insights, c’est-à-dire des éléments permettant de caractériser les attentes des consommateurs. Par exemple, sur une des images en démonstration sur le site représentant une famille, le système déduit que les gens priorisent l’esthétique, sont facilement influençables et valorisent la famille. Enfin, l’analyse associe des mots clefs publicitaires comme albums photos personnalisé, produits pour la peau, offre de voyage de luxe, système de sécurité domestique, etc. Ainsi que des marques, qui vont permettre à ces inférences d’être directement opérationnelles (et on peut se demander d’ailleurs, pourquoi certaines plutôt que d’autres, avec le risque que les marques associées démultiplient les biais, selon leur célébrité ou leur caractère international, comme nous en discutions en évoquant l’optimisation de marques pour les modèles génératifs). Autant d’inférences probables, possibles ou potentielles capables de produire un profil de données pour chaque image pour leur exploitation marketing. Comme l’explique le philosophe Rob Horning, non seulement nos images servent à former des modèles de reconnaissance d’image qui intensifient la surveillance, mais chacune d’entre elles produit également des données marketing disponibles pour tous ceux qui souhaitent les acheter, des publicitaires aux agences de renseignement. Le site permet de voir comment des significations sont déduites de nos images. Nos photos, nos souvenirs, sont transformés en opportunités publicitaires, identitaires et consuméristes, façonnées par des logiques purement commerciales (comme Christo Buschek et Jer Thorp nous l’avaient montré de l’analyse des données de Laion 5B). L’inférence produit des opportunités, en ouvre certaines et en bloque d’autres, sur lesquelles nous n’avons pas la main. En nous montrant comment les systèmes interprètent nos images, nous avons un aperçu de ce que, pour les machines, les signifiants signifient. Mais tout n’est pas parfaitement décodable et traduisible, transparent. Les inférences produites sont orientées : elles ne produisent pas un monde transparent, mais un monde translucide. Le site They see your photos nous montre que les images sont interprétées dans une perspective commerciale et autoritaire, et que les représentations qu’elles produisent supplantent la réalité qu’elles sont censées interpréter. Il nous permet de voir les biais d’interprétation et de nous situer dans ceux-ci ou de nous réidentifier sous leur répétition. Nous ne sommes pas vraiment la description produite de chacune de ces images. Et pourtant, nous sommes exactement la personne au cœur de ces descriptions. Nous sommes ce que ces descriptions répètent, et en même temps, ce qui est répété ne nous correspond pas toujours ou pas du tout. Exemples d’intégration d’images personnelles dans TheySeeYourPhotos qui montrent les données qui sont inférées de deux images. Et qui posent la question qui suis-je ? Gagne-je 40 ou 80 000 euros par mois ? Suis-je athée ou chrétien ? Est-ce que je lis des livres d’histoire ou des livres sur l’environnement ? Suis-je écolo ou centriste ? Est-ce que j’aime les chaussures Veja ou les produits L’Oréal ? L’autre démonstration que permet le site, c’est de nous montrer l’évolution des inférences publicitaires automatisées. Ce que montre cet exemple, c’est que l’enjeu de régulation n’est pas de produire de meilleures inférences, mais bien de les contenir, de les réduire – de les faire disparaître voire de les rendre impossibles. Nous sommes désormais coincés dans des systèmes automatisés capables de produire de nous, sur nous, n’importe quoi, sans notre consentement, avec un niveau de détail et de granularité problématique. Le problème n’est pas l’automatisation publicitaire que ce délire de profilage alimente, mais bien le délire de profilage automatisé qui a été mis en place. Le problème n’est pas la qualité des inférences produites, le fait qu’elles soient vraies ou fausses, mais bien le fait que des inférences soient produites. La prévalence des calculs imposent avec eux leur monde, disions-nous. Ces systèmes sont indifférents à la vérité, expliquait le philosophe Philippe Huneman dans Les sociétés du profilage (Payot, 2023). Ils ne produisent que leur propre renforcement. Les machines produisent leurs propres mèmes publicitaires. D’un portrait, on propose de me vendre du cognac ou des timbres de collection. Mais ce qu’on voit ici n’est pas seulement leurs défaillances que leurs hallucinations, c’est-à-dire leur capacité à produire n’importe quels effets. Nous sommes coincés dans un régime de facticité, comme le dit la philosophe Antoinette Rouvroy, qui finit par produire une vérité de ce qui est faux. Pourtant, l’enjeu n’est pas là. En regardant très concrètement les délires que ces systèmes produisent on se demande surtout comment arrêter ces machines qui ne mènent nulle part ! L’exemple permet de comprendre que l’enjeu n’est pas d’améliorer la transparence ou l’explicabilité des systèmes, ou de faire que ces systèmes soient plus fiables, mais bien de les refuser. Quand on comprend la manière dont une image peut-être interprétée, on comprend que le problème n’est pas ce qui est dit, mais le fait même qu’une interprétation puisse être faite. Peut-on encore espérer un monde où nos photos comme nos mots ne sont tout simplement pas interprétés par des machines ? Et ce alors que la grande interconnexion de celles-ci facilite ce type de production. Ce que nous dit « They see your photos », c’est que pour éviter ce délire, nous n’avons pas d’autres choix que d’augmenter considérablement la confidentialité et le chiffrement de nos échanges. C’est exactement ce que dit Vishnu Mohandas, le développeur de Ente. Hubert Guillaud MÀJ du 25/03/2025 : Il reste une dernière inconnue dans les catégorisations problématiques que produisent ces outils : c’est que nous n’observons que leurs productions individuelles sur chacune des images que nous leur soumettons… Mais nous ne voyons pas les catégorisations collectives problématiques qu’ils peuvent produire. Par exemple, combien de profils de femmes sont-ils catalogués comme à « faible estime de soi » ? Combien d’hommes catégorisés « impulsifs » ? Combien d’images de personnes passées un certain âge sont-elles caractérisées avec des mots clés, comme « alcool » ? Y’a-t-il des récurrences de termes selon le genre, l’âge putatif, l’origine ou le niveau de revenu estimé ?… Pour le dire autrement, si les biais individuels semblent innombrables, qu’en est-il des biais démographiques, de genre, de classe… que ces outils produisent ? L’exemple permet de comprendre très bien que le problème des biais n’est pas qu’un problème de données et d’entraînement, mais bien de contrôle de ce qui est produit. Ce qui est tout de suite bien plus problématique encore… Texte intégral 2246 mots
Sommes-nous ce que les traitements disent de nous ?
Un monde indifférent à la vérité
Où est le bouton à cocher pour refuser ce monde ?