De quoi le développement tous azimuts du scoring – pour le calcul des prestations sociales, pour le prix des biens sur les plateformes – est-il le nom ? Dans son dernier ouvrage Les algorithmes contre la société (La Fabrique, avril 2025), le journaliste Hubert Guillaud propose une réflexion sur ses conséquences anti-démocratiques. Il revient sur les risques impliqués par ces transformations invisibles, laissées hors du champ de la délibération citoyenne. Entretien par Audrey Woillet et Simon Woillet.
LVSL – L’une des promesses du numérique appliqué aux services publics est de créer davantage de transparence, d’automatiser la remontée d’informations, donc de favoriser une forme d’immédiateté entre le citoyen et l’administration. Vous montrez dans
Hubert Guillaud – Pour moi, le premier écueil, avant même celui de l’opacité, est cette croyance selon laquelle l’information circule et se produit toute seule, automatiquement. Les données seraient comme un liquide qui alimenterait une chaîne d’information fluide, cascade après cascade : un automatisme qui se suffirait à lui-même.
Prenez l’exemple de la CAF. Pour calculer les droits des allocataires, la CAF récupère des informations salariales transmises par les entreprises. Lorsqu’une entreprise remplit une fiche de paie, elle déclare, en amont, les montants qui ont été versés. Ces données basculent ensuite dans des bases utilisées par la CAF, qui calcule alors les droits des allocataires. On a alors l’impression que tout s’enchaîne magiquement. Mais ce n’est pas si simple.
D’abord, il n’y a pas de date de référence unique. Certaines entreprises paient leurs salariés le 25 ou le 28, d’autres le 2, 3, 10 ou 15 du mois. Il y a des effets rétroactifs : les tickets restaurants, certaines mutuelles, sont souvent régularisés le mois suivant. Il est donc illusoire de croire qu’au 30 du mois, on connaît précisément les revenus d’un foyer, et que cela permet de calculer automatiquement les aides auxquelles il a droit. L’ingénieur qui conçoit ces systèmes part souvent du cas moyen d’une personne mariée avec deux enfants et un salaire fixe chaque mois. Ce cas est stable, et donc les calculs fonctionnent bien. Mais il ne reflète pas la diversité des situations.
Pour tous les autres – contrats précaires, emplois discontinus, changements fréquents – le système dysfonctionne. Et c’est ce qui se passe à la CAF. On parle d’un « score de risque de fraude », mais le mot « fraude » est trompeur. Il s’agit en réalité de problèmes d’indus. Un mois, la personne reçoit trop, le mois suivant, elle reçoit moins, ou doit rembourser. Ce ne sont pas des fraudes, ce sont des erreurs d’appariement dans cette prétendue fluidification de l’information. Avant même la question de la transparence ou de l’opacité, il y a ce mythe d’une information parfaite.
C’est la même chose dans le domaine médical. On imagine que les analyses sanguines seraient disponibles en temps réel, parfaitement exploitables. Mais une analyse seule ne dit rien. Il faut la comparer à d’autres, à des moyennes, à des éléments de contexte. Il ne suffit pas d’un flux d’informations parfait.
Ensuite, il y a effectivement le mythe de la transparence des calculs. La « loi pour une République numérique » de 2016 stipule que les calculs doivent être transparents, compréhensibles, explicables aux citoyens. Pour imposer la transparence, il faudrait exiger que les acteurs publient certains types d’informations dont nous ne disposons pas publiquement aujourd’hui, comme les données brutes. Or, ce qu’on demande aujourd’hui aux entreprises, c’est de publier des rapports d’analyse, pas les données brutes. Et sans données brutes, on n’a pas l’information réelle.
On n’a que ce que les entreprises choisissent d’interpréter. La « loi pour une République numérique » voulait imposer une transparence des scores. Dès qu’un score est produit, il doit être justifié, expliqué. Le droit européen prévoit également des exigences de transparence importantes. Par exemple, une banque, dans l’Union européenne, qui refuse un prêt, doit expliquer pourquoi. Mais, dans les faits, ces explications sont souvent vagues, peu informatives. La transparence de l’information est loin d’être garantie, et celle des calculs encore moins. On essaie pourtant de plaider pour un meilleur accès à ces données.
De nombreux chercheurs et institutions réclament de connaître les jeux de données d’entraînement des moteurs d’intelligence artificielle, pour identifier les biais, les sources et les paramètres visés. Notamment à travers l’accès aux méthodologies de collecte, nettoyage, annotation et traitement de ces données « brutes ». Mais ces demandes restent lettre morte. On ne sait donc pas vraiment ce qui se cache derrière une partie essentielle de l’entraînement des grands modèles de langage. Officiellement, ces bases de données restent inaccessibles.
C’est la même chose pour les modalités de calcul et de modération de ces systèmes. Tout est opaque. Ces calculs sont devenus des leviers de pouvoir majeurs. Et cette opacité se retrouve aussi dans les administrations publiques, qui calculent des droits pour les citoyens sans dévoiler ni les données utilisées, ni les méthodes de calcul. Et évidemment, cette exigence de transparence ne concerne pas seulement les services publics.
Les refus de prêts, les pratiques assurantielles, la « débancarisation » sont des enjeux à fort impact social, qui devraient eux aussi être publics, transparents et régulés. Les services à impact social devraient rendre publiques leurs données et transparentes leurs modalités de traitement et de score.
LVSL – Quels sont les implications politiques de la généralisation des mécanismes de scoring ?
HG – Tous ces systèmes de calcul – logiciels, programmes, algorithmes, intelligences artificielles – ont pour but, lorsqu’ils s’intéressent aux questions sociales, de trier, scorer et appareiller. Trier, c’est distinguer, discriminer des individus, des populations, des biens, etc. Scorer, c’est attribuer une note, un score aux choses, pour pouvoir ensuite les différencier.
Par exemple, aujourd’hui, l’attribution d’une greffe de rein passe par un score calculé selon de nombreux critères médicaux, sociodémographiques, etc., qui permet de départager deux candidats à la greffe. Appareiller, c’est relier deux éléments scorés : un étudiant et une formation, par exemple. L’étudiant est scoré, la formation aussi, et on les fait se correspondre. L’essence même du calcul, c’est de produire des scores.
Il faut comprendre que toute la démarche du calcul social, le scoring à la chinoise, existe déjà chez nous. C’est la manière dont fonctionnent les banques, les assurances, etc. Elles produisent des statistiques et des métriques globales pour comprendre les risques, et des métriques individualisées pour adapter leurs services à chacun.
Avec le numérique, le but est de produire des scores. Un CV que vous envoyez à une entreprise est d’abord lu par une machine. Il est analysé, scoré, selon les mots utilisés, leur tonalité, leur adéquation avec ceux de l’annonce…
LVSL – Avec ce paradoxe que, tout en se réclamant de l’État de droit, on se retrouve avec un système plus opaque que le modèle chinois, en un sens. Chez nous, la transparence est absente pour le citoyen, pour l’usager.
HG – Effectivement, les services publics n’ont pas toujours été exemplaires. Cela dit, il existe dans la fonction publique une culture de la transparence et de l’accès à l’information, avec par exemple le droit d’accès aux documents administratifs via les demandes CADA. Mais ces règles sont mises à mal par la généralisation des systèmes de calcul. L’informatisation a été faite par couches successives, et elle devient aujourd’hui très difficile à maîtriser.
Quand des citoyens sont obligés de saisir le Conseil d’État pour obtenir les modalités de calcul du score de risque à la CAF, on voit bien qu’il y a une tension. Ces systèmes, en produisant des scores, et donc par nature des discriminations, deviennent embarrassants pour les administrations. Parce que si l’on regarde de près comment ces scores sont construits, on s’aperçoit très vite qu’ils sont massivement défaillants.
Prenons le cas de la CAF. Pour établir un score de risque, on prend un panel d’utilisateurs et on calcule à partir de toutes les données disponibles. Par exemple, l’un des facteurs de risque pris en compte peut être… le simple fait de consulter son espace personnel CAF pour vérifier si un paiement a été reçu. Ce comportement devient un indicateur de risque. Ce n’est possible que parce qu’ils ont accès à toutes les données. Mais ce n’est pas un vrai facteur de risque ! C’est juste un comportement normal de quelqu’un en difficulté financière. Ce genre de dérive montre à quel point ces systèmes sont biaisés.
LVSL – Les données sont aussi une mine d’or pour les entreprises qui les revendent pour faire grimper les prix des contrats d’assurance par exemple. En quoi est-ce un enjeu à la fois économique et démocratique ?
HG – L’exemple que vous citez, c’est celui d’une enquête du New York Times. Ils ont montré comment des applications très simples, comme une lampe torche sur smartphone, collectent en fait des données sur la conduite des gens. Parce qu’elle reste active et utilise le GPS, l’application peut savoir où vous allez, si vous conduisez vite ou non… Toutes sortes d’informations. Ces données sont ensuite revendues. Le modèle économique de l’appli, ce n’est pas de vous vendre une lampe torche à 2 euros, c’est de monétiser les données collectées.
Et ces données atterrissent chez des assureurs. Ces derniers les achètent à des courtiers en données, qui agrègent des millions de profils. Ensuite, ils les font « parler » à l’aide de systèmes d’analyse sophistiqués. Résultat : les assureurs peuvent identifier certains profils à risque et majorer les primes d’assurance. Ça va rarement dans l’autre sens, on ne vous réduit pas la prime. Vos données personnelles, qu’on le veuille ou non, ne restent pas dans vos applications. Elles circulent. Les GAFAM les collectent, mais pas seulement : des sites publics aussi.
Aujourd’hui payez-vous le même prix que votre voisin pour un produit similaire sur Amazon ? Visiblement non
Et ces données permettent à certains acteurs économiques de tirer un avantage. Cela a un impact démocratique, bien sûr. Parce que les citoyens ne savent pas que toutes ces données s’échappent. Ils n’ont pas conscience que derrière une simple lampe torche, un système de collecte et de revente est en place. La précision, l’ampleur, la portée de ce que ces données permettent… ça échappe au grand public. Et c’est voulu : tout est fait pour qu’on ne sache pas. Le problème est double : économique, car ces données servent à fixer les prix, et démocratique, parce qu’on perd le contrôle sur nos informations. On commence à voir des effets très concrets, même sur des applications comme celle de McDonald’s.
Aux États-Unis, l’application peut utiliser vos données – y compris bancaires – pour ajuster le prix des menus en fonction, par exemple, de la date où vous recevez votre salaire. Par inférence, ils devinent que vous venez d’être payé, donc les prix augmentent ce jour-là. Rétroactivement, l’application va pouvoir modifier ses prix. Votre sandwich ne va pas soudainement coûter 40 dollars, mais il peut augmenter de quelques centimes. Multiplié par des centaines de milliers d’utilisateurs, cela devient très lucratif. Vous comprenez bien que tout cela soutient et alimente le système économique.
Aux États-Unis, on commence à observer des ententes entre acteurs sur certains produits : dans le logement, dans l’agriculture… On a parlé récemment d’« eggflation » — l’inflation du prix des œufs. Beaucoup ont cru que c’était dû à la grippe aviaire qui aurait décimé des élevages. En réalité, il semble que ce ne soit pas du tout lié à la grippe aviaire, mais plutôt à un trust de quelques producteurs de poulets et d’œufs qui ont profité de la crise pour faire exploser les prix. On observe ce type de mécanismes dans de nombreux secteurs.
Et là, bien évidemment, l’enjeu économique et démocratique devient crucial. Si demain, toutes nos données personnelles servent à générer des tarifs personnalisés à notre détriment — ce qui est déjà en train d’émerger — on comprend facilement les inquiétudes. Non seulement chacun pourra payer un tarif différent, mais ce tarif sera calculé en fonction de notre profil, de nos capacités à payer, de nos revenus, du jour de versement de notre salaire, voire de la météo.
Le prix public affiché, celui auquel nous étions habitués dans un commerce physique, tend à disparaître. Aujourd’hui, via une application, payez-vous vraiment le même prix que votre voisin pour un produit similaire sur Vinted, Temu, Shein ou Amazon ? Visiblement non.
Les études menées sur Amazon — probablement transposables aux autres plateformes — montrent qu’en moyenne, les utilisateurs d’Amazon paient jusqu’à 25 % de plus que ceux d’autres sites pour un même produit. Il y a une vraie question : où fixe-t-on la limite de l’usage des données à des fins économiques ? Cette question, aujourd’hui, n’est tout simplement pas traitée par les régulateurs.
LVSL – Vous évoquez à plusieurs reprises la notion de « glissement » en lien avec l’innovation. Ces glissements ne participent-ils pas à la diffusion, non pas d’une idéologie explicite, mais d’une certaine structure de pensée ? On s’habitue à des usages porteurs d’une vision atomisée, individualiste du monde — une forme de culture libertarienne ou inspirée d’Ayn Rand. Est-ce que, selon vous, ces glissements juridico-économiques construisent, en arrière-plan, une idéologie implicite ? Ou est-ce exagéré ?
HG – Ce que j’appelle « glissement », les entreprises de la tech le nomment « pivot ». Elles construisent un modèle économique autour d’un usage, puis, du jour au lendemain, décident que le marché visé n’est pas le bon. Elles changent totalement d’orientation. Par exemple, elles vont cesser de cibler les cadres pour s’adresser aux utilisateurs indiens ou japonais, et leur proposer un autre produit. C’est cela, le pivot. Et c’est aujourd’hui la logique même des grandes entreprises de la tech : votre marché n’est jamais celui que vous croyez. Il faut toujours en conquérir un autre. Petit à petit, à travers l’adaptation des fonctionnalités, vous vous déployez vers d’autres espaces, d’autres usages.
C’est la structure même du calcul, avec son côté discriminant et hyper-individualisant, qui nous fait glisser, cognitivement, idéologiquement, politiquement, vers une autre représentation du monde.
Moi, j’appelle ça autrement : je parle de « glissement ». Parce que, pour l’utilisateur, ce sont aussi des glissements — de fonctionnalités, de droits, de pratiques — dont il ne se rend pas forcément compte. Un bon exemple, c’est l’évolution des conditions juridiques ou des conditions d’utilisation des plateformes, notamment des réseaux sociaux. Elles changent sans qu’on en soit avertis de manière claire. Ces transformations invisibles, ce sont des glissements. Et il y en a partout. Le problème, c’est qu’on ne s’en rend pas compte. On accepte sans le savoir que nos données soient utilisées par des tiers. On est littéralement cernés par ces mécanismes.
Pour répondre à votre question, je ne suis pas sûr que ce soient les glissements eux-mêmes qui produisent un glissement dans l’idéologie. C’est la structure même du calcul, avec son côté discriminant et hyper-individualisant, qui nous fait glisser, cognitivement, idéologiquement, politiquement, vers une autre représentation du monde. On le voit très bien : autrefois, un prix était public, affiché, valable sur tout un territoire. Aujourd’hui, ce prix est individualisé, visible uniquement sur votre smartphone. Votre conjoint peut avoir la même application, sur le même appareil, et pourtant voir un prix différent — à quelques centimes près, certes, mais tout de même différent.
Et cela, on l’a documenté. Il y a des preuves. À Paris, habiter d’un côté ou de l’autre d’une même rue peut entraîner une variation du prix pour une livraison Uber, simplement parce que ce sont des zones géographiques distinctes selon l’algorithme. De nombreux critères peuvent être pris en compte. Ce fonctionnement individualise profondément la relation. Et cela rend d’autant plus difficile de repolitiser cette relation économique. C’est exactement ce que vivent les travailleurs des plateformes. Ils ont un « salaire algorithmique », des clients déterminés par des calculs, et une relation individualisée avec le système. Chacun est isolé dans cette relation économique.
C’est la même chose avec les grandes surfaces en ligne ou les applications de drive. Parfois, un produit n’est plus disponible, non pas en raison de la demande globale, mais parce que nous sommes mis en concurrence les uns avec les autres. Cette logique est généralisée : tous nos indicateurs sont mis en concurrence. Même au travail, on vous compare à vos collègues sur des micro-performances. Si l’un effectue une tâche en 30 secondes et vous en 45, on vous poussera à rentrer dans la moyenne, c’est-à-dire à viser ces 30 secondes. Nous sommes perpétuellement mis en concurrence les uns avec les autres.
Et cela rend encore plus difficile la constitution d’un collectif. Je crois que c’est là que nous perdons quelque chose — idéologiquement et politiquement. Cette individualisation, qui s’enracine à la fois dans nos esprits, nos machines, nos modalités d’évaluation, nous empêche aujourd’hui de repenser véritablement la question du collectif.
LVSL – Vous proposez une distinction entre un autoritarisme de plateforme et, de l’autre, les tendances conservatrices libertariennes. Pouvez-vous redéployer cette distinction entre, d’une part, le fonctionnement technique intrinsèquement totalitaire de ces plateformes, et d’autre part, la couche idéologique qui vient s’y greffer ?
HG – La technologie porte en elle-même une forme de conservatisme. En réalité, elle est autoritaire dans son fonctionnement même. Elle repose sur des systèmes d’autorisations : entre serveurs, entre applications… Il y a toujours un serveur maître qui décide de l’ouverture ou non des accès, selon des critères déterminés. Un ordinateur se connecte à un autre uniquement si l’accès est autorisé. Tout est binaire, c’est du 0 ou du 1. Soit vous avez accès, soit vous ne l’avez pas. Ce rapport fondamental à l’autorisation structure profondément les technologies numériques. Il est inscrit dans leur code génétique, dans la manière dont sont pensées l’ingénierie et l’informatique.
Et ça, c’est un vrai problème politique. Parce que ce fonctionnement autoritaire empêche un grand nombre de formes de relations, d’échanges ou de médiations. Nous n’avons pas suffisamment pris en compte cette nature autoritaire du numérique, ni dans les débats publics, ni dans les régulations. Etde l’autre côté, en effet, il y a ce libertarianisme extrême – qui vire même, aujourd’hui, au fascisme – porté par certains entrepreneurs de la tech.
Ce sont des gens profondément pragmatiques, dont le seul objectif est de faire de l’argent. Et le fonctionnement autoritaire du numérique devient pour eux un levier, un outil au service de ce but. Pour moi, l’exemple le plus clair, c’est Uber. Uber, c’est une entreprise dont la véritable fonction n’est pas de vous transporter d’un point A à un point B. Sa fonction première, c’est de déréguler le travail. Et elle y est parvenue, dans le monde entier. Uber a permis à des entreprises d’embaucher des personnes sans leur accorder le statut de salarié.
Nous avons un modèle technologique qui pose un problème d’autorité ; une collusion avec des figures technopolitiques aux rapports plus que problématiques à la démocratie ; et une corruption généralisée des données. C’est une combinaison explosive.
C’est une entreprise de dérégulation. C’est pour ça qu’elle a reçu autant de financements, des dizaines de milliards de dollars. Et c’est aussi pour cela qu’elle continue d’être protégée, malgré les directives européennes sur les plateformes. Donc, oui, on a bien deux dynamiques à l’œuvre : un autoritarisme technique, inscrit dans l’architecture même du numérique, et un autoritarisme idéologique et politique, libertarien, qui s’appuie sur cette architecture pour déployer sa vision. Et aujourd’hui, nous sommes exactement au croisement de ces deux dynamiques.
L’emblème de cette articulation fut le DOGE [Department Of Government Efficiency, l’agence de « l’efficacité » dirigée par Elon Musk, destinée à faire des coupes budgétaires massives et « rationnaliser » l’administration NDLR]. Et cela génère d’immenses inquiétudes. Car ce qui est en train de se passer aux États-Unis, avec le DOGE, c’est l’effondrement des vieilles sécurités informatiques. Des protections existaient entre les bases de données des différentes administrations, à l’intérieur même des ministères, pour protéger des informations confidentielles. Or, tout cela est en train de sauter.
Le DOGE a pu obtenir des accès croisés à toutes ces bases de données, pour faire des calculs, soi-disant « merveilleux ». Mais le premier risque, c’est celui de la corruption des calculs. Le fait que le DOGE puisse accéder aux données de la Sécurité sociale, à celles du fisc, signifie qu’il devient impossible de garantir que les déclarations d’impôts soient correctes. Car il suffit qu’un acteur malveillant corrompe la base pour affirmer, par exemple, que « Monsieur Bernie Sanders n’a pas déclaré tous ses revenus ».
Et cela, c’est gravissime. C’est la fin de l’État de droit. La corruption des données est une menace systémique. Nous sommes donc dans un moment extrêmement critique. Nous avons un modèle technologique qui pose un problème d’autorité ; une collusion avec des figures technopolitiques aux rapports plus que problématiques à la démocratie ; et une corruption généralisée des données. C’est une combinaison explosive.
LVSL – Sur quelles ressources les citoyens peuvent-ils s’appuyer pour résister face à un tel état de fait ? Peut-on imaginer des logiciels « progressistes » qui défendrait les services publics contre cette vision techno-utopiste permanente ?
HG – La première, c’est la démocratie. Face à des systèmes autoritaires partout et des politiques toujours plus autoritaires, nous n’avons pas de meilleure solution ni de meilleur rempart pour imposer la responsabilité des calculs que de prendre en compte les personnes concernées par ces calculs. Il s’agit de mettre en place des décisions démocratiques, permettant aux gens calculés d’avoir un réel impact et de participer aux décisions relatives aux systèmes qui les évaluent.
C’est ce que demande, par exemple, l’association Changer de Cap, quand elle fait remonter les problèmes rencontrés par les bénéficiaires de la CAF. C’est aussi ce que disent les défenseurs des droits dans à peu près tous leurs rapports. Que ce soit pour les plateformes de demande de droits, notamment pour les étrangers ou pour les titres de séjour, ils insistent sur le fait que les services préfectoraux doivent travailler avec les gens, les associations, les usagers. Sinon, on atteint des formes d’absurdité chronique. Donc, le point numéro un, c’est la démocratie. Face à l’autoritarisme, c’est ce dont on a le plus besoin.
Une idée complémentaire consiste dans la défense d’un droit au paramétrage. Les gens doivent garder la main sur ce qui est fait avec leurs données. Elles ne doivent pas être aspirées ou utilisées contre leur volonté, comme c’est encore souvent le cas. Ils doivent pouvoir paramétrer leurs usages. Un exemple souvent cité, ce sont les réseaux sociaux : aujourd’hui, vous ne voyez plus les publications des personnes que vous avez choisies de suivre — vos amis, vos proches. À la place, vous êtes submergés de publicités et de contenus aléatoires.
Je dois pouvoir rester libre dans mes paramètres. Si je souhaite voir uniquement les publications de mes amis et très peu de publicité, je dois pouvoir le configurer. Ce que je veux, c’est décider de ce que le calcul fait pour moi. On pourrait imaginer cette logique appliquée à d’autres domaines, même si, dans certains cas comme Parcoursup, c’est plus compliqué. L’interdiction du croisement de données sensibles est aussi un enjeu central.
On le voit bien avec ce qui se passe aux États-Unis, mais aussi ailleurs. Par exemple, aujourd’hui, on est capable d’optimiser la paie des travailleurs d’Uber. Demain, ce sera celle de tous les salariés, en minimisant les primes. En croisant les données d’emploi du temps et de rémunération, on peut optimiser les horaires pour verser le moins de primes possibles.
Dans certains secteurs, cela a un impact très fort : transports, logistique, commerce… Tous ceux qui travaillent de nuit ou à horaires décalés ont des primes importantes. Si l’on commence à ajuster leurs horaires pour les priver de ces primes, cela va évidemment créer du mécontentement. Pour beaucoup de gens, le salaire est encore fixe et stable. Mais pour d’autres, les horaires et les primes sont cruciaux. Donc, il faut interdire le croisement de certaines données.
Par exemple, il faut absolument couper le lien entre les agendas des employés et leurs salaires. Sinon, on risque d’optimiser à la baisse tous les salaires. On peut aussi penser à la santé : les données de santé sont les plus sensibles, leur confidentialité doit être garantie. Dès qu’elle ne l’est plus, cela devient extrêmement problématique. Il faudrait même inventer des services publics numériques pour stocker et protéger ces données, éviter leur transmission.
Par exemple, dans le domaine du suivi menstruel. Le Planning familial garantit la confidentialité des informations. Or, aucune application de suivi menstruel n’offre aujourd’hui un tel niveau de protection. Ce n’est pas normal. On devrait avoir un véritable « planning familial numérique ». Enfin, on peut aller plus loin en imaginant de véritables logiciels de gauche.
On en a besoin, car les calculs discriminatoires actuels, intégrés à des politiques autoritaires et austéritaires, ne mènent à aucune avancée sociale. Je le dis de façon volontairement provocatrice : les technologies numériques n’ont apporté aucun progrès social. On a une innovation pour elle-même, qui profite aux plus aisés et enrichit des multinationales à des niveaux inimaginables. On parle de capitalisations boursières de milliers de milliards de dollars. C’est l’équivalent de centaines de milliers d’années de vie humaine. C’est complètement déconnecté du réel.
Pour sortir de ces logiques, il faut non seulement apprendre à utiliser les données autrement, mais aussi à calculer autrement. Un exemple simple : Parcoursup. Ce système attribue les meilleures places dans l’enseignement supérieur aux meilleurs élèves, selon ses propres critères. Mais des jeunes Américains du collectif Teen Take Charge proposent un autre système en faisant en sorte que toutes les écoles prennent les élèves en proportion des candidats. Par exemple, s’il y a 20 % de candidats avec une moyenne entre 10 et 12, alors Sciences Po devrait prendre 20 % d’élèves avec cette moyenne. C’est un moyen concret d’introduire une vraie diversité sociale dans les formations d’élite, et pas seulement en vitrine, avec quelques élèves brillants issus de quartiers populaires.