12.09.2025 à 19:40
QSPTAG #322 — 12 septembre 2025
Bonjour à toutes et à tous, C’est la rentrée du « Que se passe-t-il au Garage » après une longue pause d’été, si longue qu’on nous a même demandé si on avait arrêté l’infolettre ou si on avait désabonné sauvagement les gens — trois mois sans nouvelles c’est trop, et vous nous avez manqué aussi ! Bonne fin de semaine et bonne lecture à vous ! Alex, Bastien, Eda, Eva, Félix, Marne, Mathieu, Myriam, Noémie, Nono et Vi En novembre 2023, nous avions déposé avec d’autres organisations européennes un recours devant le Conseil d’État pour contester certaines mesures du décret d’application en France du règlement européen contre le terrorisme (TERREG). L’idée était d’amener le Conseil d’État à constater que ces mesures sont en contradiction avec d’autres piliers de la législation européenne, et à demander à la Cour de justice de l’Union européenne (CJUE) de trancher la question. Malheureusement, la décision rendue le 16 juin dernier est très décevante : le Conseil d’État a rejeté notre demande de transmettre le problème à la CJUE, en estimant qu’il était visiblement compétent pour résoudre seul un problème de droit européen. Les polices européennes, et notamment la police française, vont donc pouvoir continuer de censurer des sites web au prétexte de la lutte antiterroriste, même quand il s’agit de contenus politiques légitimes, et sans aucun contrôle préalable d’un juge. Article du 18 juin : Le Conseil d’État enterre de manière illégitime le débat sur la loi sur la censure d’internet La Quadrature est souvent invitée à prendre la parole dans des événements publics, des festivals ou des tables-rondes, où nous sommes amenées à croiser les militant·es de Anti-Tech Résistance (ATR). On pourrait croire que le discours de cette organisation a des points communs avec le nôtre – une position technocritique qui témoigne fort peu d’enthousiasme pour la technique numérique telle qu’elle est exploitée aujourd’hui par l’industrie capitaliste – mais nous avons surtout beaucoup de différences. Ce constat, d’autres groupes amis l’ont fait aussi : Le Mouton numérique, Extinction Rebellion, l’AG Antifa Paris 20e, Désert’Heureuxses, Technopolice Paris Banlieue, Voix Déterres et d’autres encore, qui ont décidé d’écrire un texte ensemble pour clarifier les choses et exprimer une position commune. Le fond du problème est le suivant : au sein d’une galaxie technocritique militante et progressiste, ATR tient un discours profondément réactionnaire, comparable à celui que les féministes identitaires tiennent de leur côté, asservissant leur prétendu féminisme à l’expression de leurs idées racistes. ATR se livre au même genre d’entourloupe : sous prétexte de dénoncer le « grand remplacement » des humains par les machines, ATR puise abondamment dans le répertoire idéologique et sémantique de l’extrême droite la plus moisie, et n’hésite pas à tenir des propos transphobes, homophobes, validistes ou racistes sous prétexte de défendre une « nature » dont on sait qu’elle est l’objet de fantasmes régressifs infinis, et toujours bancale quand on parle de l’espèce humaine, si profondément culturelle, sociale et politique. Voilà l’histoire en très gros traits. Pour entrer dans le détail de l’analyse politique et philosophique de notre différend avec ATR, lisez le texte intégral sur notre site au format web ou ici au format brochure (PDF et ePub). Ça paraît long, 8 pages, mais il y a 3 pages de références et de liens divers, et l’ensemble est passionnant Article du 24 juillet : Pourquoi la technocritique d’Anti-Tech Résistance n’est pas la nôtre Vous vous rappelez forcément que le gouvernement français (celui d’Élisabeth Borne, que vous aviez peut-être oubliée), avait mis dans la loi sur les JO 2024 une grande quantité de mesures sécuritaires, dont la légalisation de la vidéosurveillance algorithmique (VSA) à titre « expérimental ». Cette expérimentation a pris fin en mars 2025, sept mois après la fin des JO qui la justifiaient. Le rapport d’évaluation conclut à une absence d’efficacité évidente. Malgré cela, le gouvernement (celui de Michel Barnier puis celui de Français Bayrou, il faut suivre) a d’abord tenté de passer par une loi sur les transports pour imposer la VSA dans les gares et les métros. Mais le Conseil constitutionnel a censuré ces dispositions, non pas sur le fond, mais parce qu’elles n’avaient rien à faire dans ce texte de loi – ce qu’on appelle un « cavalier législatif », quand une mesure monte sur le dos d’une loi d’une autre espèce. Alors bis repetita, voici que la VSA se retrouve, toujours à titre « expérimental », dans le texte de loi qui encadrera les JO d’hiver de 2030. Notre article détaille les stratégies politiques et psychologiques mises en place par le(s) gouvernement(s) pour faire admettre peu à peu cette technologie intrusive qui évoque immédiatement les pires dystopies sécuritaires et semblait encore, jusqu’à l’épidémie et au confinement de 2020, réservée à une Chine totalitaire, exotique et lointaine. On n’arrête pas le progrès. Article du 28 juillet : Jeux Olympiques 2030 : vous reprendriez bien un peu de VSA ? Les réseaux sociaux et l’économie de l’attention exigent toujours plus de violence, sous toutes ses formes : verbale, idéologique, politique, psychique et physique. On le sait, on le dit depuis longtemps. Malheureusement, un événement vient de temps en temps rappeler cette évidence de façon cruelle. La mort le 18 août du streameur Jean Pormanove (pseudo de Raphaël Graven), alors qu’il participait à un live sur une chaîne Kick a braqué les projecteurs de l’actualité sur le sujet. La chaîne à laquelle il participait était connue pour jouer avec les humiliations et les violences, simulées ou bien réelles, dont il était l’objet et le souffre-douleur depuis des mois et des années. Mediapart s’était d’ailleurs emparé du sujet dès la fin de 2024, bien avant le décès du streameur. Cette mort brutale a provoqué de vives réactions médiatiques et politiques, et déclenché la surenchère habituelle pour demander des lois plus répressives et domestiquer le web – cette fameuse « zone de non-droit » sur laquelle on légifère pourtant en permanence. Les demandes de presse ont été nombreuses. Bastien, juriste à La Quadrature, qui tenait le fort pendant les vacances de ses collègues, a répondu à ces demandes (les liens vers les articles sont dans la revue de presse ci-dessous) et écrit une tribune dans Le Monde. Il rappelle qu’en l’état du droit, tout était là pour empêcher la diffusion de cette chaîne dégradante. Mais rien n’assure que cela aurait pu avoir un impact. Tant qu’on ne s’en prendra pas au modèle économique des réseaux sociaux et des chaînes dont les revenus dépendent de « l’engagement » des internautes et donc de la promotion des contenus polémiques ou transgressifs, on n’avancera pas. Lire la tribune : « L’affaire Pormanove ne traduit pas un droit inadapté à Internet » L’ancien ministre de l’Intérieur Gérald Darmanin, devenu ministre de la Justice, veut rester une force de proposition dans la surenchère sécuritaire qui fait les bons candidats de droite à la présidentielle. Il a donc annoncé en mai 2025 la création d’un groupe de travail pour pour « créer un cadre légal » permettant d’« introduire cette mesure [la reconnaissance faciale] dans notre législation ». Félix Tréguer, membre et salarié de la Quadrature du Net, a publié en juin dernier une tribune dans la revue en ligne AOC, pour dénoncer l’incompatibilité profonde de cette technologie avec nos habitudes démocratiques : « Si nos grands-mères et nos grands-pères avaient dû vivre au début des années 1940 dans un monde saturé de ces technologies, ils n’auraient pas pu survivre bien longtemps en clandestinité, et donc organiser des réseaux de résistance capables de tenir tête au régime nazi ». Vous pouvez lire sa tribune en intégralité chez AOC (pour les abonnés) ou sur notre site (pour tout le monde). Lire la tribune : Le serpent de mer de la reconnaissance faciale Vous en avez probablement entendu parler dans la presse ou sur vos réseaux sociaux habituels, le règlement européen CSAR, surnommé « Chat Control », continue son processus législatif. Il doit son petit nom à une mesure choquante : pour lutter contre à peu près tout ce qui se fait de mal, ici les abus sur enfants, les gouvernements demandent que les messageries chiffrées de bout en bout, les mails, les réseaux sociaux et les hébergeurs mettent à disposition des polices un système pour contourner ce chiffrement. Un chiffrement qui n’est plus chiffré, c’est un peu ballot. Et plus sérieusement, c’est une faiblesse critique qui mettrait les échanges professionnels ou privés à la portée de n’importe quel acteur malintentionné. La Quadrature est donc absolument opposée à cette mesure. Nous ne sommes pas les seul·es. Dans le cadre de la coalition EDRi dans laquelle nous échangeons avec nos homologues européens, nous avons travaillé pour que le Parlement européen adopte une position moins dangereuse. Mais le Conseil, qui rassemble les gouvernements des États membres, discute ce vendredi 12 septembre de sa position et un certain nombre d’États, dont la France, ont des idées très dures sur la question. Nous n’avons pas de marge d’action dans ce moment-là, les gouvernements sont beaucoup moins sensibles que les parlementaires aux appels des citoyen·nes. Mais il faut provoquer un débat public pour que le chiffrement des communications devienne un sujet de discussion démocratique où les demandes de la police ne seront pas les seules à être entendues. Vous pouvez retrouver sur nos raisons sociaux, par exemple sur Mastodon, un résumé des enjeux et les liens vers nos articles qui traitent le sujet en profondeur. Notre campagne de soutien pour 2025 est toujours ouverte ! Nous avons récolté environ 80% de notre objectif pour l’année. En prenant en compte les dons mensuels à venir d’ici à la fin de l’année, on pense arriver environ à 90% de l’objectif. Il manquera des sous. Aidez-nous à boucler le budget 2025 ! Vous pouvez nous faire un don sur notre site. Divers Reconnaissance faciale Chat Control Affaire Kick-Pormanove Surveillance Datalove Lire sur le site Texte intégral 2838 mots
Alors ce numéro est copieux, on a beaucoup à rattraper, avec six sujets différents : la validation abusive de la transcription du règlement antiterroriste européen dans la loi française, nos divergences politiques profondes avec d’autres groupes technocritiques, le retour de la vidéosurveillance algorithmique au prétexte des JO d’hiver, le problème de la sanction de la violence en ligne après la mort en direct de Jean Pormanove, l’entêtement du gouvernement pour faire accepter la reconnaissance faciale en France, et la fin du processus législatif européen qui vise à détruire la confidentialité des communications.Le Conseil d’État trouve que la censure, c’est normal
Technocritique et critiquable
La surveillance intégrale sous prétexte de grande fête sportive : deuxième mi-temps
Les plateformes commerciales font fortune avec la violence
Reconnaissance faciale : il y a un loup
Chat Control, ce vieux projet de contourner le chiffrement
Campagne de soutien 2025
Agenda
La Quadrature dans les médias
04.09.2025 à 15:04
Le serpent de mer de la reconnaissance faciale
En mai dernier, le gouvernement a lancé un groupe de travail visant à légaliser la reconnaissance faciale en temps réel. Loin d’être une surprise, cette annonce s’inscrit dans une suite de propositions émises par les plus hautes instances de l’État, en lien avec des acteurs industriels et scientifiques. Nous publions cette tribune de Félix Tréguer, adaptée d’un texte publié initialement sur AOC, qui estime que la reconnaissance faciale est incompatible avec les formes de vie démocratique. En ce mois de mai 2025, Gérald Darmanin s’agite. Doublé par sa droite par son successeur à la place Beauvau, Bruno Retailleau, le ministre de la Justice a bien du mal à raccrocher le tablier de « premier flic de France ». C’est alors qu’il sort de son chapeau une proposition en apparence assez nouvelle : la légalisation du recours à la reconnaissance faciale en temps réel. L’encre de la loi narcotrafic, avec son lot de nouvelles mesures de surveillance policière, n’est pas encore sèche – le Conseil constitutionnel devait se prononcer quelques jours plus tard – que le ministre en est déjà au coup d’après. Après sa sortie, son cabinet confirmera à l’AFP qu’un groupe de travail est sur le point d’être lancé pour « créer un cadre légal » permettant d’« introduire cette mesure dans notre législation ». Selon le ministre, qui en 2022 se disait opposé à la reconnaissance faciale, « utiliser la technologie et la reconnaissance faciale, ce sont les solutions pour lutter drastiquement contre l’insécurité ». Quelques jours plus tard, son rival Retailleau lui emboîte le pas, appelant à son tour une utilisation « très encadrée » de la reconnaissance faciale en temps réel dans le cadre des enquêtes judiciaires. Le contexte de concurrence politique exacerbée à droite pourrait laisser penser à un énième ballon d’essai sans lendemain. Il s’agit en réalité d’un projet politique assumé de longue date par les gouvernements d’Emmanuel Macron, mais chaque fois repoussé à plus tard de peur qu’il ne suscite une levée de boucliers dans la population. Lorsqu’avec mes camarades de La Quadrature du Net et d’autres collectifs à travers le pays, nous avons lancé la campagne Technopolice en 2019 pour documenter les nouvelles technologies de surveillance policière et fédérer les résistances locales, la reconnaissance faciale était déjà sur toutes les bouches. À l’époque, l’Office parlementaire des choix scientifiques et techniques, aiguillé par un parlementaire macroniste, appelait déjà à une loi d’expérimentation pour autoriser son usage en temps réel. Quelques semaines plus tard, le secrétaire d’État Cédric O, accordait un entretien au journal Le Monde sur le sujet. Dans cette toute première sortie gouvernementale sur le sujet, il estimait nécessaire « d’expérimenter la reconnaissance faciale pour que nos industriels progressent ». L’enjeu économique était alors exprimé avec candeur. Il faut dire que depuis le début des années 2010, la reconnaissance faciale et les autres techniques de couplage de l’intelligence artificielle et de la vidéosurveillance – un spectre d’applications regroupées sous le terme de vidéosurveillance algorithmique (VSA) – font l’objet d’investissements publics. Au travers des politiques publiques de recherche pilotées par la Commission européenne ou l’Agence nationale de la recherche, mais aussi via des mécanismes fiscaux comme le Crédit impôt recherche, des startups ou des grands groupes du secteur comme Idemia et Thales font financer une part importante de leurs R&D par le contribuable. Bpifrance de même que la Caisse des dépôts et consignations se sont également activés pour aider l’industrie française à se structurer pour se faire une place sur ces marchés porteurs : l’an dernier, le marché mondial de la reconnaissance faciale augmentait en effet de 16 % par an et devrait atteindre 12 milliards de dollars en 2028 ; celui portant sur les autres applications de la VSA était de 5,6 milliards en 2023 et pourrait représenter 16,3 milliards en 2028. En 2019, Cédric O propose donc de légaliser la reconnaissance faciale à titre expérimental à l’occasion des Jeux Olympiques de 2024. Mais à la veille de l’élection présidentielle de 2022, avant de se retirer de la politique politicienne et de devenir lobbyiste en chef de l’industrie de la tech, il reconnaît publiquement que les conditions politiques d’un recours à cette technologie ne sont pas réunies. « La priorité a été mise sur d’autres sujets […] compte tenu du contexte et de la sensibilité du sujet » explique-t-il alors, non sans dénoncer au passage les « associations libertaires » ayant selon lui alimenté un climat de « psychose ». Le gouvernement se rabat alors sur des applications de la VSA jugées moins sensibles. Elles seront légalisées à titre expérimental et temporaire dans le cadre de la loi de 2023 relative aux Jeux Olympiques et mises en œuvre ces derniers mois : il s’agit notamment de détecter des personnes ou véhicules à contre sens, des chutes au sol, des mouvements de foule, des départs de feu, etc. Une expérimentation aux résultats peu concluants mais que le gouvernement souhaite aujourd’hui prolonger dans le cadre de la prochaine loi relative aux Jeux Olympiques de 2030. Fin 2022, lors des débats parlementaires, Gérald Darmanin, alors ministre de l’Intérieur, et sa collègue en charge des sports, Amélie Oudéa-Castera défendent cette expérimentation a minima et font de la reconnaissance faciale une ligne rouge : « le dispositif ne prévoit aucunement […] de créer un système d’identification biométrique » affirme ainsi la ministre dans l’hémicycle : « Le Gouvernement ne souhaite rien de cela, ni de près ni de loin ». Mais ces réassurances relèvent du double-jeu. Car dans le même temps, à Bruxelles, le gouvernement français est à la manœuvre dans le cadre des négociations sur le règlement relatif à l’intelligence artificielle. Comme l’a démontré une enquête du média Disclose parue cet hiver, et alors même que le marketing politique de la Commission européenne autour de ce texte reposait en partie sur la promesse d’une interdiction de la « surveillance biométrique en temps réel », la France fait au contraire pression de toutes ses forces sur les autres États membres de l’Union européenne pour épargner aux forces de l’ordre toute régulation trop contraignante. Cette stratégie s’avère payante. Dans la version finalement adoptée de l’« AI Act », le principe d’interdiction de la reconnaissance faciale en temps réel est immédiatement assorti de quantité de dérogations. Elle est par exemple autorisée pour prévenir « une menace réelle et actuelle ou réelle et prévisible d’attaque terroriste », mais aussi dans le cadre d’enquêtes pénales afin de retrouver les suspects de toute une gamme d’infractions punies de plus de quatre ans d’emprisonnement, dont le sabotage. Des activités militantes, notamment associées à la mouvance écologiste, pourront sans mal être concernées. Une autre concession obtenue par la France, particulièrement glaçante, permet aux forces de police d’utiliser des systèmes de VSA « qui classent individuellement des personnes physiques sur la base de leurs données biométriques afin de déduire ou d’inférer leur race, leurs opinions politiques, leur appartenance syndicale, leurs croyances religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle ». Soit non seulement la détection d’insignes ou de vêtements dénotant une orientation politique, mais aussi le retour en force de théories naturalisantes, de pseudosciences censées révéler la « race » ou l’orientation sexuelle à partir de caractéristiques morphologiques ou de traits du visage, désormais inscrites dans de puissants systèmes automatisés visant à mettre en œuvre la violence d’État. L’annonce par Gérald Darmanin du lancement d’un « groupe de travail » en vue de légaliser la reconnaissance faciale n’est donc pas une surprise. Elle s’inscrit dans la suite logique des efforts menés depuis des années au plus haut sommet de l’État, en lien avec des acteurs industriels et scientifiques, pour préparer la population française et minimiser autant que possible le coût politique d’une légalisation de la reconnaissance faciale en temps réel. Le ministre de la Justice prétend ainsi que la reconnaissance faciale serait indispensable pour assurer la sécurité de la population, tout en tâchant d’en minimiser les enjeux : « Les gens disent qu’à Roissy on met 1h30 pour passer, à Dubaï on met 10 minutes ; oui, mais à Dubaï, il y a la reconnaissance faciale » tentait-il de justifier début mai, vantant le surcroît de commodité que les « braves gens » seraient en droit d’attendre d’une généralisation de cette technologie. On aurait envie de rappeler au ministre : « Oui mais à Dubaï, on enferme les défenseurs des droits, on pratique la torture, et les Émirats-Arabes-Unis sont de fait une dictature. Est-ce bien là un modèle à suivre ? » S’il fait mine d’oublier que la reconnaissance faciale est déjà une réalité dans certains aéroports et certaines gares, c’est pour mieux défendre son marché de dupes : vie privée et libertés contre une plus grande praticité pour celles et ceux qui se meuvent dans les monde des flux. Le ministre y voit un bon deal, capable de convaincre le quidam de remiser au placard ses réserves, lui qui – à la suite de Cédric O – se désole aujourd’hui d’« une paranoïa sur la technologie, les libertés publiques, la question des fichiers ». En haut lieu, le changement de paradigme induit par la reconnaissance faciale en temps réel est pourtant bien compris. En 2019, alors qu’avec un camarade de La Quadrature, nous étions invités à donner notre avis sur « l’acceptabilité sociale de la reconnaissance faciale » devant un aréopage de hiérarques policiers, de préfets, de scientifiques et d’industriels à la Direction générale de la gendarmerie nationale, un colonel de Gendarmerie était venu présenter une note qu’il venait tout juste de publier sur le sujet. Il y livrait une analyse plutôt lucide quant à la place de la reconnaissance faciale dans l’histoire des techniques d’identification : « L’intérêt de cette technologie est d’exécuter systématiquement et automatiquement les actes de base des forces de l’ordre que sont l’identification, le suivi et la recherche d’individus en rendant ce contrôle invisible. Sous réserve d’algorithmes exempts de biais, elle pourrait mettre fin à des années de polémiques sur le contrôle au faciès puisque le contrôle d’identité serait permanent et général [nous soulignons]. » Un contrôle d’identité « invisible, permanent et général » ? Michel Foucault ne croyait sans doute pas si bien dire lorsque, dans Surveiller et Punir (1975), il résumait le fantasme d’un pouvoir policier devenu « l’instrument d’une surveillance permanente, exhaustive, omniprésente, capable de tout rendre visible, mais à la condition de se rendre elle-même invisible ». Si une loi était prochainement adoptée pour autoriser la reconnaissance faciale en temps réel, les choses pourraient aller très vite. Car même si pour l’heure, en France, son usage policier n’est légalement possible qu’a posteriori, dans le cadre d’enquêtes judiciaires et pour le seul fichier « Traitement des antécédents judiciaires » (le TAJ, qui contient près de 10 millions de photographies de visages), l’infrastructure technique permettant un usage en temps réel est d’ores et déjà en place. Les capteurs d’abord : autour de 90 000 caméras de vidéosurveillance placées sur la voie publique à travers le pays, soit autant de points géolocalisés dédiés à la collecte d’images. Ensuite, les bases de données centralisées de photos d’identité adossées aux données d’état civil : outre le fichier TAJ, la plupart des fichiers liés à l’immigration intègrent désormais des photographies de visages exploitables par les algorithmes. C’est aussi le cas du fichier « Titres électroniques sécurisés » (TES) créé en 2016 par le ministère de l’Intérieur et qui permet de collecter les empreintes faciales de tous les demandeurs de cartes d’identité et de passeports. Et enfin, la dernière pièce du puzzle : les algorithmes de reconnaissance faciale permettant de comparer les images aux fichiers, fournis par des prestataires privés comme la multinationale Idemia, et dont le taux de fiabilité a beaucoup progressé ces dernières années. Avec la reconnaissance faciale, nos visages deviennent à leur tour les termes indexiques des fichiers de police, ce par quoi nos données d’état civil peuvent être automatiquement révélées (nom, prénom, lieu de naissance, lieu de résidence, etc.). Si son usage en temps réel était autorisé, circuler à visage découvert reviendrait à arborer une carte d’identité infalsifiable, lisible à tout moment par l’État. L’anonymat serait rendu pratiquement impossible. Et, au détour de ce processus, nos visages – qui témoignent de nos émotions, de nos attitudes, de nos manières d’être – en seraient réduits à être des faces : des yeux, un nez, une bouche, des oreilles et autres éléments anatomiques dont les mensurations, les formes ou les couleurs pourront être automatiquement classifiées. Vitrines de nos subjectivité, ils deviendraient de nouveaux objets du pouvoir, ce par quoi l’État peut nous gérer. La reconnaissance faciale, c’est aussi ce par quoi le fascisme pourrait s’installer et perdurer. Lors de cette journée de septembre 2019 à la Direction générale de la gendarmerie nationale, nous avions ainsi rappelé à tous ses partisans présents dans l’assistance pourquoi elle était selon nous inacceptable. Croyant pouvoir faire vibrer quelques cordes sensibles dans l’assistance, nous leur avions dit notre conviction que, si nos grands-mères et nos grands-pères avaient dû vivre au début des années 1940 dans un monde saturé de ces technologies, ils n’auraient pas pu survivre bien longtemps en clandestinité, et donc organiser des réseaux de résistance capables de tenir tête au régime nazi. Cette hypothèse contrefactuelle permet d’illustrer pourquoi la reconnaissance faciale est tout simplement incompatible avec la défense des formes de vie démocratiques. Par les temps qui courent, elle n’est pas à prendre à la légère. Félix Tréguer est chercheur, membre de La Quadrature du Net et auteur de Technopolice, la surveillance policière à l’ère de l’intelligence artificielle (Divergences, 2024). Texte intégral 3038 mots
Un projet politique assumé
Dans l’AI Act, des dérogations pour la police
Un contrôle d’identité permanent, général et invisible
Refuser la reconnaissance faciale
28.07.2025 à 16:25
Jeux Olympiques 2030 : vous reprendriez bien un peu de VSA ?
La lutte contre la vidéosurveillance algorithmique (VSA) est une bataille de longue haleine. L’expérimentation officielle, menée au prétexte des Jeux Olympiques, s’est pourtant achevée fin mars et a été émaillée de multiples défaillances. En parallèle, les luttes locales s’intensifient dans les villes où ces logiciels sont déployés illégalement. Le gouvernement veut pourtant remettre une pièce dans la machine. Ainsi, le projet de loi sur les Jeux Olympiques d’hiver 2030 propose de repartir pour un tour d’expérimentation de deux ans. Le texte a déjà été examiné au Sénat et devrait arriver à l’Assemblée Nationale à la rentrée. Une pierre de plus à l’édifice de la surveillance algorithmique de l’espace public… Il y a deux ans déjà, nous luttions contre la loi relative aux Jeux Olympiques de 2024. Elle prévoyait, pour la première fois en Europe, le déploiement de logiciels de reconnaissance de comportements en temps réel dans l’espace public. Adopté au printemps 2023, ce texte a autorisé la police, la gendarmerie et les opérateurs de transports à utiliser les logiciels d’entreprises privées de VSA pendant plus d’un an et bien au-delà des seuls Jeux d’été. Ces algorithmes ont analysé les foules lors de concerts, matchs de foots, fêtes de la musique et autres événements publics au gré des envies des pouvoirs publics. Ce premier round s’est achevé le 31 mars 2025 avec, à la clé, une évaluation officielle qui faisait état des résultats peu probants, pour ne pas dire que la VSA n’avait servi à rien du tout. Mais le gouvernement, déterminé à imposer la surveillance automatisée et la reconnaissance faciale, ne souhaite pas s’arrêter en si bon chemin. Plutôt que de conclure à l’abandon de ces logiciels, il persiste, espérant que ces systèmes finissent par fonctionner un jour. Au mois de février dernier, le ministre des transports tentait ainsi un coup de force à l’Assemblée en faisant voter un amendement qui prolongeait l’expérimentation jusqu’en 2027 dans une loi qui n’avait rien à voir. Raté ! Le Conseil constitutionnel a estimé qu’il s’agissait d’un cavalier législatif et l’a censuré. Face à cet obstacle, les promoteurs de la Technopolice se devaient de trouver une manière de revenir à la charge. Et quoi de mieux que de tenter une combine qui a déjà marché ? Les Jeux d’hiver de 2030, qui auront lieu dans les Alpes, sont ainsi apparus comme une parfaite excuse pour légitimer une nouvelle salve d’expérimentations. A l’instar des Jeux de 2024, le gouvernement utilise la dimension exceptionnelle de ce méga-événement sportif pour mettre en oeuvre une politique prétendument expérimentale et donc socialement plus acceptable. Comme le théorise le chercheur Jules Boykoff, les Jeux Olympiques agissent comme un accélérateur de politiques exceptionnelles. Ils prennent appui sur un moment de fête ou de spectacle, par essence « extra-ordinaire », où les règles politiques peuvent être temporairement suspendues, pour faire progresser des politiques qu’ii aurait été impossibles de mettre en place en temps normal. Pour prolonger l’utilisation de la vidéosurveillance algorithmique, le projet de loi déposé par le gouvernement relatif à l’organisation des jeux Olympiques et Paralympiques de 2030 prévoit ainsi un article 35 expéditif : « L’expérimentation mise en œuvre sur le fondement de l’article 10 de la loi [relative aux JO 2024] est reconduite, dans les mêmes conditions, jusqu’au 31 décembre 2027. » La stratégie mise en oeuvre ici est de prétendre que cette pérennisation serait indolore et presque anodine puisqu’il n’y a aucune modification du cadre légal. Il s’agirait uniquement de prolonger les « petites expériences » de la police. Telle est notamment la position du Conseil d’État. Consulté pour avis, il estime « que la reconduction pure et simple du dispositif, contraignant mais protecteur, auquel il a déjà donné un avis favorable (…) et que le Conseil constitutionnel a expressément reconnu comme conforme à la Constitution (…) répond de manière adéquate au bilan de l’évaluation et permettra, au terme de cette période, de décider de l’abandon ou de la pérennisation de la technique ». Rappelons que le choix de poursuivre ou non devait initialement être fait en 2025 et qu’avec cette logique, il serait possible « d’expérimenter » à l’infini. La CNIL, elle, n’a même pas été sollicitée pour avis, ce qui illustre une nouvelle fois le peu d’égard que lui accorde le gouvernement. Pourtant, si la loi était votée en l’état, des dizaines et dizaines d’utilisations de la VSA, voire des centaines, pourraient être mises en oeuvre dans les rues de France, d’ici à la fin de l’année 2027. La loi de 2023 permet en effet que cette technologie de surveillance de masse puisse être utilisée pour tout événement récréatif, sportif ou culturel, sur simple autorisation d’un préfet. Lors du passage du texte au Sénat, les parlementaires ont d’ores et déjà étendu le périmètre des personnes pouvant utiliser le dispositif de VSA aux simples agents municipaux chargés du visionnage des images de surveillance, donc potentiellement à toutes les villes de France équipées de caméras. De plus, si le cadre juridique de 2023 limitait le déploiement d’algorithmes à huit cas d’usage, les volontés d’étendre l’expérimentation à davantage de situations est sur toutes les lèvres des promoteurs de la VSA, et ce depuis plusieurs mois. Or, plutôt que de modifier la loi, Julie Mercier, directrice du comité de pilotage et de la DEPSA (direction des entreprises et partenariats de sécurité et des armes), chargée de piloter l’expérimentation au sein du ministère de l’intérieur, assumait récemment dans une interview au média spécialisé AEF vouloir « déverrouiller » le sujet dans la loi JOP 2030. Elle précise, concernant les cas d’usages, vouloir « regagner de la souplesse à travers les décrets ». En d’autres termes, il s’agirait d’étendre le périmètre de l’expérimentation par des actes administratifs du gouvernement, en dehors de tout débat parlementaire et de tout contrôle démocratique. Un tel élargissement du dispositif pourrait par exemple inclure la recherche et le suivi de personnes, comme cela est demandé par la SNCF et la RATP dans le rapport d’évaluation ou bien la reconnaissance de banderoles militantes tel que suggérée par le député LR Eric Pauget. On peut aussi s’attendre à ce que les récentes annonces de Bruno Retailleau et Gérald Darmanin concernant la reconnaissance faciale en temps réel soient poussées par voie d’amendement au cours de l’examen du projet de loi. Il faut le rappeler : la vidéosurveillance algorithmique s’assimile à une surveillance de masse automatisée de l’espace public et à ce titre est totalement inacceptable. De plus, ces logiciels sont déployés de façon illégale dans de nombreuses villes de France, comme à Lille ou Saint-Denis, et le gouvernement lui-même l’a déployée de manière totalement illégale ces dernières années. Obsédé par l’objectif d’une légalisation de cette technologie, souhaitant conforter les industriels du secteur de la surveillance qui fournissent les algorithmes, le gouvernement enchaîne les justifications grossières pour mieux imposer la VSA. Pour les Jeux Olympiques de 2024, les mouvements de foule étaient brandis comme le prétexte ultime pour s’équiper de ces logiciels. Après les Jeux, l’inutilité et l’inefficacité de la VSA ont été écartés d’un revers de main, avec l’excuse selon laquelle leur intérêt était de toute façon mineur compte tenu du grand nombre de policiers sur le terrain. Désormais, pour l’édition de 2030, la ministre des sports Marie Barsacq explique très sérieusement que « là, on va être dans les territoires de montagnes. On n’aura pas autant de forces de l’ordre […] donc, la vidéo algorithmique pourra être beaucoup plus pertinente ». Sachant que l’expérimentation est prévue jusqu’en 2027 pour un évènement qui se tiendra en 2030… Logique on vous a dit ! On pourrait se moquer du ridicule de ce texte et de ces stratégies si seulement la composition de l’Assemblée nationale ne rendait pas très probable l’adoption du texte. Dominée par l’extrême droite, obnubilée par les thèmes sécuritaires, il y a fort à parier que l’Assemblée laisse passer cet article sans encombre. Nous scruterons donc attentivement les avancées et débats dès que ce texte sera débattu dans l’hémycicle de l’Assemblée nationale à la rentrée. En attendant, nous devons continuer à faire valoir le refus populaire de ce projet de société. Cela passe notamment par l’échelon local : il ne faut pas lâcher les combats au niveau des villes et des villages contre les projets mortifères de vidéosurveillance, en particulier dans le contexte des élections municipales de 2026. Pour vous y aider n’hésitez pas à consulter notre brochure et nos ressources sur notre page de campagne. Aussi, pour soutenir ce travail vous pouvez nous faire un don ! Texte intégral 1889 mots
Surveiller à tout prix
Minimiser pour mieux forcer
L’hypocrisie comme moteur