LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
La Quadrature du Net
Souscrire à ce flux
Libertés fondamentales dans l’environnement numérique

-> Copie de sauvegarde automatisée des contenus la Quadrature du Net

▸ les 10 dernières parutions

08.11.2024 à 13:10

Briefcam au Ministère de l’Intérieur : le rapport d’inspection tente de noyer le poisson

startuffenation

L’an dernier, le média d’investigation Disclose révélait que depuis des années, en se sachant dans l’illégalité la plus totale, la police nationale avait recouru au logiciel de l’entreprise israélienne Briefcam, qui permet d’automatiser l’analyse…
Texte intégral (1902 mots)

L’an dernier, le média d’investigation Disclose révélait que depuis des années, en se sachant dans l’illégalité la plus totale, la police nationale avait recouru au logiciel de l’entreprise israélienne Briefcam, qui permet d’automatiser l’analyse des images de vidéosurveillance. Cette solution comporte une option « reconnaissance faciale » qui, d’après Disclose, serait « activement utilisée ». Après avoir tenté d’étouffer l’affaire, le ministère de l’Intérieur a enfin publié le rapport d’inspection commandé à l’époque par Gérald Darmanin pour tenter d’éteindre la polémique. Ce rapport, rédigé par des membres de l’Inspection générale de l’administration, de l’Inspection générale de la police nationale et de l’Inspection de la Gendarmerie nationale, permet d’étayer les révélations de Disclose. Fondé sur la seule bonne foi des forces de l’ordre, il s’apparente toutefois à une tentative choquante de couvrir des faits passibles de sanctions pénales.

Tout au long du rapport, les auteur·rices utilisent diverses techniques de minimisation et d’euphémisation – quand il ne s’agit pas tout bonnement de mauvaise foi – pour justifier l’utilisation illégale du logiciel Briefcam depuis 2015 par la police et 2017 par la gendarmerie. Pour rappel, ce logiciel permet d’analyser et filtrer les attributs physiques des personnes filmées afin de les retrouver sur les enregistrements vidéo. En plus de la reconnaissance faciale, il propose la reconnaissance de vêtements, de genre, de taille, d’apparence ou encore la « similitude de visage » que les services tentent grossièrement de distinguer de la reconnaissance faciale alors qu’au fond, il s’agit peu ou prou de la même chose, à savoir identifier des personnes. Plutôt que de reconnaître l’usage hors-la-loi de l’ensemble de ces cas d’usages depuis quasiment dix ans, les services d’inspection multiplient les pirouettes juridiques pour mieux légitimer ces pratiques.

Ainsi, les auteur·rices du rapport reprennent une analyse bancale déjà esquissée par Gérald Darmanin l’an dernier pour couvrir un usage intrinsèquement illégal de VSA dans le cadre d’enquêtes pénales, lorsque ces dispositifs sont utilisés par les enquêteurs pour analyser automatiquement des flux de vidéosurveillance archivés. Reprenant l’interprétation secrètement proposée en interne par les services du ministère de l’Intérieur pour couvrir ces activités au plan juridique, les auteur·rices estiment que ces utilisations a posteriori (par opposition au temps réel) de logiciels de VSA constitueraient des logiciels de « rapprochement judiciaire » au sens de l’article 230-20 du code de procédure pénale. Pourtant, cet article du code de procédure pénale n’autorise que le « rapprochement de modes opératoires » (par exemple des logiciels d’analyse de documents pour faire ressortir des numéros de téléphones liés entre eux). Cela n’a rien à voir avec la VSA a posteriori, laquelle consiste à rechercher des personnes sur une image en fonction de leurs attributs physiques via des techniques d’intelligence artificielle. Pour être licites, ces dispositifs devraient au minimum faire l’objet d’une base légale spécifique. C’est la base en matière de droits fondamentaux. Et cette base n’a clairement pas été respectée.

L’argumentation des rapporteurs paraît d’autant plus choquante que le logiciel VSA de Briefcam analyse des données personnelles biométriques et est donc soumis à des restrictions fortes du RGPD et de la directive police-justice. Les lacunes du cadre légal actuel pour des usages de VSA dans le cadre d’enquêtes judiciaires et la nécessité d’une base légale spécifique est d’ailleurs confortée par différents projets de légalisation de cette technologie qui ont pu être proposés : tel est le cas de la récente proposition de loi relative à la sûreté dans les transports, ou plus anciennement un projet de décret de 2017 « autorisant des traitements de données personnelles permettant l’analyse des enregistrements vidéo dans le cadre d’enquêtes judiciaires », mentionné dans le rapport. De même, l’autorisation par un décret de 2012 du recours à la comparaison faciale dans le fichier TAJ (« Traitement des antécédants judiciaires ») illustre la nécessité parfois bien comprise au ministère de l’Intérieur de prévoir un encadrement juridique spécifique pour différentes technologies de surveillance mobilisée dans le cadre d’enquête pénale1.

Non content·es de couvrir des abus pourtant passibles de sanctions pénales, les auteur·ices du rapport envisagent aussi l’avenir. Iels proposent ainsi de relâcher encore davantage la bride de la police pour lui permettre de tester de nouvelles technologies de surveillance policière. Assouplir toujours plus les modalités de contrôle, déjà parfaitement défaillantes, dans la logique des « bacs à sable réglementaires », à savoir des dispositifs expérimentaux dérogeant aux règles en matière de protection des droits fondamentaux, le tout au nom de ce qu’iels désignent comme l’« innovation permanente ». Les auteur·rices s’inscrivent en cela dans la filiation du règlement IA qui encourage ces mêmes bacs à sable réglementaires, et du rapport Aghion-Bouverot (commission de l’intelligence artificielle) rendu au printemps dernier2. Il faut bien mesurer que ces propositions inacceptables, si elles venaient à être effectivement mises en œuvre, sonneraient le glas des promesses de la loi « informatique et libertés » en matière de protection des droits fondamentaux et des libertés publiques (à ce sujet, on est toujours en attente de l’issue de l’autosaisine de la CNIL dans ce qu’il faut bien appeler « l’affaire Briefcam », un an après son déclenchement…).

En bref, ce rapport s’inscrit dans une logique de couverture de faits passibles de peines de prison et qui constituent aussi un détournement de fonds publics. Surtout, il contribue à banaliser la vidéosurveillance algorithmique, suivant en cela la politique du gouvernement Barnier. En effet, après avoir annoncé le mois dernier la pérennisation de « l’expérimentation » de la VSA suite aux Jeux Olympiques, le gouvernement entend également, via le projet de loi de finances 2025, d’installer des radars routiers dopés à la VSA pour détecter trois nouvelles infractions concernant « l’inter-distance (entre les véhicules), le non-respect du port de la ceinture et le téléphone tenu en main (au volant) ». Sans oublier la proposition de loi sur la sécurité dans les transports qui fait son retour à l’Assemblée d’ici la fin du mois de novembre. Tout est bon pour légitimer cette technologie dangereuse et l’imposer à la population.

Pour nous aider à tenir ces manœuvres en échec, RDV sur notre page de campagne !


  1. La police et la gendarmerie utilisent de façon très fréquente la reconnaissance faciale en application de ce cadre lié au fichier TAJ : en 2021, c’était 498 871 fois par la police nationale et environ 117 000 fois par la gendarmerie nationale, d’après un rapport parlementaire. ↩
  2. Le rapport Aghion-Bouverot appelait à l’assouplissement de certaines procédures d’autorisation pour utiliser des données personnelles, notamment dans la santé ou par la police. On y lit notamment :
    « Le RGPD a renversé complètement la logique du droit qui prévalait en France depuis la loi « informatique et liberté » de 1978 Alors que la possibilité de traiter des données à caractère personnel reposait sur des procédures d’autorisation ou de déclaration préalables auprès de l’administration, le RGPD a posé les principes de liberté et de responsabilité : les acteurs sont libres de créer et de mettre en œuvre des traitements de données à caractère personnel, sous réserve de veiller eux-mêmes à la conformité de ces traitements aux principes et règles prévus par le règlement européen Ils doivent en particulier analyser les risques spécifiques que peuvent créer les traitements les plus sensibles et prendre les mesures appropriées pour y remédier En contrepartie de cette liberté, instituée dans le but précis de favoriser l’innovation, les exigences de protection des données personnelles ont été renforcées, de même que les pouvoirs de contrôle et de sanction a posteriori des autorités en charge de la protection des données En France, il s’agit de la Commission nationale de l’informatique et des libertés (Cnil).
    En France, cette évolution n’a pas été conduite jusqu’à son terme Il demeure des procédures d’autorisation préalables non prévues par le droit européen. C’est en particulier le cas pour l’accès aux données de santé pour la recherche Une procédure simplifiée de déclaration de conformité à des méthodologies de référence existe mais elle est loin d’être généralisée En pratique, la procédure simplifiée reste l’exception par rapport à la procédure d’autorisation préalable car le moindre écart par rapport à ces méthodologies implique d’en passer par une autorisation préalable qui peut impliquer jusqu’à trois niveaux d’autorisation préalable On trouve des lourdeurs analogues dans les domaines de l’ordre public, de la sécurité et de la justice ». ↩

31.10.2024 à 12:58

Assaut contre la vidéosurveillance algorithmique dans nos villes

noemie

La question de pérenniser ou non l’expérimentation de la vidéosurveillance algorithmique (VSA) fait actuellement beaucoup de bruit dans le débat public. Si l’on entend principalement les ministres et préfets au niveau national, c’est aussi –…
Texte intégral (2751 mots)

La question de pérenniser ou non l’expérimentation de la vidéosurveillance algorithmique (VSA) fait actuellement beaucoup de bruit dans le débat public. Si l’on entend principalement les ministres et préfets au niveau national, c’est aussi – et surtout – à l’échelle locale que ces enjeux se cristallisent. Profitant de l’engouement des Jeux Olympiques et du cadre législatif créé à l’occasion de cet évènement, de nombreuses communes tentent de légitimer et normaliser leurs usages de cette technologie, qui reste pourtant totalement illégaux. Ces manœuvres, qui doivent être révélées et dénoncées, constituent aussi pour les habitant⋅es un levier d’action majeur pour faire entendre leurs voix et exiger l’interdiction de la VSA dans nos villes.

Lorsque nous avons lancé notre campagne contre la VSA au printemps dernier, nous l’affirmions haut et fort : ce qui se joue avec la loi sur les Jeux Olympiques est une grande hypocrisie. La vidéosurveillance algorithmique s’est déployée depuis quasiment une dizaine d’années en toute illégalité dans les villes et les collectivités locales, qui ont acheté des logiciels de VSA à des entreprises de surveillance en quête de profit. Marseille, Reims, Vannes ou encore Moirans… nous avons documenté au fil des mois comment les villes se dotaient de ces outils de surveillance en toute illégalité. La loi JO vient donc légitimer une pratique existante en masquant l’étendue de cette réalité. En effet, le périmètre prévu par la loi ne prévoit la détection que de huit types d’analyses d’images. Or, les entreprises de VSA n’ont jamais caché qu’elles savaient déjà faire bien plus : reconnaissance d’émotions, reconnaissance faciale ou encore suivi et identification des personnes au travers d’attributs physiques… Le rôle de la loi JO apparaît alors comme évident : il s’agissait surtout de créer une première étape pour sortir cette technologie de l’illégalité et amorcer un projet plus large de surveillance de l’espace public.

Débusquer les mensonges

Ce processus de normalisation et d’instrumentalisation est déjà à l’œuvre. Ainsi, les villes n’ont pas attendu bien longtemps pour s’appuyer sur la récente loi JO – qui normalise la VSA dans un cadre précis – afin de légitimer les logiciels dont elles se seraient doté de façon illégale, dans leur coin. Par exemple, la ville de Saint-Denis a très récemment acheté un logiciel de vidéosurveillance algorithmique auprès de l’entreprise Two-I. Cette acquisition s’est faite en dehors du périmètre de la loi JO qui impose à la fois une autorisation préfectorale et l’utilisation d’un logiciel spécifique acquis par marché public (en l’occurrence celui de Wintics). Cependant, pour donner un vernis de légalité à cette initiative unilatérale, le maire socialiste de la commune, Mathieu Hanotin, a essayé de la rattacher autant que faire se peut aux Jeux Olympiques. Il prétendait ainsi que ce logiciel pourrait servir pour les Jeux Paralympiques (nous étions alors au mois d’août 2024) et que les algorithmes de détection seraient identiques aux usages prévus par la loi JO. Il s’agissait surtout d’un écran de fumée pour masquer l’illégalité de cette démarche, d’autant que celle-ci s’est faite en toute opacité, le conseil municipal de Saint-Denis n’ayant même pas été informé, si l’on en croit les informations du journal Le Parisien et du media StreetPress.

Autre exemple dans l’Oise, où la ville de Méru possède désormais un logiciel de détection des personnes déposant des « ordures sauvages » développé par la société Vizzia. Ce type d’usages a connu un essor important ces dernières années en raison de l’existence d’entreprises de VSA toujours plus nombreuses voulant surfer sur une image green, après avoir misé sur le fantasme de la smart city pendant des années, tout en jouant avec les différentes évolutions législatives. En effet, d’une part, il existe un cadre juridique pour l’installation de caméras dans les villes : le code de la sécurité intérieure prévoit une liste de finalités précises pour lesquelles une commune peut implanter des caméras dans les rues. Or, depuis des lois de 2019 et 2020 relatives à l’écologie, cette liste contient la « la prévention et la constatation des infractions relatives à l’abandon d’ordures, de déchets, de matériaux ou d’autres objets ».

D’autre part, la police est autorisée à avoir recours à de la « vidéoverbalisation » pour certaines infractions routières. C’est-à-dire qu’elle peut émettre des procès-verbaux de verbalisation uniquement sur la base d’enregistrements vidéo : concrètement, la police relève la plaque d’immatriculation sur l’image de vidéosurveillance et envoie une amende à la personne propriétaire du véhicule. Celle-ci reçoit alors le PV à domicile, sans aucun contact avec un·e agent·e. Or, cette possibilité est limitée à une liste précise de contraventions au code de la route, telle que le franchissement d’une ligne blanche ou un stationnement interdit. En dehors de cette liste, il n’est pas possible de vidéoverbaliser les personnes sur la seule base d’une image captée par une caméra de surveillance. D’ailleurs, ce marché de la vidéoverbalisation des délits routiers est un marché important pour les entreprises de VSA, qui proposent l’automatisation de la lecture des plaques (dites « LAPI »). Et le dépôt d’ordures, s’il peut légalement justifier la pose de caméras, ne figure pas dans la liste des infractions pouvant être vidéoverbalisées.

Pour antant, cela n’empêche aucunement des entreprises de faire croire l’inverse aux municipalités pour leur vendre leur solution. Tel est le cas de la start-up Vizzia, petite dernière dans le monde de la VSA, qui affirme sans vergogne sur son site internet qu’il « est possible de vidéo-constater les dépôts sauvages ». Vizzia explique ainsi à ses potentielles villes clientes qu’il suffirait de relever la plaque du véhicule associé à un dépot d’ordure identifié par son logiciel puis de consulter le fichier SIV (Système d’Immatriculation des Véhicules, qui recense tous les véhicules et les coordonnées de leurs propriétaires) pour identifier les auteur·rices d’un dépot sauvage d’ordures. Pour se justifier, l’entreprise va même jusqu’à citer une réponse du ministère de l’Intérieur à une sénatrice … qui dit exactement le contraire de ce qu’affirme l’entreprise ! En réalité, le ministre de l’Intérieur rappelle expressément qu’« il n’est pas possible de verbaliser le titulaire du certificat d’immatriculation du véhicule ayant servi au dépôt d’ordures ». Il conclut très clairement que les images de vidéosurveillance peuvent uniquement servir dans le cadre d’une procédure judiciaire et que le relevé de plaque est insuffisant pour constater le délit.

Ainsi, non seulement la ville de Méru – parmi tant d’autres1Pour savoir si Vizzia est présente dans votre commune, ses clients sont affichées sur cette page https://www.vizzia.eu/nos-references – s’est doté d’un logiciel illégal mais en plus, si l’on en croit cet article de France 3 régions, elle tente de s’appuyer sur le cadre de la loi sur les Jeux Olympiques pour faire passer la pilule. Ainsi, les responsables expliquent que le dépôt d’ordure serait identique à la détection « d’objet abandonné » autorisée par la loi JO. Cela est évidemment faux et un tel usage reste totalement contraire à la réglementation de protection des données personnelles.

Surtout, le chef de la police municipale de Méru se vante du fait que l’outil de VSA de Vizzia verbalise et remplisse tout seul les procès-verbaux à partir des plaques d’immatriculation. Son constat est clair : « L’intelligence artificielle me permet de ne pas avoir d’agent derrière une caméra tout le temps. Elle m’envoie des alertes quand elle détecte une infraction. C’est l’outil qui fait le travail et moi, je n’ai plus qu’à traiter directement les infractions. Mes agents sont dédiés à d’autres missions pendant ce temps-là. On ne cherche pas l’infraction, ça tombe dans le panier tout seul. Elle traite les infractions même quand on est fermés ». Une telle posture va à rebours du discours habituel des institutions et industriels qui tentent généralement de minimiser le rôle de l’IA et préfèrent affirmer mordicus que toute décision serait in fine prise par un humain. Ici, la volonté est clairement affichée de vouloir se diriger vers une automatisation de la répression, nécessairement induite par ces technologies – un projet que que nous dénonçons depuis longtemps.

Enfin, la ville de Cannes illustre un autre exemple de stratégie d’acceptation. Elle est à ce jour la seule commune en dehors de l’Île-de-France a avoir demandé une autorisation préfectorale pour utiliser la VSA dans le cadre de la loi JO, à l’occasion du festival de cinéma en mai dernier. Elle a par ailleurs annoncé qu’elle souhaitait l’utiliser à nouveau à cinq reprises d’ici la fin de la durée légale de l’expérimentation en mars 2025, prétendant avoir été convaincue de son utilité. Pourtant, on retrouve dès 2016 des traces d’utilisation illégale de logiciels de VSA par la ville de Cannes. Cette communication de la commune démontre surtout que la ville se sert de la loi JO pour faire passer comme légal et donc acceptable ce qu’elle pratique en violation de la loi depuis des années.

Pas de VSA dans nos villes

En parallèle des gros sabots ministériels et des manœuvres des entreprises, les collectivités locales constituent ainsi des entités motrices du déploiement de la surveillance dans nos rues. C’est donc à cette échelle là que nous pouvons repousser ce projet sécuritaire. C’est également dans ces espaces que nous serons le plus audibles. En effet, la majorité des victoires passées l’ont été au niveau des communes et des quartiers. Ainsi, des habitant·es de la ville de Saint-Étienne ont réussi en 2019 à faire annuler un projet de micros « détecteurs de bruits suspects ». À Marseille et à Nice, des parents d’élèves, aux cotés de La Quadrature, ont empêché l’installation de portiques de reconnaissance faciale devant des lycées. Tandis qu’à Montpellier, la ville a adopté une délibération s’interdisant d’utiliser de la surveillance biométrique dans la ville.

Le refus des habitant·es des villes à cette technologie de surveillance est donc essentiel pour faire pression sur les mairies. Il permet aussi de peser dans la bataille de l’« acceptabilité sociale » de la VSA et dans le débat public en général. D’autant que l’évaluation prévue par la loi JO exige que soit prise en compte la « perception du public » de l’impact de la VSA sur nos libertés. En agissant dans nos villes, nous pouvons donc combattre la VSA et nous faire entendre à deux titres : auprès des maires, mais aussi du gouvernement qui souhaite pérenniser l’expérimentation.

Pour vous aider dans cette lutte, nous avons mis à disposition de nombreuses ressources. Afin de s’informer et d’informer les autres, nous avons compilé les informations relatives au contexte, au fonctionnement et aux dangers de la vidéosurveillance algorithmique dans une brochure. Elle est à lire, imprimer et diffuser au plus grand nombre ! Pour organiser l’opposition locale, renseignez-vous sur l’existence de potentiels logiciels dans votre commune en faisant des demandes de documents administratifs ou en contactant les élu·es de votre conseil municipal. Enfin, rejoignez le mouvement « Pas de VSA dans ma ville » en demandant à votre maire de s’engager à ne jamais installer de vidéosurveillance algorithmique dans sa ville. Des affiches sont également disponibles sur la page de campagne pour visibiliser cette opposition dans l’espace public. Enfin, les futures expérimentations de la loi JO, qui auront notamment lieu lors des marchés de Noël, seront l’occasion de sensibiliser et d’organiser des actions pour faire connaître cette technologie et ses dangers au plus grand nombre.

Ensemble, nous devons contrer les manœuvres visant à faire accepter la vidéosurveillance algorithmique, et rappeler le refus populaire de cette technologie. Nous devons clamer haut et fort notre opposition à devenir les cobayes d’une surveillance menée main dans la main par la police et les entreprises. Nous devons affirmer que nous ne voulons pas d’une société où chaque comportement considéré comme une « anomalie sociale » dans la rue soit traité par un dispositif technique pour alerter la police. Par nos voix communes, nous pouvons empêcher le prolongement de l’expérimentation et préserver l’espace public d’une surveillance toujours plus oppressante, afin que celui-ci reste un lieu que nous pouvons habiter et investir librement.

References[+]

References
1 Pour savoir si Vizzia est présente dans votre commune, ses clients sont affichées sur cette page https://www.vizzia.eu/nos-references

25.10.2024 à 14:40

LinkedIn condamnée à 310 millions d’euros suite à notre plainte collective

marne

Après Google et Amazon, c’est au tour de Microsoft d’être condamnée pour non respect du droit des données personnelles. Hier, l’autorité de protection des données irlandaise a adressé à Microsoft une amende de 310 millions…
Texte intégral (940 mots)

Après Google et Amazon, c’est au tour de Microsoft d’être condamnée pour non respect du droit des données personnelles. Hier, l’autorité de protection des données irlandaise a adressé à Microsoft une amende de 310 millions d’euros suite à notre plainte contre son service LinkedIn, au motif du non respect du consentement de ses utilisateurs.

Le 25 mai 2018, le RGPD (Règlement Général sur la Protection des Données) entrait en application, venant renforcer le droit des données personnelles. Il donnait une place particulière au consentement, qui devenait la principale base légale à appliquer pour la collecte et l’usage des données personnelles. Le RGPD apportait également deux autres nouveautés : la possibilité de déposer des plaintes de manière collective, ainsi qu’un pouvoir de sanction donné aux CNIL de l’Union européenne. Les CNIL, responsables de l’application du règlement, peuvent dès lors adresser des amendes à hauteur de 4% du chiffre d’affaire mondial des entreprises ne respectant pas le droit. Les CNIL européennes travaillent de concert sur les plaintes, guidées par une CNIL dite « cheffe de file », celle du pays ou le siège social de l’entreprise attaquée est établi.

Quelques mois avant son entrée en application, nous avions lancé un appel aux utilisateurices de certains services des GAFAM en leur proposant de se joindre à nous pour déposer une plainte contre chacune de ces grosses entreprises. Nos plaintes, déposées avec plus de 12 000 personnes, se fondaient sur le présupposé que ces entreprises ne respecteraient pas le RGPD une fois que le règlement serait applicable, notamment car leur modèle économique est en partie construit autour de l’exploitation sans consentement des données, particulièrement Google et Facebook. Comme nous l’avions parié, plus de six ans après, ces entreprises ne respectent toujours pas notre droit fondamental à la vie privée. Amazon fut condamnée par la CNIL luxembourgeoise à une amende de 746 millions d’euros en 2021. Google, n’ayant à l’époque du dépôt des plaintes pas de siège social dans l’Union européenne, avait été condamnée par la CNIL française (lieu du dépôt de la plainte) à 50 millions d’euros d’amende, puis s’était empressée de localiser son siège social en Irlande.

L’Irlande, connue pour sa politique fiscale avantageuse, héberge les sièges sociaux de nombreuses entreprises. C’est donc l’autorité irlandaise qui s’est retrouvée cheffe de file pour la plupart de nos plaintes : celle contre Microsoft (LinkedIn) mais aussi celles contre Apple (iOS) et Meta (Facebook et Instagram) qui sont encore en cours d’instruction, ainsi qu’Alphabet (Google Search, Youtube et Gmail).
Hier, elle a donc prononcé à l’encontre de Linkedin un rappel à l’ordre, une injonction de mise en conformité du traitement et trois amendes administratives d’un montant total de 310 millions d’euros. Cette sanction est donc de bon augure pour la suite de nos plaintes, et pour le respect du droit des données personnelles. Elle vient une nouvelle fois confirmer notre interprétation du RGPD selon laquelle les services en ligne doivent garantir un accès sans contraindre leurs utilisateurices à céder leurs données personnelless. Dans le cas contraire, le consentement donné ne peut être considéré comme libre.

En revanche, il faut relever qu’il a fallu plus de six ans à l’autorité irlandaise pour arriver à cette sanction. Cela n’est pas dû à une quelconque complexité de l’affaire mais à des dysfonctionnements structurels et à l’absence de volonté politique caractéristique de cette autorité. En effet, des associations dénoncent régulièrement son manque de moyens, sa proximité avec les entreprises, son refus de traiter certaines plaintes ou encore son manque de coopération avec les autres autorités européennes. L’Irish Council for Civil Liberties a ainsi publié l’année dernière un rapport pointant les manquements et l’inefficacité de la Data Protection Commission irlandaise.

Si nous nous réjouissons de cette petite victoire, elle reste faible. La plus grosse partie de l’Internet reste entre les mains de grosses entreprises. Ce sont elles qui hébergent nos échanges en ligne et gardent les pleins pouvoirs dessus : malgré le RGPD, la plupart d’entre elles continueront de récolter nos données sans notre consentement afin de nourrir leurs algorithmes de profilage publicitaire, transformant par la même occasion nos moindre faits et gestes en ligne en marchandises.

D’autant que ce système repose sur de la puissance de calcul et de l’énergie afin d’afficher ces images publicitaires sur nos écrans. Le tout pour toujours nous faire consommer davantage alors que la crise écologique prend de l’ampleur de jour en jour. Dans ce contexte, nous attendons avec hâte les décisions de la CNIL irlandaise concernant nos autres plaintes et espérons qu’elle sera vigilante quant au respect de la mise en conformité de LinkedIn.

Pour nous soutenir dans la suite de ce combat, n’hésitez pas à nous faire un don !

23.10.2024 à 12:49

Festival Le Nuage était sous nos pieds

edaa

Les data centers, ces méga-ordinateurs bétonnés dédiés au traitement et au stockage des données informatiques, prolifèrent partout dans le monde. Ils s’accaparent l’eau et l’électricité, génèrent pollutions environnementales et artificialisation des sols, multiplient les emprises…
Texte intégral (736 mots)

Les data centers, ces méga-ordinateurs bétonnés dédiés au traitement et au stockage des données informatiques, prolifèrent partout dans le monde. Ils s’accaparent l’eau et l’électricité, génèrent pollutions environnementales et artificialisation des sols, multiplient les emprises foncières et la bétonisation des villes, s’accaparent les fonds publics, et accélèrent ainsi la crise socio-écologique en cours.

Pendant trois jours à Marseille, les 8, 9 et 10 novembre 2024, nous vous proposons un festival fait d’échanges, de rencontres, de projections et d’une balade-conférencée pour s’informer, s’organiser collectivement et lutter contre l’accaparement de nos territoires et de nos vies par les infrastructures du numérique techno-capitaliste dominant. Programme détaillé sur pieds.cloud.

Ce festival est à l’initiative du collectif marseillais le Nuage était sous nos pieds, composé notamment de trois entités : le collectif des Gammares, collectif d’éducation populaire sur les enjeux de l’eau, Technopolice, qui analyse et lutte contre les technologies de surveillance, et La Quadrature du Net, qui défend les libertés fondamentales dans l’environnement numérique. Depuis 2023, le collectif enquête, analyse et lutte contre les impacts sociaux, écologiques et politiques des infrastructures du numérique dominant et de leur monde. Alertées par la quasi-absence des enjeux environnementaux et territoriaux des infrastructures du numérique dans le débat public, alors même que Marseille voit se multiplier les arrivées de câbles sous-marins pour les liaisons Internet intercontinentales et l’émergence de data centers dans un grand silence politique et médiatique, le collectif propose un espace de rencontres et de discussions pour politiser la question de l’accaparement des terres et des vies par le techno-capitalisme, et créer des espaces de solidarités pour penser ensemble des pratiques d’auto-défense numérique, et d’autres mondes possibles, où l’on place le soin pour nous mêmes, les uns pour les autres et le soin de la Terre au centre de nos débats.

Le festival se veut à la fois un espace de restitution de l’enquête locale menée par le collectif Le nuage était sous nos pieds sur les impacts des data centers, câbles sous-marins intercontinentaux et autres infrastructures du numérique à Marseille, mais aussi un espace de réflexion commune en compagnie d’autres collectifs et associations marseillaises et d’ailleurs. Ouvert à toutes et tous, le festival propose de nombreuses tables-rondes, infokiosques, des projections de films, une balade et des rencontres intercollectifs. Retrouvez son programme détaillé sur pieds.cloud.

En présence des collectifs invité·es :
Tu Nube Seca Mi Rio (Talavera de la Reina, Espagne), Paris Marx – du podcast Tech Won’t Save Us (Canada), Génération Lumière (République démocratique du Congo et Lyon), StopMicro (Grenoble), Stop Mine 03 (Echassières, Allier), le Mouton numérique (France), Framasoft (France), le collectif des Gammares (Marseille), La Quadrature du Net (France), Technopolice (France), et de nombreux autres collectifs de Marseille et d’ailleurs.

En collaboration avec le Bureau des Guides 2013, le cinéma Le Gyptis, et La Cité de l’Agriculture à Marseille.
Une sélection de livres en collaboration avec la librairie Transit à Marseille, sera disponible sur tous les lieux du festival.
Tout au long du festival, retrouvez l’exposition Technopolice : 5 ans de lutte à la librairie l’Hydre aux milles têtes, 96 rue Saint-Savournin, du mardi au samedi de 10h à 19h, du 18 octobre au 19 novembre.

18.10.2024 à 16:24

QSPTAG #313 — 18 octobre 2024

robinson

CNAF : recours collectif contre l’algo de la galère La Quadrature travaille depuis des années sur les algorithmes utilisés par les administrations et les services sociaux, et en particulier sur l’algorithme de « scoring » de la Caisse nationale…
Texte intégral (2157 mots)

CNAF : recours collectif contre l’algo de la galère

La Quadrature travaille depuis des années sur les algorithmes utilisés par les administrations et les services sociaux, et en particulier sur l’algorithme de « scoring » de la Caisse nationale d’allocations familiales (CNAF). Il a fallu d’abord batailler contre l’administration pour obtenir la communication du code source, avant de publier en novembre 2023 l’analyse de la version n-1 de cet algo, la CNAF ayant refusé de fournir le code de l’algorithme en usage aujourd’hui. Et ce 16 octobre, La Quadrature et 14 autres associations de défense des droits attaquent donc l’algorithme de la CNAF devant le Conseil d’État, pour discrimination et surveillance excessive.

Cet algorithme analyse chaque mois les données personnelles (et intimes) de 13 millions de foyers touchant des allocations familiales, soit environ 32 millions de personnes en France, pour leur attribuer un « score de risque ». Si ce score est trop élevé, un contrôle est déclenché.
La CNAF présente cet outil comme un « algorithme de lutte contre la fraude ». En réalité, l’algorithme n’est évidemment pas capable de détecter des fraudes, qui supposent un mensonge intentionnel impossible à traduire en calcul. En revanche, que peut faire un algorithme ? Il peut identifier les personnes les plus susceptibles d’avoir reçu des « indus » ou des « trop-perçus », c’est-à-dire des sommes supérieures à ce que le calcul de leurs droits leur destine. Comment ? En identifiant les personnes dont la situation est la plus susceptible de provoquer des erreurs de déclaration. Qui sont ces personnes ? Celles qui changent souvent d’adresse, de travail, de situation familiale, qui sont mères célibataires, qui bénéficient de minima sociaux ou ont de faibles revenus. C’est-à-dire celles dont la vie est la plus marquée par la précarité.
Voici comment, sous couvert de « lutter contre la fraude », on traque systématiquement les personnes en difficulté.

L’analyse du code source a confirmé sans ambiguïté la fonction discriminatoire de cet algorithme. Les critères choisis et leur pondération ciblent de façon délibérée les personnes les plus précaires : famille monoparentale, bénéficiaires du RSA, personnes sans emploi, au domicile instable, etc.
Cette discrimination, couplée à une surveillance de masse (près de la moitié de la population française est concernée), nous ont poussées à saisir le Conseil d’État. Si vous voulez comprendre le raisonnement juridique qui structure le recours, tout est dans le communiqué de la coalition. Et si vous voulez suivre notre campagne de long cours contre les algorithmes administratifs, visitez notre page France Contrôle.

Lire le communiqué : https://www.laquadrature.net/2024/10/16/lalgorithme-de-notation-de-la-cnaf-attaque-devant-le-conseil-detat-par-15-organisations/

Livre : une histoire de la Technopolice

Notre campagne Technopolice a cinq ans. Félix Tréguer, chercheur et membre de La Quadrature, raconte à la première personne, dans Technopolice, la surveillance policière à l’ère de l’intelligence artificielle, ce long travail d’enquête collective sur les pratiques de surveillance numérique de la police, depuis la découverte de « l’observatoire du Big Data de de la tranquillité publique » de Marseille fin 2017, jusqu’à la légalisation de la VSA par la loi Jeux Olympiques en 2023, en passant par le récit étonnant et éclairant du quotidien d’un policier dans la ville de Denver au Colorado.

Croisant les analyses politiques et sociologiques, les enquêtes de terrain et les chiffres, l’ouvrage analyse la Technopolice comme un fait social complexe, qui met en jeu des idéologies politiques, des ambitions industrielles, des fantasmes policiers, au prise avec des problèmes matériels, économiques et humains. Et si vous voulez rencontrer l’auteur et lui poser des questions, le site recense les nombreuses rencontres en librairie à venir pour les mois d’octobre, novembre et décembre.

Lire l’article : https://www.laquadrature.net/202fondateur4/10/11/parution-du-livre-technopolice/

Action à Marseille contre le data center de trop

Le 16 septembre dernier, La Quadrature du Net et le collectif local Le nuage est sous nos pieds ont organisé une conférence de presse pour alerter au sujet de la construction d’un data center géant dans l’agglomération de Marseille : gourmand en énergie et en eau potable, ce projet s’incrit dans une logique d’inflation numérique dispendieuse, dont la nécessité n’est jamais questionnée ni soumise à la délibération démocratique de la population qu’elle touche directement. Lisez le communiqué du collectif Le nuage et sous nos pieds sur notre site.

Lire le communiqué : https://www.laquadrature.net/2024/09/16/conference-de-presse-a-marseille-contre-les-data-centers/

Agenda

La Quadrature dans les médias

Livre « Technopolice »

Algo de la CNAF

Data center à Marseille

Divers

16.10.2024 à 12:13

L’algorithme de notation de la CNAF attaqué devant le Conseil d’État par 15 organisations

bastien

En cette veille de journée mondiale du refus de la misère, 15 organisations de la société civile attaquent l’algorithme de notation des allocataires des Caisses d’Allocations Familiales (CAF) en justice, devant le Conseil d’État, au…
Texte intégral (766 mots)

En cette veille de journée mondiale du refus de la misère, 15 organisations de la société civile attaquent l’algorithme de notation des allocataires des Caisses d’Allocations Familiales (CAF) en justice, devant le Conseil d’État, au nom du droit de la protection des données personnelles et du principe de non-discrimination. Ce recours en justice contre un algorithme de ciblage d’un organisme ayant mission de service public est une première.

Cet algorithme attribue à chaque allocataire un score de suspicion dont la valeur est utilisée pour sélectionner celles et ceux faisant l’objet d’un contrôle. Plus il est élevé, plus la probabilité d’être contrôlé·e est grande. Chaque mois, l’algorithme analyse les données personnelles des plus de 32 millions de personnes vivant dans un foyer recevant une prestation CAF et calcule plus de 13 millions de scores. Parmi les facteurs venant augmenter un score de suspicion on trouve notamment le fait d’avoir de faibles revenus, d’être au chômage, de bénéficier du revenu de solidarité active (RSA) ou de l’allocation adulte handicapé (AAH). En retour, les personnes en difficulté se retrouvent sur-contrôlées par rapport au reste de la population.

Notre recours devant le Conseil d’État porte tant sur l’étendue de la surveillance à l’œuvre que sur la discrimination opérée par cet algorithme envers des allocataires déjà fragilisé·es dans leurs parcours de vie. En assimilant précarité et soupçon de fraude, cet algorithme participe d’une politique de stigmatisation et de maltraitance institutionnelle des plus défavorisé·es. Les contrôles sont des moments particulièrement difficiles à vivre, générateurs d’une forte charge administrative et d’une grande anxiété. Ils s’accompagnent régulièrement de suspensions du versement des prestations, précédant des demandes de remboursements d’indus non-motivés. Dans les situations les plus graves, des allocataires se retrouvent totalement privé·es de ressources, et ce en toute illégalité. Quant aux voies de recours, elles ne sont pas toujours compréhensibles ni accessibles.

Alors que l’utilisation de tels algorithmes de notation se généralise au sein des organismes sociaux, notre coalition, regroupant des organisations aux horizons divers, vise à construire un front collectif afin de faire interdire ce type de pratiques et d’alerter sur la violence dont sont porteuses les politiques dites de « lutte contre la fraude sociale ».

« Cet algorithme est la traduction d’une politique d’acharnement contre les plus pauvres. Parce que vous êtes précaire, vous serez suspect·e aux yeux de l’algorithme, et donc contrôlé·e. C’est une double peine. » déclare Bastien Le Querrec, juriste à La Quadrature du Net.

Associations requérantes:


Retrouvez l’ensemble de nos travaux sur la numérisation des administrations sociales et la gestion algorithmique des populations sur notre page de campagne France contrôle.

11.10.2024 à 12:00

Parution du livre « Technopolice »

startuffenation

Technopolice, la surveillance policière à l’ère de l’intelligence artificielle paraît aujourd’hui aux éditions Divergences. Dans ce livre, Félix Tréguer, membre de La Quadrature du Net et chercheur associé au Centre Internet & Société du CNRS,…
Texte intégral (1401 mots)

Technopolice, la surveillance policière à l’ère de l’intelligence artificielle paraît aujourd’hui aux éditions Divergences. Dans ce livre, Félix Tréguer, membre de La Quadrature du Net et chercheur associé au Centre Internet & Société du CNRS, fait le récit personnel d’un engagement au sein du collectif Technopolice. Mêlant les anecdotes de terrain aux analyses issues des sciences humaines et sociales, il retrace les mécanismes qui président à la technologisation croissante du maintien de l’ordre et de la gestion urbaine.

Résumé

Voici le résumé du livre, disponible dans votre librairie de quartier.

« Drones, logiciels prédictifs, vidéosurveillance algorithmique, reconnaissance faciale : le recours aux dernières technologies de contrôle se banalise au sein de la police. Loin de juguler la criminalité, toutes ces innovations contribuent en réalité à amplifier la violence d’État. Elles referment nos imaginaires politiques et placent la ville sous contrôle sécuritaire. C’est ce que montre ce livre à partir d’expériences et de savoirs forgés au cours des luttes récentes contre la surveillance policière. De l’industrie de la sécurité aux arcanes du ministère de l’Intérieur, de la CNIL au véhicule de l’officier en patrouille, il retrace les liens qu’entretient l’hégémonie techno-solutionniste avec la dérive autoritaire en cours. »

Présentations

Retrouvez toutes les dates dans l’agenda public de La Quadrature.

Extraits

« Lorsque vient notre tour de parler, Martin et moi montons sur l’estrade. Face à l’amphi bondé, face aux képis et aux costumes-cravate, face au commandant Schoenher et à la futurologue de la préfecture de police, face au préfet Vedel et aux cadres d’Idemia ou de Thales, il nous faut déjouer le piège qui nous est tendu. Dans le peu de temps qui nous est imparti, nous leur disons que nous savons. Nous savons que ce qu’ils attendent, c’est que nous disions ce que pourraient être des lois et des usages « socialement acceptables » [s’agissant de la reconnaissance faciale]. La même proposition vient alors de nous être faite par le Forum économique mondial et le Conseil national du numérique. Un peu plus de transparence, un semblant de contrôle par la CNIL, une réduction des biais racistes et autres obstacles apparemment  »techniques » auxquels se heurtent encore ces technologies, et l’on croit possible d’assurer un compromis  »éthique » entre la défense automatisée de l’ordre public et l’État de droit.

Mais nous leur disons tout net : la reconnaissance faciale et les autres technologies de VSA [vidéosurveillance algorithmique] doivent être proscrites. Plutôt que de discuter des modalités d’un  »encadrement approprié », nous exprimons notre refus. Nous leur disons que, pour nous, la sécurité consiste d’abord en des logements dignes, un air sain, la paix économique et sociale, l’accès à l’éducation, la participation politique, l’autonomie patiemment construite, et que ces technologies n’apportent rien de tout cela. Que sous prétexte d’efficacité, elles perpétuent des logiques coloniales et déshumanisent encore davantage les rapports qu’entretiennent les bureaucraties policières à la population. »

….

« Le glissement de l’urbanisme cybernétique vers des applications techno-sécuritaires semble irrésistible. Début 1967, aux États-Unis, une autre commission lancée par le président Johnson et dirigée par l’ancien ministre de la Justice de Kennedy, Nicholas Katzenbach – qui rejoindra d’ailleurs IBM en 1969 et y fera une bonne partie de sa carrière – a, elle aussi, rendu un rapport sur la montée des « troubles à l’ordre public » (…). C’est un programme d’ampleur qui est proposé : édiction d’un plan national de R&D qui devra notamment se pencher sur l’approche des politiques pénales en termes de « système », relevés statistiques couplés au déploiement d’ordinateurs et à la géolocalisation des véhicules de police pour optimiser voire automatiser l’allocation des patrouilles et s’adapter en temps réel à la délinquance, automatisation de l’identification biométrique par empreintes digitales, technologies d’aide à la décision dans le suivi des personnes condamnées, etc. La pensée techno-sécuritaire infuse l’ensemble des recommandations. Et l’on remarquera au passage combien la police du futur des années 1960 ressemble à la nôtre. Comme si le futur, lui non plus, ne passait pas. »

« Lorsque la technologie échoue à rendre la police plus précise ou efficace dans la lutte contre la délinquance, cela ne signifie pas qu’elle ne produit pas d’effets. Constater un tel échec doit plutôt inviter à déplacer le regard : l’une des principales fonctions politiques dévolues aux technologies ne consiste pas tant à produire de la « sécurité publique » qu’à relégitimer l’action de la police, à redorer le blason de l’institution en faisant croire à un progrès en termes d’efficience, d’allocation des ressources, de bonne gestion, de transparence, de contrôle hiérarchique. Il en va ainsi depuis la fin du XIXe siècle et le début de la modernisation de la police, lorsque le préfet Lépine mettait en scène l’introduction de nouveaux équipements, les bicyclettes ou les chiens de police. C’est aussi une dimension centrale des premiers chantiers informatiques des années 1960 que de rationaliser une administration perçue comme archaïque. Reste que cette promesse d’une police rendue plus acceptable, transparente ou légitime grâce à la technologie est toujours trahie dans les faits. »

« Tandis que l’extrême droite s’affirme de manière toujours plus décomplexée partout dans le champ du pouvoir, ces processus grâce auxquels les élites libérales gèrent la dissonance cognitive induite par leur complicité objective avec la spirale autoritaire en cours forment l’un des rouages les plus efficaces du fascisme qui vient. »

09.10.2024 à 14:06

Après les Jeux de Paris, la bataille de la VSA est loin d’être finie

bastien

Les Jeux Olympiques et Paralympiques se sont achevés il y a un mois. Alors que les rues de Marseille ou de Paris et sa banlieue sont encore parsemées de décorations olympiennes désormais désuètes, les promoteurs…
Texte intégral (1980 mots)

Les Jeux Olympiques et Paralympiques se sont achevés il y a un mois. Alors que les rues de Marseille ou de Paris et sa banlieue sont encore parsemées de décorations olympiennes désormais désuètes, les promoteurs de la surveillance s’empressent d’utiliser cet événement pour pousser leurs intérêts et légitimer la généralisation des dispositifs de vidéosurveillance algorithmique (VSA). Si nous ne sommes pas surpris, cette opération de communication forcée révèle une fois de plus la stratégie des apôtres de la Technopolice : rendre à tout prix acceptable une technologie dont le fonctionnement reste totalement opaque et dont les dangers sont complètement mis sous silence. Les prochains mois seront cruciaux pour peser dans le débat public et rendre audible et visible le refus populaire de ce projet techno-sécuritaire.

Des algos dans le métro

Comme prévu, la vidéosurveillance algorithmique a été largement déployée pendant les Jeux Olympiques. Il le fallait bien, puisque c’est au nom de ce méga événement sportif qu’a été justifiée l’« expérimentation » de cette technologie d’analyse et de détection des comportements des personnes dans l’espace public. Pour rappel, la loi du 19 mai 2023 relative aux Jeux Olympiques et Paralympiques de 2024 a permis aux préfectures d’autoriser un certain nombres d’acteurs à déployer des logiciels dopés à l’« intelligence artificielle » sur les images des caméras publiques afin de repérer un certain nombre de comportements soi-disant « suspects » et déclencher des alertes auprès des agents de sécurité ou des forces de l’ordre.

Contrairement à ce que le nom de la loi indique, cette capacité de mettre en place une surveillance algorithmique dépasse largement le moment des seuls Jeux Olympiques. Les policiers peuvent ainsi réquisitionner la VSA pour des « manifestations sportives, récréatives ou culturelles qui, par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ». Or, ce critère de « risque » a rapidement été apprécié de façon très large. La VSA a été déployée à l’occasion de concerts, de matchs de foot, de festivals ou encore lors du défilé du 14 juillet. Également, la durée de l’expérimentation dépasse largement celle des seuls Jeux et s’étend jusqu’en mars 2025. La ville de Cannes a ainsi annoncé qu’elle déploiera la VSA à l’occasion de cinq événements à venir : les NRJ Music Awards, le Marathon des Alpes-Maritimes, le marché de Noël, le feu d’artifice du Nouvel An et… le Marché international des professionnels de l’immobilier 2025. On le comprend, il ne s’agit pas tant de prouver un lien avec un risque particulier pour la sécurité que de trouver un prétexte pour tester ces technologies.

Mais revenons aux Jeux et à ce moment de « vraie vie » selon les termes employés par Emmanuel Macron. Que s’y est-il passé ? D’abord, les algorithmes de détection de l’entreprise Wintics ont été déployés dans 46 stations de métros et 11 gares SNCF ou RER. Comme cela avait déjà pu être le cas pour d’autres expérimentations, les stations concernées n’avaient parfois aucun rapport avec les lieux où se déroulaient les épreuves des Jeux. De nouveau, les acteurs de la surveillance tordent le cadre juridique pour le plier à leurs volontés. Aussi, alors que les pouvoirs publics sont tenus d’informer les personnes filmées qu’elles sont transformées en cobayes, ceux-ci se sont contentés du service minimum. Des petites affichettes ont été placardées dans le métro, peu visibles pour les passant⋅es dont le regard était davantage incité à lire une propagande sécuritaire « légèrement » plus grande.

Deux affiches de vidéosurveillance dans une station de métro : en très grand à droite, l'affiche de vidéosurveillance classique, en tout petit à gauche, l'affichette VSA.
En très grand à droite, l’affiche de vidéosurveillance classique, en tout petit à gauche, l’affichette VSA.

Ensuite, la VSA s’est étendue aux images de l’espace public aux alentours de 11 sites des Jeux Olympiques (comme le Stade de France ou la Place de la Concorde). Pour cette surveillance des rues, la préfecture de police n’a publié que le 30 juillet au soir l’autorisation préfectorale nécessaire à cette expérimentation, qui avait pourtant débuté… le 26 juillet. Comme on suivait cela de près, nous avons déposé une plainte auprès la CNIL, et ce afin de la pousser à faire son travail en sanctionnant l’État pour ces quatre jours de surveillance illégale. Les mêmes dispositifs de VSA ont ensuite été renouvelés lors des Jeux Paralympiques pour prendre fin le 9 septembre dernier. Depuis cette date, la course à la promotion de ces outils a repris de plus belle au sein des acteurs du système de surveillance qui n’hésitent pas à jouer des coudes pour imposer leur agenda.

Opération mal masquée

Théoriquement, la loi sur les JO prévoit que cette « expérimentation » de VSA soit soumise à une évaluation par un comité créé pour l’occasion, regroupant expert·es de la société civile, parlementaires et policiers. Ce comité est chargé d’analyser l’efficacité et l’impact de cette technologie selon des critères prévus par décret. Un rapport doit ensuite être remis au Parlement, le 31 décembre 2024 au plus tard. Si nous n’avions déjà que peu d’espoir quant à la capacité pour le comité de travailler de manière indépendante et d’être entendu dans ses conclusions, il n’empêche que celui-ci existe. Le Parlement a en effet choisi de conditionner une éventuelle pérennisation du cadre expérimental de la loi JO à son évaluation. Un garde-fou minimal dont le Conseil constitutionnel a souligné l’importance pour assurer toute éventuelle pérennisation du dispositif, qui serait alors à nouveau soumise à un examen de constitutionnalité.

Cela n’empêche pourtant pas les promoteurs de la VSA de placer leurs pions en communiquant de manière opportuniste afin de faire pression sur le comité d’évaluation et l’ensemble des parlementaires. Ainsi, le 25 septembre dernier, le préfet de police et ancien ministre Laurent Nuñez a ouvert le bal lors d’une audition par les député⋅es de la commission des lois. Sans apporter aucun élément factuel étayant ses dires, sans même faire part des très probables bugs techniques qui ont certainement émaillé le déploiement d’algorithmes de VSA qui pour certains étaient testés pour la première fois à grande échelle, il affirme alors que la VSA aurait d’ores et déjà « démontré son utilité », et appelle à sa prorogation. Et il s’emploie à minimiser les atteintes pour les libertés publiques : le préfet de police assure ainsi qu’il ne s’agirait en aucun cas de surveillance généralisée mais d’une simple aide technique pour trouver des flux anormaux de personnes. Comme si la légalisation des cas d’usage les plus problématiques de la VSA, dont la reconnaissance faciale, n’étaient pas l’un des objectifs des promoteurs de la Technopolice. Même le journal Le Monde s’est inquiété de cette déclaration de Nuñez dans un éditorial dénonçant la technique du « pied dans la porte » utilisée par le préfet.

Ensuite est venu le tour du gouvernement. Dans sa déclaration de politique générale, Michel Barnier a prononcé la phrase suivante, floue au possible : « Le troisième chantier est celui de la sécurité au quotidien : les Français nous demandent d’assurer la sécurité dans chaque territoire. Nous généraliserons la méthode expérimentée pendant les Jeux olympiques et paralympiques. ». À aucun moment le Premier ministre ne précise s’il a en tête la VSA ou la concentration ahurissante de « bleus » dans les rues, ou d’autres aspects du dispositif policier massif déployé cet été. Cela n’a pas empêché France Info de publier un article largement repris dans les médias annonçant, sur la base de cette déclaration, que le gouvernement envisageait de prolonger l’expérimentation de la vidéosurveillance algorithmique. En réalité, il s’agissait d’une « interprétation » venant du ministère de l’Intérieur, pressé d’imposer l’idée d’une pérennisation, quitte à faire fi du cadre légal de l’évaluation (le nouveau ministre Bruno Retailleau ayant bien fait comprendre que le respect du droit n’était pas sa tasse de thé). Résultat de cette opération d’intox de Beauvau : Matignon, soucieux de ne pas froisser le comité, « rectifie » auprès de France Info et affirme que le gouvernement attendra bien le rapport du comité. Bref, des petites phrases et des rétropédalages qui permettent au final au gouvernement de miser sur les deux tableaux : d’un côté, il tente de préempter le débat en imposant d’emblée la perspective d’une pérennisation et, de l’autre, il s’efforce de sauver les apparences, en laissant entendre qu’il suivra scrupuleusement le processus défini dans la loi. Reste qu’à Beauvau et très certainement aussi à Matignon, la pérennisation de la VSA est un objectif partagé. Le désaccord, si désaccord il y a, semblerait plutôt porter sur le tempo des annonces.

Tout ceci nous rappelle une chose : la bataille qui se joue maintenant est celle de l’acceptabilité de la VSA. Il s’agit pour les pouvoirs publics de fabriquer le consentement de la population à une technologie présentée comme évidente et nécessaire, alors qu’elle porte en elle un projet d’accaparement sécuritaire de l’espace public, de discrimination et de contrôle social, portés à la fois par une industrie de la surveillance en croissance et un régime de moins en moins démocratique.

Pour vous informer sur la VSA et vous y opposer, retrouvez notre brochure sur le sujet et d’autres ressources sur notre page de campagne. Et pour soutenir notre travail, n’hésitez pas à faire un don.

10 / 10
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplomatique
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓