TOUTES LES REVUES
+
-> Copie de sauvegarde automatisée des contenus la Quadrature du Net

▸ les 10 dernières parutions

07.02.2025 à 15:07

Lancement de la coalition Hiatus, pour résister à l’IA et son monde !

startuffenation
Ce texte est le manifeste fondateur de « Hiatus », une coalition composée d’une diversité d’organisations de la société civile française qui entendent résister au déploiement massif et généralisé de l’intelligence artificielle (IA). À l’approche du sommet…

Texte intégral 1006 mots

Ce texte est le manifeste fondateur de « Hiatus », une coalition composée d’une diversité d’organisations de la société civile française qui entendent résister au déploiement massif et généralisé de l’intelligence artificielle (IA). À l’approche du sommet sur l’IA organisé par la France, les 10 et 11 février 2025, le lancement de Hiatus vise à dénoncer l’inféodation des politiques publiques aux intérêts de la tech, ainsi que les coûts humains et environnementaux de l’IA. Au cours des mois à venir, des actions communes seront organisées pour décliner ce manifeste sur le plan politique.

Tout concourt à ériger le déploiement massif de l’intelligence artificielle en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique. Partout dans les services publics, l’IA est ainsi amenée à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les managers appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.

Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent notamment de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?

Comment ne pas voir qu’en tant que paradigme industriel, l’IA a dores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néo-coloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ? Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace alors qu’elle cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé. À longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux États-Unis et à la Chine.

Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance. Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.

Premières signataires :

La Quadrature du Net, la LDH, Union syndicale Solidaires, Scientifiques en rébellion, L’Atelier Paysan, Féministes contre le cyberharcèlement, SNES-FSU, Framasoft, Agir pour l’environnement, Attac France, Syndicat de la Magistrature, Syndicat des Avocats de France, Stop Micro, Le Nuage était sous nos pieds, Génération Lumière, Halte au contrôle numérique, ritimo, Intérêt à Agir, L’Observatoire des multinationales, Sherpa, Le Mouton numérique, Lève les yeux.

07.02.2025 à 13:07

VSA jusqu’en 2027 : quand le gouvernement ose tout

noemie
Dans la famille du grand n’importe quoi, on voudrait le gouvernement Bayrou s’il vous plaît ! L’expérimentation de vidéosurveillance algorithmique (VSA) prévue par la loi sur les Jeux Olympiques était censée se terminer dans moins de…

Texte intégral 1299 mots

Dans la famille du grand n’importe quoi, on voudrait le gouvernement Bayrou s’il vous plaît ! L’expérimentation de vidéosurveillance algorithmique (VSA) prévue par la loi sur les Jeux Olympiques était censée se terminer dans moins de deux mois. Pourtant, le gouvernement a déposé hier un amendement pour tout simplement prolonger l’expérimentation… jusqu’à la fin de l’année 2027. Le tout en s’affranchissant totalement des promesses faites ou des règles constitutionnelles.

Le déploiement de la VSA avait été autorisé par la loi sur les Jeux Olympiques en 2023 au nom de la sécurité de cet évènement. En réalité, ce texte permettait l’utilisation de cette technologie de surveillance de masse pour une durée bien plus longue et dans un périmètre bien plus large. La VSA a ainsi été déployée dès le mois d’avril 2024 et ensuite pour de nombreux évènements comme des concerts, matchs de foot ou même récemment dans la rue pour le jour de l’An à Paris. Cette « expérimentation » est censée se terminer le 31 mars prochain.

Aussi, la loi avait prévu de façon inédite la création d’un comité chargé d’évaluer la mise en œuvre de la VSA. Ses conclusions étaient présentées comme essentielles pour juger de l’utilité de cette technologie du point de vue policier, et décider ensuite d’une éventuelle pérennisation. Depuis le début, nous avons affiché notre plus grand scepticisme face à ce mécanisme d’évaluation, dont on anticipait qu’il serait instrumentalisé par le gouvernement. Surtout, l’approche consistant à se focaliser sur l’efficacité de la VSA éludait l’ensemble des dangers inhérents à cette technologie. Il n’empêche que ce comité avait le mérité d’exister. Lors des débats parlementaires, il a d’ailleurs été brandi à de multiples reprises par le gouvernement et la majorité d’alors comme la preuve de leur bonne foi et de leur respect des libertés publiques.

Qu’il est loin ce temps-là ! Déjà, il y a quelques mois, avant même que le comité ait finalisé son travail, Laurent Nunez et Michel Barnier y allaient de leur petit commentaire pour dire à quel point ils souhaitaient le prolongement de cette technologie, comme une manière de préparer les esprits. Puis, comme prévu par la loi, le comité a remis son rapport au gouvernement à la fin de l’année 2024. Si plusieurs médias y ont eu accès et s’en sont fait l’écho, ce document n’a toujours pas été rendu public [EDIT: il l’a été quelques heures après la publication de cet article]. Pourquoi une telle opacité ? Peut-être, comme le pointent Le Monde ou France Info, parce que le rapport montre de nombreuses défaillances et un manque d’efficacité de cette technologie ? À moins que cela s’explique par le fait que l’opposition populaire à la VSA monte et que, la semaine dernière, la justice a même exigé l’interdiction du recours à ce type de logiciel ?

Quoiqu’il en soit, le gouvernement veut continuer à utiliser cette technologie. Profitant du énième retour de la loi relative à la sûreté dans les transports à l’Assemblée (dont la discussion avait d’abord été interrompue par la dissolution puis par la chute du gouvernement Barnier, et dont l’initiateur, Philippe Tabarot, est depuis devenu ministre), il a fait un coup de force. Ainsi, il a déposé un hier un amendement demandant l’extension du dispositif de VSA pendant encore trois années, au prétexte que les services n’auraient pas eu assez de temps pour tester la technologie. Reformulons les choses : il a joué et il a perdu. Mais il s’en fiche, comme nous l’anticipions, le caractère « expérimental » et tout le dispositif d’évaluation n’ont été qu’un alibi commode permettant au gouvernement de faire passer la pilule. Que la VSA « marche » ou pas est au fond accessoire. Pour le gouvernement, il s’agit de l’imposer coûte que coûte.

Sur le plan juridique, la régularité de cet amendement est parfaitement douteuse : d’une part, il pourrait ne pas être recevable puisqu’il s’agit d’un cavalier législatif, qui déborde largement l’objet de la proposition de loi. D’autre part, s’il venait à être adopté, il rentrerait en contradiction avec les règles fixées par le Conseil constitutionnel en 2023. En effet, ce dernier avait jugé que toute pérennisation et tout nouvel examen par les Sages de la conformité de la VSA à la Constitution devrait se faire à la lumière des résultats de l’évaluation. Or, si l’évaluation a bien été produite, le gouvernement s’en moque complètement. Il tente de forcer la main au Parlement qui n’aura même pas le temps de se faire sa propre idée. Outre le projet politique funeste associé à la VSA, c’est là le plus parlant dans cette affaire : l’absence totale de considération pour la légalité ou le respect des engagements fait à la représentation parlementaire. Rien d’étonnant s’agissant d’un ministre de l’intérieur qui affiche clairement son mépris pour l’État de droit.

Cet amendement est tout bonnement un scandale. La VSA ne doit pas être prolongée. Elle doit être interdite. Produit d’une industrie de la sécurité avide de profit, cette surveillance de nos corps et nos comportements est le vecteur technologique d’une amplification des discriminations policières. Elle contribue à parfaire un édifice de la surveillance qui transforme l’espace public en un espace de contrôle social permanent, qui trie les « bons citoyens » et les « suspects ».

Nous appelons tous les parlementaires à voter contre cette mesure et nous invitons toutes les personnes intéressées à se mobiliser dans leur ville ou après de leur député·e, pour faire valoir leur refus radical de ces technologies.

Note du 3 Mars 2025 : L’amendement en question a été malheureusement adopté.

Pour vous informer sur la VSA et vous y opposer, retrouvez notre brochure sur le sujet et d’autres ressources sur notre page de campagne. Et pour soutenir notre travail, n’hésitez pas à faire un don.

04.02.2025 à 16:18

L’IA telle qu’elle est développée alimente un système d’exploitation global

startuffenation
Un collectif d’ONG emmené par Amnesty International, la LDH et Féministes contre le cyberharcèlement recommande, dans une tribune au « Monde » également signée par La Quadrature du Net, de placer les droits humains et la justice environnementale…

Texte intégral 1418 mots

Un collectif d’ONG emmené par Amnesty International, la LDH et Féministes contre le cyberharcèlement recommande, dans une tribune au « Monde » également signée par La Quadrature du Net, de placer les droits humains et la justice environnementale au cœur de la régulation de l’intelligence artificielle.

L’intelligence artificielle (IA) connaît un développement foudroyant, et nos dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux de ces nouvelles technologies, uniquement vues sous le prisme de la croissance, des gains de productivité et des profits. L’IA telle qu’elle est développée perpétue cependant les discriminations, aggrave les inégalités, détruit la planète et alimente un système d’exploitation global. Parce que ces constats ne figureront pas au programme officiel du Sommet mondial sur l’IA [qui se tient à Paris les 10 et 11 février], nous, organisations de la société civile, vous les rappelons ici.

Se concentrer uniquement sur d’éventuels futurs risques existentiels à venir de l’IA est un leurre : ces technologies ont déjà des effets très concrets pour les populations les plus vulnérables et les plus discriminées et portent largement atteinte aux droits humains. En s’appuyant sur des bases de données biaisées et en intégrant les préjugés de ses concepteurs, l’IA perpétue les stéréotypes, renforce les inégalités sociales et limite l’accès aux ressources et opportunités. A cela s’ajoute le fait que le déploiement de ces systèmes d’IA s’inscrit dans le contexte des structures discriminatoires et inégalitaires qui existent dans les sociétés du monde entier. Le recours à ces technologies, souvent sur fond de politiques d’austérité, amplifie les discriminations dans l’accès à la santé, à l’emploi, aux services publics ou aux prestations sociales. En témoignent les scandales ayant éclaté ces dernières années : biais sexistes et racistes des algorithmes de santé, algorithme des services de l’emploi autrichien qui refuse d’orienter les femmes vers le secteur informatique, profilage et discrimination des usagers de la Caisse nationale des allocations familiales en France, au Danemark ou aux Pays-Bas.

Or les technologies sont rarement la solution à des problèmes en réalité systémiques. Il est préférable de s’attaquer à la racine de ces problèmes plutôt que de prendre le risque d’aggraver les violations des droits humains avec des systèmes d’IA. Tandis que l’on confie de plus en plus de décisions aux algorithmes, leurs biais peuvent avoir des conséquences dramatiques sur nos vies. Les IA prédictives se substituent à la justice et à la police, risquant d’amplifier le racisme systémique. Par exemple, aux Etats-Unis, une IA calculant les risques de récidive désignait deux fois plus les accusés noirs comme étant « à haut risque » que les accusés blancs. Et quand bien même on réduirait ces biais, se concentrer sur les outils prédictifs nous empêche de penser à des réformes plus globales du système carcéral.

Menaces pour l’Etat de droit

Ces systèmes sont aussi utilisés à des fins de surveillance et d’identification dans le cadre du contrôle des frontières ou de conflits, comme Lavender, cette IA qui, en désignant des cibles terroristes, a provoqué la mort de milliers de civils gazaouis. Et bien souvent, ces technologies sont développées par les pays occidentaux, comme les outils créés par des pays européens utilisés pour surveiller la population ouïghoure en Chine.

Les systèmes d’IA générative sont également instrumentalisés à des fins de désinformation et de déstabilisation par des régimes répressifs et des acteurs privés. « Bots » utilisés pour manipuler l’information sur des questions liées à la santé, désinformation à caractère raciste durant les dernières élections européennes, deepfakes audios et vidéo mettant en scène des candidats aux élections : ces technologies sont autant de menaces pour l’Etat de droit. Les montages crédibles générés par IA sont aussi un danger pour les femmes et les enfants : 96 % de ces deepfakes sont des contenus non consentis à caractère sexuel [selon le rapport 2019 du cabinet de conseil en gestion de risques DeepTrace], massivement utilisés dans le but de nuire aux femmes et de générer des contenus pédocriminels.

Par ailleurs, ces effets s’inscrivent dans un système d’exploitation global. L’IA, et notamment l’IA générative, constitue un véritable désastre pour l’environnement. D’ici à 2027, l’IA générative nécessitera une alimentation en électricité équivalente à celle de pays comme l’Argentine ou les Pays-Bas [comme le rapporte un article du New York Times d’octobre 2023]. Les émissions de CO2 des « géants de la tech » ont augmenté de 30 à 50 % en 2024 en raison du développement fulgurant de ces technologies. Et ce sont les pays du Sud global qui sont les premiers touchés : les data centers y pullulent, et l’extraction de minerais, comme le cobalt, utilisé entre autres dans les batteries, met en péril la santé des populations, entraîne la pollution des eaux et des terres et alimente violences et conflits armés.

L’affaire de toutes et tous

Les inégalités entre les pays du Nord et du Sud sont également aggravées par les technologies déployées pour la modération de contenus en ligne. Les géants du numérique qui allouent plus de moyens aux pays du Nord privilégient ainsi certaines langues et récits culturels, déjà dominants, au détriment des autres. Enfin, n’oublions pas que ces systèmes d’IA sont majoritairement entraînés par des travailleurs et travailleuses du Sud global, exploités et sous-payés. Selon les informations du magazine Time, la société OpenAI a ainsi rémunéré des Kényans moins de deux dollars (1,95 euro) de l’heure pour labelliser des contenus toxiques, un travail particulièrement violent et éprouvant.

Face à ces constats alarmants, le règlement européen sur l’IA, présenté comme un instrument de protection des droits et libertés, reste très imparfait, notamment sur les questions de surveillance et de police prédictive. Par ailleurs ce règlement ne s’appliquera pas hors des frontières de l’Union européenne, alors même que la menace pour les droits humains et l’environnement est globale et que l’exportation des IA de surveillance génère du profit pour les entreprises européennes.

Nos gouvernements ne cessent de parler de souveraineté de l’IA, mais les défis posés par ces systèmes transcendent les frontières. Loin d’être un sujet technologique, l’IA est l’affaire de toutes et tous. Tout le monde doit pouvoir choisir la direction de ses développements, quitte à les refuser s’ils ne correspondent pas à notre projet de société. Un cadre contraignant élaboré démocratiquement, dans une perspective de solidarité internationale et avec les communautés les plus touchées, qui place les droits humains et la justice environnementale au cœur de la régulation de l’IA, voilà le véritable progrès.

9 / 10