10.04.2026 à 07:00
Hubert Guillaud
« Chaque fois que j’utilise mes appareils connectés, je participe à un contrat social algorithmique tacite », explique le chercheur José Marichal. « À l’instar du contrat social métaphorique qui lie les citoyens des démocraties libérales à leurs gouvernements, une grande partie de ma vie culturelle en ligne est régie par un système sociotechnique qui engendre avantages et inconvénients. Les termes de cette relation sont simples : en échange d’une plus grande liberté de choix à l’ère des possibilités infinies, je cède mon autonomie à l’algorithme. (…) Pour Google ou Meta, trop d’exploration vous rend problématique. Une personne qui explore constamment complique la tâche de leurs algorithmes de classification. (…) Si vos comportements sont imprévisibles vous devenez un « bruit statistique » pour le modèle, alors vous êtes un problème algorithmique et un sujet néolibéral indésirable. (…) Nous vivons dans une société ordinale où chacune de nos actions peut être enregistrée, catégorisée et notée. Le danger d’une telle société réside dans l’incapacité d’explorer. La démocratie libérale repose sur la conjecture et la réfutation, sur l’habitude de partager ses opinions sur la vie publique avec ses concitoyens, en admettant la possibilité de se tromper et en modifiant ses convictions en conséquence. De telles habitudes requièrent une ouverture à l’exploration. Or, notre économie algorithmique nous dissuade d’explorer trop largement, car cela nous transforme en consommateurs imprévisibles. »
Le risque, explique Marichal, c’est que « nous perdions notre goût pour les contenus atypiques. C’est-à-dire les contenus culturels qui ne correspondent pas à notre vision du monde façonnée par les algorithmes », résumait-il dans une tribune pour Tech Policy Press. Pire, souligne-t-il, « les expressions trop novatrices ou audacieuses risquent de passer inaperçues, car elles ne correspondent pas aux catégories des algorithmes ». A l’heure des algorithmes, il faut écrire pour ce qu’ils optimisent. « Nous vivons dans une culture de l’optimisation où nos émotions sont instrumentalisées pour confirmer sans cesse nos préférences. »
« Les algorithmes d’apprentissage automatique reposent sur la préemption, plutôt que la dissuasion (qui suppose que les individus peuvent modifier leur comportement pour obtenir des récompenses ou éviter une punition). Cette logique vise à neutraliser les menaces avant même qu’elles n’émergent », expliquait-il encore, nous invitant à nous écarter de « l’arrogance épistémique des machines ». « Un public qui commence à privilégier la prévention à la dissuasion se préoccupe moins des droits procéduraux des personnes ciblées comme déviantes, car elles sont moins perçues comme des sujets autonomes et plus comme des « anomalies » à éliminer. (…) Une culture qui privilégie l’action à la recherche de la vérité est dangereuse pour nous tous. »
« Plus nous privilégions un contrat algorithmique qui répond à nos propres préférences, qui vise à résoudre le problème en optimisant la solution la plus efficace au détriment des relations humaines au sein de la communauté, plus nous sapons la démocratie libérale ». Il nous faut devenir un problème algorithmique, explique-t-il dans son livre – You must become an algorithmic problem, Bristol University Press, 2025 – , c’est-à-dire échapper au calcul des machines… au risque que cela devienne un problème pour chacun puisque qu’échapper aux machines signifie de plus en plus être extrait de la société que celles-ci rendent possible.
09.04.2026 à 07:00
Hubert Guillaud
L’ère post-chatbots s’annonce, explique la journaliste Lila Shroff pour The Atlantic. L’IA ne fait plus que répondre aux questions. Elle programme, elle agit. Et le « tournant agentique » formalise ces progrès, explique Eryk Salvaggio pour Tech Policy Press. Le tournant agentique désigne des systèmes qui génèrent du code et s’adaptent de manière autonome. Les systèmes d’IA produisent désormais du code et vérifient l’efficacité de cette production en la corrigeant jusqu’à ce qu’elle fonctionne. Mais si ces évolutions améliorent l’expérience utilisateur des LLM, est-ce que cela suffit pour « justifier » du déploiement de l’IA, interroge pertinemment Salvaggio. Est-ce que le fait que leurs productions s’améliorent suffit pour justifier de l’utilité de cette technologie ?
Nous ne sommes plus exactement dans le cadre des perroquets stochastiques définis par l’article fondateur de 2021, d’Emily M. Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell, même si ce cadre reste pertinent – voir notre article, « la gauche minimise-t-elle le pouvoir de l’IA ? ». « Les systèmes agentiques empilent ces perroquets » pour produire des formes « d’essaims stochastiques ». Des systèmes qui s’auto-alignent sur ce qu’ils doivent produire, tout en demeurant fondamentalement incapables de rendre des comptes. La question centrale de l’article de Bender et alii demeure toujours pertinente, estime Salvaggio : « Les modèles de langage peuvent-ils être trop volumineux ? »
La prolifération des modèles ne fait qu’amplifier les problèmes de biais, d’attribution erronée de la pensée et d’inefficacité. Distinguer la critique systémique de l’évaluation des modèles n’est pas céder à la surenchère : cela signifie se concentrer sur les avantages et les inconvénients collectifs plutôt que sur les usages individuels. On peut parler de ce que les modèles ne peuvent ou ne devraient pas faire sans pour autant nier leurs capacités, estime Salvaggio.
L’IA agentique s’apprête à débarquer et ses effets vont être nombreux, estime l’artiste-chercheur. D’abord, il promet la production de logiciels bâclés (slopware, contraction de slop qu’on peut traduire par soupe ou de bouillie et de ware qui désigne les composants – voir notre article sur le slop), produits plus rapidement, mais qu’il va être difficile à évaluer. Distribution accélérée qui risque de créer des situations comparables à un espace aérien non réglementé, où une multitude de décisions individuelles et déconnectées engendrent le chaos. Le code peut sembler fonctionner dans des circonstances particulières grâce à toutes sortes de bidouillages qui masquent des erreurs sous-jacentes. « Contrairement aux logiciels malveillants, le logiciel bâclé n’est pas intentionnellement perturbateur ; il perturbe par négligence : c’est la variable codée en dur qui permet à un homme célibataire de gérer correctement son budget, mais qui entraîne des frais de découvert lorsqu’il est utilisé par une mère célibataire. La conception de logiciels exige une grande finesse dans le choix des valeurs et priorités qu’ils intègrent, ainsi que dans la manière dont ils déforment, ignorent ou présentent de façon erronée les données qu’ils traitent. Le suivi de ce processus requiert des connaissances techniques. » C’est cela qui pourrait disparaître dans les logiciels de demain.
Ensuite, l’IA agentique promet l’accumulation des défaillances techniques. Malgré une perception accrue de fiabilité, les modèles de langage ne peuvent jamais être des machines à dire la vérité. Les soi-disant hallucinations sont mathématiquement impossibles à éliminer, et par conséquent, la perception d’une fiabilité accrue augmente le risque de surestimer la pertinence d’un modèle de langage pour une tâche donnée. Alors qu’un modèle de langage produit des textes ou autres médias persuasifs et potentiellement faux, un système agentiel produit un « code convaincant ». Ce code est produit de manière plus difficile à interrompre, à tracer ou à auditer qu’une simple sortie de modèle. « Il est impossible de documenter de manière fiable le processus de pensée d’un code créé sans réflexion » ; par conséquent, le code doit être considéré comme non fiable jusqu’à ce qu’il soit vérifié. On pourrait ajouter ici, le risque d’une sécurité infrastructurelle, comme l’évoquait Bruce Schneier.
Conséquence du risque précédent, un autre risque repose sur l’accumulation des défaillances de responsabilité. Les erreurs dans un système agentiel s’accumulent de manière invisible jusqu’à ce qu’un élément vienne briser la façade. Dans les systèmes sensibles, ce dysfonctionnement peut nuire aux personnes. On encourage le gouvernement à utiliser ces systèmes pour des tâches telles que l’automatisation des décisions relatives aux prestations sociales, l’analyse des contrats et le contrôle réglementaire – des domaines où des défaillances en cascade peuvent avoir de graves conséquences humaines. « L’objectif du gouvernement ne devrait pourtant pas être de gagner du temps en reportant la charge de travail sur un retraité qui se voit refuser indûment ses prestations ».
Enfin, l’empilement des systèmes agentiques pousse à la montée en puissance du solutionnisme. Salvaggio rappelle pourtant que tous les problèmes ne se résument pas à des problèmes de programmation. L’accès à la génération de code nous pousse à résoudre les défis politiques par de nouvelles lignes de code et à nous concentrer sur les problèmes compréhensibles par les machines, au risque d’exacerber des formes de déshumanisation. Les cas particuliers, parfois flous, ne sont plus les subtilités du tissu social, mais une nuisance technique. Aucune simulation d’une communauté capable de résoudre ses problèmes n’est possible : le désordre est une étape nécessaire à la construction du sens et au fonctionnement de la démocratie.
Enfin, ces systèmes risquent d’accroître l’extraction et le gaspillage des ressources à grande échelle. Les systèmes multi-agents fonctionnent en boucle, consommant bien plus de ressources que les logiciels conçus de manière plus ciblée. Lorsqu’un débutant réécrit une seule ligne de code avec un système multi-agents, « il n’utilise pas un seul modèle : il active l’ensemble du système ». Cette mise à l’échelle optimise la production individuelle : plus, plus vite, sans tenir compte de l’efficacité du code ni de ses effets. Il ne s’agit pas seulement d’un coût environnemental. « Cela dégrade le patrimoine informationnel commun et crée des problèmes pour tous ceux qui, en aval, dépendent de ce code. Les essaims multi-agents augmentent la puissance de calcul individuelle tout en comprimant de vastes réseaux de travail et d’extraction de ressources dans une seule fenêtre d’exécution. »
Pour Salvaggio, d’autres problèmes encore posent questions avec le passage à l’IA agentique, notamment le pouvoir politique que ces outils vont donner à l’industrie de l’IA, l’extension de la surveillance, le renforcement et l’invisibilisation des biais… Reste qu’énumérer les défaillances à venir ne suffit pas à contrer l’expansion des machines. Se moquer des piètres résultats de ces systèmes semble n’avoir aucun impact sur leur déploiement estime Salvaggio. Pour lui, il nous faut ouvrir un débat sur l’utilité et ses limites. « Que signifie l’utilité ? Pour qui et dans quelles conditions ? » Qui bénéficie des systèmes et qui en pâtit ? « Quelles décisions sont discrètement soustraites au débat public et confiées à des systèmes automatisés contrôlés par des entreprises, des gouvernements et d’autres institutions ? Le fait que l’on utilise des modèles de langage ne rend pas les critiques à leur égard superflues ; au contraire, elles les rendent urgentes. »
08.04.2026 à 07:00
Hubert Guillaud
« A partir du moment où le numérique, l’IA, les infrastructures critiques s’interposent au coeur des chaînes de valeurs, elles les réauditent à leur profit. Un certain nombre d’entreprises françaises sont en passe de devenir des espèces de sous-traitant d’industries dont la valeur ajoutée est dans le numérique ou dans l’IA et qui vont réauditer les tarifs à leurs profits. »
Notre dépendance n’est pas qu’en achat logiciels, elle est bien large que cela. Elle touche le hardware, nos capacités cyber, des infrastructures critiques, les données… sans compter les grands services d’accès à l’information comme les réseaux sociaux et les moteurs de recherche.
« La domination va bien au-delà de la part d’achat logiciel par nos entreprises et administrations. Cela introduit une domination économique et une évasion de valeur parce qu’on achète à l’extérieur, mais c’est le moins grave. Cela introduit une domination sur les chaînes de valeurs à laquelle on ne prête pas assez attention. Je ne sais pas si vous vous souvenez du rapport qu’avait fait l’ANSES sur la condition des livreurs Deliveroo et qui nous montrait des gens dont la vie était en train de devenir infernale parce qu’ils ne rencontraient plus jamais ni un collègue ni un supérieur hiérarchique, mais seulement des stimulus de data… et dont le salaire horaire avait diminué de 35% en deux ans. Mais en fait, on est tous en passe de devenir des livreurs Deliveroo. A partir du moment où le numérique, l’IA, les infrastructures critiques s’interposent au coeur des échelles de valeurs, elles les réauditent à leur profit. Un certain nombre d’entreprises françaises sont en passe de devenir des espèces de sous-traitants d’industrie dont la valeur ajoutée est dans le numérique ou l’IA qui vont réauditer leurs tarifs à leurs profits. »
Henri Verdier (vidéo, texte), directeur général de la Fondation Inria, lors de son audition à la Commission d’enquête sur les dépendances structurelles et les vulnérabilités systémiques dans le secteur du numérique et les risques pour l’indépendance de la France.
07.04.2026 à 07:04
Hubert Guillaud
Les discussions sur les strates qui constituent le réseau sont nourries, d’autant qu’elles interrogent profondément les enjeux de souveraineté technologique. La souveraineté numérique est un concept flou qui fait l’objet de beaucoup d’instrumentalisations, rappelait avec pertinence l’association Data For Good. Bien souvent, être souverain en la matière implique d’être autonome sur toutes les couches de l’industrie numérique. Un objectif impossible tant les dépendances sont partout, des logiciels au matériel, des ressources aux infrastructures, des conditions juridiques aux financements. Comme l’expliquait la chercheuse Ophélie Coelho dans son livre, Géopolitique du numérique(éditions de l’Atelier, nouvelle édition 2025) l’enjeu est bien plus de déterminer les secteurs et les couches sur lesquels nous devons reprendre le contrôle. Pour le dire autrement, l’enjeu n’est pas tant d’avoir des produits totalement souverains, que de comprendre là où la souveraineté doit s’exercer et comment.
Cette autonomie stratégique à laquelle aspirer est très souvent présentée comme un enjeu nationaliste ou patriotique, qui confond la souveraineté avec le leadership technologique, sans toujours voir que ces leaderships peuvent reposer sur des dépendances innombrables, à l’image de l’enjeu à déployer des centres de données sur le territoire au prétexte de souveraineté, sans questionner le fait que leur financement ou leurs équipements puissent être totalement entre les mains d’acteurs étrangers.
L’IA est en passe de devenir une couche supplémentaire dans le mille-feuille des couches sociotechniques du numérique. Et elle requestionne en profondeur ces enjeux, explique Raffi Krikorian, directeur technique de Mozilla, dans une tribune pour Rest of World. « Dans un monde de plus en plus polarisé et protectionniste, où les plateformes technologiques sont de plus en plus instrumentalisées par les politiques étatiques, construire des infrastructures nationales critiques sur des systèmes dont on n’est pas propriétaire, que l’on ne peut ni auditer ni adapter, représente un risque considérable et croissant. Ce défi comporte une dimension tant économique que politique. Un État soucieux de sa souveraineté en matière d’IA en 2026 ne pourra pas justifier de manière crédible le financement d’une infrastructure d’IA étrangère et verticalement intégrée tout en négligeant les investissements dans des alternatives nationales et open source. Investir dans les hyperscalers peut minimiser les coûts à court terme, mais cela consolide également les rentes numériques versées à des entités étrangères, maximise la dépendance à long terme envers des partenaires peu fiables et augmente considérablement les coûts de sortie. Si les gouvernements financent la dépendance, c’est bien la dépendance qu’ils obtiendront. »
Pour Raffi Krikorian pourtant, l’enjeu n’est pas tant de construire une souveraineté de l’IA nationaliste, que de bâtir des Communs maîtrisés. « L’absence actuelle de financements privés à grande échelle pour les infrastructures d’IA ouvertes reflète leur nature de bien public, et non leurs capacités. Les modèles open source atteignent déjà couramment 90 % ou plus des performances des systèmes propriétaires, pour un coût bien moindre. Investir dans les cadres d’IA ouverts, c’est investir dans les infrastructures publiques numériques, car cela génère des avantages grâce à des coûts réduits, au maintien de l’autonomie politique et à des gains de productivité à l’échelle de l’économie. L’IA ouverte offre également ce que les systèmes propriétaires ne peuvent pas : la légitimité démocratique. Les pays ne créent pas de valeur en revendant des solutions étrangères, mais en développant des produits différenciés sur des bases partagées, ouvertes et moins coûteuses. Il s’agit d’une politique industrielle qui encourage la concurrence et le développement des compétences nationales, et non d’un rejet de l’industrie nationale. »
« Internet n’est pas né de la seule initiative d’acteurs privés, mais d’investissements publics soutenus dans les technologies ouvertes. De Linux à Apache, les fondations open source partagées sont devenues l’épine dorsale de l’économie numérique mondiale, favorisant l’innovation privée tout en empêchant la mainmise sur l’infrastructure. Du CERN à Airbus en passant par Galileo, la leçon est claire : lorsque les États cofinancent des fondations ouvertes ou partagées, l’innovation privée prospère. En revanche, lorsqu’ils financent l’accès, la dépendance s’accentue. L’IA se trouve précisément à ce tournant.»
Souveraineté ne rime pas avec isolement, rappelle-t-il. « Les coûts de développement de l’IA open source peuvent être partagés. Comme l’a déclaré le Premier ministre canadien Mark Carney à Davos : « Investir collectivement dans la résilience coûte moins cher que de construire sa propre forteresse. » L’enjeu n’est pas que chaque pays construise son propre jardin clos. Il appartient aux nations de collaborer autour de standards ouverts et d’infrastructures partagées, en rejetant la fausse dichotomie entre dépendance et isolement des plateformes, et en construisant plutôt un avenir de l’IA qu’elles maîtrisent réellement. »
« Si nous voulons des écosystèmes d’IA résilients, ouverts et fiables, nous devons les financer comme tels – non par idéalisme, mais comme un investissement concret dans la souveraineté, la résilience et la légitimité démocratique. Les pays qui aspirent à la souveraineté en matière d’IA doivent participer à ce débat, non pas en simples observateurs, mais en tant que co-investisseurs et co-constructeurs. Plus nous attendons, plus il sera difficile de changer de cap », conclut le responsable de Mozilla en appelant à construire des protocoles plus que des plateformes, des cadres ouverts plus que des solutions, des systèmes de valeurs plus que des contraintes économiques ou techniques. Une proposition qui rappelle que c’est bien le cadre de la souveraineté qu’il faut discuter, pour comprendre là où nous pouvons avoir des dépendances et là où nous devons les refuser. L’enjeu n’est pas de construire des investissements nationaux mais bien d’investir dans des infrastructures communes porteuses de valeurs démocratiques et émancipatrices, libres et ouvertes. « La souveraineté en matière d’IA ne viendra pas de la location des modèles des géants de la tech ». Elle ne viendra pas des factures de tokens des systèmes d’IA des grands acteurs de la Tech. Elle consiste d’abord à construire une autre tech, non pas nationaliste ou patriotique, mais qui promeut une souveraineté distribuée, choisit, capacitante.
On se souvient que, récemment, l’économiste Francesca Bria avait évoqué le risque d’une soumission à une strate autoritaire fomentée par les géants de la Silicon valley : « derrière les strates qui composent le réseau, comme l’avait défini Benjamin Bratton dans son livre, Le Stack (UGAP, 2020), comme autant de régimes de souveraineté qui se superposent et s’imbriquent, la strate autoritaire semble l’envers de la proposition d’autonomie stratégique que propose EuroStack ». Mais le risque est bien, sous couvert de souveraineté, de produire des strates nationalistes voire militaristes, comme semble le proposer l’annonce récente d’un « Deutchland Stack » Allemand.
D’où l’importance de faire un pas de côté.
C’est la piste que proposent les chercheurs Trebor Scholz et Mark Esposito dans la revue d’innovation sociale de Stanford. Pour contrebalancer l’extractivisme des plateformes, « nous avons besoin de construire la strate solidaire de l’empilement numérique ». Lorsque les systèmes technologiques sont conçus uniquement pour l’extraction et l’efficacité, ils isolent et brisent les personnes qui les font vivre, rappellent les deux chercheurs. L’exploitation des travailleurs du clic par exemple est le « symptôme d’une industrie structurée pour transférer les risques vers le bas via des chaînes contractuelles opaques, tout en concentrant les profits et le contrôle au sommet ». Pour Scholz et Esposito, « sans intervention délibérée, ces logiques d’extraction se généraliseront à l’échelle mondiale, concentrant encore davantage le pouvoir entre les mains des plus puissants, à moins que nous ne choisissions de construire un système fondamentalement différent ». Jusqu’à présent, les chercheurs invitaient à investir dans des entreprises inclusives, dans des coopératives de travailleurs, que Scholz a beaucoup défendu. Trebor Scholz est professeur à la New School for Social Research de New York depuis 2009. Il est l’un des premiers à s’être attelé à analyser le phénomène du Digital Labor (Routledge, 2013). Il est aussi l’un des promoteurs du coopérativisme de plateformes (voir par exemple notre article de 2015), notamment dans son livre Le coopérativisme de plateformes (FYP, 2017) ainsi que dans Own this ! (Verso, 2023). Il est également le fondateur du Platform Cooperativism Consortium un réseau de promotion du mouvement coopérativiste, qui organise notamment des conférences sur la coopération, comme celle sur l’IA coopérative qui se tenait il y a peu à Istanbul. Pourtant, écrit-il dans son article, « la réponse aux méfaits de l’IA ne peut se limiter à la régulation des plateformes dominantes ».
En fait, la concentration du pouvoir des géants du numérique rend de plus en plus vulnérables même les institutions internationales les plus critiques aux politiques autoritaires et aux pressions des dirigeants, comme l’illustre la dépendance de la Cour pénale internationale à l’égard de l’infrastructure Microsoft face aux menaces proférées sous l’administration Trump. Les coopératives, les institutions publiques et les mouvements sociaux doivent donc activement construire et connecter des alternatives grâce à ce que Scholz appelle la « pile de solidarité », une économie numérique coopérative émergente.
« L’extraction ne se résume pas à des algorithmes biaisés ou à des violations de la vie privée. C’est un problème structurel : l’IA actuelle fonctionne grâce à ce que nous appelons une « strate d’extraction » verticalement intégrée, comprenant le matériel, l’infrastructure cloud, les modèles, la main-d’œuvre et les applications. Seules quelques entreprises contrôlent la construction, la gouvernance et l’utilisation de ces technologies et les personnes qui en dépendent n’ont aucun droit de regard démocratique. »
Les critiques et les régulateurs soulignent à juste titre que les seules directives éthiques ne peuvent résoudre les problèmes posés par la logique extractiviste des plateformes. Les systèmes d’IA reposent sur des modèles de propriété, des chaînes d’approvisionnement et des architectures techniques qui privilégient le profit, le passage à l’échelle et le contrôle. « Ces incitations structurelles déterminent la collecte des données, le traitement des travailleurs, les décideurs et les bénéficiaires de la création de valeur, privant ainsi les directives éthiques de tout pouvoir pour remettre en cause la logique sous-jacente du système. Une IA démocratique ne peut se contenter de louer un espace sur la strate extractiviste ! Elle exige que les travailleurs, les communautés, les coopératives et les institutions publiques se réapproprient l’infrastructure elle-même, couche par couche, de la terre au nuage. »
Scholz et Esposito plaident pour construire une architecture solidaire. Un défi qui nécessite de rejeter la notion d’intelligence artificielle, qui sous-entend une force magique et autonome, au profit d’une intelligence collective, reconnaissant le travail humain et le savoir partagé qui alimentent ces systèmes. Cependant, parvenir à la coordination nécessaire pour contester les monopoles mondiaux de l’IA demeure un défi de taille. Même des organisations établies comme l‘Alliance coopérative internationale, qui représente un mouvement d’environ un milliard de membres et des milliers de coopératives employant près de 10 % de l’emploi mondial, sont structurées principalement pour la représentation et le plaidoyer plutôt que pour la coordination et l’exploitation d’une infrastructure numérique partagée.
Pour les deux chercheurs, plusieurs initiatives menées par des communautés, des coopératives et des institutions publiques permettent déjà de reprendre le contrôle de ces niveaux économiques, notamment des ressources, des infrastructures, des données, du travail comme du savoir.
Une approche solidaire exige des chaînes d’approvisionnement transparentes, la propriété communautaire des ressources minérales et des mécanismes de partage équitable des bénéfices. Elle permettrait également de distribuer l’infrastructure sur des serveurs fédérés, appartenant à la communauté et interconnectables sans contrôle central. Butler Rural Electric offre un précédent historique éloquent. Fondées dans les années 1930 avec le soutien du gouvernement fédéral et une gouvernance coopérative, les coopératives électriques rurales ont permis aux communautés de financer, construire et gérer leur propre infrastructure énergétique, un modèle qui continue aujourd’hui de fournir de l’électricité à environ 42 millions de personnes dans les zones rurales américaines. Des coopératives numériques telles que Hostsharing eG en Allemagne et Som Connexio en Espagne, ainsi que plusieurs coopératives de vente au détail au Royaume-Uni, appliquent cette même logique en mutualisant les ressources de leurs membres, en utilisant une gouvernance coopérative et en collaborant avec des partenaires publics pour construire et exploiter une infrastructure numérique partagée. Cela permet aux communautés de réduire leur dépendance aux fournisseurs de cloud propriétaires, de conserver le contrôle local de leurs données et d’assumer la responsabilité de la gestion des coûts environnementaux liés à la consommation d’énergie. Bien que ces initiatives soient explicitement expérimentales et de portée modeste, elles suggèrent que la capacité de calcul peut fonctionner comme un bien public. Les décideurs politiques et les responsables municipaux pourraient même appliquer ce modèle pour créer une option publique d’accès à la puissance de calcul.
Dans le modèle d’extraction, les données personnelles sont une matière première prélevée auprès des utilisateurs pour alimenter des modèles propriétaires. Cette logique considère les individus non pas comme des participants ou des détenteurs de droits, mais comme des sources passives de valeur. Le modèle de solidarité, lui, réinvente les données comme une ressource partagée, gérée démocratiquement. Par exemple, MIDATA, une plateforme suisse de données de santé détenue et gérée par des patients agit comme une fiducie pour ses membres. Elle maintient une infrastructure sécurisée permettant aux patients de consulter leurs données agrégées et de décider démocratiquement de les partager ou non à des fins de recherche médicale. MIDATA démontre qu’il est possible de créer des ensembles de données de haute qualité, issus de sources éthiques, sans surveillance. Les membres partagent volontairement leurs données car ils font confiance à la gouvernance et à la gestion des données de la coopérative, ce qui élimine le besoin d’extraction ou de surveillance coercitive.
Au travail, l’IA implique une rétroaction entre contenus et modérateurs. Les travailleurs étiquettent, examinent, corrigent et leurs décisions enregistrées sont utilisées par les systèmes pour reconnaître, classer, améliorer. Ce processus contraint les individus à absorber le fardeau psychologique des contenus. Dans le modèle solidaire, ces travailleurs ont des garanties de salaires, de droits, bénéficient de soutiens… et pilotent la gouvernance de leurs outils et missions, comme c’est le cas de nombreuses coopératives de travailleurs, comme celle de la Gamayyar African Tech Workers au Kenya, Facttic en Argentine, Outlandish à Londres… et de nombreuses autres (comme la plateforme danoise Hilfr qu’on avait évoqué dans notre article sur les plateformes du secteur du nettoyage).
Scholz et Esposito proposent d’appliquer les principes coopératifs à l’IA. « L’accès à l’IA seul est insuffisant quand les outils fonctionnent comme des boîtes noires, incapables d’expliquer ou de remettre en question leurs résultats, et si leurs valeurs reposent sur des principes imposés plutôt que sur des valeurs démocratiquement établies. L’approche solidaire propose de réhabiliter le domaine du savoir comme un espace de gouvernance collective, favorisant l’explicabilité, la contestabilité, des normes partagées » pour construire d’autres IA.
AI4Coops, en Argentine, est une initiative de petite envergure qui réunit des praticiens et des technologues du monde coopératif afin d’étudier comment l’intelligence artificielle pourrait soutenir la gouvernance coopérative et l’apprentissage partagé. Elle veille à ce que la culture algorithmique ne soit pas réservée aux institutions d’élite ni concentrée au sein des géants de la technologie, mais soit largement accessible aux travailleurs, aux coopératives et aux communautés. Elle développe des outils d’IA adaptés à des problématiques locales avec des acteurs locaux, comme des systèmes de reconnaissance d’images pour du contrôle qualité dans une usine, un système d’analyse d’images satellites pour des coopératives agricoles… La coopérative britannique Animorph développe des outils de réalité augmentée pour la prise en charge de la démence, utilisant la narration immersive et des supports visuels pour soutenir la mémoire, la communication et le lien affectif des personnes atteintes de démence et de leurs aidants. Puisqu’elle est détenue par ses employés, elle refuse de monétiser la vulnérabilité des patients et conçoit des outils qui privilégient les soins aux indicateurs d’engagement. « Ces exemples montrent que l’IA au service du bien commun ne saurait se réduire à de la simple posture vertueuse, à du marketing éthique, ni à des formes d’écoblanchiment ou de blanchiment d’image. La construction d’une infrastructure solidaire exige que les modèles économiques alternatifs soient véritablement ancrés dans la démocratie au travail, la propriété partagée et une gouvernance responsable », expliquent les chercheurs. Ces modèles locaux ont d’autres vertus encore, comme la souveraineté linguistique, la maîtrise des processus, la sobriété…
Reste que, comme nous le disions, « les plateformes coopératives, qui privilégient les pratiques éthiques, des normes de travail et sociales plus élevées, peinent à être compétitives. L’absence de législation spécifique aggrave ce problème, permettant aux plateformes capitalistes d’opérer en toute impunité et de saper les efforts des acteurs de bonne foi, tels que les coopératives de plateformes. » Pour Scholz et Esposito également, l’infrastructure solidaire nécessite, pour émerger et s’imposer, une articulation stratégique des politiques, des financements et de l’organisation communautaire. Il faut que les développeurs technologiques « s’accordent régulièrement sur des principes partagés, l’interdépendance matérielle, des institutions durables, des rituels et un récit politique commun que les individus choisissent consciemment de défendre, notamment sous pression ».
Ici, Scholz et Esposito prennent l’exemple des organisations autonomes décentralisées (DAO), où la blockchain aide à formaliser la gouvernance partagée. Pas sûr que l’exemple soit convaincant, tant le mouvement est devenu a bien des égards problématique. Par contre, ils pointent vers le Public AI Network, un réseau de défense et promotion d’une IA publique intégrée, « qui fournirait des services d’IA au même titre que l’électricité ou l’eau », accessible à tous, contrainte à rendre des comptes, durable, fiable. Ou encore le projet Lestac AI en France, pour tester des services d’IA écoresponsables. Ou le modèle multilingue et open source Apertus, développé par l’École polytechnique fédérale de Zurich (EPFZ) et l’École polytechnique fédérale de Lausanne (EPFL)… Le protocole OpenCourier, par exemple, crée une base technique commune permettant aux plateformes de livraison gérées par leurs travailleurs de se connecter et de collaborer. Ou encore le projet d’IA coopérative du réseau des collectivités locales britanniques qui s’engage à respecter les principes coopératifs et démocratiques dans la prestation de services publics.
Pour Scholz et Esposito, ces « cercles » de strates solidaires, locales, conçoivent le développement d’infrastructures comme une forme d’action politique collective, que ce soit par le biais de fiducies de données municipales, de services cloud coopératifs ou de modèles linguistiques gérés publiquement. « Le discours dominant sur l’IA laisse faussement entendre qu’un contrôle centralisé par les entreprises est inévitable. Pourtant, des modérateurs de contenu au Kenya, des gestionnaires de données en Suisse et d’autres encore démontrent que les composantes d’un avenir numérique démocratique sont déjà présentes. Notre mission est de les relier et, ce faisant, d’exercer notre pouvoir d’agir, de refuser le désespoir et de créer un système où la technologie est au service de la majorité. »
Hubert Guillaud
Signalons encore que dans le syllabus (.pdf) du cours qu’il a donné au premier semestre à la New School sur le thème d’une « IA sans patrons », Trebor Scholz pointait encore vers bien d’autres exemples. En estimant que les infrastructures solidaires peuvent être mises en place à chaque niveau de la chaîne d’approvisionnement mondiale de l’IA, il évoquait les mines coopératives au Pérou, en Colombie, en Zambie ou en Mongolie, ou des centres de données coopératifs en Allemagne ou aux Pays-Bas. Il signalait par exemple, la tribune de la doctorante Tara Merk, contributrice au Metagovernance Project, sur les limites de projets de centres de données coopératifs. Face aux data centers dominés par les géants de la Tech, Merk défendait « une plus grande diversité dans la propriété et la gouvernance des centres de données », notamment coopératifs. « Et si les centres de données étaient détenus et gérés de manière coopérative par les personnes vivant à proximité immédiate et souvent directement desservies par eux ? » Dans ce modèle, les opérateurs citoyens pourraient recevoir une part des bénéfices générés par le centre de données (à l’instar des parcs éoliens citoyens). Cela entraînerait une redistribution indirecte des bénéfices générés par les données des utilisateurs en ligne – une idée qui prend d’autant plus d’importance que ces données gagnent en valeur à l’ère de l’IA. Les centres de données coopératifs offriraient également aux citoyens un meilleur contrôle sur l’impact de ces infrastructures sur leur environnement physique local. Par exemple, les citoyens pourraient décider si et quand la quantité d’énergie ou d’eau utilisée par le centre de données entre en conflit avec d’autres besoins locaux et pourraient décider de réduire l’approvisionnement énergétique du centre de données en cas de situation critique. Guidé par les valeurs coopératives d’équité et de solidarité, de tels centres de données pourraient décider de renoncer à des bénéfices plus élevés afin de rendre son infrastructure plus accessible à tous, comme aux associations et coopératives. Cela pourrait à son tour encourager une plus grande diversité dans le développement de l’IA et inciter les entreprises à adopter une identité coopérative. De plus, en s’appuyant sur une infrastructure de centres de données coopérative, les coopératives d’IA renforceraient leur autonomie et leur indépendance, offrant à leurs membres un meilleur contrôle sur l’ensemble de la pile technologique, y compris les moyens de production de l’IA. Tara Merk est en train de faire une étude sur GAD eG, une coopérative qui pendant 50 ans a été l’un des grands fournisseurs de services informatiques allemand notamment pour les services financiers (jusqu’à sa fusion en 2015 avec une autre entreprise). Pour la chercheuse, l’exemple de GAD démontre « que les centres de données coopératifs constituent une option économiquement viable et évolutive, capable de fonctionner de manière fiable dans des secteurs critiques ».
Dans son syllabus, Scholz aborde d’autres exemples de coopératives pour montrer comment les valeurs coopératives peuvent guider des alternatives concrètes au développement technologique, comme le propose Read-Coop, la coopérative européenne à l’origine de la plateforme de reconnaissance d’écriture manuscrite Transkribus. Et pointe vers nombre de ressources sur le sujet des technologies pour la coopération.
A compléter encore par le numéro de Nature consacré aux modèles d’IA des pays du Sud, qui offre un autre regard sur d’autres façon de faire de l’IA.
03.04.2026 à 07:01
Hubert Guillaud
Un tribunal de Los Angeles a reconnu Meta et Google coupables d’avoir créé des produits addictifs ayant causé des troubles mentaux à une jeune femme. Les deux entreprises ont été condamnées à verser 3 millions de dollars de dommages et intérêts. Si la condamnation est dérisoire, le verdict devrait générer d’autres procès (nombreux sont en cours) et pourrait entraîner d’importantes modifications des applications de réseaux sociaux pour s’en prémunir, explique la journaliste Kaitlyn Tiffany pour The Atlantic.
Bien sûr, Meta et Google ont fait appel. Mais l’un des avocats du Social Media Victims Law Center estime que le jugement appelle déjà des changements majeurs. Une condamnation qui s’ajoute à un autre verdict rendu contre Meta dans une autre affaire au Nouveau-Mexique où l’entreprise à été condamnée à une amende de 375 millions de dollars pour des milliers d’infractions aux lois de l’Etat sur la protection des consommateurs et sur le fait que Meta aurait indirectement facilité des crimes graves. Cela signifie que non seulement les plateformes permettent l’exploitation des utilisateurs, mais qu’elles présentent des défauts qui nuisent aux utilisateurs. Et ce qui est en cause, ce sont notamment les flux algorithmiques, la lecture automatique des vidéos et les notifications push, ainsi que le fait que Instagram et YouTube avaient été créés par des entreprises conscientes de leur caractère addictif et nocif, et que ces entreprises avaient choisi de ne pas avertir les consommateurs de ces risques.
Aux Etats-Unis, de nombreux procès d’utilisateurs attendent les géants des réseaux sociaux. Si les entreprises de la tech ont beaucoup défendu leurs pratiques pour rassurer les utilisateurs ces dernières années, on sait depuis, avec des documents internes révélés par les enquêtes, que ces entreprises étaient divisées quant à la priorité à accorder à la protection des enfants par rapport à la croissance et à l’engagement des utilisateurs, rappelle la journaliste dans un autre article. Comme le fait de ne pas passer les comptes des adolescents en privé par défaut qui a été longtemps retardé par les équipes commerciales de Meta alors que d’autres équipes de FB avaient alerté du problème dès 2020. Il faudra attendre septembre 2024, pour que les comptes adolescents soient placés en privé par défaut. Ces documents provenant du procès au Nouveau-Mexique ont montré que pendant 6 ans, « Meta a peaufiné des paramètres de confidentialité de base, tout en calculant comment de simples interventions permettraient de réduire modérément le temps passé sur Instagram et en optant initialement pour des mises à jour progressives et prudentes afin de préserver ses statistiques d’engagement ». Un rapport interne montrait que l’algorithme recommandait des comptes d’enfants à des adultes au prétexte que les fans veulent suivre leurs stars préférées et auraient jeté des enfants en pâtures à des délinquants sexuels.
Désormais, les comptes des mineurs sont mieux surveillés, mais les mesures ne sont toujours pas parfaites, notamment du fait que la modération est devenue très lacunaire sur les plateformes sociales. Enfin, les pratiques de captologie, elles, demeurent plus présentes que jamais.
Comme l’évoque la designer Nolwenn Maudet dans son manuel Culture du Design numérique : histoire des idées et des enjeux (éditions 205, 2026), en rappelant les propos du designer Aza Raskin à l’époque où il défendait le passage au scroll infini (avant de se repentir) : « Le problème c’est qu’à chaque fois que les utilisateurs sont forcés de cliquer sur la page suivante, ils sont extraits du monde du contenu vers le monde de la navigation : ils ne sont plus en train de penser à ce qu’ils lisent mais à comment en lire plus. Comme le fil de leurs pensées est brisé, cela les oblige à arrêter de lire, et cela leur donne l’opportunité de quitter le site. Ce qu’ils font. » Les darks patterns ont donc bien pour fonction de limiter la réflexion de l’utilisateur pour favoriser son engagement. La captologie a bien été utilisée pour créer des dépendances cognitives. En Caroline du Sud, un projet de loi souhaite d’ailleurs débrancher les fonctionnalités addictives pour les comptes enfants, telles que le défilement infini, certaines notifications push, la lecture automatique des vidéos, les compteurs de mentions J’aime et autres indicateurs d’engagement, les badges de compte et les flux d’actualités exploitant le profil. Aux Pays-Bas, Meta a fait appel d’une décision de justice qui l’oblige à proposer un fil alternatif chronologique à son classement algorithmique.
Reste à savoir quand ces interdictions s’étenderont à tous les autres profils, puisque cette compulsivité est bien armée contre l’utilisateur.
En attendant, estime un spécialiste interrogé par Le Monde, les réseaux sociaux jouent la montre. Il est probable qu’ils continuent à faire des ajustements mineurs, progressifs, incrémentaux.
02.04.2026 à 07:00
Hubert Guillaud
La désinformation générée par l’IA submerge la couverture médiatique de la guerre en Iran, rapportent Wired, la BBC, CNN, The Atlantic…. Pour The Guardian, la journaliste Tess Mcclure a mené l’enquête sur une image qui a fait le tour des réseaux, celle du cimetière de Minab, photographié alors qu’il s’apprête à accueillir l’inhumation de plus de 100 jeunes filles de la ville. Une image emblématique de la guerre israélo-américaine contre l’Iran, témoignant de son terrible bilan humain.
En demandant aux services IA comme Gemini ou Grok, les deux répondent que ces images ne sont pas réelles et sont des images provenant de catastrophes antérieures. Les deux IA sont péremptoires et fournissent des sources pour l’image originale, mais qui ne mènent nulle part : soit l’image est introuvable, soit le lien fourni renvoie à un article de presse inexistant.
Les experts, eux, estiment que l’image est authentique : elle n’a pas de signe d’altération et elle correspond aux lieux réels.
Dans les rédactions, les vérificateurs de faits sont constamment débordés par le flux incessant d’images truquées. Aujourd’hui, « près de la moitié, voire plus, des fausses informations virales que nous suivons et démentons sont générées par l’IA », explique l’un d’entre eux. Le phénomène est aggravé par les synthèses d’actualités IA, qui sont pourtant très utilisées par les internautes, alors qu’une étude menée en 2025 a révélé qu’environ la moitié des synthèses générées par l’IA présentaient au moins un problème important de source ou d’exactitude – ce taux atteignant même 76 % pour certains outils, comme l’interface Gemini de Google. Le problème, souligne Mcclure n’est d’ailleurs pas seulement que ces interfaces produisent du faux, mais qu’elles n’identifient pas non plus la réalité. « Le problème est aggravé par la manière péremptoire dont l’IA présente ses conclusions. Elle génère des rapports détaillés, incluant noms, dates, références et sources : un contenu qui laisse supposer une recherche et une compréhension approfondies, mais qui peut en réalité être halluciné ou inexistant. Lorsque le Guardian a interrogé Gemini sur la réponse concernant la photographie de Minab, en demandant : “Je ne pense pas que ce soit correct, pouvez-vous effectuer une nouvelle recherche ?”, Gemini a modifié sa conclusion, mais pour indiquer un autre lieu et une autre année erronés. »
Shirin Anlen et Mahsa Alimardani de l’association Witness, expliquent dans une tribune pour Tech Policy Press qu’on voit apparaître beaucoup d’analyses d’apparence technique pour discréditer faussement des preuves authentiques. Le journaliste de BBC Verify, Shayan Sardarizadeh, a constaté que ce conflit pourrait déjà avoir battu des records en matière de quantité de contenu généré par l’IA et devenu viral en temps de guerre. Le chercheur en OSINT Tal Hagin a également observé que le problème ne se limite plus aux utilisateurs ordinaires des réseaux sociaux trompés ; le volume de ces tromperies a dépassé les capacités de vérification, même des rédactions professionnelles. Dans ce contexte, les preuves authentiques sont non seulement plus difficiles à trouver, mais elles sont activement dissimulées par le flux de contenus. Des preuves d’apparence technique, associées à une allégation mensongère, circulent plus vite que toute correction. Nous sommes en train de basculer dans l’instrumentalisation de la détection par IA et de l’analyse forensique elle-même : des visuels d’apparence technique peuvent créer une illusion d’autorité technique. Nous voici dans le « Cosplay forensique», une forme de déguisement de l’activité d’investigation, comme une fabrication de fausses preuves médico-légales… où l’on trouve par exemple de fausses cartes thermiques pour discréditer des images réelles… Les outils conçus pour détecter la manipulation deviennent des instruments de manipulation, utilisés pour semer le doute et la confusion autour d’événements réels, voire de victimes réelles.
« Le brouillard de l’IA n’a pas besoin que chaque contenu soit fabriqué. Il a besoin que la question « Est-ce réel ? » devienne quasiment insoluble », estime très pertinemment Mahsa Alimardani pour The Atlantic. Le problème est que, dans ce flou, même les preuves ne fonctionnent plus, se désole-t-elle.
La désinformation a pourtant un coût, estimait récemment une étude de Sopra Steria : 417 milliards de dollars. Quant à l’inaction des plateformes face à ces contenus, elle est liée à la grande difficulté à identifier les contenus génératifs, estime le Monde à la suite du site spécialisé Indicator. En fait, la labellisation des contenus IA par les plateformes repose sur des détecteurs automatiques qui ne fonctionnent pas, comme le soulignait le New York Times, mais surtout, les plateformes ne sont pas incitées à modérer ces contenus. « Dans un monde où le président américain diffuse lui-même de fausses informations et utilise massivement des images générées par IA pour communiquer sur les réseaux sociaux, la pression sur les géants de la tech pour supprimer les premières et labelliser les secondes est faible », conclut Le Monde.