LePartisan - 318 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 10 dernières parutions

11.03.2026 à 07:04

Le produit toxique des Big Tech ne sont pas les réseaux sociaux… 

Hubert Guillaud
« Le produit toxique des Big Tech ce sont les enchères publicitaires qui conditionnent toute l’architecture algorithmique de leurs réseaux sociaux. Dans une note du MIT de 2024, quelques mois avant de recevoir le Nobel d’économie, Daron Acemoglu et Simon Johnson ont ainsi appelé à l’urgence de taxer la publicité numérique. »  Julien Falgas et […]

11.03.2026 à 07:03

Palantir, l’entreprise métapolitique

Hubert Guillaud
« Ce que fait Palantir concrètement, c’est réécrire le monde réel, sensible, dans un langage propriétaire. (…) Palantir ne vend pas de données, mais la capacité à leur donner du sens. (…) Ce que le marché achète avec Palantir : c’est une promesse eschatologique. L’idée que Palantir sera le système nerveux du prochain ordre mondial. […]

11.03.2026 à 07:01

L’épuisement de l’IA

Hubert Guillaud
« L’IA réduit peut-être le coût de production mais augmente les coûts de coordination, d’inspection et de décision. Et ces coûts, eux, reposent totalement sur l’humain ». Siddhant Khare
Lire plus (179 mots)

« L’IA réduit peut-être le coût de production mais augmente les coûts de coordination, d’inspection et de décision. Et ces coûts, eux, reposent totalement sur l’humain ». Siddhant Khare

10.03.2026 à 07:00

Persona : la vérification d’âge ne vérifie pas que votre âge !

Hubert Guillaud
Derrière la vérification d'âge, des contrôles qui ont bien d'autres projets.
Texte intégral (1974 mots)

L’application de forum et de messagerie, Discord, a mis en place une solution de vérification d’âge pour ses utilisateurs. Pour cela, il est nécessaire que les utilisateurs autorisent la reconnaissance faciale : une mesure qui a suscité une vague de colère et de contestations… ainsi que l’intérêt de quelques hackers, qui ont cherché des moyens de la contourner, explique The Rage

Ceux-ci ont révélé que le système utilisé par Discord pour cette vérification biométrique automatisée reposait sur Persona, une solution de vérification d’identité… financée par Peter Thiel. Ils ont surtout montré qu’une fois que les utilisateurs soumettent leur selfie et la copie de leur pièce d’identité, Persona ne vérifie pas seulement l’âge, mais lance d’innombrables vérifications. 

Outre ses services d’estimation d’âge, Persona compare vos selfies à des photos de personnes fichées grâce à la reconnaissance faciale, analyse vos informations d’identité en fonction de 14 catégories de contenus médiatiques à caractère négatif (mention de terrorisme, espionnage, etc.) et étiquette ces rapports avec des noms de code issus de programmes de renseignement actifs. Ces programmes, menés dans le cadre de partenariats public-privé, luttent contre l’exploitation des enfants en ligne, le trafic de cannabis et de fentanyl, les escroqueries sentimentales, le blanchiment d’argent et le commerce illégal d’espèces sauvages. Une fois l’identité d’un utilisateur vérifiée auprès de Persona, le logiciel effectue 269 contrôles distincts et explore Internet et les sources gouvernementales à la recherche de correspondances potentielles, notamment en comparant votre visage à celui de personnes politiquement exposées (PPE), et en générant des scores de risque et de similarité pour chaque individu. Les adresses IP, les informations du navigateur et de l’appareil, les numéros d’identification officiels, les numéros de téléphone, les noms, les visages et même les arrière-plans des selfies sont analysés et conservés pendant trois ans maximum. Les informations analysées par le logiciel sur les images comprennent la « détection d’entités suspectes sur les selfies », une « comparaison d’incohérences d’âge sur les selfies », la « détection d’arrière-plans similaires » (qui semblent correspondre à ceux d’autres utilisateurs de la base de données) et la « détection de poses répétées sur les selfies », qui semble servir à déterminer si vous adoptez la même pose que sur des photos précédentes. En résumé, le logiciel « vous signale comme une « entité suspecte » uniquement sur la base de votre visage », écrivent les chercheurs. 

Autant d’éléments qui ont peu à voir avec la vérification et l’estimation d’âge, pour laquelle Persona ne serait d’ailleurs pas bien meilleure que les autres solutions (notamment pour déterminer l’âge des plus jeunes). Bref, vérifier son âge sur une plateforme pourrait avoir d’innombrables conséquences que les fonctionnalités de Persona font entrevoir : allant du signalement d’activités suspectes sur cette plateforme à la communication de ces informations à nombre d’autres acteurs. 

« Comparaison du visage visage avec des personnalités politiquement exposées. Recherches automatisées dans les médias pour trouver des concordances liées au terrorisme et à l’espionnage…» Sans compter que les données collectées (numéro de la pièce d’identité, image du visage, adresse IP, numéro de téléphone…) conservées pendant 3 ans. Bref, on est bien loin de ne devoir que prouver qu’on a plus de 18 ans ! Tant et si bien que Discord a annoncé renoncer à l’utilisation de Persona. 

Au-delà de la seule vérification d’âge, Persona est une entreprise qui propose des solutions de connaissance du client et de lutte contre le blanchiment d’argent (voir notre article «  Dans les algorithmes bancaires »). Valorisée à 2 milliards de dollars, la startup gère les processus de vérification d’identité pour des entreprises comme OpenAI, Roblox, Heritage Bank et le service de covoiturage Lime. Mais a également bien d’autres clients… 

Persona s’inscrit dans la tendance croissante des législations sur la vérification de l’âge qui se répandent à travers le monde. De la loi européenne sur le contrôle des conversations en ligne à la loi britannique sur la sécurité en ligne, en passant par les projets de loi américains KOSA et EARN IT aux États-Unis, les gouvernements affirment que la vérification de l’âge sur Internet permet de protéger les enfants des dangers liés à la libre circulation de l’information. Or, il semble que ce ne soit pas le seul objectif si l’on en croit ce que propose Persona. 

Des efforts de vérification d’identité comme ceux-ci induisent les utilisateurs en erreur en leur faisant croire qu’ils sont mieux protégés. Au contraire, comme l’explique l’une des hackeuse à The Rage, avec ces systèmes « vous rendez Internet moins sûr, et non plus sûr ». « Les utilisateurs lambda », affirment-ils, « ne pourront pas contourner ces systèmes », tandis que les personnes mal intentionnées « trouveront toujours des moyens de les exploiter ». Les informaticiens tirent la sonnette d’alarme depuis longtemps : une base de données centralisée contenant des milliers de pièces d’identité représente toujours une cible lucrative pour les pirates. Au mieux, Persona peut servir à créer des graphiques de surveillance complets des utilisateurs pour les entreprises clientes, affirment les chercheurs. Au pire, le logiciel pourrait transmettre des rapports automatisés directement au gouvernement. 

Le problème n’est pas qu’un enjeu de sécurité, comme l’explique Mick Masnick sur TechDirt. Il n’est pas seulement que les bases de données des opérateurs de la vérification d’âge seront piratées, mais bien la collusion de ces procédures pour démultiplier la surveillance. Comme le disent ceux qui ont révélé le pot aux roses : « L’État veut tout voir. Les entreprises veulent tout voir. Et elles ont appris à collaborer. » Pour Masnick, « nous avons donc conçu un système incapable d’empêcher l’accès aux personnes qu’il est censé cibler, tout en créant des dossiers biométriques permanents sur des millions d’utilisateurs respectueux de la loi. C’est consternant ! » La situation au niveau législatif est peut-être encore plus cynique, explique-t-il : « Partout dans le monde, les gouvernements exercent une pression croissante pour rendre obligatoire la vérification de l’âge en ligne. Et comme ces obligations créent un marché captif de plusieurs milliards de dollars, tout un écosystème de startups « d’identité en tant que service », financées par des investisseurs, a vu le jour pour répondre à cette demande.(…) Elles se sont positionnées comme protectrices des enfants tout en œuvrant activement à étendre les exigences légales qui garantissent leurs revenus. » 

Discord a pour l’instant renoncé à déployer un système de vérification d’âge et a assuré chercher à changer de fournisseur. Mais, souligne Masnick, « le problème n’a jamais été de savoir quelle entreprise détient vos données biométriques. Le problème, c’est que n’importe qui soit contraint de les fournir. »

Persona est utilisée par bon nombre d’entreprises. Par exemple, c’est à elle que Linked-in confie sa vérification d’identité, rapporte un spécialiste de la sécurité sur son blog. « Je voulais seulement obtenir la coche bleue sur LinkedIn. Celle qui dit « cette personne est réelle ». Dans un océan de faux recruteurs, de comptes automatisés et de photos de profil générées par IA, cela me semblait une démarche judicieuse ». 

En vérité, « j’ai remis à une entreprise américaine mon passeport, mon visage et les données mathématiques de mon crâne. Ils ont recoupé mes informations avec celles d’agences de crédit et de bases de données gouvernementales. Ils utiliseront mes documents pour entraîner leur IA. Et si le gouvernement américain s’en prend à moi, ils leur fourniront tout. »

Parmi les données collectées, outre toutes les informations d’identification disponibles, il semble qu’il y ait même une détection des hésitations (le système détecte vos pauses durant le processus) et une détection du copier-coller (le système détecte si vous copier-coller des informations au lieu de les saisir au clavier), autant d’éléments qui entrent certainement dans le score de risque de chacun. La vérification d’identité conduit donc à une vérification des antécédents et à leur enregistrement. 

La base légale de ces vérifications n’est pas le consentement, mais l’intérêt légitime. C’est-à-dire que Linked-in estime, unilatéralement, que toutes ces vérifications sont  « acceptables »

LinkedIn reçoit donc de chacun son nom, son année de naissance, le type de pièce d’identité utilisé et l’autorité émettrice, une version floutée de la pièce d’identité (tout est masqué sauf le nom et la photo) et… le résultat de la vérification. D’autres ont également accès à ces données : les prestataires de services de Persona ; leur « réseau mondial de partenaires de données » (ces bases de données tierces fonctionnent dans les deux sens) ; les filiales et sociétés apparentées ; tout acquéreur de Persona ; et les forces de l’ordre. Parmi les sous-traitants de Persona, 17 entreprises ont accès aux données (dont 16 entreprises américaines et une canadienne, aucune européenne, parmi lesquelles ont trouve Google, OpenAI, Anthropic, Amazon, Stripe…). 

« Tout ça pour une petite coche bleue sur un réseau social professionnel. Persona et Linkedin savent très bien ce que vous échangez quand vous scannez votre visage. La seule personne qui ignore ce qui sera fait de son passeport quand il le présente à la caméra, c’est l’utilisateur final »

Pas sûr que le jeu en vaille la chandelle. Le problème, c’est qu’à mesure que les vérifications vont se déployer, nous risquons surtout de n’avoir plus d’autres choix que de procéder à des contrôles qui ont bien d’autres objets que ce qu’ils nous affirment.

Hubert Guillaud

09.03.2026 à 07:00

Aporie de l’extractivisme des plateformes

Hubert Guillaud
Dans “L’âge de l’extraction”, Tim Wu dresse le constat de la puissance des plateformes… et de l'impuissance de la régulation. 
Texte intégral (6541 mots)

Le professeur de droit américain, Tim Wu, spécialiste des réseaux et de leur régulation, grand défenseur du droit de la concurrence et de la neutralité des réseaux est certainement obsessionnel, tant il pourfend, partout, la collusion et le monopole. Mais, dans l’Amérique de Trump, à l’âge où les grandes plateformes de la Tech semblent avoir largement emporté la mise, ces principes paraissent comme dévitalisés par la réalité. Cela explique peut-être que son dernier livre, The Age of extraction : how Tech Platforms conquered the economy and threaten our future prosperity (Knopf Publishing Group, 2025, non traduit) soit décevant. Certainement parce qu’il ne fait que prolonger le constat de ses précédents The Curse of Bigness : antitrust in the new Gilded age (Columbia Global Reports, 2019, non traduit) et The Attention Merchants(2017, Atlantic Books, non traduit) notamment (qu’on avait évoqué à leur parution), un constat déjà largement établi : celui de l’impuissance de la régulation qu’il défend.

Son dernier livre n’offre pas de solution clef en main pour sortir de l’âge de l’extraction qu’il décrit. Un peu comme le constat qu’il dressait il y a peu dans une tribune pour le New York Times, où il déplorait la relaxe récente de Meta par la justice américaine sur sa situation de monopole. Malgré une décennie de scandale, « aucune autorité publique de ce pays n’a été en mesure de demander des comptes à l’entreprise pour ses agissements », disait-il. C’est un peu comme si dans son livre, Wu voulait qu’on y croit encore. Il tente de nous dire qu’on pourrait encore sortir de l’âge de l’extraction que les plateformes ont accompli comme personne d’autre. C’est un peu comme s’il continuait à nous dire que la régulation était forte, alors que partout, elle nous semble bien impuissante

Le rêve des plateformes

Dans son livre, Wu analyse la façon dont les plateformes sont devenues le cœur du processus extractivisme. « Leur pouvoir ne réside pas dans la production, mais plutôt dans la catalyse. Il réside dans l’hébergement de toute activité économique et l’extraction de valeur, y compris la valorisation de ressources spécialisées comme les données et l’attention humaine ». Ce que la technologie nous fait dépend de la manière dont elle est conçue, façonnée, accomplie et de là où le pouvoir économique réside, explique-t-il. La prospérité, la justice et la croissance ne sont pas incompatibles, estime-t-il. Mais la richesse est meilleure quand elle est équitable, partagée. Les révolutions technologiques ont produit une grande abondance, mais ce que nous n’avons toujours pas, c’est l’infrastructure qui permet de la distribuer équitablement. Sans surprise, le livre de Tim Wu plaide pour le renforcement d’une politique anti-monopole, qui a toujours été le cœur du combat du juriste. La neutralité des plateformes est le fondement d’une société prospère. Mais cette neutralité est menacée par la centralisation du pouvoir à un niveau inégalé. Découpé en 4 parties, le livre de Wu propose de comprendre la puissance des plateformes, leur business, les dangers de la centralisation avant de proposer de construire une « architecture pour l’égalité »

Au début d’internet, nous avons vécu un moment d’extraordinaire optimisme, rappelle-t-il. Tout était possible. Internet était là pour interconnecter l’humanité et porter la démocratie. Économiquement, le réseau promettait de donner du pouvoir aux entrepreneurs innovants sur les grandes entreprises. Small is the new big, promettait Jeff Jarvis dans What would Google do ? (Harper Business, 2009, traduit sous le titre La méthode Google, éditions Télémaque, 2009). Cela ne s’est pas passé comme prévu, comme l’avait noté Paris Marx, nous montrant que derrière le soft power d’internet, se dissimulait le colonialisme des grandes entreprises de la tech.. 

Le terme de plateforme décrit un espace ou une structure qui permet d’interagir ou de négocier en réduisant le coût à le faire. La neutralité du terme laisse penser que celles-ci seraient des dispositifs impartiaux. Elles permettraient de résoudre les barrières à la transaction, en améliorant l’appariement, en améliorant l’information et la confiance (permettant de lutter contre l’asymétrie d’information où le vendeur en saurait plus que l’acheteur, sans toujours y parvenir), en permettant aux petits acteurs de grandir ou de toucher des marchés plus grands qu’ils n’en seraient capables, enfin elles permettraient la promotion de l’innovation, c’est-à-dire l’évolution des produits et services, comme quand Netflix est devenue une plateforme de streaming après avoir été un service d’envoi de DVD. La plateformisation a permis de développer de nouveaux types de business et de produits. Wu prend l’exemple du passage d’IBM de l’industrie de l’électronique à celle des ordinateurs, en 1953, avec la construction de la série IBM 700, puis dans les années 60 avec la série System/360 et la construction d’un système d’exploitation standard, permettant d’assurer aux ordinateurs de fonctionner ensemble, mais pas en dehors de l’écosystème d’IBM. 

Wu, rappelle avec pertinence, qu’à l’époque, les autorités étaient convaincues que le fascisme et le monopole étaient liés, que la structuration même du marché pouvait conduire au fascisme. C’est ce qui explique le démantèlement d’AT&T, qui impose à l’opérateur de télécommunication américain d’ouvrir la licence du transistor et de ne pas opérer dans le domaine des ordinateurs. Dans les années 60, le ministère de la Justice s’inquiète du monopole d’IBM sur les ordinateurs mainframes, suite à la plainte de Control Data Corporation, l’entreprise de Seymour Cray, qui venait de produire le CDC 6600 qu’il vendait pour 7 million de dollars quand la machine équivalente d’IBM en coûtait 13. Pour CDC, le problème était qu’IBM vendait le système d’exploitation avec ses machines ne permettant pas à ses ordinateurs de se connecter à ceux d’IBM. Pour éviter une décision de justice qui s’annonçait malheureuse, Thomas Watson Jr, le patron d’IBM de l’époque, prend alors la décision de vendre séparément le logiciel de ses machines, en juin 1969. Pour Wu, cette séparation, ce découplage entre le matériel et le logiciel, a donné naissance à l’industrie logicielle et a d’ailleurs largement transformé et bénéficié à IBM. A la même époque, la plupart des grandes nations viennent aider au développement de constructeurs d’ordinateurs nationaux (Bull en France, ICL en Grande-Bretagne, Olivetti en Italie, et le consortium JECC (Fujitsu, Hitachi, NEC, Toshiba, Mitsubishi…) au Japon), comme l’explique l’historienne et économiste Marie Anchordoguy dans Computers, inc. (Harvard University, 1989) Chaque pays tente de faire naître des champions nationaux. Mais les Etats-Unis, en menaçant de briser IBM du fait de son monopole, se lancent dans une autre politique industrielle, qui cherche à créer un espace de compétition. La logiciellisation, première plateformisation de l’industrie informatique, a créé des opportunités nouvelles et a dynamisé le marché, permettant le lancement de DEC, d’Apple… donnant naissance à une industrie électronique comme logicielle indépendante et dynamique. A cette époque pourtant, peu d’acteurs pouvaient penser que l’avenir serait à des ordinateurs personnels et accessibles. 

Une autre grande plateforme a été l’internet lui-même. Dès l’origine, l’internet a été pensé comme un moyen pour distribuer du pouvoir de bout en bout du réseau plutôt qu’à l’opérateur du réseau. En 1970, AT&T était la plus grande entreprise de la planète avec plus d’un million d’employés. Plus que le démantèlement d’AT&T (en 1984), c’est la promulgation d’une loi promouvant la neutralité du réseau télécom dans les années 70 par la Federal Communications Commission qui a changé la donne, forçant AT&T a autoriser d’autres acteurs à utiliser son réseau pour y proposer des services, sans avoir à demander la permission et à coût nul. Obliger IBM à ouvrir son logiciel, comme obliger AT&T à devenir une plateforme neutre ont été des politiques qui ont permis de restreindre les monopoles, pour favoriser l’innovation, la concurrence et l’économie. « Les autorités américaines n’avaient n’avait pas de vision particulièrement perspicace de l’avenir de la technologie, mais misaient sur l’utilisation de leur propre pouvoir pour contrer et limiter le pouvoir monopolistique, dans le but de donner une chance à d’autres acteurs ». A l’époque, la plateformisation ne construisait pas les monopoles mais les brisait. 

Avec le web, la décentralisation promettait de s’accélérer ; l’âge des entreprises géantes paraissait s’achever. Beaucoup iront même jusqu’à dire que l’âge industriel était terminé, au profit de l’auto-organisation, à l’image de Wikipedia ou de Linux, modèles pour Yochai Benkler qui célébrait La richesse des réseaux (PUL, 2009). Le futur promettait d’être décentralisé, les Goliaths défaits. Ce n’est pas ce qui s’est passé. 

It’s capitalism, stupid !

Très tôt, dès leurs fondements, les plateformes de l’internet ont toutes choisies d’être des entreprises du Delaware, l’Etat américain ultralibéral avant l’heure. Toutes ont choisi des structures d’entreprises semblables aux grandes entreprises des années 80 comme ExxonMobile, Pfizer ou Walmart, mettant l’actionnariat aux commandes. Dès 2004, dans une lettre de Page et Brin aux actionnaires, les deux fondateurs de Google promettaient aux investisseurs de construire une entreprise pour la création de valeur à long terme. Rapidement, la pression à produire plus de revenus a érodé la recherche d’un but plus élevé. Wu, comme d’autres avant lui, tente de trouver la date de ce changement, de cette bascule… Il en retient une, celle du 11 juin 2013. En 2006, Ehud Shabtai avait lancé FreeMap Israel qui deviendra Waze, un site de cartographie communautaire. Le rachat de Waze par Google en juin 2013, l’intégration de l’approche décentralisée et communautaire dans le modèle centralisé et commercial de Google Maps, marque à la fois la fin des rêves pionniers d’internet, la reconcentration monopolistique et l’indifférence du régulateur. Le rachat de Waze marque la fin d’une ère, celle où l’internet était le grand égaliseur. « La compétition entre Google et Waze a été gagnée non pas par la compétition des modèles entre eux, mais en achetant l’un des combattants », regrette Wu. Google a sorti une technique de rachat digne de l’industrie du XIXe siècle. L’affrontement qu’on attendait n’a pas eu lieu. L’argent l’a emporté. Et avec lui, la machine à extraction s’est emballée, à l’image de la transformation d’Amazon en marketplace. 

La place de marché d’Amazon lancée dans l’indifférence dès 2000 pour accueillir des livres anciens n’a cessé de grandir depuis. Elle génère plus de revenus désormais qu’Amazon (480 milliards en 2023, soit 83,5% du total des ventes sur Amazon). Elle ne commence à décoller qu’en 2006, quand Amazon propose un service d’exécution des commandes pour aider les commerçants à accomplir la logistique d’expédition et notamment le stockage des produits dans ses entrepôts, un service d’assistance à l’expédition… à un prix raisonnable. A tout le moins au début, pour attirer les vendeurs. En 2014 encore, le coût pour les vendeurs était tout à fait attractif : 19% de leurs revenus, quand dans le commerce physique, la part du commerçant est souvent de 50%. Wu raconte ainsi l’histoire d’un vendeur heureux, Doug Mrdeza, un barbier du Michigan qui commença à vendre ses produits sur Amazon, jusqu’à embaucher quelque 40 personnes… Amazon construit son empire même si cela signifie perdre de l’argent (notamment face à la concurrence, comme eBay). L’empire de Bezos rachète ses rivaux (comme Zappos ou Diapers), propose à ses clients l’expédition gratuite avec Prime (lancé en 2005, l’offre totalise 168 millions d’abonnés en 2022). A la fin des années 2010, 90% des revenus de Mrdeza proviennent d’Amazon. Dans le même temps, les tarifs d’Amazon pour les vendeurs ne cessent de grimper, environ 30% du produit de leurs ventes. Ces honoraires ne se présentent pas comme tels, mais sous des formes spécifiques, comme les résultats sponsorisés (lancés en 2012), qui consistent à payer pour être mieux référencés par le moteur de recherche d’Amazon. Sur la place de marché, la publicité n’est pas une opportunité, mais devient vite une obligation pour être visible. Le programme devient une vache à lait pour Amazon : il rapporte 10 milliards à l’entreprise en 2018, 56,2 milliards en 2024, soit le double du budget publicitaire de la presse au niveau mondial. Et ce service est plus rentable encore que son service de stockage dans le cloud. Pourtant, cette intégration publicitaire a beaucoup été décriée, tant elle a dégradé l’expérience utilisateur. En 2023, une étude de Market Place Pulse, estimait que les honoraires d’Amazon, tous services confondus, comptent pour 50% du prix moyen d’un produit. Certains vendeurs cèdent à Amazon une plus grande part encore du prix de leurs produits. Le rêve de la place de marché d’Amazon, de la plateforme pour tous, est devenu un piège qui s’est refermé sur les vendeurs (et les clients). En 2024, elle a rapporté plus de 60 milliards à Amazon, plus que son très profitable Amazon Web Services (35 milliards). Ses honoraires tirés de tiers vendeurs montent à 185 milliards. La place de marché d’Amazon est devenue une machine à cash, l’une des premières machines d’extraction d’argent de la planète. Peu à peu, la plateforme a atteint son but : « elle a rendu les ventes indépendantes moins profitables et amélioré les profits d’Amazon ». Doug Mrdeza a du couper dans ses frais pour supporter l’augmentation des honoraires d’Amazon. En 2019, il a licencié 5 employés. Il a tenté de porter ses produits sur d’autres plateformes… sans grand succès. 

L’histoire de la place de marché d’Amazon est emblématique de la plateformisation. Le passage à l’échelle des plateformes est leur arme pour assurer leur domination, assure Wu. L’avenir n’a pas été aux petites entreprises agiles, mais à celles capables de faire advenir ces passages à l’échelle et de dominer leurs marchés. Dans les années 2010, la course à la plateformisation a été une course pour acquérir un monopole sur le passage à l’échelle. Plus de serveurs, plus d’employés, plus de clients, plus de données, plus de puissance de calcul… Uber en est certainement l’emblème, profitant d’un financement sans limite pour échauder la concurrence et bâtir la plateforme des chauffeurs et des livreurs, quand bien même les livraisons et les courses étaient proposées à perte. Le but était de conquérir un marché et de s’y imposer. Outre ces conquêtes de marché imposées par la force, l’autre levier des emprises a été d’acheter les concurrents pour les éliminer, à l’image d’Instagram par Facebook. 

Astra Taylor dans The People’s Platform (Mc Millan, 2014) avait prévenu pourtant que les plateformes n’aidaient pas beaucoup ceux qui les utilisaient. Les plateformes de publication en ligne (les médias sociaux) étaient en train d’anéantir une classe moyenne culturelle pour la remplacer par de nouvelles « plantations » culturelles gouvernées par des agrégateurs de la côte ouest. Hormis les influenceurs, produits par chaque plateforme de médias sociaux, celles-ci se sont contenté d’agréger les productions disponibles pour créer de l’attraction qu’elles ont renforcé par l’agrégation. Pour conserver leurs profits et les faire progresser, les plateformes ont piloté « l’engagement » à leur profit. Pour Wu, cet accaparement nous à conduit à l’emmerdification que dénonce Cory Doctorow, qui se développe parce que les plateformes servent deux maîtres, les utilisateurs et les publicitaires. Pour Wu, les usagers des réseaux sociaux sont pareils à locataires passant des heures à aménager la propriété de leurs propriétaires. Dans ce schéma, rares sont les locataires à faire fortune, même si les médias sociaux ont créé une nouvelle classe économique, celle des influenceurs, ceux qui accumulent suffisamment d’audience pour arriver à vivre des revenus publicitaires de cette audience. Cette classe laborieuse doit sans cesse produire des contenus pour en récolter l’attention, sans avoir toujours les leviers nécessaires pour s’assurer que cette audience soit fidèle. « Le burnout est la silicose de l’industrie de l’influence ». Les influenceurs œuvrent sur un tapis roulant numérique consistant à performer leur vie pour le contenu

Dépendances

L’apparition du terme Gafam au début des années 2010 tient d’un point d’inflexion, car il consacre le pouvoir des plateformes et l’allégeance des utilisateurs à leur dépendance. Jonathan Knee dans The Platform Delusion (Portfolio, 2021) explique qu’une fois bâti leurs effets de réseaux, les plateformes ont tout fait pour maintenir et étendre leurs positions, en usant de tout un attirail pour retenir les utilisateurs. Elle les a transformés en éleveurs, en « bergers chargés de nous dresser ». Pour cela, les plateformes ont investi dans les contenus. C’est souvent mauvais signe, s’amuse Wu, rappelant les échecs de Sony à se diversifier dans le cinéma dans les années 80 en rachetant très cher des studios en déshérence, comme Columbia ou TriStar Pictures. Les grandes plateformes de la tech s’y sont mis à leur tour, tentant de rentabiliser leurs investissements par la force des informations qu’elles détiennent sur nous. Elles ont mobilisé comme nulles autres les techniques d’analyses comportementales pour améliorer l’engagement. Une commodification sans fin, comme Wu l’avait expliqué dans une tribune pour le New York Times (dont on s’était fait le relai). La commodité est « l’habilité à rendre les autres options impensables ». Les empires de la tech sont devenus des écosystèmes pièges auxquels nul ne peut résister. Les business modèles de la tech sont bâti sur notre dépendance. La bataille pour la dépendance est devenue une bataille pour la domination. « Si c’est facile, c’est gagné ». Pour cela, ils ont surexploité les données à leur disposition. Leur délire de prédiction est devenu une obsession. Connaître et contrôler le futur, le but. Le tout en utilisant « des méthodes gardées secrètes, des données invisibilisées et pour des résultats eux aussi tenus secrets ». En 2024, FB et Google ont ramassé plus de 360 millions de dollars de revenus publicitaires, montrant que quelque chose fonctionne dans ce délire de surveillance publicitaire. Comme le disait Shoshana Zuboff dans son livre, l’influence sur le comportement est devenu le vrai objectif de la pub. 

Wu se perd un peu en consacrant trop de pages à une histoire de l’IA (passage obligé et assez fatiguant de tous les livres sur le numérique désormais) alors qu’il l’utilise pour en conclure que l’IA va surtout continuer d’étendre et d’approfondir le monopole des plateformes, à renforcer leurs positions de marché en cristallisant nos dépendances, nos allégeances. Et en renforçant notre connexion émotionnelle via leurs chatbots anthropomorphes, comme l’ont fait à leur époque Coca-Cola ou Marlboro. « Les émotions sont les moteurs irrésistiblement puissants des modèles commerciaux ».

Extension de la prédation des plateformes

Le risque est que le succès des plateformes les conduisent à s’étendre partout, analyse Tim Wu en observant leur déploiement dans les secteurs du soin et du logement américains. 

Aux Etats-Unis, le secteur du soin est un secteur très fragmenté. Depuis les années 2010, il est de plus en plus accaparé par des acteurs privés. Cet accaparement conduit à l’envolée des prix, ainsi qu’au plafonnement de la qualité voir à sa baisse. Pour Wu, la plateformisation des soins coûte plus au patient, mais renforce aussi le prix des assurances. Elle change aussi la médecine. Les docteurs ne sont plus des professionnels indépendants, mais deviennent à leur tour, une classe laborieuse. Même chose du côté du logement. En 2010, la crise du logement aux Etats-Unis était profonde (entre 2007 et 2011, c’est 5,7 millions de saisies immobilières qui ont été réalisées). En 2010, Dallas Tannet et Brad Greiwe, qui avaient lancé l’idée de créer une plateforme pour les locataires, se mettent à acheter des logements disponibles, vendus 30 à 50% de leur valeur. Ils fondent Invitation Homes. L’entreprise achète quelque 50 000 logements en 36 mois pour 10 milliards de dollars, notamment en Arizona et en Floride. Entre 2012 et 2017, elle va acheter pour 60 milliards de dollars de logements supplémentaires. En 2020, c’est quelque 300 000 propriétés qui sont sous le contrôle de gestionnaires. L’entreprise a déployé des outils pour identifier les logements à acheter. Elle a automatisé la sélection et même le processus d’achat pour faire des économies d’échelle. Leur stratégie est semblable à toutes les autres plateformes : augmenter les revenus et diminuer les coûts. Les loyers de leurs propriétés sont systématiquement augmentés et augmentent annuellement de 7 à 13%. Le modèle consiste également à facturer tout ce qui est facturable aux locataires en démultipliant les frais supplémentaires (une pratique qui s’est généralisée comme nous l’avions évoqué dans d’autres secteurs). Par exemple, les propriétaires d’animaux doivent payer des frais supplémentaires par animal et par mois. Pour la chercheuse Meredith Abood qui a étudié cette industrie, les frais supplémentaires sont une grande source de revenus. A l’inverse, bien sûr, les coûts sont réduits, les travaux toujours repoussés. Et sans surprise, ces entreprises s’en prennent particulièrement aux quartiers défavorisés. La FTC qui a poursuivi Invitation Home suite à ses pratiques, l’a condamné à rembourser 48 millions de dollars de frais trop perçus. 

Wu voit dans ces exemples le risque d’une extension sans fin du modèle des plateformes. Cette centralisation du pouvoir économique rappelle le modèle de la plantation, ces usines agricoles qui importaient leurs esclaves d’Afrique parce qu’ils restaient moins chers que toute autre solution (même celle de réduire les chiffres de mortalité de leur esclaves). Pour Wu, nous sommes coincés dans une expérience économique imprudente, inconsciente, écervelée qui crée les conditions d’un renforcement autoritaire sans précédent. Le risque est de nous ramener sur la route de l’esclavage ou du servage du fait du déséquilibre du pouvoir économique à laquelle contribue très activement l’économie des plateformes. Cette économie centralisée, façonnée par les plateformes risque de se métastaser en état totalitaire parce que les autorités de régulation n’ont pas agit contre le développement des monopoles. Ces monopoles conduisent à une extraction sans précédent, renforçant les inégalités de pouvoir, où les gagnants l’emportent largement et où les perdants sont de plus en plus nombreux : « les consommateurs paient plus, les travailleurs eux sont payés moins, et les plus petits acteurs n’ont plus d’espace pour exister ». L’extraction systémique fait advenir un ressentiment de masse, comme l’évoquait l’historien Robert Schneider dans son livre, The return of resentment (Chicago University Press, 2023), qui décrit le déclassement de groupes sociaux de plus en plus larges selon les espaces où ils habitent, leur classes, leurs origines ethniques… L’étape suivante est celle de la défaillance démocratique, de la corruption et de la montée d’hommes forts qui promettent d’agir pour les gens quand ils ne font qu’agir pour leurs intérêts. C’est là où nous en sommes. Dans l’industrie technologique comme en politique, estime Wu. 

Wu tente d’esquisser quelques solutions face à l’impasse où nous sommes rendus. Le défi qui nous attend consiste à renverser le pouvoir économique, à contrebalancer sa concentration, à élargir la prospérité plutôt qu’elle ne se concentre qu’au profit des plus riches.

Peut-on réguler les plateformes ?

Wu rappelle que les pays où la distribution de la richesse est déséquilibrée demeurent des pays peu stables, dangereux. La puissance économique brute provient de la terre, de l’industrie. Dans ces mondes, on a trop souvent favorisé la construction de monopoles. Or, dans l’industrie, les meilleurs outils ont été les lois favorisant la concurrence et le développement de syndicats. « L’idée que la croissance ne peut advenir sans enrichir une étroite classe privilégiée est un mythe qui ne cesse de s’auto-entretenir », explique Tim Wu. De la fin de la féodalité danoise à la fin du système colonial à Taïwan en passant par la reconstruction allemande après la centralisation nazie, nous avons su, par le passé, renverser les inégalités que la concentration a construites. Wu nous invite également à nous défaire du rêve d’une économie qui se régulerait et se corrigerait toute seule, soit en trouvant son équilibre dans un marché toujours compétitif, soit en pensant que le marché retrouve toujours ses équilibres. Comme si le marché trouvait par lui-même ses contrepoids. Mais les contre pouvoirs ne sont pas si forts, ne se développent pas tout seul. La concurrence est en berne et le syndicalisme est en passe de s’épuiser (dans les années 50, aux Etats-Unis, 30% des salariés du privé étaient syndiqués, ils ne sont plus que 6% en 2023). Les plus grandes entreprises américaines, et notamment les géants de la tech, ne proposent aucun pouvoir à leurs employés, rappelle Wu. Thomas Piketty a bien montré que la croissance de la richesse depuis les années 70 n’a pas renforcé l’égalité, bien au contraire. La théorie d’une économie qui s’auto-corrigerait seule de ses excès oublie que ceux qui ont du pouvoir économique font tout pour le garder et l’accroître. Croire que le capitalisme va s’assagir permet surtout de continuer à en défoncer les limites

Pour Wu, les champions des technologies affirment désormais que l’IA et les cryptos sont les réponses technologiques promettant d’enfin reléguer les inégalités économiques aux oubliettes. Sam Altman d’OpenAI défend avec constance un revenu universel pour résoudre la pauvreté et l’inégalité, notamment via son projet Tools for Humanity, un inquiétant projet d’Orb qui souhaiterait distribuer une identité biométrique à tous, infalsifiable, promettant d’apporter un accès à tous à l’économie mondiale. Mais le projet assez flou d’Altman vise bien plus à certifier l’exploitation des données de chacun par les géants du web, qu’à donner du pouvoir à tous. Dans le confusionnisme des impérialistes de la Tech, Atlman n’est pas en reste. Il répète que l’IA va éliminer la pauvreté. Comment ? Pourquoi ? L’IA permet surtout de répéter la fausse promesse de la crypto qui assurait qu’elle allait « décentraliser le capitalisme ». Elle a surtout contribué à sa fragilisation, le rendant plus vulnérable aux accidents. Néanmoins, là encore, la promesse que les cryptos vont permettre de réduire les inégalités est reproduit par nombre de ses thuriféraires, quand elles masquent surtout des pyramides de Ponzi. Wu se perd un peu dans l’histoire des cryptos quand on l’attend ailleurs. Les bitcoins n’ont pas permis de résoudre la difficulté à obtenir du crédit pour la micro-économie (et il n’est pas sûr qu’une monnaie numérique serve à cela). Ce qui est certain, c’est que les cryptos n’ont pas servi à rééquilibrer la puissance économique, bien au contraire. 

En fait, rappelle Wu, pour rééquilibrer l’économie, rien ne vaut les bonnes vieilles solutions que sont l’imposition et la redistribution. « La puissance économique consiste justement dans la capacité à résister à la redistribution ». Une société coupée en deux classes, avec quelques ultra-riches et une sous-classe appauvrie ne fonctionne pas et ne ressemble à rien d’autre qu’à une société féodale. Le problème, c’est que les monopoles se renforcent à mesure qu’ils s’étendent, jusqu’à devenir essentiels à la prospérité. C’est le discours qu’on a entendu dans la défense de la puissance bancaire en 2008. C’est celui qu’on entend désormais quand on comprend que la croissance de l’économie américaine dépend désormais essentiellement de la croissance des entreprises de la Tech qu’il faudrait soutenir coûte que coûte pour que la bulle de l’IA n’éclate pas. Les monopoles sont devenus essentiels à la nation. 

Tim Wu termine son livre en proposant de reconstruire une architecture pour l’égalité. Pour lui, nous devons retrouver des modalités pour partager la propriété, renforcer la concurrence et la lutte contre les monopoles et rétablir l’organisation du travail. Il n’y a pas de monopole naturel ni de monopole efficace, hormis pour ceux qui en profitent, rappelle celui qui a tenté de les combattre. Nous n’avons aucun intérêt à avoir un moteur de recherche hégémonique par exemple. Pourtant, cette idée est toujours difficile à combattre. Pendant des décennies, tout le monde était convaincu qu’un seul opérateur téléphonique était une bonne solution. Tout le monde pensait que les trains de fret devraient être un monopole naturel… mais l’expansion du camion a montré que ce n’était en rien une solution. Pourtant, rappelle-t-il, un programme de lutte contre les monopoles ne suffit pas à créer de la compétition. De même, il est plus simple de racheter ses rivaux que d’améliorer ses produits. Wu veut croire que le long hiver de la régulation antitrust a pris fin avec le procès à l’encontre de Google en 2024… Mais c’est oublier qu’il a déjà accouché d’une souris

Un autre levier repose sur les contrepoids économiques. Wu rappelle que la puissance de General Motors dans les années 50 a été combattue par ses concurrents, dont Ford, mais également par ses fournisseurs et ses employés. Appliqué au monde d’aujourd’hui, cela signifie que pour y parvenir, encore faut-il que les lois donnent du pouvoir à ceux en position de restreindre le pouvoir des plateformes. Ce pourrait être le cas si on donnait du pouvoir à ceux qui détiennent de l’information, comme ceux qui la produisent dont les contenus ont été avalés par l’IA. C’est le cas des travailleurs, mais ceux-ci ont au contraire de moins en moins d’emprise à mesure que leurs statuts se dégradent et que leurs droits à s’opposer aux décisions se délitent. Dans les années 50, non seulement un tiers des employés du secteur privé étaient syndiqués, mais c’est à la même époque que les inégalités de revenus ont été les plus faibles aux Etats-Unis. Et elles explosent désormais en bas comme en haut de l’échelle sociale. La productivité est en berne et pourtant l’intensité du travail redouble. « Rendre le travail plus efficace n’a pas permis de diminuer le travail »

Pour Wu, un autre levier consiste également à avoir recours aux services publics là où ils sont indispensables. Il rappelle par exemple que l’un des ponts qui relie Boston à Charlestown, construit en 1786, appartient à ceux qui l’ont bâti pour 51 000 dollars, alors que son péage a rapporté 31 000 dollars par an depuis cette période. Ce monopole a été excellent pour ceux qui ont investi dans ce pont et désastreux pour tous les autres. Le pont n’a été qu’une machine extractiviste qui est devenue depuis longtemps une taxe privée excessive. Ce que suggère par là Wu, c’est que nous devrions peut-être nous doter de moyens pour transformer certaines plateformes en services publics, notamment au-delà d’un certain niveau de profit. Dans ce cadre, Wu donne l’exemple des cartes de crédits et des taxes qui leurs permettent de faire des profits qui vont bien au-delà de ce que leurs coûtent leurs services, notamment aux Etats-Unis. Il rappelle qu’en Europe, le taux que l’opérateur prend lorsque vous utilisez une carte de crédit n’est que de 0,3% quand aux US il est de 3%. Enfin, Wu rappelle que nous avons d’autres garde-fous encore, comme ce qu’on appelle les quarantaine ou les restrictions : les magasins par exemple n’ont pas le droit d’opérer des services bancaires. On pourrait imaginer dans la même logique interdire à Amazon de vendre ses propres produits sur la place de marché que l’entreprise opère. Pour lui, nous devrions également garder une forte distance entre les plateformes technologiques et l’IA, car elles risquent d’utiliser leur puissance monopolistique pour dominer les marchés de l’intelligence artificielle. Il semble que ce soit déjà largement le cas et que le régulateur américain a surtout raté l’occasion de créer et d’exiger une séparation nette des acteurs. 

Wu conclut pourtant en rappelant qu’aucune de ces solutions prises isolément ne sera suffisante. La régulation de l’économie, la régulation de l’extraction capitaliste nécessite de démultiplier les solutions. « Les plateformes ont oublié que leur rôle était d’héberger et de soutenir les activités des autres » avant de réaliser les leurs. La cupidité et le cynisme ont tout emporté

Tim Wu accumule souvent les poncifs. Se perd parfois dans ses démonstrations. Pas sûr que les remèdes esquissés soient suffisants pour faire revenir le capitalisme dans le droit chemin. Les remèdes d’hier peuvent éclairer la construction de ceux de demain, mais ceux qui n’ont pas marché hier ne deviendront pas subitement magiques demain. L’immense fortune des plateformes de la tech ne semble avoir plus d’entrave, notamment parce que leur niveau de fortune ne permet plus d’opposition. L’hypercapitalisme ne semble avoir plus de retenue devant lui, hormis quelques scandales trop sonnants. L’âge de l’extraction dresse un constat dont les parades semblent avoir été perdues. 

Hubert Guillaud

La couverture du livre de Tim Wu, The Age of extraction.

13.02.2026 à 07:01

L’IA, ce piège de la responsabilité

Hubert Guillaud
L’IA n’augmente pas les individus, mais les rend dépendants de systèmes imparfaits, explique avec sa verve habituelle Cory Doctorow dans un très long format pour The Guardian.  « Personne n’investit des centaines de milliards dans les entreprises d’IA en pensant que l’IA rendra la radiologie plus coûteuse, même si elle la rend plus précise. Le […]
Lire plus (354 mots)

L’IA n’augmente pas les individus, mais les rend dépendants de systèmes imparfaits, explique avec sa verve habituelle Cory Doctorow dans un très long format pour The Guardian

« Personne n’investit des centaines de milliards dans les entreprises d’IA en pensant que l’IA rendra la radiologie plus coûteuse, même si elle la rend plus précise. Le marché qui parie sur l’IA parie sur le fait qu’un commercial ira voir le PDG de Kaiser (l’un des plus grands consortium de soins américain) et lui présentera l’argument suivant : « Vous licenciez neuf de vos dix radiologues et économisez 20 millions de dollars par an. Vous nous versez 10 millions de dollars par an, vous empochez 10 millions de dollars par an, et le travail des radiologues restants consistera à superviser les diagnostics établis par l’IA à une vitesse surhumaine – et à rester vigilants, malgré le fait que l’IA a généralement raison, sauf en cas d’erreur catastrophique ». « Et si l’IA rate une tumeur, ce sera la faute du radiologue, car c’est lui qui est l’élément humain dans le processus. C’est sa signature qui valide le diagnostic. » 

C’est ce que Dan Davies, dans son livre The Unaccountability Machine : Why Big Systems Make Terrible Decisions (Profile Books, 2025), appelle un « piège à responsabilisation ». 

« Le rôle du radiologue n’est pas de superviser le travail de l’IA, mais d’endosser la responsabilité de ses erreurs. C’est un autre élément clé pour comprendre – et donc faire éclater – la bulle de l’IA. L’IA ne peut pas faire votre travail, mais un vendeur d’IA peut convaincre votre supérieur de vous licencier et de vous remplacer par une IA incapable de faire le même travail. »

13.02.2026 à 07:00

L’allocation de droits n’est pas un problème d’ingénierie

Hubert Guillaud
« Les systèmes algorithmiques aggravent les inégalités en traitant tout écart par rapport à une norme statistique comme une preuve de risque, et en présentant ce jugement comme le résultat d’une analyse objective plutôt que comme un choix inhérent à la conception du système. Le danger de ces systèmes réside dans leur capacité à blanchir […]
Lire plus (167 mots)

« Les systèmes algorithmiques aggravent les inégalités en traitant tout écart par rapport à une norme statistique comme une preuve de risque, et en présentant ce jugement comme le résultat d’une analyse objective plutôt que comme un choix inhérent à la conception du système. Le danger de ces systèmes réside dans leur capacité à blanchir les décisions politiques par des processus techniques. En présentant l’allocation et l’application des lois comme des problèmes d’ingénierie, les institutions peuvent se soustraire à l’examen moral et juridique qui accompagne habituellement les changements de politique. Pour les communautés les plus directement concernées par ces décisions, il en résulte un durcissement des inégalités sociales, imposé par une bureaucratie plus difficile à déceler, à comprendre et, surtout, à combattre. » James O’Sullivan (site).

12.02.2026 à 07:00

Des protocoles pour les agents IA… à un nouvel internet

Hubert Guillaud
Le web agentique se prépare... Mais il risque de poser plus de problèmes que d'apporter de solutions.
Texte intégral (3241 mots)

La prochaine version du web sera conçue pour les machines, et non pour les humains (voir notre article « L’IA, un nouvel internet… sans condition »). Mais encore faut-il que les « agents intelligents », des machines capables de lire, d’interpréter et d’agir… puissent agir justement, explique The Economist. Et pour effectuer des tâches, l’infrastructure du web doit évoluer. « Un obstacle majeur réside dans le langage : il faut permettre aux agents de communiquer avec les services en ligne et entre eux ». Un site web ou un service en ligne communique généralement avec le monde extérieur via une interface de programmation d’application (API), qui indique aux visiteurs ses fonctionnalités, comme la prise de rendez-vous chez le médecin ou l’affichage d’une position géographique, rappelle The Economist. Or, les API sont conçues pour être consultées et implémentées par les humains et chacune possède ses propres spécificités et sa documentation. Cet environnement est complexe pour les agents d’IA : l’utilisation de chaque nouvelle API nécessite l’apprentissage de son langage spécifique. Pour agir de manière autonome sur le web, les agents auront donc besoin d’un mode de communication standardisé. C’est l’objectif du protocole MCP (Model Context Protocol), développé par Anthropic. « Mike Krieger, son directeur produit, explique que l’idée est née lors de la connexion de Claude, son chatbot, à des services comme Gmail, une plateforme de messagerie, et GitHub, un dépôt de code. Au lieu d’intégrer chaque application à Claude au cas par cas, l’entreprise souhaitait un ensemble de règles partagées pour permettre aux agents d’accéder directement aux e-mails ou aux fichiers d’un utilisateur ». Plutôt que de consulter des guides techniques, un agent peut interroger un serveur MCP sur le fonctionnement d’un système (réserver un vol, annuler un abonnement, effectuer un remboursement, etc.) et agir ensuite pour le compte de l’utilisateur, sans code spécifique.

« Imaginez que vous souhaitiez réserver un voyage de Londres à New York. Vous commencez par communiquer vos dates de voyage à une agence de voyages, qui répartit ensuite la tâche entre des agents spécialisés capables de rechercher des vols, des hôtels et des voitures. Ces agents contactent les serveurs MCP des compagnies aériennes, des hôtels et des agences de location de voitures, recueillent des informations, comparent les options et créent une liste d’itinéraires potentiels. Une fois votre option choisie, l’agent de voyages se chargera de la réservation. Je souhaite prendre un vol Londres-New York. Je dois réserver un hôtel et louer une voiture. Je préfère un siège côté couloir et un repas végétalien. Parfait ! Veuillez procéder à la réservation. Utilisateur : voici les détails de votre vol. Souhaitez-vous que je m’en occupe ? ».

Ce type de coordination nécessite donc des règles encadrant l’identification, la communication et la confiance entre les différents agents. La solution proposée par Google est le protocole A2A (agent à agent). Grâce à ce protocole, les agents peuvent présenter leurs services et se répartir les tâches. Laurie Voss, d’Arize AI, une startup d’agents de voyage, affirme que les entreprises se livrent à une véritable course pour définir les normes dominantes du web agentique. Le protocole le plus largement adopté permettra aux outils de ses contributeurs d’être plus performants, plus rapidement et avec plus de fonctionnalités.

Le 9 décembre, Anthropic, OpenAI, Google, Microsoft et d’autres ont annoncé la création de l’Agentic AI Foundation, qui développera des normes open source pour les agents d’IA. Le MCP d’Anthropic en fera partie, signe de son adoption croissante en tant que norme industrielle pour la communication agentique. Pour The Verge, Hayden Field s’enthousiasme. L’Agentic AI Foundation devrait accélérer considérablement le développement des agents. « L’ouverture des API entre applications et services web a été le fondement du Web 2.0, et par la suite, l’explosion extrêmement lucrative des applications mobiles à l’ère des boutiques d’applications. Inciter les utilisateurs (et leurs dépenses) à passer des applications et sites web aux agents d’IA est l’un des rares moyens pour les entreprises d’IA de rentabiliser leurs investissements colossaux. Or, les agents d’IA nécessitent de nouveaux types d’API, et MCP semble être la norme qui les transformera. La page web de MCP, avec une certaine ambition, le compare à l’omniprésent USB-C. » Rien de moins. « L’objectif est de créer un marché d’outils que les agents pourront utiliser ».

Pour l’instant, la majeure partie du web que ces agents parcourront reste conçue pour les humains. Trouver un produit implique toujours de naviguer dans des menus. Lors d’une recherche traditionnelle, l’utilisateur doit souvent cliquer sur des filtres, de lieu ou de type de cuisine quand vous cherchez un restaurant sur Google Maps par exemple. Pour faciliter l’accès aux sites web pour les modèles de langage, Microsoft a créé Natural Language Web (NLWeb), qui permet aux utilisateurs d’interagir avec n’importe quelle page web en langage naturel et de les augmenter d’une interaction structurée pour les agents, « afin de relier l’internet visuel moderne et celui utilisable par les agents », rappelle The Economist.

Les problèmes à venir du web agentique

« À mesure que les agents gagnent en compétences, une nouvelle compétition entre plateformes se dessine, cette fois-ci autour des agents eux-mêmes. Elle rappelle la guerre des navigateurs des années 1990, lorsque les entreprises se disputaient l’accès au web. Aujourd’hui, les navigateurs sont repensés avec les agents au cœur de leur fonctionnement. OpenAI et Perplexity ont lancé des navigateurs pilotés par des agents capables de suivre des vols, de récupérer des documents et de gérer leurs e-mails. Leurs ambitions vont plus loin. En septembre, OpenAI a permis d’effectuer des achats directs sur certains sites web depuis ChatGPT. La plateforme s’est également intégrée à des services comme Spotify et Figma, permettant aux utilisateurs d’écouter de la musique ou de modifier des designs sans changer d’application. Ces initiatives inquiètent les acteurs établis. En novembre, Amazon, le site de vente en ligne, a intenté un procès à Perplexity, accusant la start-up de violer ses conditions d’utilisation en omettant de préciser que son navigateur effectuait des achats à la place d’un utilisateur humain. Airbnb, l’application de location de courte durée, a choisi de ne pas intégrer ChatGPT, estimant que la fonctionnalité n’était pas encore « tout à fait au point ».»

Le problème, c’est que la publicité, moteur de financement d’internet, va également devoir s’adapter à ces transformations. Le web actuel repose sur la monétisation de l’attention humaine. Alphabet et Meta, deux des plus grandes entreprises technologiques, gagnent près de 500 milliards de dollars par an grâce à la publicité, soit plus de 80 % de leurs revenus. Mais qu’en sera-t-il dans un web parcouru par les agents plus que par les humains ?

« Dawn Song, informaticienne à l’Université de Californie à Berkeley, affirme que les spécialistes du marketing devront peut-être s’adresser non pas aux individus, mais à « l’attention des agents ». Les sites de voyage, par exemple, ne devront plus persuader le voyageur, mais son représentant numérique. Les tactiques resteront probablement les mêmes (optimisation du référencement, ciblage des préférences, paiement pour le placement publicitaire), mais l’audience sera constituée d’algorithmes. La navigation pilotée par des agents pourrait également considérablement accroître l’activité en ligne. Parag Agrawal, fondateur de Parallel Web Systems souligne que le web a été conçu pour des humains lisant à leur propre rythme. Les agents, eux, ne sont pas soumis à de telles limites. Ils peuvent analyser des milliers de pages en quelques secondes, suivre des liens que les humains négligent et mener de front plusieurs tâches, souvent invisibles à l’écran. Il prédit que les agents pourraient utiliser le web « des centaines, voire des milliers » de fois plus que les humains. » Au risque que ce web ci génère plus de vues, plus de coûts… mais pas plus de revenus.

« Lorsque les agents agissent, ils peuvent aussi se tromper. Un agent d’IA peut se comporter d’une manière que son utilisateur ne comprend pas pleinement. Il peut commettre des erreurs, puis inventer des explications. Plus inquiétant encore est la manipulation externe. L’injection de prompts – dissimuler des commandes malveillantes dans des pages web ou des fichiers – peut inciter les agents à divulguer des données, à contourner les contrôles de sécurité ou à entreprendre des actions non autorisées. Des mesures de protection permettent de réduire les risques. L’une d’elles consiste à limiter l’accès des agents aux services de confiance. Une autre est de leur attribuer des pouvoirs restreints. Certains pourraient être en « lecture seule », autorisés à récupérer des données mais pas à les envoyer ou à les modifier. D’autres pourraient n’agir qu’avec une confirmation humaine. Pour les tâches les plus sensibles, une intervention humaine peut s’avérer nécessaire. »

« Malgré les risques, les développeurs de logiciels restent optimistes. M. Agrawal envisage un passage d’un internet « à la demande », où les actions sont initiées par les utilisateurs, à un modèle « à l’initiative », où des agents agissent spontanément : ils organisent des réunions, signalent des recherches ou prennent en charge des tâches mineures. Ce modèle pourrait constituer les fondements d’une version nouvelle et radicalement différente du web. »

Pour le radar d’Oreilly, le développeur Andrew Stellman s’inquiète cependant de la généralisation du protocole MCP. « Un seul et même protocole simple permet de fournir à l’IA toutes sortes de données à intégrer dans son contexte »« La promesse est bien réelle : dans de nombreux cas, la connexion des sources de données aux agents IA, qui prenait auparavant des semaines, ne prend plus que quelques minutes. Mais cette rapidité a un prix. »

« Les développeurs utilisent le MCP pour connecter rapidement leurs assistants IA à toutes les sources de données possibles (bases de données clients, tickets de support, API internes, bases de données documentaires) et les déversent dans le contexte de l’IA. Et comme l’IA est suffisamment intelligente pour trier une masse de données et en extraire les informations pertinentes, tout fonctionne parfaitement ! Ce qui, paradoxalement, pose problème. L’IA traite allègrement d’énormes quantités de données et produit des réponses pertinentes, si bien que personne ne songe à remettre en question son approche. C’est ce qu’on appelle l’accumulation compulsive de données. À l’instar des personnes qui accumulent les objets sans pouvoir s’en débarrasser, jusqu’à ce que leur logement devienne invivable, cette accumulation compulsive de données peut engendrer de sérieux problèmes pour les équipes. Les développeurs apprennent qu’ils peuvent extraire bien plus de données que nécessaire à l’IA et les lui fournir sans planification ni structuration, l’IA étant suffisamment intelligente pour les traiter et fournir malgré tout de bons résultats. Lorsque la connexion d’une nouvelle source de données prend des heures au lieu de jours, de nombreux développeurs négligent de se demander quelles données sont réellement pertinentes dans leur contexte. C’est ainsi que l’on se retrouve avec des systèmes coûteux à exploiter et impossibles à déboguer, tandis qu’une génération entière de développeurs passe à côté de l’opportunité d’acquérir les compétences essentielles en architecture de données nécessaires à la création d’applications robustes et maintenables. »

Pour Stellman, MCP fait vite oublier que « trop de données » peut devenir un problème et notamment poser des problèmes d’architecture ou de débogage. Ce contexte hypertrophié, quasiment imperceptible pour vos cent premières requêtes, devient un poste de dépense important dans votre facture cloud lorsque vous gérez des millions de requêtes. Chaque champ inutile transmis à l’IA s’accumule, et vous payez pour ces données redondantes à chaque appel. L’accumulation de données présente également un risque pour la sécurité, souvent négligé par les équipes. Chaque donnée exposée via un outil MCP constitue une vulnérabilité potentielle. Si un attaquant découvre un point d’accès non protégé, il peut récupérer toutes les données fournies par l’outil.

Pire, souligne-t-il : dans un cas extrême d’accumulation de données touchant toute une entreprise, vous pourriez découvrir que chaque équipe de votre organisation construit sa propre base de données. Le support à une version des données clients, les ventes une autre, le produit une troisième. Un même client apparaît complètement différent selon l’assistant auquel on s’adresse.

Quant au spécialiste de la sécurité, Bruce Schneier, il s’alarme : MCP et les protocoles similaires multiplient les surfaces d’attaque. « Des agents d’IA dignes de confiance requièrent l’intégrité, car on ne peut bâtir des systèmes fiables sur des fondations fragiles. Les agents d’IA actuels observent Internet, s’orientent grâce aux statistiques, décident de manière probabiliste et agissent sans vérification. Nous avons construit un système qui fait confiance à tout, et nous espérons maintenant un pare-feu sémantique pour le protéger. (…) Une IA à l’échelle du web signifie une défaillance d’intégrité à l’échelle du web. Chaque fonctionnalité est susceptible de corrompre. L’intégrité n’est pas une fonctionnalité que l’on ajoute ; c’est une architecture que l’on choisit. Jusqu’à présent, nous avons construit des systèmes d’IA où « rapide » et « intelligent » excluent « sécurisé ». Nous avons privilégié les capacités à la vérification, l’accès aux données à l’échelle du web à la garantie de la confiance. Les agents d’IA seront encore plus puissants et de plus en plus autonomes. Et sans intégrité, ils seront également plus dangereux. »

Enfin, comme l’exposent Natàlia Fernandez Ashman et Marta Bienkiewicz de Cooperative AI Foundation, on peut se demander si les régulations européennes sont prêtes pour cette IA agentive. Le projet de lignes directrices et de modèle de rapport sur les incidents graves liés à l’IA qui sera ajouté à l’IA Act, se concentre sur les défaillances d’un seul agent et d’un seul événement, et suppose une causalité simpliste et univoque pour les incidents liés à l’IA. Or, certains des risques les plus graves émergent déjà des interactions entre systèmes d’IA, où de multiples événements peuvent entraîner des effets en cascade et cumulatifs. Nombre d’incidents sont émergents : ils ne découlent pas d’une défaillance d’un système (et ne sont donc pas imputables à un seul acteur), mais d’interactions à l’échelle de l’écosystème agentique.

Hubert Guillaud

Cet édito a été publié originellement dans la lettre de Café IA du 23 janvier 2026.

MAJ du 13/02/2026 : Sur son blog, Thomas Gerbaud revient également sur la folie agentique actuelle, et notamment le projet OpenClaw qui permet de créer des agents IA auto hébergés. Il souligne tout d’abord que piloter ses agents n’est pas encore très accessible à tout à chacun, mais surtout qu’en accédant aux données et applications, ils peuvent « exécuter des commandes arbitraires sur votre ordinateur », au risque d’ouvrir une magnifique collection de brèches de sécurité. « C’est strictement une machinerie conçue pour permettre à des programmes de faire des choses, comme installer d’autres programmes, à votre place. Le tout avec des droits élevés. C’est très exactement ce dont rêvent les pirates informatiques.»

11.02.2026 à 07:00

Les villes seront-elles les nouveaux régulateurs de la Tech ?

Hubert Guillaud
En intégrant Lina Khan, ex-présidente de la Commission fédérale du commerce américaine dans son équipe pour développer un programme de gouvernance technologique pour la ville de New York, son nouveau maire, Zohran Mamdani, esquisse-t-il un nouveau niveau de gouvernance de la technologie : le niveau municipal ? Les collectivités locales pourraient-elles atteindre des objectifs ambitieux […]
Texte intégral (604 mots)

En intégrant Lina Khan, ex-présidente de la Commission fédérale du commerce américaine dans son équipe pour développer un programme de gouvernance technologique pour la ville de New York, son nouveau maire, Zohran Mamdani, esquisse-t-il un nouveau niveau de gouvernance de la technologie : le niveau municipal ?

Les collectivités locales pourraient-elles atteindre des objectifs ambitieux en matière de gouvernance technologique, s’interroge le développeur Nikhil Jain pour Tech Policy Press, rappelant que la ville de New York a été pionnière en matière de gouvernance algorithmique et que les villes ont souvent réussi à imposer des modérations spécifiques aux plateformes, par exemple en faisant supprimer les vidéos de subway surfing pour limiter la viralité du phénomène des individus courant sur le toit des métros. « Cependant, les interventions locales en matière de modération du contenu des plateformes sont rarement applicables. Si les villes peuvent réglementer les plateformes de l’économie collaborative comme Uber, Airbnb et DoorDash par le biais de mécanismes juridiques locaux, tels que les règles d’urbanisme, de location, ou en dictant les conditions d’embauches locales, elles se heurtent à des obstacles pour encadrer la liberté d’expression, en l’occurrence le contenu généré par les utilisateurs, sur l’ensemble des plateformes. L’article 230 du Communications Decency Act protège les plateformes comme TikTok et Instagram de toute responsabilité concernant la plupart des contenus tiers, ce qui rend extrêmement difficile l’engagement de poursuites judiciaires par les États et les collectivités locales. Même si une action en justice parvenait à lever cette immunité, les géants du numérique disposent d’importantes équipes juridiques dotées de ressources considérables et d’une expertise pointue en droit de la liberté d’expression, surpassant largement les capacités et le budget des services juridiques des collectivités locales, dont beaucoup sont généralement spécialisés dans des domaines juridiques locaux. » Outre les obstacles juridiques, l’intervention des pouvoirs publics dans le contenu en ligne peut également porter atteinte aux libertés individuelles, notamment en demandant des suppressions de contenus difficiles à motiver. 

Faut-il pour autant que les villes obtiennent un protocole d’intervention spécifique sur les contenus permettant de rendre la responsabilité plus réactive ? Les villes peuvent également élaborer des lois locales qui serviront de modèles pour la gouvernance technologique en général (comme la législation de la ville de New York sur l’audit des algorithmes à usage public et des outils automatisés de décision en matière d’emploi – voir notre analyse sur ce sujet). Reste à savoir si ce modèle est généralisable à d’autres que quelques capitales et mégapoles ? New York possède une expertise et un poids économique et politique qui lui permet d’imposer des règles aux plateformes ou d’influer sur des décisions… Mais en sera-t-il de même avec des villes moins puissantes et bien plus petites ? Le risque de cette piste n’est-il pas de renforcer une gouvernance où seuls les plus forts s’imposent ? Pas sûr que cette solution soit le remède dont nous ayons besoin pour lutter justement contre la puissance des plateformes.

10.02.2026 à 07:00

Avec l’IA, à quoi ressembleront les logiciels de demain ? 

Hubert Guillaud
L’IA sera-t-elle utilisée pour la conception de logiciels artisanaux ou industriels ? Au profit de qui : les startups de l'IA ou les fournisseurs de modèles ?
Texte intégral (2896 mots)

« Depuis le début de l’informatique, le logiciel a été quelque chose que les gens consomment, mais ne créent pas. (…) La création de logiciels était l’apanage de professionnels qualifiés comme moi. L’IA est en train de changer la donne. Aujourd’hui, elle devient plus accessible à toute personne ayant un profil proche de la programmation (par exemple, un universitaire qui développe ses propres outils, un créatif qui expérimente avec le code, un expert qui souhaite s’essayer à la création d’une solution). Bientôt, nous serons plus nombreux à pouvoir créer nos propres micro-outils, non pas en tant que programmeurs, mais simplement en tant que personnes ayant des idées ou des problèmes à résoudre. » 

Sur Medium, Fabien Girardin explore la piste de ce qu’il appelle le « logiciel personnel » en passe d’être révolutionné par l’IA. Le logiciel personnel n’est pas un concept nouveau. Ce sont des solutions développées par des individus, comme des petits jeux, des petits outils, issus de la scène indépendante. Par exemple, NetNewsWire, un lecteur de flux RSS pour Mac imaginé par Brent Simmons en 2003 pour quelques amis. A l’aube de l’ère de l’ordinateur personnel, Ivan Illich parlait de convivialité, pour désigner le fait que les individus pouvaient façonner leur propre environnement technologique avec autonomie et créativité. C’est ce qu’incarnent ces micrologiciels personnels. Ils naissent souvent d’une relation personnelle (la demande d’un ami, la frustration d’un collègue…) ou en établit une, à l’image de Rumbo un outil pour transformer les données d’un parcours GPS en animation vidéo que Girardin a développé en 2019 pour un ami. Les logiciels personnels viennent répondre à un besoin immédiat. Ils ne sont pas conçus pour un marché. Ils ne résolvent le plus souvent  qu’un problème spécifique. « Un logiciel personnel est finalisé dès lors qu’il fonctionne pour son créateur. Il n’a pas besoin d’être mis à l’échelle, intégré ou transformé en produit. Ce n’est ni un produit minimum viable en attente d’investisseurs, ni une démonstration de capacités techniques, ni une preuve de concept en attente de validation. Il est prêt lorsqu’il est pertinent. Sa pérennité repose sur une utilisation continue, et non sur une maintenance planifiée ou des versions futures. » Enfin, « un logiciel personnel est conçu pour être utilisé par un groupe spécifique, et non par un ensemble générique d’utilisateurs. Il privilégie la spécificité à l’universalité, l’intimité à l’échelle, l’immédiateté à l’évolutivité. » 

« Le logiciel personnel n’a pas besoin de se transformer. Il peut continuer à s’adapter, ou disparaître lorsque le besoin s’estompe. Mais lorsque des pressions apparaissent, telles que les exigences d’intégration, l’augmentation du nombre d’utilisateurs ou le besoin de contributeurs, il peut migrer vers des modèles spécialisés, commerciaux ou open source. »

« Ce qui caractérise le logiciel personnel, c’est la proximité : il est créé par des personnes qui comprennent le problème plus profondément que la technologie sous-jacente permettant de le résoudre. Pour cette seule raison, il est essentiel d’élargir le cercle des personnes pouvant créer des logiciels. » Et c’est là que le propos de Girardin devient plus politique. 

Il rappelle qu’en 1972, alors que les ordinateurs étaient des mainframes réservées à quelques individus, l’informaticien Alan Kay imaginait les ordinateurs personnels comme des outils que chacun pourrait programmer. Depuis, avec l’avènement de l’ordinateur personnel, de nombreuses approches ont cherché à démocratiser la création de logiciels : langages simplifiés, systèmes WYSIWYG, applications hybrides et macros pour faire augmenter les tableurs, pour n’en citer que quelques-unes. La révolution mobile nous a permis de nous rapprocher de la vision d’Alan Kay. Bien qu’il soit impossible de le quantifier précisément, des dizaines de milliers d’applications sur l’App Store sont créées par une ou deux personnes, généralement pour un public restreint. Par exemple, le romancier Robin Sloan a créé BoopSnoop, une application de messagerie pour sa famille de quatre personnes. Elle permet de prendre des photos et des vidéos, de les envoyer sans modification, et les messages disparaissent après consultation. Pendant des années, elle a conservé quatre utilisateurs actifs quotidiens sans aucun désabonnement, un succès retentissant selon son créateur. L’essai de Sloan sur le projet a popularisé l’expression « logiciel fait maison » : un logiciel conçu comme un repas, pour les personnes que l’on aime, sans obligation de mise à l’échelle. 

L’IA sera-t-elle utilisée pour la conception de logiciels artisanaux ou industriels ? 

En 2023, Andrej Karpathy, cofondateur d’OpenAI, affirmait avec force : « le langage de programmation le plus en vogue est l’anglais ». Cette déclaration a marqué un tournant dans le développement logiciel, permettant aux grands modèles de langage de lier efficacement le langage naturel au code fonctionnel. Les assistants de codage IA et le codage agentiel basés sur les LLM (comme Cursor, Floot, Claude Code, Replit, Agent Builder d’OpenAI…) exploitent de nombreux référentiels de code et de conversations pour générer du code à partir du langage naturel. Ils utilisent également des bibliothèques et des frameworks, open source et propriétaires, pour automatiser la production de logiciels. Et les démonstrations d’utilisation d’agents et de systèmes d’IA complexes fascinent et inspirent les développeurs, à l’image de celle déployée par Boris Cherny, le développeur de Claude, et relatée par VentureBeat

Le développeur Chris Loy qualifie cette évolution d’avènement du logiciel industriel, mais dans un sens finalement assez opposé à la vision que propose Girardin. Pour Loy, avec l’IA, le développement logiciel s’éloigne de l’artisanat qu’il a toujours été, pour adopter des méthodes industrielles, moins onéreuses, plus rapides, indépendantes de l’expertise humaine, même si ces solutions sont largement imparfaites. Le développeur devient un superviseur qui contrôle la qualité du code produit par les systèmes d’IA. Ce qui a pour effet que les barrières à l’entrée diminuent, que la concurrence s’intensifie et que le rythme du changement s’accélère. Cette industrialisation nouvelle facilite la production à grande échelle de produits de faible qualité et à bas coût. Pour Loy, le risque est de produire du « logiciel jetable » : des logiciels créés sans perspective de propriété, de maintenance ou de compréhension à long terme,… comme l’industrialisation de l’agriculture a engendré la malbouffe ultra-transformée. Pour Loy, il est probable que la baisse des coûts de production logiciels entraîne une augmentation de la consommation et de la production. L’IA va faire exploser une production logicielle de basse qualité. Cela ne signifie pas que les produits logiciels sains et durables, maîtrisés, « organiques » vont disparaître… Mais plutôt de savoir quelle sera la place des logiciels écrits par l’homme… « Le logiciel s’industrialise depuis longtemps : grâce aux composants réutilisables (code open source), à ​​la portabilité (conteneurisation, cloud), à la démocratisation (outils low-code/no-code), à ​​l’interopérabilité (normes API, protocoles d’agentification) et à bien d’autres mécanismes ». Nous entrons donc dans une révolution industrielle du logiciel, non pas comme une rupture, mais comme une accélération considérable. « Les écosystèmes logiciels ne font pas exception : chaînes de dépendances, charges de maintenance, failles de sécurité qui s’accumulent à mesure que la production augmente. La dette technique est la pollution du monde numérique, invisible jusqu’à ce qu’elle étouffe les systèmes qui en dépendent. À l’ère de l’automatisation de masse, le problème le plus complexe pourrait bien être la gestion, et non la production. Qui assure la maintenance des logiciels qui n’appartiennent à personne ? » Chris Loy décrivait exactement les inquiétudes qui pointent sous le développement des protocoles d’agentification que j’évoquais dans une récente newsletter de CaféIA.

DIY 2.0 ?

L’émergence des LLM a profondément transformé le paysage logiciel, rappelle également Girardin, et notamment les pratiques des programmeurs professionnels, qui les utilisent largement pour produire du code. Pas seulement. D’innombrables tutoriels en ligne, discussions sur les forums et vidéos YouTube apprennent aux non-professionnels à créer des logiciels avec des modèles à faible code. Par exemple, inspiré par les démonstrations d’OpenAI lors du lancement de GPT-5, le vulgarisateur technologique Azeem Azhar a décrit dans sa newsletter Exponential View comment son équipe, sans connaissances spécialisées, avait créé une application d’apprentissage du coréen. De même, le journaliste technologique Kevin Roose, qui ne programme pas, a créé une alternative à son application de lecture différée préférée en moins de trois heures. Ce phénomène se répète partout sur les réseaux sociaux, constate Girardin. Designers, chefs de produit et universitaires partagent leurs petites applications. Ensemble, ils explorent un vaste champ de nouvelles possibilités, démontrant comment créer des logiciels sans formation formelle. 

Girardin tente de dresser une petite typologie des logiciels personnels, qui vont de simples plug-in, à des petites applications de navigateurs, en passant par des applications spécifiques pour relier deux logiciels entre eux à des assistants en passant par des applications plus complexes. Parmi les exemples que Girardin cite, il distingue notamment Flow, l’outil imaginé par le designer Etienne Mineur, un générateur de création, façonné par la pratique d’une seule personne et les possibilités de l’IA, et non par le marché. « Un outil conçu par une seule personne, qui aurait nécessité une équipe pour être développé il y a quelques années ».

« Contrairement aux modèles commerciaux traditionnels, les logiciels personnels génèrent rarement des revenus directs au-delà de la simple couverture de leurs coûts. Leur valeur réside ailleurs ». Face à des outils trop génériques, trop chers ou trop complexes ou inexistants, ils visent à répondre à des besoins spécifiques, situés, limités. Dans l’esprit du mouvement Do it yourself (DIY), les logiciels personnels ne sont pas là pour être cohérents. Leur succès se mesure plutôt à l’autonomisation des utilisateurs qu’ils permettent. Leur code source a peu de valeur transférable. Certains évoluent vers des formes commerciales ou open source, mais ce n’est certainement pas la majorité. En fait, leur incomplétude, leur bricolage est un atout. « Dans son essai de 1989, Le pire est le mieux, l’informaticien Richard P. Gabriel observait que les systèmes conçus avec une simplicité pratique sont souvent mieux adoptés que les systèmes parfaits et riches en fonctionnalités. L’imperfection ouvre des perspectives : proposer un produit que d’autres savent améliorer est l’un des meilleurs moyens de favoriser la collaboration. » 

Les logiciels personnels sont souvent conçus par une seule personne, pour elle-même, voir quelques proches. Ils n’ont pas à gérer de cas particuliers et peuvent gérer leur imperfection. Alors que les logiciels commerciaux tirent profit d’une base d’utilisateurs, « les logiciels personnels créent de la valeur au sein d’un groupe. La distinction est importante : l’un se développe en acquérant des clients, l’autre se renforce en cultivant des relations. » 

« L’industrie du logiciel mesure le succès à l’aune de l’échelle : nombre d’utilisateurs, chiffre d’affaires, croissance. Cette quête incessante de croissance a engendré des systèmes qui répondent à leur propre logique plutôt qu’aux besoins de leurs utilisateurs. Les outils que nous utilisons quotidiennement sont conçus par des équipes distantes, optimisant leurs performances pour des marchés auxquels nous appartenons. Le logiciel personnel inverse cette relation et les critères de succès : il est construit par les personnes qu’il sert, suffisamment simple pour être compris, suffisamment proche pour être contrôlé, et suffisamment performant pour s’intégrer parfaitement. »

« La barrière à la création de logiciels s’est abaissée, mais elle n’a pas disparu : même avec l’aide de l’IA, les systèmes exigent toujours une certaine aisance avec l’abstraction. Les LLM élargissent le cercle des développeurs, sans pour autant le faire disparaître complètement. Il est plus facile de lancer des projets, mais leur intégration requiert toujours des compétences et une expertise. » Ce que les LLM ne savent pas encore faire. 

Qui l’emportera : les startups de l’IA ou les fournisseurs de modèles ?

The Economist pose le problème sous un autre angle. La plupart des startups de l’IA utilisent les modèles fournis par les géants de l’IA. Mais ces startups pourront-elles survivre à mesure que les géants de la Tech déploient non seulement leurs modèles, mais également des applications et des solutions dédiées ? Et ce alors que les géants de l’IA ont tendance à augmenter les tarifs des services qu’utilisent les startups… Dans le domaine du codage par exemple, Anthropic et OpenAI ont tous deux développé des outils de codage qui rivalisent, avec quelques nuances, avec des solutions comme Cursor. Les startups de l’IA estiment que les entreprises vont avoir besoin d’IA spécialisées, adaptées à leur processus métiers, ce qui leur donnerait un avantage concurrentiel. Pour combien de temps ? 

Pour assurer leur pérennité, les développeurs d’applications expérimentent de nouveaux modèles de revenus. Ils reconnaissent que, contrairement aux précédentes vagues de développement logiciel, plus ils grandissent et plus ils utilisent les LLM, plus leurs coûts marginaux augmentent. Pour compenser cette hausse des coûts, ils ont besoin de nouvelles techniques. L’une d’elles consiste à utiliser une variété de modèles, y compris des modèles open source, afin d’acheminer les requêtes les plus simples vers les serveurs où le traitement est le moins coûteux. Une autre consiste à facturer les clients en fonction des résultats obtenus, plutôt qu’à l’utilisation. Harvey, une solution d’IA pour les cabinets d’avocats, peut se permettre d’opter pour les modèles les plus performants, car les cabinets d’avocats sont prêts à payer pour une précision optimale. De plus, les développeurs d’applications affirment que plus leur activité se prolonge, plus leurs agents accumuleront de données spécialisées, améliorant ainsi leurs performances – un peu comme les voitures autonomes gagnent en fiabilité au fil des kilomètres parcourus. Cela devrait fidéliser davantage les clients et créer un avantage concurrentiel. 

Autrement dit, la perspective de centralisation par les géants de l’IA n’est pas certaine. La faible différence entre les modèles, la facilité avec laquelle les startups qui déploient des solutions spécialisées peuvent passer d’un fournisseur de modèles à un autre (voir en utiliser plusieurs), exposent également les fournisseurs de modèles au risque de banalisation de leurs services généraux. HSBC estime par exemple que d’ici 2030, les géants de l’IA ne pourraient ne détenir que 30% du marché mondial des services informatiques enrichis par l’IA, estimé à 1 300 milliards de dollars. Le reste appartiendrait aux éditeurs de logiciels utilisant leurs plateformes.

10 / 10

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞