LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Dans les algorithmes
Souscrire à ce flux
Comprendre la société des calculs

▸ les 10 dernières parutions

20.11.2024 à 09:53

Vers l’IA « physique »

Hubert Guillaud

L’IA transforme la façon dont les robots apprennent à se déplacer et à naviguer dans les environnements. Ils acquièrent des compétences plus rapidement que jamais et s’adaptent d’une manière que l’on pensait auparavant impossible. Le Financial Times fait le point sur les progrès de l’IA robotique, celle qui comprend les lois de la physique pour […]
Lire + (327 mots)

L’IA transforme la façon dont les robots apprennent à se déplacer et à naviguer dans les environnements. Ils acquièrent des compétences plus rapidement que jamais et s’adaptent d’une manière que l’on pensait auparavant impossible. Le Financial Times fait le point sur les progrès de l’IA robotique, celle qui comprend les lois de la physique pour travailler avec nous. Des robots qui tournent les pages d’un livre ou qui mettent des tee-shirts sur un cintre. L’article explique, très graphiquement, que la méthode utilisée pour que l’IA génère des images ou du texte, est désormais utilisée pour produire des actions. « Cela signifie que les robots peuvent apprendre une nouvelle tâche, comme utiliser un marteau ou tourner une vis, puis l’appliquer dans différents contextes ». Le problème pour l’instant reste encore de passer d’une tâche à l’autre, mais pour cela l’espoir consiste à construire des Large Action Models, c’est-à-dire de très grands modèles d’actions et de produire les données pour y parvenir.

De là à avoir des robots domestiques capables d’évoluer dans nos environnements complexes, il y a encore quelques progrès à faire. Mais l’idée d’un robot capable de faire le ménage dans nos intérieurs semble plus près de se réaliser qu’hier.

20.11.2024 à 07:30

Où est passée la grande désinformation de l’IA ?

Hubert Guillaud

L’effondrement de l’information a-t-il eu lieu ? En tout cas, la submersion des contenus par l’IA générative qu’annonçaient de nombreux médias au début de la campagne électorale américaine n’a semble-t-il pas eu lieu, ou pas comme on l’a escompté, explique Matteo Wong pour The Atlantic. C’est ce qu’explique un trio de chercheurs de l’université de […]
Lire + (409 mots)

L’effondrement de l’information a-t-il eu lieu ? En tout cas, la submersion des contenus par l’IA générative qu’annonçaient de nombreux médias au début de la campagne électorale américaine n’a semble-t-il pas eu lieu, ou pas comme on l’a escompté, explique Matteo Wong pour The Atlantic. C’est ce qu’explique un trio de chercheurs de l’université de Purdue, Christina Walker, Daniel Schiff et Kaylyn Jackson Schiff, qui ont collecté les images et vidéos politiques générées par l’IA depuis juin 2023. Les contenus générés par l’IA durant la campagne électorale ont été nombreux, mais ils ont surtout été utilisés sous forme de satire ou de divertissement que comme outils de désinformation. Leur usage a été bien plus transparent qu’attendue. Les images étaient fausses mais ne faisaient pas semblant d’être vraies.

Reste qu’on mesure mal l’impact de ces partages, modèrent les chercheurs. « Ces images et vidéos générées par l’IA sont instantanément lisibles et ciblent explicitement le partage d’émotions plutôt que les informations (…). » Ces images ont peut-être finalement très bien accompagné la disparition des faits, du consensus et de la rationalité. Elles ont d’abord permis de faire primer l’émotion sur la rationalité dans un moment où la vérité était particulièrement malmenée… mais d’abord par les discours politiques eux-mêmes.

MAJ du 21/11/2024 : « L’IA semble avoir moins contribué à façonner la façon dont les gens ont voté et bien plus à éroder leur foi dans la réalité », rapporte le Washington Post. Elle a été plus utilisée pour consolider les croyances partisanes que pour influencer les mentalités, brouillant la réalité. Des chercheurs de l’Institute for Strategic Dialogue ont constaté que les utilisateurs croyaient plus souvent que le contenu authentique était généré par l’IA que l’inverse. Nous sommes bien plus dans une crise de la réalité que dans une crise de désinformation.

19.11.2024 à 07:30

L’État artificiel : la vie civique automatisée

Hubert Guillaud

Sommes-nous en passe d'entrer dans un État artificiel, c'est-à-dire un moment où la vie civique n'est plus produite que par le calcul au risque de nous dessaisir de toute action collective ?
Texte intégral (2259 mots)

Le philosophe Rob Horning rapporte que des chercheurs de Google ont publié un article décrivant un projet de « Machines d’Habermas » – hommage au philosophe et à sa théorie de l’espace public – décrivant des machines permettant de faciliter la délibération démocratique. L’idée consiste à utiliser des IA génératives pour générer des déclarations de groupes à partir d’opinions individuelles, en maximisant l’approbation collective par itération successive. Le but : trouver des terrains d’entente sur des sujets clivants, avec une IA qui fonctionne comme un médiateur. 

Vers des machines pour délibérer à notre place

Dans leur expérimentation, les chercheurs rapportent que les participants ont préféré les déclarations générées par les IA à celle des humains. Pour Horning, cela signifie peut-être que les gens « sont plus susceptibles d’être d’accord avec une position lorsqu’il semble que personne ne la défende vraiment qu’avec une position articulée par une autre personne ». Effectivement, peut-être que le fait qu’elles soient artificielles et désincarnées peut aider, mais peut-être parce que formulées par la puissance des LLM, ces propositions peuvent sembler plus claires et neutres, comme le sont souvent les productions de l’IA générative, donc plus compréhensibles et séduisantes. Les chercheurs mettent en avant l’efficacité et la rapidité de leur solution, par rapport aux délibérations humaines, lentes et inefficaces – mais reconnaissent que les propositions et les synthèses faites par les outils nécessiteraient d’être vérifiées. 404 media rapportait il y a peu le développement d’une IA pour manipuler les réseaux sociaux permettant de cibler les messages selon les discours politiques des publics. Pas sûr effectivement qu’il y ait beaucoup de différence entre les machines d’Habermas de Google et ces outils de manipulation de l’opinion. 

Ces efforts à automatiser la sphère publique rappellent à Horning le livre de Hiroki Azuma, General Will 2.0 (2011) qui défendait justement l’utilisation de la surveillance à grande échelle pour calculer mathématiquement la volonté générale de la population et se passer de délibération. « Nous vivons à une époque où tout le monde est constamment dérangé par des « autres » avec lesquels il est impossible de trouver un compromis », expliquait Azuma, en boomer avant l’heure. Il suffit donc d’abandonner la présomption d’Habermas et d’Arendt selon laquelle la politique nécessite la construction d’un consensus par le biais de discussions… pour évacuer à la fois le compromis et les autres. D’où l’idée d’automatiser la politique en agrégeant les données, les comportements et en les transformant directement en décisions politiques. 

Rob Horning voit dans cette expérimentation un moyen de limiter la conflictualité et de lisser les opinions divergentes. Comme on le constate déjà avec les réseaux sociaux, l’idée est de remplacer une sphère publique par une architecture logicielle, et la communication interpersonnelle par un traitement de l’information déguisé en langage naturel, explique-t-il avec acuité. « Libérer l’homme de l’ordre des hommes (la communication) afin de lui permettre de vivre sur la base de l’ordre des choses (la volonté générale) seule », comme le prophétise Azuma, correspond parfaitement à l’idéologie ultra rationaliste de nombre de projets d’IA qui voient la communication comme un inconvénient et les rencontres interpersonnelles comme autant de désagréments à éviter. « Le fantasme est d’éliminer l’ordre des humains et de le remplacer par un ordre des choses » permettant de produire la gouvernance directement depuis les données. Les intentions doivent être extraites et les LLM – qui n’auraient aucune intentionnalité (ce qui n’est pas si sûr) – serviraient de format ou de langage permettant d’éviter l’intersubjectivité, de transformer et consolider les volontés, plus que de recueillir la volonté de chacun. Pour Horning, le risque est grand de ne considérer la conscience de chacun que comme un épiphénomène au profit de celle de la machine qui à terme pourrait seule produire la conscience de tous. Dans cette vision du monde, les données ne visent qu’à produire le contrôle social, qu’à produire une illusion d’action collective pour des personnes de plus en plus isolées les unes des autres, dépossédées de la conflictualité et de l’action collective. 

Mais les données ne parlent pas pour elles-mêmes, nous disait déjà danah boyd, qui dénonçait déjà le risque de leur politisation. La perspective que dessinent les ingénieurs de Google consiste à court-circuiter le processus démocratique lui-même. Leur proposition vise à réduire la politique en un simple processus d’optimisation et de résolution de problèmes. La médiation par la machine vise clairement à évacuer la conflictualité, au cœur de la politique. Elle permet d’améliorer le contrôle social, au détriment de l’action collective ou de l’engagement, puisque ceux-ci sont de fait évacués par le rejet du conflit. Une politique sans passion ni conviction, où les citoyens eux-mêmes sont finalement évacués. Seule la rétroaction attentionnelle vient forger les communautés politiques, consistant à soumettre ceux qui sont en désaccord aux opinions validées par les autres. La démocratie est réduite à une simple mécanique de décisions, sans plus aucune participation active. Pour les ingénieurs de Google, la délibération politique pourrait devenir une question où chacun prêche ses opinions dans une application et attend qu’un calculateur d’opinion décide de l’état de la sphère publique. Et le téléphone, à son tour, pourrait bombarder les utilisateurs de déclarations optimisées pour modérer et normaliser leurs opinions afin de lisser les dissensions à grande échelle. Bref, une sorte de délibération démocratique sous tutelle algorithmique. Un peu comme si notre avenir politique consistait à produire un Twitter sous LLM qui vous exposerait à ce que vous devez penser, sans même s’interroger sur toutes les défaillances et manipulations des amplifications qui y auraient cours. Une vision de la politique parfaitement glaçante et qui minimise toutes les manipulations possibles, comme nous ne cessons de les minimiser sur la façon dont les réseaux sociaux organisent le débat public. 

Dans le New Yorker, l’historienne Jill Lepore dresse un constat similaire sur la manière dont nos communications sont déjà façonnées par des procédures qui nous échappent. Depuis les années 60, la confiance dans les autorités n’a cessé de s’effondrer, explique-t-elle en se demandant en quoi cette chute de la confiance a été accélérée par les recommandations automatisées qui ont produit à la fois un électorat aliéné, polarisé et méfiant et des élus paralysés. Les campagnes politiques sont désormais entièrement produites depuis des éléments de marketing politique numérique. 

En septembre, le Stanford Digital Economy Lab a publié les Digitalist papers, une collection d’essais d’universitaires et surtout de dirigeants de la Tech qui avancent que l’IA pourrait sauver la démocratie américaine, rien de moins ! Heureusement, d’autres auteurs soutiennent l’exact inverse. Dans son livre Algorithms and the End of Politics (Bristol University Press, 2021), l’économiste Scott Timcke explique que la datafication favorise le néolibéralisme et renforce les inégalités. Dans Théorie politique de l’ère numérique (Cambridge University Press, 2023), le philosophe Mathias Risse explique que la démocratie nécessitera de faire des choix difficiles en matière de technologie. Or, pour l’instant, ces choix sont uniquement ceux d’entreprises. Pour Lepore, nous vivons désormais dans un « État artificiel », c’est-à-dire « une infrastructure de communication numérique utilisée par les stratèges politiques et les entreprises privées pour organiser et automatiser le discours politique »

Une société vulnérable à la subversion

La politique se réduit à la manipulation numérique d’algorithmes d’exploration de l’attention, la confiance dans le gouvernement à une architecture numérique appartenant aux entreprises et la citoyenneté à des engagements en ligne soigneusement testés et ciblés. « Au sein de l’État artificiel, presque tous les éléments de la vie démocratique américaine – la société civile, le gouvernement représentatif, la presse libre, la liberté d’expression et la foi dans les élections – sont vulnérables à la subversion », prévient Lepore. Au lieu de prendre des décisions par délibération démocratique, l’État artificiel propose des prédictions par le calcul, la capture de la sphère publique par le commerce basé sur les données et le remplacement des décisions des humains par celles des machines. Le problème, c’est qu’alors que les États démocratiques créent des citoyens, l’État artificiel crée des trolls, formule, cinglante, l’historienne en décrivant la lente montée des techniques de marketing numérique dans la politique comme dans le journalisme. 

À chaque étape de l’émergence de l’État artificiel, les leaders technologiques ont promis que les derniers outils seraient bons pour la démocratie… mais ce n’est pas ce qui s’est passé, notamment parce qu’aucun de ces outils ne sont démocratiques. Au contraire, le principal pouvoir de ces outils, de Facebook à X, est d’abord d’offrir aux entreprises un contrôle sans précédent de la parole, leur permettant de moduler tout ce à quoi l’usager accède. Dans l’État artificiel, l’essentiel des discours politiques sont le fait de bots. Et X semble notamment en avoir plus que jamais, malgré la promesse de Musk d’en débarrasser la plateforme. « L’État artificiel est l’élevage industriel de la vie publique, le tri et la segmentation, l’isolement et l’aliénation, la destruction de la communauté humaine. » Dans sa Théorie politique de l’ère numérique, Risse décrit et dénonce une démocratie qui fonctionnerait à l’échelle de la machine : les juges seraient remplacés par des algorithmes sophistiqués, les législateurs par des « systèmes de choix collectifs pilotés par l’IA ». Autant de perspectives qui répandent une forme de grande utopie démocratique de l’IA portée par des technoprophètes, complètement déconnectée des réalités démocratiques. Les Digitalist Papers reproduisent la même utopie, en prônant une démocratie des machines plutôt que le financement de l’éducation publique ou des instances de représentations. Dans les Digitalists Papers, seul le juriste Lawrence Lessig semble émettre une mise en garde, en annonçant que l’IA risque surtout d’aggraver un système politique déjà défaillant. 
La grande difficulté devant nous va consister à démanteler ces croyances conclut Lepore. D’autant que, comme le montre plusieurs années de problèmes politiques liés au numérique, le risque n’est pas que nous soyons submergés par le faux et la désinformation, mais que nous soyons rendus toujours plus impuissants. « L’objectif principal de la désinformation n’est pas de nous persuader que des choses fausses sont vraies. Elle vise à nous faire nous sentir impuissants », disait déjà Ethan Zuckerman. Dans une vie civique artificielle, la politique devient la seule affaire de ceux qui produisent l’artifice.

15.11.2024 à 17:41

« Musk n’est pas notre projet »

Hubert Guillaud

« La régulation est le prolongement de la démocratie et un moyen d’en assurer la défense », rappelle Jean Cattan, secrétaire général du Conseil national du numérique. « L’approfondissement de la portabilité des données, des contacts, graphes sociaux, historiques, préférences, etc. devrait être la priorité de la Commission européenne dans la mise en œuvre du règlement sur les marchés […]
Lire + (162 mots)

« La régulation est le prolongement de la démocratie et un moyen d’en assurer la défense », rappelle Jean Cattan, secrétaire général du Conseil national du numérique. « L’approfondissement de la portabilité des données, des contacts, graphes sociaux, historiques, préférences, etc. devrait être la priorité de la Commission européenne dans la mise en œuvre du règlement sur les marchés numériques à l’heure de la bascule des réseaux sociaux dominants dans un environnement politique potentiellement hors de contrôle. En soutien et en parallèle à l’élaboration de ce cadre, encourageons le déploiement des outils de portabilité. Certains existent, d’autres doivent encore être développés. » Et Cattan d’inviter à déployer des alternatives aux Big Tech libres et ouvertes, à repenser le panorama médiatique et à miser sur la proximité.

14.11.2024 à 11:09

Ciblage publicitaire : l’atténuation ne suffit pas

Hubert Guillaud

Très intéressant article de recherche sur l’usage de variables de substitution pour le ciblage publicitaire politique. Les chercheurs rappellent que les plateformes ont déployé ces dernières années des politiques d’atténuation pour limiter l’accès aux attributs de ciblage jugés problématiques, tels que l’orientation politique, la religion ou l’origine ethnique. Mais les annonceurs les ont largement contourné […]
Lire + (304 mots)

Très intéressant article de recherche sur l’usage de variables de substitution pour le ciblage publicitaire politique. Les chercheurs rappellent que les plateformes ont déployé ces dernières années des politiques d’atténuation pour limiter l’accès aux attributs de ciblage jugés problématiques, tels que l’orientation politique, la religion ou l’origine ethnique. Mais les annonceurs les ont largement contourné par le recours à des substituts, comme le fait d’apprécier certaines personnalités ou certains sports (le tir, la chasse…), des marques de voitures ou d’alcool – voir également l’analyse des catégories utilisées par les annonceurs qu’avait détaillé The Markup et dont nous parlions en analysant l’ouvrage de Tim Hwang. Les chercheurs proposent de mieux mesurer les biais de ciblage en observant la popularité des critères de ciblage utilisées par les annonceurs. Ils démontrent que les politiques mises en place par les plateformes sont inefficaces et constatent que les proxies utilisés par les annonceurs, eux, sont efficaces pour déterminer l’affiliation politique ou l’origine ethnique. Pour les chercheurs, l’étude montre qu’il est nécessaire de restreindre encore le ciblage publicitaire à des paramètrages larges et « sûrs » et invitent les plateformes à mettre en place des alertes de ciblage problématiques à l’attention des utilisateurs et des annonceurs. Une autre piste consisterait à réduire la visibilité des interactions des utilisateurs avec les contenus payants afin qu’il ne soit pas visibles aux autres utilisateurs. L’enquête est en tout cas assez éclairante sur les enjeux de granularité qu’offre la publicité numérique.

13.11.2024 à 14:52

Registre citoyen des algos publics

Hubert Guillaud

« Seuls 4% des algorithmes répertoriés dans l’inventaire ont fait l’objet d’une évaluation interne diffusée publiquement. Il est également presque impossible de savoir combien ces systèmes ont coûté (3 projets seulement sur 72 ont diffusé un budget), sur quelles données ils ont été entrainés, ou pourquoi un algorithme a été choisi plutôt qu’un autre ». L’Observatoire (citoyen) […]
Lire + (304 mots)

« Seuls 4% des algorithmes répertoriés dans l’inventaire ont fait l’objet d’une évaluation interne diffusée publiquement. Il est également presque impossible de savoir combien ces systèmes ont coûté (3 projets seulement sur 72 ont diffusé un budget), sur quelles données ils ont été entrainés, ou pourquoi un algorithme a été choisi plutôt qu’un autre ». L’Observatoire (citoyen) des algorithmes publics est en ligne !

8 / 10
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplomatique
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  Pas des sites de confiance
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓