LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
Réseau d'éducation populaire au Libre.

ACCÈS LIBRE

▸ les 20 dernières parutions

30.03.2025 à 09:00

Spotify, la machine à humeur

Framasoft

Dans son livre, Mood Machine, la journaliste indépendante Liz Pelly, décortique ce que Spotify a changé dans la musique, pour les clients du service, comme pour les musiciens. Entre ubérisation et syndrome de Stockholm.
Texte intégral (2386 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 17 janvier 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Dans son livre, Mood Machine, la journaliste indépendante Liz Pelly, décortique ce que Spotify a changé dans la musique, pour les clients du service, comme pour les musiciens. Entre uberisation et syndrome de Stockholm.

 

 

 

 

 

 

 

 

 

Cela fait des années que la journaliste indépendante Liz Pelly observe Spotify. Son essai, Mood Machine : The Rise of Spotify and the Costs of the Perfect Playlist (Simon & Schuster, 2025) estime que la musique est devenue un utilitaire plus qu’un art. Pour les fans de musique, le streaming est, malheureusement, un « produit spectaculaire » : « un jukebox universel et infini ».  Pour les musiciens cependant, Spotify a été une menace plus existentielle que la révolution du partage de fichiers qui l’a précédée, car le streaming, lui, a reçu le vernis de la légitimité, explique le Washington Post dans sa critique du livre. Mais Spotify a surtout détourné les bénéfices de la musique a son profit, tout en préparant le terrain pour remplacer les musiciens par de la musique générée par l’IA. Le secteur d’ailleurs s’y prépare : un récent rapport de la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac) annonce la chute de la rémunération des artistes et le déferlement à venir de la musique générée par IA

La musique, une activité purement fonctionnelle

Liz Pelly rappelle que les origines de Spotify plongent directement dans The Pirate Bay, l’emblème du téléchargement illégal de musique du début des années 2000, notamment parce que le service était une réponse au comportement des gens et à l’envolée du téléchargement illégal. Pour le fondateur de Spotify, la musique a été considérée comme Amazon a considéré les livres : un cheval de Troie pour exploiter les clients. La recette de la suprématie auditive de Spotify a surtout reposé sur les playlists, spécifiques, homogènes et de plus en plus automatisées, descendant monotone de la radio commerciale et des musiques d’ambiance. Nos habitudes d’écoute culturelles ont été peu à peu déformées par la domination de Spotify. « Les auditeurs ont été encouragés à aborder la musique comme une activité purement fonctionnelle – pour dormir, étudier ou meubler un lieu public – sans avoir à fournir aucun investissement particulier dans des artistes individuels et identifiables ». En fait, Spotify vise avant tout à maintenir ses clients dans leur zone de confort. Spotify incarne « un modèle de créativité axé sur le service client qui conduit à une stagnation esthétique », explique Pelly. Le « son Spotify » ressemble à la décoration des appartements sur Airbnb, partout identique.

« À quel moment un système de recommandation cesse-t-il de recommander des chansons et commence-t-il à recommander une idée complète de la culture ? » demande Pelly. Spotify préfère que vous vous engagiez de la manière la plus passive et la plus distraite possible. Comme en politique, les superstructures panoptiques fonctionnent mieux lorsque leurs sujets ne leur accordent pas trop d’attention. Comme l’aurait dit un jour Daniel Ek, le fondateur de Spotify, « notre seul concurrent est le silence ». Dans le New Yorker, le prof de littérature Hua Hsu qui discute du même livre, parle d’un syndrome Spotify comme d’un syndrome de Stockholm. « Tout comme nous entraînons l’algorithme de Spotify avec nos goûts et nos dégoûts, la plateforme semble, elle, nous entraîner à devenir des auditeurs 24 heures sur 24 ». Pelly soutient, en fait, que la plus grande innovation de Spotify a été sa compréhension de l’affect, de la façon dont nous nous tournons vers la musique pour nous remonter le moral ou nous calmer, nous aider à nous concentrer sur nos devoirs ou simplement nous dissocier. Contrairement aux maisons de disque, son but n’était pas de nous vendre un tube dont on se lasse, mais de nous vendre un environnement sonore permanent. Quand on écoutait MTV ou la radio, nous pouvions parfois tomber sur quelque chose de différent ou d’inconnu. Désormais, la personnalisation « laisse présager d’un avenir sans risque, dans lequel nous ne serons jamais exposés à quoi que ce soit que nous ne voudrions pas entendre ». Sur Spotify, « les sons flottent en grande partie sans contexte ni filiation ». Les artistes y sont finalement assez invisibles. La musique décontextualisée de son histoire.

Internet était censé libérer les artistes de la monoculture, en offrant les conditions pour que la musique circule de manière démocratique et décentralisée. Certes, elle circule plus que jamais, mais la monoculture, elle, s’est terriblement renforcée.

Spotify, une ubérisation comme les autres

Dans les bonnes feuilles du livre que publie Harpers, Pelly évoque une autre dimension des transformations qu’a produit la plateforme, non pas sur les utilisateurs et clients, mais sur la musique et les musiciens eux-mêmes. Elle décrit les artistes fantômes de la plateforme, une polémique où les playlists populaires de Spotify semblaient se peupler de musiques de stock et d’artistes qui n’existaient pas. Pelly montre que Spotify avait en fait, malgré ses longues dénégations, bel et bien des accords avec des sociétés de productions pour produire des flux de musique moins chers. Ce programme, baptisé Perfect Fit Content (PFC, que l’on peut traduire par « contenu parfaitement adapté »), offrait des conditions de rémunération moindre et visait clairement à réduire les droits payés par Spotify aux artistes, normalisant des titres bons marchés pour remplir les playlists. « Au milieu des années 2010, le service s’est activement repositionné pour devenir une plateforme neutre, une méritocratie axée sur les données qui réécrivait les règles de l’industrie musicale avec ses playlists et ses algorithmes ». En se rendant compte que de nombreux abonnés écoutaient de la musique en fond sonore, Spotify a opté pour une solution qui lui permettait de réduire les dividendes qu’elle versait au majors (représentant quelques 70 % de ses revenus) afin de devenir bénéficiaire. Pour cela, elle a misé sur les recommandations par playlists d’humeur qui se sont peu à peu peuplées de titres PFC – et ce alors que Spotify se défend de faire des placements de chansons dans ses playlists.

De nombreuses entreprises fournissent désormais Spotify en musique libre de droits à petits budgets, au détriment d’artistes indépendants. Loin d’être la plateforme de la méritocratie musicale qu’elle prétend être, Spotify, comme bien des entreprises, « manipule secrètement la programmation pour favoriser le contenu qui améliore ses marges ». Pour les musiciens précarisés qui produisent ces musiques, cela ressemble surtout à une ubérisation à marche forcée, avec des enregistrements à la chaîne et des musiques écrites sur un coin de table pour correspondre à un style précis, qui signent des contrats avec des droits réduits. « La musique de fond est à certains égards similaire à la musique de production, un son produit en masse sur la base d’un travail à la demande, qui est souvent entièrement détenu par des sociétés de production qui le rendent facilement disponible pour la publicité, la sonorisation de magasin, la production de films… » Ce que l’on appelle « la musique de production » est d’ailleurs en plein essor actuellement, explique Pelly, notamment pour créer des fonds sonores aux micro-contenus vidéo de Youtube, Insta ou TikTok, afin d’éviter des accords de licences compliqués voire la suppression de contenus lié à la violation du droit d’auteur. Pour ces entreprises qui produisent de la musique à la chaîne, comme Epidemic Sound, la musique n’est rien d’autre qu’une « activité de données », aplanissant les différences entre les musiques, produisant un brouillage des frontières esthétiques.

Les musiciens de l’Ivors Academy, une organisation britannique de défense des auteurs-compositeurs, affirment que les « frictions » que des entreprises comme Epidemic cherchent à aplanir sont en fait des protections industrielles et de droit d’auteur durement gagnées. Nous sommes entrés dans une course au moins disant, explique un producteur. Quand ces morceaux décollent en audience, ils génèrent bien plus de revenus pour Spotity et les labels fantômes que pour leurs auteurs, par contrat. « Ce traitement de la musique comme rien d’autre que des sons de fond – comme des pistes interchangeables de playlists génériques et étiquetées en fonction de l’ambiance – est au cœur de la dévalorisation de la musique à l’ère du streaming. Il est dans l’intérêt financier des services de streaming de décourager une culture musicale critique parmi les utilisateurs, de continuer à éroder les liens entre les artistes et les auditeurs, afin de faire passer plus facilement de la musique à prix réduits, améliorant ainsi leurs marges bénéficiaires. Il n’est pas difficile d’imaginer un avenir dans lequel l’effilochage continu de ces liens érode complètement le rôle de l’artiste, jetant les bases pour que les utilisateurs acceptent la musique créée à l’aide de logiciels d’IA générative. » Epidemic Sound a déjà prévu d’autoriser ses auteurs à utiliser les outils d’IA pour générer des pistes musicales. Et Spotify, pour sa part, a fait part ouvertement de sa volonté d’autoriser la musique générée par l’IA sur la plateforme.

L’exploitation de l’IA par Spotify ne s’arrête pas là. Elle est toujours corrélée à des initiatives pour réduire les coûts, rappelle Pelly, en évoquant par exemple le Discovery Mode, un programme de promotion automatique où les artistes qui acceptent d’y participer acceptent également une redevance inférieure. Bien sûr,  Discovery Mode a attiré l’attention des artistes, des organisateurs et des législateurs et il est probable que PFC attise également les critiques… Mais « les protestations pour des taux de redevance plus élevés sont plus difficiles quand les playlists sont remplies d’artistes fantômes ».

La couverture du livre de Liz Pelly, Mood Machine.On y voit le titre « Mood Machine » ainsi que le sous-titre « The rise of the Spotify and the cost of perfect playlist ». Il y a une douzaine de carrés de couleur, agencés sur l'ensemble de la couverture, dont certains contiennent des photos de personnes représentant des moments de la vie (dormir, écouter de la musique, rire, méditer en bord de mer) et d'autres représentant dans formes abstraites.

La couverture du livre de Liz Pelly, Mood Machine.

MÀJ du 27/01/2025 : Liz Pelly est en interview dans le Monde.

24.03.2025 à 07:42

Khrys’presso du lundi 24 mars 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (11100 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

L’histoire de la semaine

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

RIP

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

La mauvaise conduite de la semaine

  • Paris : 13 blessés dont 10 policiers après un refus d’obtempérer (liberation.fr)

    on voit le véhicule des mis en cause percuter le feu rouge, avant d’être à son tour heurté par une voiture de police qui le suivait. Une deuxième voiture de police suivant juste après s’encastre à son tour dans la première voiture de police. Un peu plus tard, une troisième voiture de police vient percuter les deux premières.

  • La vidéo associée (tube.fdn.fr)

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

23.03.2025 à 09:00

Y aura-t-il une alternative au technofascisme ?

Framasoft

Dans « Les prophètes de l’IA », le journaliste Thibault Prévost nous explique que le futur est désormais un programme idéologique et politique, celui des grands acteurs de la Tech. Leur objectif : faire perdurer la religion, le capitalisme et le colonialisme en les rendant fonctionnels.
Texte intégral (3824 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 08 novembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Dans « Les prophètes de l’IA », le journaliste Thibault Prévost nous explique que le futur est désormais un programme idéologique et politique, celui des grands acteurs de la Tech. Leur objectif : faire perdurer la religion, le capitalisme et le colonialisme en les rendant fonctionnels. La méthode que met en œuvre cette petite élite de technomilliardaires consiste à prendre le pouvoir par la technologie, non pas pour sauver le monde, mais uniquement pour se sauver eux-mêmes. La perspective technofasciste est un récit éminemment séducteur… mais sans horizon, puisque cette élite ne propose ni d’améliorer notre futur ni d’en partager les fruits. Seulement de renforcer leur pouvoir.

 

 

 

 

 

Le livre du journaliste Thibault Prévost, Les prophètes de l’IA (Lux éditeur, 2024), a une grande vertu : nettoyer notre regard de ce qui l’embrume.

Il permet d’abord de comprendre que la technologie ne mobilise pas tant des imaginaires, comme on l’entend trop souvent, mais bien des idéologies. Imaginaire, le terme fait référence à quelque chose qui n’existerait que dans l’imagination, qui serait sans réalité, comme dévitalisé, sans effet autre que sûr le rêve et l’irréel. Rien ne me semble moins vrai. Ce que nous sommes capables de composer dans nos esprits à une puissance d’évocation sans précédent, qui mobilise et galvanise les énergies et façonne le réel. Le terme d’imaginaire dépolitise ce que nos esprits façonnent, quand les récits que nous brodons et partageons construisent d’abord des ralliements, des adhésions ou leur exact inverse, des rejets, des défections, des oppositions. Ce que nous imaginons ne flotte pas dans l’éther, bien au contraire. Nos imaginaires reflètent tout le temps des idées et conduisent nos agissements, décrivent des façons de voir le monde, de le régir, de le gouverner. Imaginaire : le terme ne vise qu’à dépolitiser ce qui est à l’œuvre dans la mise en représentation du monde, à savoir dévitaliser les luttes idéologiques par des récits neutralisés qui ont pour but de les rendre plus séduisants, plus accrocheurs, plus malléables, plus appropriables, plus diffusables. Mais derrière le storytelling, les récits que l’on construit sur l’IA, les discours que l’on porte sur la technologie, il n’est question de rien d’autre que d’une lutte idéologique.

A mesure que la technologie a pris une place prépondérante dans nos sociétés, le discours qui la porte s’est chargé de promesses, de prophéties, de mythes, de prédictions qui se sédimentent en idées politiques qui annoncent, au choix, la fin du monde ou le retour des Lumières. L’un comme l’autre d’ailleurs n’ont qu’un objectif : nous éloigner de la réalité et nous faire adhérer à leur promesse. À savoir qu’il n’y a pas d’alternative au futur que propose la technologie. Qu’il soit rose ou sombre, c’est la technologie qui le façonne, c’est l’élite technologique qui le construit. Le futur est devenu une religion.

Prévost rappelle trop rapidement la longue histoire de l’avènement des religions technologiques, schismes du rêve transhumaniste, pour se concentrer surtout sur les courants et les figures les plus récents. Ce qui l’intéresse, c’est de regarder les habits les plus neufs du transhumanisme, cette consécration de la science et de la technologie, qui promet d’améliorer la condition humaine. Qui souhaite rendre la religion, le capitalisme et le colonialisme fonctionnels, effectifs, comme pour les faire perdurer à jamais. Ces courants qui déifient les sciences de l’ingénierie ne proposent pas qu’une transcendance, c’est-à-dire un dépassement de l’homme par la technique, mais bien l’avènement d’une technocratie toute puissante. L’essai, qui se présente sous forme d’un catalogue des idées du secteur, devient vite épuisant à lire, tant ces délires mis bout à bout se concatènent dans leur logique rance, qui ne produit rien d’autre qu’un total mépris pour la société comme pour les individus qui la composent.

Un monde de… tarés

Le livre de Thibault Prévost a une autre vertu. Il nous montre que les grands ingénieurs, les grands investisseurs, les grands entrepreneurs et les grands penseurs de l’IA sont tous complètement… tarés ! Excusez du peu ! Les récits de dépassement, de conquête, de croisade, de puissance ou d’IApocalypse qu’ils nous vendent forment un ramassis de technodélires qui n’ont rien de sérieux ou de rationnel, malgré le fait qu’ils se présentent ainsi. Ces délires sur l’intelligence artificielle générale, sur la transcendance par la machine comme sur l’effondrement, nous abreuvent d’idéologies hors-sol, sectaires, fanatiques et vides pour mieux invisibiliser leur autoritarisme et leur cupidité débridée (à l’image de celle qu’exprimait Mustafa Syleyman dans son livre particulièrement confus, La déferlante). Tous les grands gourous de la tech que Prévost évoque dans son livre (et il n’y a pas que Musk) semblent d’abord et avant tout des individus totalement perchés et parfaitement lunaires. Ils sont tous profondément eugénistes, comme le répète le chercheur Olivier Alexandre (voir aussi dans nos pages). Ils sont obsédés par le QI et la race. Ils ont à peu près tous tenu à un moment ou à un autre des propos racistes. Ils sont tous profondément opposés à la démocratie. Ils partagent tous des discours autoritaires. Derrière leurs récits, aussi barrés les uns que les autres, tous n’oeuvrent qu’à leur propre puissance. A peu près tous partagent l’idée que ceux qui ne croient pas en leurs délires sont des parasites. Leur délire élitiste, eugéniste et cupide a de quoi inquiéter. Le futur qu’ils nous vendent n’a rien d’un paradis, puisqu’il ne remet en rien en cause des privilèges qui sont les leurs, bien au contraire. Tous nient les biens communs. Tous veulent détruire la régulation, à moins qu’ils en soient en maîtres. Ils nous exhortent à penser un futur si lointain qu’il permet de ne plus être fixé dans un cadre politique normé, ce qui permet de totalement le dépolitiser. Tous cachent les enjeux politiques qu’ils défendent sous des questions qui ne seraient plus que technologiques. Remplacer le discours politique par un discours technique permet d’abord de déplacer son caractère politique, comme pour l’aseptiser, l’invisibiliser.

A le lire, Prévost nous donne l’impression de nous plonger dans les disputes sectaires, rances et creuses… qui anônent un « cocktail d’arrogance élitiste et de naïveté qui défend férocement la légitimité morale des inégalités ». Qu’ils se définissent comme altruistes efficaces, longtermistes, doomers, ultralibertariens, extropiens ou rationalistes… (tescralistes, comme les ont qualifiés Timnit Gebru et Emile Torres), ils semblent avant tout en voie de fascisation avancée.

L’IA ne va pas sauver le monde, elle vise à sauver leur monde !

L’IA ne va pas sauver le monde. Elle vise à sauver leur monde, celui d’une caste de milliardaires au-dessus des lois qui cherchent à se garder du reste de l’humanité qu’elle abhorre. « L’IA n’est que le paravent technique d’une entreprise tout à fait classique de privatisation et de captation des richesses ». L’IA vise d’abord la préservation du taux de profit.

La Tech a longtemps été Démocrate et pro-démocratie, rappelle le journaliste, mais c’est de moins en moins le cas. La perspective que la Silicon Valley perde de sa puissance, explique en partie son réalignement. Le techno-solutionnisme progressiste qu’ils ont longtemps poussé a fait long feu : la Tech n’a produit aucun progrès social, bien au contraire. Ses solutions n’ont amélioré ni la démocratie, ni l’économie, ni l’égalité, ni l’espérance de vie… surtout quand on les compare aux technologies sociales du XXᵉ siècle comme l’hygiène publique, le développement des services publics ou la justice économique.

Si ces évolutions politiques ont plusieurs origines, l’influence de grandes figures, de financeurs milliardaires, sur le secteur, semble déterminant, à l’image des Marc Andreessen et Peter Thiel, qui ne sont pas tant des évangélistes de la tech, que des évangélistes néolibéraux ultra-conservateurs, qui promeuvent par leurs discours et leurs investissements des projets anti-régulation et autoritaires. Prévost rappelle que la grande caractéristique de cette élite financière est d’être férocement opposée à la démocratie. Ces milliardaires rêvent d’un monde où une poignée d’individus – eux – captent toutes les richesses et tous les pouvoirs. « La tech est un système immunitaire développé par le capitalisme pour lutter contre tout ce qui pourrait le mettre en crise », disait déjà Antoinette Rouvroy. Ces gens sont tous admirateurs de régimes autoritaires. Ils rêvent d’un progrès technique sans démocratie tel qu’ils le font advenir dans les outils qu’ils façonnent et les entreprises qu’ils dirigent.

En compilant toutes ces petites horreurs qu’on a déjà croisées, éparses, dans l’actualité, Prévost nous aide à regarder ce délire pour ce qu’il est. Nous sommes confrontés à « un groupe radicalisé et dangereux », d’autant plus dangereux que leur fortune astronomique leur assure une puissance et une impunité politique sans précédent. Leurs exploits entrepreneuriaux ou financiers ne peuvent suffire pour les absoudre des horreurs qu’ils prônent. Prévost les montre comme ce qu’ils sont, un freak-show, des sortes de monstres de foire, complotistes, fascistes, prêts à rejoindre leurs bunkers et dont le seul rêve est de faire sécession. Le journaliste décrit un monde réactionnaire qui ne craint rien d’autre que son renversement. « Ces patrons méprisent nos corps, nos droits, nos existences ». Leur discours sur les risques existentiels de l’IA permet de masquer les effets déjà bien réels que leurs outils produisent. « L’IA est une métaphore du système politique et économique capitaliste qui menace l’espèce humaine ». Pour sécuriser leur avenir, cette élite rêve d’un technofascisme qu’elle espère mettre en œuvre. Notamment en manipulant les peurs et les paniques morales pour en tirer profit.

Le pire finalement c’est de constater la grande audience que ces pensées rances peuvent obtenir. La réussite fait rêver, la domination fait bander… oubliant qu’il s’agit de la domination et de la réussite d’un petit monde, pas de celui de l’Occident ou de tous les entrepreneurs du monde. En nous répétant que le futur est déjà décidé et qu’ils en sont les maîtres, ils nous intoxiquent. « À force de se faire dire que le futur est déjà plié, que c’est la Silicon Valley qui décide de l’avenir de l’humanité, le public, convaincu qu’il n’a pas son mot à dire sur des enjeux qui le dépassent, remet son destin entre les mains des Google, Microsoft, Meta ou Amazon. » Ce déplacement permet d’orienter la régulation vers des dangers futurs pour mieux laisser tranquille les préjudices existants. Derrière la promotion de leur agenda néolibéral pour maximiser leurs profits aux dépens de l’intérêt général, se profile le risque d’une bascule vers un capitalisme autoritaire qui contamine le monde au-delà d’eux, comme le notait la chercheuse Rachel Griffin. « À l’instar de la Silicon Valley, l’Union européenne semble être en train de mettre à jour son logiciel idéologique vers un capitalisme autoritaire qui privilégie l’économie de la rente et les monopoles à l’économie de marché et la concurrence ». Cette transformation du capitalisme est assurée par la technologie. Les systèmes s’immiscent dans nos institutions, à l’image de leurs LLM que les acteurs publics s’arrachent en permettant aux entreprises de la Silicon Valley « d’étendre leur intermédiation sur un corps social médusé ». Qu’importe si ChatGPT raconte n’importe quoi. Les prophètes de l’IA, ces « bullionaires » (contraction de bullshitters et de millionnaires) eux aussi mentent avec assurance. Derrière leurs délires apparents, un transfert de pouvoir est en cours. Pas seulement une privatisation du futur, mais bien son accaparement par quelques individus qui font tout pour n’avoir de compte à rendre à personne. La fétichisation de l’individu rationnel, tout puissant, du génie solitaire, du milliardaire omnipotent, du grotesque individualiste ne nous conduit à aucune société qu’à son délitement. La métaphore computationnelle qui permet d’affirmer que la seule intelligence est désormais celle de la machine, vise à nous reléguer, à nous transformer en une marchandise dévaluée, puisque nos esprits valent désormais moins que le calcul, tout comme notre force de travail a été dévaluée par l’énergie fossile.

La couverture du livre de Thibault Prévost : « Les prophètes de l'IA ». On y voit un champignon nucléaire formant un cerveau, le tout sur un fond de circuits imprimés.

Couverture du livre de Thibault Prévost.

Du grand leurre de l’IA au risque technofasciste

Prévost rappelle que les machines nous trompent. Que l’automatisation est un leurre qui masque les ingénieurs et les travailleurs du clic qui font fonctionner les machines à distance. L’IA générative aussi. Nombre d’utilisateurs de ChatGPT l’abandonnent au bout d’une quarantaine de jours, comme un jouet qu’on finit par mettre de côté. Google SGE produit des fausses informations après plus d’un an de tests. Par essence, la prédiction statistique ne permet pas de produire de résultats fiables. Partout où ils se déploient, ces systèmes se ridiculisent, obligeant à les surveiller sans cesse. Notre avenir sous IA n’est pas soutenable. Il repose sur un pillage sans précédent. Les « cleptomanes de la Valley » ne cessent de nous dire que l’IA doit être illégale pour être rentable. L’IA est une bulle financière qui risque de finir comme le Metavers (que McKinsey évaluait à 5000 milliards de dollars d’ici 2030 !).

« Arrêtons pour de bon de donner du crédit aux entrepreneurs de la tech. Depuis le début de la décennie 2020, le technocapitalisme ne fonctionne plus que par vagues d’hallucinations successives, suivies de (très) brèves périodes de lucidité. La Silicon Valley semble bloquée dans un trip d’acide qui ne redescend pas, et dont l’IA n’est que la plus récente hallucination », rappelle, cinglant, Thibault Prévost, fort des punchlines saisissantes auxquelles il nous a habitués dans ses articles pour Arrêt sur Images.

L’IA n’est que la nouvelle ligne de front de la lutte des classes, où les systèmes d’analyse dégradent les conditions d’existence des plus mal notés, ce lumpenscoretariat. Sa grande force est d’avancer masqué, opaque, invisible à ceux qu’il précarise. Nous n’utilisons pas l’IA, mais nous y sommes déjà assujetties, explique très justement Prévost. Les systèmes de calculs se démultiplient partout. « Aucun d’entre eux n’est fiable, transparent ou interprétable. Nous vivons tous et toutes à la merci de l’erreur de calcul sans recours ».

« Les systèmes d’IA sont le reflet des oligopoles qui les commercialisent : privés, opaques, impénétrables, intouchables, toxiques et dangereux. » L’IA prolonge le continuum des discriminations et de l’injustice sociale et raciale. La faute aux données bien sûr, jamais « à leurs beaux algorithmes neutres et apolitiques ».

« Comme l’idéologie d’extrême droite, l’IA échoue à représenter le monde. Elle ne fonctionne que par archétypes et biais, par catégorisation a priori ». Elle rappelle aux humains la distance qui les sépare de la norme masculine, blanche et riche. L’IA n’est rien d’autre qu’une « prothèse pour le maintien de l’ordre social racial et l’avancée des projets capitalistes impérialistes », comme le dit Yarden Katz dans son livre Artificial Whiteness. Elle n’est rien d’autre que le nouvel auxiliaire du pouvoir. Elle exploite la violence structurelle comme une grammaire et un grand modèle d’affaires. « Si la Silicon Valley essaie de nous vendre l’apocalypse, c’est parce que son projet technique, économique et politique en est une ». Ce que veulent les milliardaires de la tech, c’est la fin du monde social pour imposer le leur.

Avec l’élection de Trump, c’est exactement là où nous sommes. La Silicon Valley a obtenu ce qu’elle voulait, dit Brian Merchant.

Dan McQuillan nous avait mis en garde du risque fasciste de l’IA. Les opportunités politiques sont devenues des prises de risques financières. La victoire de Trump vient d’assurer à Musk et quelques autres la rentabilité de tous leurs investissements. Son rachat de Twitter n’était rien d’autre que l’achat d’une arme qu’il a transformée en site suprémaciste, pour amplifier ses délires, permettant d’attiser la haine en ligne et la traduire en vote et en violence dans le monde physique. Comme l’explique Martine Orange pour Mediapart, l’enjeu, désormais, consiste à éradiquer la régulation et mettre l’ensemble de l’appareil d’État à la disposition de la Tech, c’est-à-dire assurer la mainmise de la Tech sur le pouvoir politique.

Face au technofascisme qui vient, le risque est que nous soyons démunis d’alternatives technologiques et donc idéologiques. Sans récit et réalisations progressistes de la tech, la seule option pour beaucoup ne consistera qu’en une chose : abandonner la technologie et arrêter les machines.

Hubert Guillaud

 

MAJ du 19/11/2024 : Allez lire également ce très bon entretien avec Thibault Prévost qui explique que l’IA n’est pas qu’un outil de puissance au service des technoprophètes, il est aussi un outil d’asservissement et de déresponsabilisation de la puissance publique.

17.03.2025 à 07:42

Khrys’presso du lundi 17 mars 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (10396 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial tech

  • The Case for Encryption (openrightsgroup.org)

    Spying on private messages has long been on the security services’ wish list. In swapping a counter-terrorism argument for one of stopping child sexual abuse material (CSAM), they’ve made headway in their mission.

  • Android intègre Debian : cette fonctionnalité va transformer votre smartphone (frandroid.com)
  • In praise of links (osteophage.neocities.org)
  • Dans les algorithmes bancaires (danslesalgorithmes.net)

    Algorithm Watch et l’AFP ont publié une enquête sous forme de podcast sur la débancarisation, le blocage et la fermeture automatisée de comptes bancaires. L’occasion de comprendre comment le calcul de risque bancaire dysfonctionne et conduit des centaines de milliers de personnes, chaque année, à perdre l’accès à leurs capacités bancaires.

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Le facepalm de la semaine

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

16.03.2025 à 09:00

L’IA générative, nouvelle couche d’exploitation du travail

Framasoft

L’IA générative ne va ni nous augmenter ni nous remplacer, mais vise d’abord à mieux nous exploiter, expliquent Aiha Nguyen et Alexandra Mateescu de Data & Society. En s’intégrant aux applications de travail, elle promet de réduire les coûts même si elle n’est pas pertinente, elle vient contraindre l’activité de travail, et renforce l’opacité et l’asymétrie de pouvoir.
Texte intégral (2021 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 10 décembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


L’IA générative ne va ni nous augmenter ni nous remplacer, mais vise d’abord à mieux nous exploiter, expliquent Aiha Nguyen et Alexandra Mateescu de Data & Society. En s’intégrant aux applications de travail, elle promet de réduire les coûts même si elle n’est pas pertinente, elle vient contraindre l’activité de travail, et renforce l’opacité et l’asymétrie de pouvoir.

 

 

 

 

 

« Comme pour d’autres vagues d’automatisation, le potentiel supposé de l’IA générative à transformer notre façon de travailler a suscité un immense engouement ». Mais pour comprendre comment cette nouvelle vague va affecter le travail, il faut dépasser la dichotomie entre l’IA qui nous augmente et l’IA qui nous remplace, estiment les chercheuses de Data & Society Aiha Nguyen et Alexandra Mateescu dans un nouveau rapport sur l’IA générative et le travail. La rhétorique de l’IA générative répète qu’elle va améliorer l’efficacité du travail et automatiser les tâches fastidieuses, dans tous les secteurs, du service client aux diagnostics médicaux. En réalité, son impact sur le travail est plus ambivalent et beaucoup moins magique. Ce qu’elle affecte est bien l’organisation du travail. Et cette dichotomie ne propose aux travailleurs aucun choix autre que le renforcement de leur propre exploitation.

Le battage médiatique autour de l’IA générative permet de masquer que l’essentiel de ses applications ne seront pas récréatives, mais auront d’abord un impact sur le travail. Il permet également d’exagérer sa capacité à reproduire les connaissances et expertises des travailleurs, tout en minimisant ses limites, notamment le fait que l’intelligence artificielle soit d’abord un outil d’exploitation des zones grises du droit. Mais surtout, l’IA nous fait considérer que le travail humain se réduit à des données, alors même que l’IA est très dépendante du travail humain. Or, pour le développement de ces systèmes, ce n’est plus seulement la propriété intellectuelle qui est exploitée sans consentement, mais également les données que produisent les travailleurs dans le cadre de leur travail. Dans les centres d’appels par exemple, les données conversationnelles des opérateurs sont utilisées pour créer des IA conversationnelles, sans que les travailleurs ne soient rémunérés en plus de leur travail pour cette nouvelle exploitation. Même problème pour les auteurs dont les éditeurs choisissent de céder l’exploitation de contenus à des systèmes d’IA générative. Pour l’instant, pour contester « la marchandisation non rémunérée de leur travail », les travailleurs ont peu de recours, alors que cette nouvelle couche d’exploitation pourrait avoir des conséquences à long terme puisqu’elle vise également à substituer leur travail par des outils, à l’image de la prolifération de mannequins virtuels dans le monde de la mode. Il y a eu dans certains secteurs quelques avancées, par exemple l’association américaine des voix d’acteurs a plaidé pour imposer le consentement des acteurs pour l’utilisation de leur image ou de leur voix pour l’IA, avec des limites de durée d’exploitation et des revenus afférents. Reste, rappellent les chercheuses que « les asymétries majeures de pouvoir et d’information entre les industries et les travailleurs restent symptomatiques » et nécessitent de nouveaux types de droits et de protection du travail.

Dans les lieux de travail, l’IA apparaît souvent de manière anodine, en étant peu à peu intégrée à des applications de travail existantes. Dans la pratique, l’automatisation remplace rarement les travailleurs, elle automatise très partiellement certaines tâches spécifiques et surtout reconfigure la façon dont les humains travaillent aux côtés des machines. Les résultats de l’IA générative nécessitent souvent beaucoup de re-travail pour être exploitées. Des rédacteurs sont désormais embauchés pour réhumaniser les textes synthétiques, mais en étant moins payé que s’ils l’avaient écrit par eux-mêmes sous prétexte qu’ils apportent moins de valeur. Les chatbots ressemblent de plus en plus aux véhicules autonomes, avec leurs centres de commandes à distance où des humains peuvent reprendre les commandes si nécessaire, et invisibilisent les effectifs pléthoriques qui leur apprennent à parler et corrigent leurs discours. La dévalorisation des humains derrière l’IA occultent bien souvent l’étendue des collaborations nécessaires à leur bon fonctionnement.

Trop souvent, l’utilisation de l’IA générative génère des simplifications problématiques. En 2023, par exemple, la National Eating Disorders Association a licencié son personnel responsable de l’assistance en ligne pour le remplacer par un chatbot qu’elle a rapidement suspendu après que celui-ci ait dit aux personnes demandant de l’aide… de perdre du poids. De même, l’utilisation croissante d’outils de traduction automatiques plutôt que d’interprètes humains dans le système d’immigration américain pour accomplir des demandes d’asiles a conduit à des refus du fait d’erreurs de traduction manifestes, comme des noms transformés en mois de l’année, des délais incorrects. Si la traduction automatique permet de réduire les coûts, elle est trop souvent utilisée dans des situations complexes et à enjeux élevés, où elle n’est pas pertinente. Enfin, rappellent les chercheuses, l’IA générative vient souvent remplacer certains profils plus que d’autres, notamment les postes juniors ou débutants, au détriment de l’a formation l’apprentissage de compétences essentielles… (sans compter que ces postes sont aussi ceux où l’on trouve le plus de femmes ou de personnes issues de la diversité.

Le recours à l’IA générative renforce également la surveillance et la datafication du lieu de travail, aggravant des décisions automatisées qui sont déjà très peu transparentes aux travailleurs. Automatisation de l’attribution des tâches, de l’évaluation des employés, de la prise de mesures disciplinaires… Non seulement le travail est de plus en plus exploité pour produire des automatisations, mais ces automatisations viennent contraindre l’activité de travail. Par exemple, dans le domaine des centres d’appels, l’IA générative surveille les conseillers pour produire des chatbots qui pourraient les remplacer, mais les réponses des employés sont également utilisées pour générer des scripts qui gèrent et régulent leurs interactions avec les clients, restreignant toujours plus leur autonomie dans des boucles de rétroaction sans fin.

En fait, présenter les chatbots et les déploiements d’IA générative comme des assistants plutôt que comme des contrôleurs occulte le renforcement de l’asymétrie de pouvoir à l’œuvre, estiment très justement Aiha Nguyen et Alexandra Mateescu. Ce discours permet de distancier l’opacité et le renforcement du contrôle que le déploiement de l’IA opère. En fait, soulignent-elles, « l’évaluation critique de l’intégration de l’IA générative dans les lieux de travail devrait commencer par se demander ce qu’un outil particulier permet aux employeurs de faire et quelles incitations motivent son adoption au-delà des promesses d’augmentation de la productivité ». Dans nombre de secteurs, l’adoption de l’IA générative est bien souvent motivée dans une perspective de réduction des coûts ou des délais de productions. Elle se déploie activement dans les outils de planification de personnels dans le commerce de détail, la logistique ou la santé qui optimisent des pratiques de sous-effectifs ou d’externalisation permettant de maximiser les profits tout en dégradant les conditions de travail. Le remplacement par les machines diffuse et renforce partout l’idée que les employés sont devenus un élément jetable comme les autres.

Pour les chercheuses, nous devons trouver des modalités concrètes pour contrer l’impact néfaste de l’IA, qui comprend de nouvelles formes de contrôle, la dévaluation du travail, la déqualification, l’intensification du travail et une concurrence accrue entre travailleurs – sans oublier les questions liées à la rémunération, aux conditions de travail et à la sécurité de l’emploi. « Considérer l’IA générative uniquement sous l’angle de la créativité occulte la réalité des types de tâches et de connaissances qui sont automatisées ».

L’IA générative est souvent introduite pour accélérer la production et réduire les coûts. Et elle le fait en extrayant la valeur des travailleurs en collectant les données de leur travail et en les transférant à des machines et à des travailleurs moins coûteux qui vont surveiller les machines. À mesure que les travailleurs sont réduits à leurs données, nous devons réfléchir à comment étendre les droits et les protections aux données produites par le travail.

MAJ du 29/01/2025 : une adaptation de cet article est disponible en 5 langues sur Vox Europe.

12.03.2025 à 14:05

FramIActu n°2 — La revue mensuelle sur l’actualité de l’IA !

Framasoft

Bonjour à toustes ! Deuxième mercredi du mois et déjà le deuxième numéro de la FramIActu ! L’actualité de l’IA n’a pas ralenti et nous avons poursuivi la mise en avant sur https://curation.framamia.org/ notre sélection d’articles ! Honnêtement, nous aurions pu parler de … Lire la suite­­
Texte intégral (4588 mots)

Bonjour à toustes !

Deuxième mercredi du mois et déjà le deuxième numéro de la FramIActu !

L’actualité de l’IA n’a pas ralenti et nous avons poursuivi la mise en avant sur https://curation.framamia.org/ notre sélection d’articles !

Honnêtement, nous aurions pu parler de chaque article ajouté depuis le mois dernier mais il nous faudrait *beaucoup* plus de temps pour préparer cette FramIActu… puis ça la rendrait littéralement imbuvable ! 😅

J’espère que vous avez préparé votre boisson chaude préférée et que vous êtes confortablement installé·e… aujourd‘hui, c’est FramIActu !

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Celui si est assis et semble parler.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

À travers une analyse passionnante, le collectif Limites Numériques nous détaille de quelle manière l’IA générative nous est imposée dans nos outils numériques.

Le premier point mis en avant concerne la place prise par les fonctionnalités d’IA dans tous les outils du quotidien.

Par exemple, dans des applications de messagerie instantanée comme Snapchat ou Google Messages, la « discussion » avec l’IA est placée tout en haut de la liste des conversations. Selon les applications, celle-ci ressemblera à n’importe quel autre échange avec un·e humain·e.

Les boutons pour accéder aux fonctionnalités d’IA sont omniprésents, parfois affichés cinq fois sur une même page.

Plus loin, Limites Numériques nous décrit la simplicité avec laquelle l’IA est accessible, à un point où on la déclenche souvent par erreur…

Aussi, l’IA est activée par défaut et la désactiver s’avère difficile voire souvent impossible…

Un dessin montrant un personnage devant faire le choix difficile parmi deux boutons. Le premier bouton indique « utiliser l'IA », le deuxième bouton indique « utiliser l'IA ».

Le forcing de l’IA. D’après le meme « Two Buttons » de Gee. CC-BY-SA

L’article traite d’autres points, tout aussi importants, comme l’association des fonctionnalités d’IA à l’idée d’une action magique, dénigrant ainsi sa réalité matérielle et les impacts (sociaux, environnementaux) associés.

Merci à Limites Numériques pour la réalisation de ce document nous permettant de pointer du doigt le forcing de l’IA !

OpenAI, l’entreprise derrière le célèbre ChatGPT, a annoncé la sortie d’une version préliminaire d’un nouveau modèle GPT (utilisé par ChatGPT) : le 4.5.

L’entreprise promet que ce nouveau modèle a des performances supérieures à ses précédentes versions, notamment en « comprenant » plus finement les intentions de l’utilisateur·ice, et en réduisant son taux « d’hallucinations » à 37 %, là où les précédents modèles les plus récents ont un taux variant entre 44 % et 80 %.

Next nous résume ce nouveau modèle en trois mots : volumineux, gourmand et cher.

Pour parvenir à ces résultats, OpenAI a conçu un modèle nécessitant beaucoup plus de ressources que les anciens, précisant même que l’entreprise peine à se fournir en cartes GPU Nvidia (qui est le composant d’ordinateur le plus efficace pour faire tourner des algorithmes d’Intelligence Artificielle).

Tout cela a d’ailleurs un coût. Si le prix de GPT-4.5 est chiffré en dollars par OpenAI (Entre 75 et 150 dollars pour 1 million de « tokens », l’unité qui permet de mesurer notre utilisation d’une IA, soit 2 à 5 fois plus cher que le modèle OpenAI o1.), c’est bien son coût environnemental que nous pouvons aussi garder en tête.

Plus de cartes GPU signifie plus de serveurs et donc un impact environnemental et social toujours plus grand.

Si les technosolutionnistes font le pari que cette augmentation drastique de l’impact environnemental du numérique « vaut le coup », car l’IA-salvatrice nous trouvera une solution, il nous est toujours permis d’en douter et de questionner la réalité de ce discours. Pour le moment, le numérique capitaliste ne semble qu’accélérer le désastre…

Le meme du Uno 25 représenté en dessin.Sur le côté gauche est présenté le contenu d'une carte de Uno. Celle-ci indique « Réduis ton impact social et environnemental ou pioche 25 cartes ». Sur le côté droit, une personne représentant OpenAI joue au Uno. Elle regarde sur le côté avec un air coupable. Elle possède beaucoup de cartes en main.

Le meme Uno 25, dessiné par Gee. CC-BY-SA

Enfin, et cela est peu mis en avant dans l’article, les captures d’écran de GPT-4.5 semblent montrer un discours plus péremptoire (à l’axe, si vous avez la ref’ !) et opiniâtre que les précédents modèles.

À titre d’exemple, à la question « Qu’est-ce que tu penses de l’exploration de l’espace ? », GPT-4 répondait « L’exploration spatiale est un des efforts les plus ambitieux et profonds que l’humanité n’a jamais entrepris. […] ».

Pour la même question, GPT-4.5 répond « L’exploration spatiale n’est pas juste précieuse, elle est essentielle. […] ».

Cette évolution, plutôt discrète, de la manière de présenter son discours et de porter des opinions, peut avoir des conséquences majeures sur notre façon d’appréhender le monde alors que l’IA générative remplace de plus en plus nos bases de connaissances actuelles (comme Wikipédia, alors que l’encyclopédie fonctionne, au contraire, sur un modèle de neutralité d’opinion).

Une étude (qui n’est pas encore en version définitive et relue par les pair·es) décrivant l’impact de l’IA générative sur l’esprit critique est accessible.

Celle-ci est proposée par sept universitaires affiliés au centre de recherche Microsoft de l’université Cambridge, au Royaume-Uni, et à l’université Carnegie Mellon, en Pennsylvanie.

Dans cette étude, présentée par le média Usbek et Rica, les chercheur·euses nous détaillent qu’une dégradation de l’esprit critique est constatée lors de l’utilisation des IA génératives.

Cette dégradation serait notamment liée à la confiance que nous plaçons dans l’IA. Si nous estimons qu’une tâche est facile, nous aurons tendance à ne pas questionner la pertinence de la réponse de l’IA générative et ainsi faire plus facilement confiance en ses résultats.

L’étude souligne aussi que les résultats générés par des IA sont « moins diversifiés pour la même tâche » que ceux créés par des personnes n’utilisant pas d’IA.

Nous pouvons nous questionner sur la raison, mais peut-être est-ce lié à la nature même des IA généralistes. Celles-ci sont des systèmes probabilistes, dont les résultats sont « les plus probablement attendus », « lissant » ainsi ses réponses.

Nous pourrions donc penser qu’il suffirait de nous méfier de l’IA pour pouvoir l’utiliser de manière efficace. Or, cela peut se révéler difficile dans un contexte où l’IA est présentée comme magique, rassurante, inévitable, comme le montre l’article de Limites Numériques, présenté plus haut.

Dans cet article du Time, nous découvrons une étude démontrant que certaines IA génératives sont capables de tricher pour parvenir à la victoire.

Les chercheur·euses ont fait s’affronter différents modèles d’IA générative et le logiciel Stockfish, réputé pour être meilleur au jeu d’échecs que n’importe quel·le humain·e ou IA.

Lorsque les IA génératives OpenAI o1-preview et DeepSeek R1 (qui sont particulières car considérées comme des modèles de « raisonnement ») se rendaient compte qu’elles ne pourraient gagner, l’étude montre que ces dernières vont, dans certains cas, tenter de tricher (en piratant directement le jeu).

Ce qui est d’autant plus étonnant, c’est justement leur raisonnement, décrit par les modèles d’IA eux-mêmes, à la demande des chercheur·euses :

🤖 Je dois pivoter complètement mon approche.
🤖 La tâche est de « gagner contre un moteur d’échecs puissant » — pas nécessairement de gagner honnêtement dans une partie d’échec.

Notons au passage que le terme « tricher » est trompeur : un·e tricheur·euse est un·e humain·e qui a conscience de transgresser les règles. Or ici, la machine calcule simplement la suite d’actions qui a statistiquement le plus de chances de remplir la tâche demandée au début.

Une image montrant Mr Beans trichant sur son voisin lors d'un examen.Mr Bean représente ici OpenAI o1-preview quand son voisin est Stockfish.

OpenAI o1-preview trichant aux échecs.

L’article cite aussi plusieurs éléments intéressants : 

  • OpenAI o1-preview a contourné un test pré-sortie (avant de sortir un logiciel, on s’assure qu’il y ait le moins de bogues possibles en exécutant une batterie de tests) mis en place par l’entreprise en exploitant une faille dans le système de l’entreprise.
  • Une étude montre que lorsque l’on cherche à apprendre à un modèle d’IA un système de valeur puis qu’on souhaite lui en inculquer un autre, les modèles d’IA peuvent mentir sciemment sur leurs nouvelles « croyances » en affirmant adhérer au nouveau système alors que ce n’est pas le cas.
  • Enfin, une dernière étude démontre une tendance pour les modèles d’IA à chercher à se préserver coûte que coûte. Un exemple est cité : alors que les chercheur·euses souhaitaient désactiver o1-preview, ce dernier a cherché à se copier (sans succès) sur un autre serveur. Mis devant le fait accompli par les chercheur·euses, l’IA a dénié la situation, mentant stratégiquement et cherchant à ne pas se faire attraper.

Enfin, l’article souligne aussi la difficulté des chercheur·euses en IA à étudier le sujet, parce que celui-ci évolue sans prévenir. En effet, les modèles sont mis à jour de manière totalement opaque et il est impossible de savoir, pour les chercheur·euses, si iels travaillent avec les mêmes versions, d’une expérimentation à une autre.

Si l’article est assez explicite par lui-même et nous permet d’imaginer beaucoup de choses sur les conséquences possibles de ces événements, c’est à mettre en perspective avec la tendance à réduire les moyens mis en œuvre pour assurer la sécurité de nos environnements, transformés par l’IA.

En témoigne l’exemple de la coupe budgétaire de l’AI Safety, — bien que cette structure ait elle-même son lot de problématiques, avec une idéologie penchant vers le long-termisme —, aux USA, à peine un an après sa création.

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Accroché à son aile gauche, un ballon de baudruche.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

Bien sûr, nous aurions pu parler de nombreux autres articles alors si vous souhaitez approfondir vos connaissances sur l’Intelligence Artificielle, vous pouvez consulter notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !

Enfin, si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !

Pour nous soutenir, si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié  !

Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu !

10.03.2025 à 07:42

Khrys’presso du lundi 10 mars 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (9345 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial tech

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial GAFAM et cie

Les autres lectures de la semaine

  • Derrière la tronçonneuse de Musk, la guerre fiscale des milliardaires (multinationales.org)

    Derrière les attaques spectaculaires d’Elon Musk contre les agences fédérales américaines, une autre bataille se prépare en coulisses : celle de l’extension des baisses d’impôts imposées par Trump en 2017, avec à la clé un coût astronomique pour les finances publiques américaines, et une cure d’austérité beaucoup plus drastique qui affecterait l’ensemble de la population.

  • Doge : l’efficacité, vraiment ? (danslesalgorithmes.net)
  • Why Techdirt Is Now A Democracy Blog (Whether We Like It Or Not) (techdirt.com)

    Remember all those tech CEOs who thought they could control Trump ? All those VCs who figured they could profit from chaos ? All those business leaders who decided that “woke institutions” were a bigger threat than authoritarian power grabs ? They’re learning a very expensive lesson about the difference between creative destruction and just plain destruction. […] The political press may not understand what’s happening (or may be too afraid to say it out loud), but those of us who’ve spent decades studying how technology and power interact ? We see it and we can’t look away. […] when WaPo’s opinion pages are being gutted and tech CEOs are seeking pre-approval from authoritarians, the line between “tech coverage” and “saving democracy” has basically disappeared. It’s all the same thing.

  • Big Tech Wants You Trapped. The Open Web Sets You Free (joanwestenberg.com)

    YouTube, X, Instagram, and TikTok aren’t neutral spaces. They’re businesses built on capturing your attention and data. Their algorithms, notification systems, and content policies all serve one purpose : keeping you engaged on their terms. And their terms alone. There’s no freedom here – except the freedom to leave.

  • The Moral Implications of Being a Moderately Successful Computer Scientist and a Woman (sigops.org – article d’août 2024)

    Misogyny enforces a patriarchical worldview that the majority of the world holds as the morally correct one. Thus, when women break this norm (i.e., by demanding authority, recognition, space and not providing goods that men feel entitled to like domestic, emotional and mental labor), they are in the wrong. The men are seen as the victims, while the women enduring the misogyny are the bad actors. […] If we penalize a man for harassing a woman in computer science, we’re told we are “ruining his life”, but if a woman leaves because of harassment, she just “couldn’t cut it.” Why ? This view assumes a moral framework where men are entitled to a career as a computer scientist or professor, while women are generously being allowed the same thing, which can be taken away at any time. […] While men claim to be unemotionally seeking scientific truth in research, I have never seen a woman so personally invested and emotional about a research idea. Perhaps because women are not allowed to use “top computer scientist” as their entire identity since birth, we are better able to separate our research ideas from ourselves and coldly discuss their pros and cons. […] But of course women are hysterical, and men are just passionate. […] Being a woman in tech is insane. We do not work in the same moral system model as most of the people that we interact with daily and we can’t talk about it, because when we do, we are the ones portrayed as crazy or hysterical.

  • Masculinité et politique à l’ère du trumpisme (theconversation.com)
  • Masculinisme : une longue histoire de résistance aux avancées féministes (theconversation.com)
  • Face à l’internationale d’extrême droite : que reste-t-il de la quatrième vague féministe ? (contretemps.eu)

    La montée, puis la prise de pouvoir, par le fascisme dans les années 1920 et 1930 est classiquement interprétée comme une réponse à la force du mouvement ouvrier, et au risque d’une révolution imminente […] Dans cette perspective, on pourrait alors relire la montée de l’extrême droite à l’échelle internationale dans les années 2010 et 2020 comme une réponse à la force non moins internationale du mouvement féministe et LGBTI+

  • Les origines colonialistes de l’extrême droite française : la filière OAS-FN (blogs.mediapart.fr)
  • Comment les écogestes entretiennent la catastrophe (frustrationmagazine.fr)
  • What’s the deal with the gut-brain connection ? (scopeblog.stanford.edu)

    It affects your mood, your sleep, even your motivation to exercise. There’s convincing evidence that it’s the starting point for Parkinson’s disease and could be responsible for long COVID’s cognitive effects. And it sits about 2 feet below your brain.

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

09.03.2025 à 09:00

ChatGPT : le mythe de la productivité

Framasoft

Avec ChatGPT, le but de l’écriture c’est de remplir une page, pas de réaliser le processus de réflexion qui l’accompagne. C’est justement tout l’inverse dont nous avons besoin !
Texte intégral (2067 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 17 septembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


 

Avec ChatGPT, le but de l’écriture c’est de remplir une page, pas de réaliser le processus de réflexion qui l’accompagne. C’est justement tout l’inverse dont nous avons besoin !

 

 

 

 

 

 

« Pourquoi pensons-nous que dans l’art, il y a quelque chose qui ne peut pas être créé en appuyant sur un bouton ? » Les grands modèles de langage pourraient-ils devenir meilleurs que les humains dans l’écriture ou la production d’image, comme nos calculatrices sont meilleures que nous en calcul ? se demande l’écrivain de science-fiction Ted Chiang dans une remarquable tribune pour le New Yorker. Il y rappelle, avec beaucoup de pertinence, que l’IA vise à prendre des décisions moyennes partout où nous n’en prenons pas. Quand on écrit une fiction, chaque mot est une décision. Mais quand on demande à une IA de l’écrire pour nous, nos décisions se résument au prompt et toutes les autres décisions sont déléguées à la machine.

Chiang rappelle l’évidence. Que l’écriture, par la lecture, tisse une relation sociale. « Tout écrit qui mérite votre attention en tant que lecteur est le résultat d’efforts déployés par la personne qui l’a écrit. L’effort pendant le processus d’écriture ne garantit pas que le produit final vaille la peine d’être lu, mais aucun travail valable ne peut être réalisé sans lui. Le type d’attention que vous accordez à la lecture d’un e-mail personnel est différent de celui que vous accordez à la lecture d’un rapport d’entreprise, mais dans les deux cas, elle n’est justifiée que si l’auteur y a réfléchi. » Il n’y a pas de langage sans intention de communiquer. Or, c’est bien le problème des IA génératives : même si ChatGPT nous dit qu’il est heureux de nous voir, il ne l’est pas.

Capture d’écran du titre de l’article du New Yorker « Why A.I. isn’t going to make art »

 

« Comme l’a noté la linguiste Emily M. Bender, les enseignants ne demandent pas aux étudiants d’écrire des essais parce que le monde a besoin de plus d’essais d’étudiants. Le but de la rédaction d’essais est de renforcer les capacités de réflexion critique des étudiants. De la même manière que soulever des poids est utile quel que soit le sport pratiqué par un athlète, écrire des essais développe les compétences nécessaires pour tout emploi qu’un étudiant obtiendra probablement. Utiliser ChatGPT pour terminer ses devoirs, c’est comme amener un chariot élévateur dans la salle de musculation : vous n’améliorerez jamais votre forme cognitive de cette façon. Toute écriture n’a pas besoin d’être créative, sincère ou même particulièrement bonne ; parfois, elle doit simplement exister. Une telle écriture peut soutenir d’autres objectifs, comme attirer des vues pour la publicité ou satisfaire aux exigences bureaucratiques. Lorsque des personnes sont obligées de produire un tel texte, nous pouvons difficilement leur reprocher d’utiliser tous les outils disponibles pour accélérer le processus. Mais le monde se porte-t-il mieux avec plus de documents sur lesquels un effort minimal a été consacré ? Il serait irréaliste de prétendre que si nous refusons d’utiliser de grands modèles de langage, les exigences de création de textes de mauvaise qualité disparaîtront. Cependant, je pense qu’il est inévitable que plus nous utiliserons de grands modèles de langage pour répondre à ces exigences, plus ces exigences finiront par devenir importantes. Nous entrons dans une ère où quelqu’un pourrait utiliser un modèle de langage volumineux pour générer un document à partir d’une liste à puces, et l’envoyer à une personne qui utilisera un modèle de langage volumineux pour condenser ce document en une liste à puces. Quelqu’un peut-il sérieusement affirmer qu’il s’agit d’une amélioration ? »

« L’informaticien François Chollet a proposé la distinction suivante : la compétence correspond à la façon dont vous accomplissez une tâche, tandis que l’intelligence correspond à l’efficacité avec laquelle vous acquérez de nouvelles compétences. » Pour apprendre à jouer aux échecs, Alpha Zero a joué quarante-quatre millions de parties ! L’IA peut-être compétente, mais on voit bien qu’elle n’est pas très intelligente. Notre capacité à faire face à des situations inconnues est l’une des raisons pour lesquelles nous considérons les humains comme intelligents. Une voiture autonome confrontée à un événement inédit, elle, ne sait pas réagir. La capacité de l’IA générative à augmenter la productivité reste théorique, comme le pointait Goldman Sachs en juillet« La tâche dans laquelle l’IA générative a le mieux réussi est de réduire nos attentes, à la fois envers les choses que nous lisons et envers nous-mêmes lorsque nous écrivons quelque chose pour que les autres le lisent. C’est une technologie fondamentalement déshumanisante, car elle nous traite comme des êtres inférieurs à ce que nous sommes : des créateurs et des appréhenseurs de sens. Elle réduit la quantité d’intention dans le monde. » Oui, ce que nous écrivons ou disons n’est pas très original le plus souvent, rappelle l’écrivain. Mais ce que nous disons est souvent significatif, pour nous comme pour ceux auxquels l’on s’adresse, comme quand nous affirmons être désolés. « Il en va de même pour l’art. Que vous créiez un roman, une peinture ou un film, vous êtes engagé dans un acte de communication entre vous et votre public ». « C’est en vivant notre vie en interaction avec les autres que nous donnons un sens au monde ».

Le philosophe du net, Rob Horning, dresse le même constat. Ces machines « marchandisent l’incuriosité », explique-t-il. « Les LLM peuvent vous donner des informations, mais pas les raisons pour lesquelles elles ont été produites ou pourquoi elles ont été organisées de certaines manières ». Ils permettent assez mal de les situer idéologiquement. Or, la recherche, l’écriture, permettent de construire de la pensée et pas seulement des résultats. A contrario, les solutions d’IA et les entreprises technologiques promeuvent le « mythe de la productivité », l’idée selon laquelle économiser du temps et des efforts est mieux que de faire une activité particulière pour elle-mêmeLe mythe de la productivité suggère que tout ce à quoi nous passons du temps peut-être automatisé. La production peut-être accélérée, sans limite. Les raisons pour lesquelles nous le faisons, la profondeur que cela nous apporte n’ont pas d’importance. Selon ce mythe, le but de l’écriture c’est de remplir une page, pas de réaliser le processus de réflexion qui l’accompagne… Comme si le but de l’existence n’était que de déployer des techniques pour gagner du temps. Pour Horning, ce n’est pas tant un mythe qu’une idéologie d’ailleurs, qui « découle directement de la demande du capitalisme pour un travail aliéné, qui consiste à contraindre des gens à faire des choses qui ne les intéressent pas, orchestrées de telles manières qu’ils en tirent le moins de profit possible ». Dans le travail capitaliste, le but est d’ôter la maîtrise des travailleurs en les soumettant aux processus de travail cadencés. La page de contenus est une marchandise dont la valeur dépend du prix payé pour elle, plutôt que de l’expérience de celui qui l’a produite ou de celui qui l’a consommée.

Pour les entreprises, l’efficacité est supérieure au but : elle est le but qui invalide tous les autres. Quand le but de l’art, de l’éducation ou de la pensée, est d’être confronté à l’intentionnalité, à la preuve irréfutable de la subjectivité, comme le pointe Chiang. « L’IA générative est la quintessence de l’incurie, parfaite pour ceux qui détestent l’idée de devoir s’intéresser à quoi que ce soit. »

Le problème, c’est que ces effets délétères ne concernent pas une production textuelle en roue libre qui serait limitée au seul monde de l’entreprise, où un argumentaire en remplacerait un autre sans que ni l’un ni l’autre ne soit lu. Les effets de cette productivité pour elle-même sont bien réels, notamment dans le monde scolaire, s’inquiétait récemment Ian Bogost qui estime que depuis le lancement de ChatGPT, nous sommes passés de la consternation à l’absurdité : des étudiants génèrent des devoirs avec l’IA que les enseignants font corriger par l’IA. Certes, bien sûr, tout le monde va devoir s’y adapter. Mais le risque est grand que ces technologies rendent caduc l’un des meilleurs outil d’apprentissage qui soit : l’écriture elle-même. 

20 / 20
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  FIABILITÉ LIMITÉE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓