URL du flux RSS

ACCÈS LIBRE

▸ les 20 dernières parutions

14.05.2025 à 10:02

FramIActu n°4 — La revue mensuelle sur l’actualité de l’IA

Framasoft
Semaine après semaine, l'actualité autour de l'Intelligence Artificielle défile, et si pour autant nous ne voyons pas plus clairement le cap que nous devons suivre, nous percevons de mieux en mieux les remous qui nous entourent. Préparez votre boisson préférée et installez-vous confortablement : c'est l'heure de la FramIActu !
Texte intégral (2975 mots)

Bienvenue à toutes et tous pour ce quatrième numéro de la FramIActu !

Semaine après semaine, l’actualité autour de l’Intelligence Artificielle défile, et si pour autant nous ne voyons pas plus clairement le cap que nous devons suivre, nous percevons de mieux en mieux les remous qui nous entourent.

Préparez votre boisson préférée et installez-vous confortablement : c’est l’heure de la FramIActu !

 

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Celui si est assis et semble parler.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

Une dépendance trop forte aux modélisations par IA est mauvaise pour la science

Dans un article paru le 07 avril 2025 dans Nature (accès payant, malheureusement), des chercheureuses démontrent que la dépendance excessive aux modélisations par IA nuit à la recherche scientifique.
Dans cette étude, nous apprenons que de nombreux champs de recherche (au moins une trentaine sont concernés, allant de la psychiatrie à la biologie moléculaire) sont affectés par des études basées sur des modélisations faites par IA dont les résultats sont erronés.

À titre d’exemple, les chercheureuses indiquent que durant la pandémie du COVID-19, 415 études ont avancé qu’une radiographie de la poitrine ou une tomodensitométrie pourraient diagnostiquer la maladie. Or, seulement 62 de ces études respectaient un standard de qualité suffisant et même parmi celles-ci, des défauts étaient très répandus, incluant des méthodes d’évaluation bancales, des données dupliquées et un manque de clarté concernant les cas « positifs », certaines études ne précisant pas si ces cas provenaient bien de personnes ayant un diagnostic médical confirmé.

Les auteurices de l’étude se plaignent aussi de la difficulté à reproduire les résultats des études (la reproductibilité étant une condition essentielle à la méthode scientifique) utilisant des IA basées sur de grands modèles de langage. Ces modèles sont très sensibles aux entrées : de tous petits changements de formulations lors de la requête peut générer une réponse très différente.
De plus, les modèles appartenant le plus souvent à des compagnies privées, il est très difficile de pouvoir y accéder rendant des études basées sur ceux-ci difficiles à reproduire.
D’autant plus que des mises à jour des modèles surviennent régulièrement, sans que les chercheureuses n’aient été notifié·es.

Mème. À gauche, une carte Uno avec marqué « Fais des études reproductibles ou pioche 25 cartes ». À droite, un personnage tagué « Le monde de la recherche » a pioché 25 cartes.

Le monde de recherche et l’IA. Mème généré via Framamèmes. Licence : CC0

Les chercheureuses appuient donc sur la nécessité d’être vigilant·es concernant l’augmentation de recherches scientifiques liées au boom de l’IA. Même si celles-ci étaient sans erreur, elles ne sont pas forcément synonymes de réelles avancées scientifiques.
Bien que certaines modélisations trouvées par des recherches basées sur de l’IA peuvent être utiles, en tirer une conclusion scientifique permettant de mieux comprendre le réel est bien plus difficile et les chercheureuses invitent leurs collègues à ne pas se tromper.
Les boites à outils composées d’IA basées sur de l’apprentissage machine permettent de construire plus facilement des modélisations mais ne rendent pas nécessairement plus faciles l’extraction des savoirs sur le monde et peuvent même rendre celle-ci plus difficile.
Le risque est donc de produire plus mais de comprendre moins.

Les auteurices invitent en conclusion à séparer la production de résultats individuels du progrès scientifique. Pour cela, celleux-ci indiquent qu’il est nécessaire de rédiger des synthèses avec un discours moins systématique et plus critique qui questionne les méthodes acceptées, adopte différentes formes de preuves, se confronte à des affirmations supposément incompatibles et théorise les découvertes existantes.
Aussi, une prudence bien plus forte doit être apportée aux recherches basées sur des modèles d’IA, jusqu’à ce que les résultats de celles-ci puissent être rigoureusement reproduits.
Enfin, les chercheureuses encouragent les financeurs à financer des recherches de qualité plutôt que de se focaliser sur la quantité.

L’IA rate les diagnostics médicaux de femmes et personnes noires.

Dans une étude parue dans Science Advances, un groupe de chercheureuses dévoile (sans grande surprise, avouons-le) qu’un des modèles d’IA les plus utilisés pour faire de la radiologie des poitrines à la recherche de maladies ne détecte pas correctement certain·es maladies potentiellement mortelles pour les groupes marginalisés (dont les femmes et les personnes noires).

Judy Gichoya, une informaticienne et radiologiste qui n’est pas impliquée dans l’étude, appuie sur la difficulté de réduire ces biais. Elle propose de s’appuyer sur des jeux de données plus petits mais plus diversifiés et de résoudre leurs défauts petit à petit.

L’étude s’inscrit dans un contexte où l’utilisation dans des contextes médicaux s’accélère et appuie ainsi sur la nécessité de toujours garder un regard humain sur les diagnostics et de ne jamais faire aveuglément confiance en les résultats fournis par une IA.

L'IA qui rend son diagnostique.Généré avec Framamemes. CC-0

L’IA rend son diagnostic.
Généré avec Framamemes. Licence : CC-0

De notre point de vue, la grande difficulté de la résolution des biais dans l’IA est liée à une volonté politique et financière : si ce genre de méthode se généralise, il faudrait très certainement investir massivement dans la numérisation des réalités des minorités et faire un immense travail de fond pour en éliminer le maximum de biais.
Cela semble malheureusement aller à contre-courant de la tendance actuelle.

 

Des expert·es en sécurité informatique dévoilent comment l’IA « malveillante » impacte le domaine

Lors de la conférence RSA, dédiée à la sécurité informatique, des expert·es du domaine ont dévoilé la puissance d’outils comme WormGPT pour découvrir des failles de sécurité et concevoir des attaques les exploitant.

WormGPT est un agent conversationnel ressemblant à ChatGPT mais n’ayant pas de modération. Celui-ci est aussi taillé pour la cybersécurité. On peut donc lui demander de fournir des réponses à tout, même à des choses illégales et/ou dangereuses.

Dans leur présentation, les informaticien·nes décrivent l’outil et ses capacités.
Celui-ci leur a permis de trouver rapidement des failles de sécurité dans un logiciel open source connu, mais aussi d’en générer des instructions claires permettant d’exploiter ces failles.

Les expert·es ont aussi cherché à faire générer directement le code par l’IA mais celui-ci n’était pas fonctionnel.
Ce dernier point sera très certainement amélioré au fil des prochains mois.

L’automatisation de l’analyse de failles informatiques a ainsi fait un bond conséquent en avant tout comme les capacités à les exploiter. Si des groupes de pirates se mettent à automatiser le processus, l’ensemble des systèmes informatiques risquent fort d’en pâtir.

D’un autre côté, si nous pouvons découvrir automatiquement des failles de sécurité dans nos logiciels, nous pouvons aussi chercher à les corriger avant qu’un·e attaquant·e ne les exploite.
L’utilisation de l’IA dans l’infrastructure entourant un logiciel semble donc presque inévitable de ce point de vue.

Enfin, nous pourrons aussi questionner ce que cela implique pour les développeur·euses modestes, notamment celleux partageant le code source de leur logiciel. Est-ce que la situation va ajouter encore plus de poids sur leurs épaules, leur demandant d’alourdir leur charge de travail (souvent bénévole) en mettant en place une infrastructure analysant les failles de sécurité et leur demandant de les résoudre au plus vite pour protéger leurs utilisateurices ?

L'image montre des briques reposant les unes sur les autres. L'ensemble de ces briques est taguée "All modern digital infrastructure". Une brique, sur laquelle repose tout l'équilibre de l'ensemble, est taguée "A project some random person in Nebraska has been Thanklessly maintaining since 2005".

Dependency – xkcd.
Licence : CC-BY-NC 2.5
Le célèbre xkcd représentant l’infrastructure du numérique moderne reposant entièrement sur une seule personne.

ChatGPT induit des psychoses à certain·es utilisateurices via ses réponses.

Dans un article de Rolling Stone, nous apprenons que des utilisateurices du média social Reddit décrivent comment l’IA a poussé leurs proches à adopter des délires, souvent basés sur des folies spirituelles ou des fantasmes surnaturels.

ChatGPT semble renforcer des psychoses chez certaines personnes, le plus souvent celles ayant déjà des tendances.
Interviewée par Rolling Stone, Erin Westgate, chercheuse en cognition, indique que certaines personnes utilisent ChatGPT comme « thérapie miroir ». Sauf que ChatGPT n’a pas pour préoccupation les intérêts de ces personnes.
Elle indique que des personnes utilisent ChatGPT pour trouver un sens à leur vie et ChatGPT leur recrache n’importe quelle explication trouvée un peu partout sur internet.

 

« Les explications sont puissantes, même si elles sont fausses » – Erin Westgate

Rappelons donc encore une fois que toute Intelligence Artificielle n’a aucune compréhension du réel et est surtout un système probabiliste. Une IA ne donnera jamais une réponse qu’elle considère être « vraie », c’est une notion inconnue pour elle. Elle donnera toujours une réponse qu’elle considère être « la plus probable » au regard de la manière dont elle a été entraînée et de l’historique de ses interactions avec l’utilisateur·ice.

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Accroché à son aile gauche, un ballon de baudruche.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

C’est tout pour ce mois-ci !

 

Cependant, si vous avez trouvé cette FramIActu trop courte et que vous êtes resté·e sur votre faim, vous pouvez vous mettre d’autres actualités sous la dent en consultant notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !

Si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !
Pour nous soutenir et si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié  !

Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu ! 👋

12.05.2025 à 07:42

Khrys’presso du lundi 12 mai 2025

Khrys
Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (9132 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial nouveau pape

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

  • Operator, I need an exit. (transworldexpress.org)

    This is an information resource mainly written for trans US citizens considering emigrating to another country, although we hope it is useful beyond that.

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

11.05.2025 à 09:00

Vivre dans l’utopie algorithmique

Framasoft
L’utopie algorithmique des puissants est la dystopie algorithmique des démunis.
Texte intégral (1629 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 03 février 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


L’utopie algorithmique des puissants est la dystopie algorithmique des démunis.

 

 

 

 

 

 

 

Dans un article de recherche de 2021, intitulé « Vivre dans leur utopie : pourquoi les systèmes algorithmiques créent des résultats absurdes », l’anthropologue et data scientist américain, Ali Alkhatib pointait le décalage existant entre la promesse technicienne et sa réalité, qui est que ces systèmes déploient bien plus de mauvaises décisions que de bonnes. La grande difficulté des populations  à s’opposer à des modèles informatiques défectueux condamne même les systèmes bien intentionnés, car les modèles défaillants sèment le doute partout autour d’eux. Pour lui, les systèmes algorithmiques tiennent d’une bureaucratisation pour elle-même et promeuvent un Etat administratif automatisé, autorisé à menacer et accabler ses populations pour assurer sa propre optimisation.

La raison de ces constructions algorithmiques pour trier et gérer les populations s’expliquent par le fait que la modernité produit des versions abrégées du monde qui ne sont pas conformes à sa diversité, à l’image des ingénieurs du XVIIIᵉ siècle, raconté par l’anthropologue James C. Scott dans L’Oeil de l’Etat, qui, en voulant optimiser la forêt pour son exploitation, l’ont rendue malade. Nos modèles sont du même ordre, ils produisent des versions du monde qui n’y sont pas conformes et qui peuvent être extrêmement nuisibles. « Les cartes abrégées conceptuelles que les forestiers ont créées et utilisées sont des artefacts qui résument le monde, mais elles transforment également le monde ». Nous sommes cernés par la croyance que la science et la technologie vont nous permettre de gérer et transformer la société pour la perfectionner. Ce qui, comme le dit Scott, a plusieurs conséquences : d’abord, cela produit une réorganisation administrative transformationnelle. Ensuite, cette réorganisation a tendance à s’imposer d’une manière autoritaire, sans égards pour la vie – les gens qui n’entrent pas dans les systèmes ne sont pas considérés. Et, pour imposer son réductionnisme, cette réorganisation nécessite d’affaiblir la société civile et la contestation.

La réorganisation administrative et informatique de nos vies et les dommages que ces réorganisations causent sont déjà visibles. L’organisation algorithmique du monde déclasse déjà ceux qui sont dans les marges du modèle, loin de la moyenne et d’autant plus éloignés que les données ne les ont jamais représentés correctement. C’est ce que l’on constate avec les discriminations que les systèmes renforcent. « Le système impose son modèle au monde, jugeant et punissant les personnes qui ne correspondent pas au modèle que l’algorithme a produit dans l’intérêt d’un objectif apparemment objectif que les concepteurs insistent pour dire qu’il est meilleur que les décisions que les humains prennent de certaines ou de plusieurs manières ; c’est la deuxième qualité. Leur mépris pour la dignité et la vie des gens – ou plutôt, leur incapacité à conceptualiser ces idées en premier lieu – les rend finalement aussi disposés que n’importe quel système à subjuguer et à nuire aux gens ; c’est la troisième qualité. Enfin, nos pratiques dans la façon dont les éthiciens et autres universitaires parlent de l’éthique et de l’IA, sapant et contrôlant le discours jusqu’à ce que le public accepte un engagement rigoureux avec « l’algorithme » qui serait quelque chose que seuls les philosophes et les informaticiens peuvent faire, agit comme une dépossession du public ; c’est la quatrième et dernière qualité. »

Comme les forestiers du XVIIIᵉ, les informaticiens imposent leur utopie algorithmique sur le monde, sans voir qu’elle est d’abord un réductionnisme. Le monde réduit à des données, par nature partiales, renforce sa puissance au détriment des personnes les plus à la marge de ces données et calculs. Les modélisations finissent par se détacher de plus en plus de la réalité et sont de plus en plus nuisibles aux personnes exclues. Ali Alkhatib évoque par exemple un système d’admission automatisé mis en place à l’université d’Austin entre 2013 et 2018, « Grade », abandonné car, comme tant d’autres, il avait désavantagé les femmes et les personnes de couleur. Ce système, conçu pour diminuer le travail des commissions d’admission ne tenait aucun compte de l’origine ou du genre des candidats, mais en faisant cela, valorisait de fait les candidats blancs et masculins. Enfin, le système n’offrait ni voie de recours ni même moyens pour que les candidats aient leur mot à dire sur la façon dont le système les évaluait.

L’IA construit des modèles du monde qui nous contraignent à nous y adapter, explique Ali Alkhatib. Mais surtout, elle réduit le pouvoir de certains et d’abord de ceux qu’elle calcule le plus mal. En cherchant à créer un « monde plus rationnel », les algorithmes d’apprentissage automatique créent les « façons d’organiser la stupidité » que dénonçait David Graeber dans Bureaucratie (voir notre lecture) et ces modèles sont ensuite projetés sur nos expériences réelles, niant celles qui ne s’inscrivent pas dans cette réduction. Si les IA causent du tort, c’est parce que les concepteurs de ces systèmes leur permettent de créer leurs propres mondes pour mieux transformer le réel. « Les IA causent du tort, parce qu’elles nous exhortent à vivre dans leur utopie ». Lorsque les concepteurs de systèmes entraînent leurs modèles informatiques en ignorant l’identité transgenre par exemple, ils exigent que ces personnes se débarrassent de leur identité, ce qu’elles ne peuvent pas faire, comme le montrait Sasha Constanza-Chock dans son livre, Design Justice, en évoquant les blocages qu’elle rencontrait dans les aéroports. Même chose quand les systèmes de reconnaissance faciales ont plus de mal avec certaines couleurs de peau qui conduisent à renforcer les difficultés que rencontrent déjà ces populations. Pour Ali Alkhatib, l’homogénéisation que produit la monoculture de l’IA en contraignant, en effaçant et en opprimant ceux qui ne correspondent pas déjà au modèle existant, se renforce partout où l’IA exerce un pouvoir autoritaire, et ces préjudices s’abattent systématiquement et inévitablement sur les groupes qui ont très peu de pouvoir pour résister, corriger ou s’échapper des calculs. D’autant qu’en imposant leur réduction, ces systèmes ont tous tendance à limiter les contestations possibles.

En refermant les possibilités de contestation de ceux qui n’entrent pas dans les cases du calcul, l’utopie algorithmique des puissants devient la dystopie algorithmique des démunis.

05.05.2025 à 07:42

Khrys’presso du lundi 5 mai 2025

Khrys
Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (10975 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

  • Women’s safety and empowerment is an empty rhetoric in India. (reporters-collective.in)

    While brutal crimes spark public outrage and political blame games, the daily violence faced by women goes unnoticed. The safety mechanisms and government schemes meant to protect them are equally overlooked.

  • In Sri Lanka, ‘the Ocean Is For Everyone’ (reasonstobecheerful.world)

    For years, fear and social norms kept many women in one of Asia’s top surfing destinations away from the water. Then they started riding the waves.

  • Women Plumbers in Jordan Are Breaking Taboos (reasonstobecheerful.world)

    For hundreds of women, this unconventional career in a male-dominated field has provided life-changing confidence and independence.

  • En RDC, le viol comme arme de guerre (revueladeferlante.fr)

    Les crimes sexuels, des entraves à l’avortement, des exactions contre des fémi­nistes : trois acti­vistes congo­laises analysent les violences de genre à l’œuvre dans le conflit en République démo­cra­tique du Congo.

  • Au Maghreb la révolte des mots (revueladeferlante.fr)

    Arabe classique, arabe populaire, berbère, français, anglais irriguent les parlers au Maroc, en Algérie et en Tunisie. Le langage est au cœur des réflexions d’une nouvelle géné­ra­tion de fémi­nistes et de queers qui veulent réha­bi­li­ter les variantes popu­laires pour libérer la parole.

  • En Pologne, Mathilde Panot et Manon Aubry ont remis des pilules abortives à une association pro-IVG (huffingtonpost.fr)

    En Pologne, la loi n’interdit pas aux femmes de pratiquer leur propre avortement avec des pilules commandées en ligne. Une brèche utilisée par LFI lors d’un voyage sur place.

  • “We’re Going to Do Whatever It Takes to Keep Her Safe” (motherjones.com)

    How families are fighting to survive Trump’s war on transgender kids.

  • Robert De Niro soutient sa fille Airyn après son coming out trans (huffingtonpost.fr)

    Très virulent contre Donald Trump et sa politique anti-inclusion, l’acteur américain de 81 ans n’a pas hésité à s’exprimer publiquement sur sa vie privée.[…]« J’ai aimé et soutenu Aaron comme mon fils, et maintenant j’aime et soutiens Airyn comme ma fille », avant d’affirmer « aimer tous ses enfants », au nombre de sept.« Je ne vois pas où est le problème », a-t-il ajouté

RIP

Spécial France

Spécial femmes en France

  • Adélaïde Hautval : bientôt une nouvelle femme au Panthéon ? (lesnouvellesnews.fr)

    Adélaïde Hautval sera-t-elle la prochaine femme à faire son entrée au Panthéon ? Cette psychiatre fut déportée pour avoir protégé des Juifs pendant la Deuxième Guerre mondiale. Elle serait la septième femme à être panthéonisée.

  • “C’est du vandalisme à portée politique” : portraits de femmes piétinés, symboles phalliques tagués, l’artiste affligée par la destruction de son exposition (france3-regions.francetvinfo.fr)

    Samedi 26 avril, une exposition féministe baptisée “Benzine Cyprine” a été vandalisée dans une galerie d’art à Nîmes. L’artiste toulousaine Kamille Lévêque Jégo qui a vu ses œuvres détruites se dit écœurée par de tels actes.

  • Écriture inclusive, “wokisme”… L’école Kourtrajmé dans le viseur de la région (lesinrocks.com)

    L’école de cinéma Kourtrajmé, située à Marseille, a appris ce jeudi 24 avril qu’elle ne percevrait la subvention bisannuelle de la région Provence-Alpes-Côte d’Azur (PACA) – présidée par Renaud Muselier (Renaissance) – qu’à la condition de renoncer à l’usage de l’écriture inclusive dans ses communications.

  • Gérard Depardieu, en tournage pour un film de Fanny Ardant, va faire son retour au cinéma (huffingtonpost.fr)
  • « Dans la Drôme, la santé des femmes sacrifiée » (revueladeferlante.fr)

    Le dépar­te­ment de la Drôme a voté le 14 avril 2025 la fermeture de sept centres de santé sexuelle ainsi qu’une baisse de 20 % des sub­ven­tions versées au Planning familial. De quoi creuser encore les inéga­li­tés d’accès aux soins de proximité dans ce dépar­te­ment rural du sud de la France.

  • MeToo de la marine : les violences sexistes en mer enfin jugées au pénal (basta.media)

    Trois anciens salariés d’une compagnie maritime du Finistère comparaissaient du 22 au 24 avril pour des faits de harcèlement sexuel, agressions sexuelles, et harcèlement moral à bord de navires. Le premier MeToo de la marine.

  • Méfiez-vous (aussi) des hommes parfaits : réflexion sur les stratégies des agresseurs (theconversation.com)

    Si Dominique Pelicot préparait les repas et les apportait au lit à son épouse, ce n’était nullement par souci d’équité domestique ni par sollicitude, mais uniquement parce que cela lui permettait de la sédater à son insu […] De même, l’accompagner systématiquement chez le médecin n’était pas une marque d’attention, mais visait à empêcher le corps médical de poser les questions qui auraient pu mener Gisèle Pelicot à s’interroger sur ce qu’elle ingérait – stratégie qui s’est avérée payante. Il l’accompagnait jusque dans le cabinet du gynécologue […] Pas plus qu’ils ne sont paradoxaux, ces procédés ne sont hors norme. Nombre de ses co-accusés ont également été dépeints comme des conjoints et pères « normaux » ou « idéaux ». […] Faire perdre toute agentivité à la conjointe est une stratégie classique du compagnon violent. La faire passer pour folle, ou sénile, en est une autre. Si elle s’était souvenu de quoi que ce soit, qui aurait cru une femme qui perd la tête ? […] Lors de la vague féministe Ni Una Menos (« Pas une de moins ») en Amérique latine, un homme avait fait le buzz en défilant torse nu lors d’une manifestation à Santiago, au Chili, avec une pancarte « Je suis à moitié nu entouré du sexe opposé… Je me sens protégé, pas intimidé. Je veux la même chose pour elles ». Les posts de son ex-compagne le dénonçant pour violences conjugales et paternelles avaient fait nettement moins de bruit.

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial soutenir

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

04.05.2025 à 09:00

Vers un internet plein de vide ?

Framasoft
Des contenus générés par IA qui ânonnent des textes qui ne veulent rien dire. Des images stylisées qui nous déconnectent de la réalité. L’internet zombie colonise l’internet, par un remplissage par le vide qui n’a pas d’autre enjeu que de nous désorienter.
Texte intégral (4992 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 13 janvier 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Des contenus générés par IA qui ânonnent des textes qui ne veulent rien dire. Des images stylisées qui nous déconnectent de la réalité. L’internet zombie colonise l’internet, par un remplissage par le vide qui n’a pas d’autre enjeu que de nous désorienter.

 

 

 

 

 

 

Sur la plupart des réseaux sociaux vous avez déjà dû tomber sur ces contenus génératifs, pas nécessairement des choses très évoluées, mais des contenus étranges, qui n’ont rien à dire, qui hésitent entre développement personnel creux, blague ratée ou contenu sexy. Des vidéos qui ânonnent des textes qui ne veulent rien dire. Les spécialistes parlent de slop, de contenus de remplissages, de résidus qui peu à peu envahissent les plateformes dans l’espoir de générer des revenus. A l’image des contenus philosophiques générés par l’IA que décortique en vidéo Monsieur Phi.

IA slop : de la publicité générative à l’internet zombie

Pour l’instant, ces contenus semblent anecdotiques, peu vus et peu visibles, hormis quand l’un d’entre eux perce quelque part, et en entraîne d’autres dans son flux de recommandation, selon la logique autophagique des systèmes de recommandation. Pour l’analyste Ben Thompson, l’IA générative est un parfait moteur pour produire de la publicité – et ces slops sont-ils autre chose que des contenus à la recherche de revenus ? Comme le dit le philosophe Rob Horning : « le rêve de longue date d’une quantité infinie de publicités inondant le monde n’a jamais semblé aussi proche ». Pour Jason Koebler de 404 Mediaqui a enquêté toute l’année sur l’origine de ce spam IA, celui-ci est profondément relié au modèle économique des réseaux sociaux qui rémunèrent selon l’audience que les créateurs réalisent, ce qui motive d’innombrables utilisateurs à chercher à en tirer profit. Koebler parle d’ailleurs d’internet zombie pour qualifier autant cette génération de contenu automatisée que les engagements tout aussi automatisés qu’elle génère. Désormais, ce ne sont d’ailleurs plus les contenus qui sont colonisés par ce spam, que les influenceurs eux-mêmes, notamment par le biais de mannequins en maillots de bains générés par l’IA. À terme, s’inquiète Koebler, les médias sociaux pourraient ne plus rien avoir de sociaux et devenir des espaces « où le contenu généré par l’IA éclipse celui des humains », d’autant que la visibilité de ces comptes se fait au détriment de ceux pilotés par des humains. Des sortes de régies publicitaires sous stéroïdes. Comme l’explique une créatrice de contenus adultes dont l’audience a chuté depuis l’explosion des mannequins artificiels : « je suis en concurrence avec quelque chose qui n’est pas naturel ».

Ces contenus qui sont en train de coloniser les réseaux sociaux n’ont pas l’air d’inquiéter les barons de la tech, pointait très récemment Koebler en rapportant les propose de Mark Zuckerberg. D’autant que ces contenus génératifs semblent produire ce qu’on attend d’eux. Meta a annoncé une augmentation de 8 % du temps passé sur Facebook et de 6 % du temps passé sur Instagram grâce aux contenus génératifs. 15 millions de publicités par mois sur les plateformes Meta utilisent déjà l’IA générative. Et Meta prévoit des outils pour démultiplier les utilisateurs synthétiques. Le slop a également envahi la plateforme de blogs Medium, explique Wired, mais ces contenus pour l’instant demeurent assez invisibles, notamment parce que la plateforme parvient à limiter leur portée. Un endiguement qui pourrait ne pas résister au temps. À terme, les contenus produits par les humains pourraient devenir de plus en plus difficiles à trouver sur des plateformes submergées par l’IA.

On voudrait croire que les réseaux sociaux puissent finir par s’effondrer du désintérêt que ces contenus démultiplient. Il semble que ce soit l’inverse, l’internet zombie est en plein boom. Tant et si bien qu’on peut se demander, un an après le constat de l’effondrement de l’information, si nous ne sommes pas en train de voir apparaître l’effondrement de tout le reste ?

Les enjeux du remplissage par le vide

Dans sa newsletter personnelle, le chercheur et artiste Eryk Salvaggio revient à son tour sur le remplissage par l’IA, dans trois longs billets en tout point passionnants. Il souligne d’abord que ce remplissage sait parfaitement s’adapter aux algorithmes des médias sociaux. Sur Linked-in, les contenus rédigés par des LLM seraient déjà majoritaires. Même le moteur de recherche de Google valorise déjà les images et les textes générés par IA. Pour Salvaggio, avec l’IA générative toute information devient du bruit. Mais surtout, en se jouant parfaitement des filtres algorithmiques, celle-ci se révèle parfaitement efficace pour nous submerger.

Une image générée par IA.Elle représente Jésus, blanc, semblable à une statue, sous l'eau. Il est entouré de dizaines de crevettes.

Jesus Schrimp, image symbolique des eaux troubles de l’IA produisant son propre vide.

 

Salvaggio propose d’abandonner l’idée de définir l’IA comme une technologie. Elle est devenue un projet idéologique, c’est-à-dire que « c’est une façon d’imaginer le monde qui devient un raccourci pour expliquer le monde ». Et elle est d’autant plus idéologique selon les endroits où elle se déploie, notamment quand c’est pour gérer des questions sociales ou culturelles. « L’optimisation de la capacité d’un système à affirmer son autorité est une promesse utopique brillante des technologies d’automatisation ». « L’un des aspects de l’IA en tant qu’idéologie est donc la stérilisation scientifique de la variété et de l’imprévisibilité au nom de comportements fiables et prévisibles. L’IA, pour cette raison, offre peu et nuit beaucoup au dynamisme des systèmes socioculturels ». Les gens participent à l’idéologie de l’IA en évangélisant ses produits, en diffusant ses résultats et en soutenant ses avancées pour s’identifier au groupe dominant qui l’a produit.

La production par l’IA de contenus de remplissage nécessite de se demander à qui profite ce remplissage abscons ? Pour Salvaggio, le remplissage est un symptôme qui émerge de l’infrastructure même de l’IA qui est elle-même le résultat de l’idéologie de l’IA. Pourquoi les médias algorithmiques récompensent-ils la circulation de ces contenus ? Des productions sensibles, virales, qui jouent de l’émotion sans égard pour la vérité. Les productions de remplissage permettent de produire un monde tel qu’il est imaginé. Elles permettent de contourner tout désir de comprendre le monde, car elle nous offre la satisfaction immédiate d’avoir un « sentiment sur le monde ». « L’AI Slop est un signal vide et consommé passivement, un symptôme de « l’ère du bruit », dans lequel il y a tellement de « vérité » provenant de tant de positions que l’évaluation de la réalité semble sans espoir. »

Notre désorientation par le vide

Eryk Salvaggio se demande même si le but de l’IA n’est pas justement de produire ce remplissage. Un remplissage « équipé », « armé », qui permet d’essaimer quelque chose qui le dépasse, comme quand l’IA est utilisée pour inonder les réseaux de contenus sexuels pour mieux essaimer le regard masculin. Les productions de l’IA permettent de produire une perspective, un « regard en essaim » qui permet de manipuler les symboles, de les détourner« Les images générées par l’IA offrent le pouvoir de façonner le sens dans un monde où les gens craignent l’impuissance et l’absence de sens en les invitant à rendre les autres aussi impuissants et dénués de sens qu’eux ». Ces images « diminuent la valeur de la réalité », suggère brillamment Salvaggio. Elles créent « une esthétisation », c’est-à-dire rend la représentation conforme à un idéal. La fonction politique de ce remplissage va bien au-delà des seules représentations et des symboles, suggère-t-il encore. L’IA appliquée aux services gouvernementaux, comme les services sociaux, les transforme à leur tour « en exercice esthétique ». Notre éligibilité à une assurance maladie ou à une couverture sociale n’est pas différente de l’IA Slop. C’est cette même infrastructure vide de sens qui est pointée du doigt par ceux qui s’opposent à l’algorithmisation de l’Etat que ceux qui fuient les boucles de rétroactions délétères des médias sociaux.

Le projet DOGE d’Elon Musk, ce département de l’efficacité gouvernementale qui devrait proposer un tableau de bord permettant aux internautes de voter pour éliminer les dépenses publiques les plus inutiles, semble lui-même une forme de fusion de médias sociaux, d’idéologie de l’IA et de pouvoir pour exploiter le regard en essaim de la population et le diriger pour harceler les fonctionnaires, réduire l’État providence autour d’une acception de l’efficacité ultra-réductrice. Au final, cela produit une forme de politique qui traite le gouvernement comme une interface de médias sociaux, conçue pour amplifier l’indignation, intimider ceux qui ne sont pas d’accord et rendre tout dialogue constructif impossible. Bienvenue à la « momusocratie » , le gouvernement des trolls, de la raillerie, explique Salvaggio, cette Tyrannie des bouffons chère à l’essayiste Christian Salmon.

Mais encore, défend Salvaggio, le déversement de contenus produit par l’IA générative promet un épuisement du public par une pollution informationnelle sans précédent, permettant de perturber les canaux d’organisation, de réflexion et de connexion. « Contrôlez le filtre permet de l’orienter dans le sens que vous voulez ». Mais plus que lui donner un sens, la pollution de l’information permet de la saturer pour mieux désorienter tout le monde. Cette saturation est un excellent moyen de garantir « qu’aucun consensus, aucun compromis, ou simplement aucune compréhension mutuelle ne se produise ». Cette saturation ne vise rien d’autre que de promouvoir « la division par l’épuisement ». « Le remplissage est un pouvoir ».

« L’idéologie de l’IA fonctionne comme une croyance apolitique trompeuse selon laquelle les algorithmes sont une solution à la politique » qui suppose que les calculs peuvent prendre les décisions au profit de tous alors que leurs décisions ne sont qu’au profit de certains, en filtrant les données, les idées, les gens qui contredisent les résultats attendus. Alors que l’élection de Trump éloigne les enjeux de transparence et de régulation, l’IA va surtout permettre de renforcer l’opacité qui lui assure sa domination.

Vers un monde sans intérêt en boucle sur lui-même

Dans la dernière partie de sa réflexion, Salvaggio estime que le remplissage est un symptôme, mais qui va produire des effets très concrets, des « expériences désintéressées », c’est-à-dire des « expériences sans intérêt et incapables de s’intéresser à quoi que ce soit ». C’est le rêve de machines rationnelles et impartiales, omniscientes, désintéressées et qui justement ne sont capables de s’intéresser à rien. Un monde où l’on confie les enfants à des tuteurs virtuels par souci d’efficacité, sans être capable de comprendre tout ce que cette absence d’humanité charrie de délétère.

L’IA s’est construite sur l’excès d’information… dans le but d’en produire encore davantage. Les médias sociaux ayant été une grande source de données pour l’IA, on comprend que les contenus de remplissage de l’IA soient optimisés pour ceux-ci. « Entraînée sur du contenu viral, l’IA produit du contenu qui coche toutes les cases pour l’amplification. Le slop de l’IA est donc le reflet de ce que voient nos filtres de médias sociaux. Et lorsque les algorithmes des médias sociaux en reçoivent les résultats, il les reconnaît comme plus susceptibles de stimuler l’engagement et les renforce vers les flux (générant plus d’engagement encore). »  Dans le tonneau des Danaïdes de l’amplification, l’IA slop est le fluidifiant ultime, le contenu absurde qui fait tourner la machine sans fin.

Combattre ce remplissage par l’IA n’est une priorité ni pour les entreprises d’IA qui y trouvent des débouchés, ni pour les entreprises de médias sociaux, puisqu’il ne leur porte aucun préjudice. « Les contenus de remplissage de l’IA sont en fait la manifestation esthétique de la culture à médiation algorithmique »  : « ils sont stylisés à travers plus d’une décennie d’algorithmes d’optimisation qui apprennent ce qui pousse les gens à s’engager ».

Face à ces contenus « optimisés pour performer », les artistes comme les individus qui ont tenté de partager leur travail sur les plateformes sociales ces dernières années ne peuvent pas entrer en concurrence. Ceux qui ont essayé s’y sont vite épuisés, puisqu’il faut tenir d’abord le rythme de publication infernal et infatigable que ces systèmes sont capables de produire.

Dépouiller les symboles de leur relation à la réalité

« Les images générées par l’IA peuvent être interprétées comme de l’art populaire pour servir le populisme de l’IA »Elles visent à « dépouiller les symboles de leur relation à la réalité » pour les réorganiser librement. Les gens ne connaissent pas les films mais ont vu les mèmes. Le résultat de ces images est souvent critiqué comme étant sans âme. Et en effet, le texte et les images générés par l’IA souffrent de l’absence du poids du réel, dû à l’absence de logique qui préside à leur production.

« L’ère de l’information est arrivée à son terme, et avec elle vient la fin de toute définition « objective » et « neutre » possible de la « vérité ». » L’esthétique du remplissage par l’IA n’est pas aléatoire, mais stochastique, c’est-à-dire qu’elle repose sur une variété infinie limitée par un ensemble de règles étroites et cohérentes. Cela limite notre capacité à découvrir ou à inventer de nouvelles formes de culture, puisque celle-ci est d’abord invitée à se reproduire sans cesse, à se moyenniser, à s’imiter elle-même. Les images comme les textes de l’IA reflètent le pouvoir de systèmes que nous avons encore du mal à percevoir. Ils produisent des formes de vérités universalisées, moyennisées qui nous y enferment. Comme dans une forme d’exploitation sans fin de nos représentations, alors qu’on voudrait pouvoir en sortir, comme l’expliquait dans une note pour la fondation Jean Jaurès, Melkom Boghossian, en cherchant à comprendre en quoi les algorithmes accentuent les clivages de genre. Comme s’il devenait impossible de se libérer des contraintes de genres à mesure que nos outils les exploitent et les renforcent. Cet internet de contenus absurde n’est pas vide, il est plein de sens qui nous échappent et nous y engluent. Il est plein d’un monde saturé de lui-même.

A mesure que l’IA étend son emprise sur la toile, on se demande s’il restera encore des endroits où nous en serons préservés, où nous pourrons être mis en relation avec d’autres humains, sans que tout ce qui encode les systèmes ne nous déforment.

Du remplissage à la fin de la connaissance

Dans une tribune pour PubliBooks, la sociologue Janet Vertesi estime que les recherches en ligne sont devenues tellement chaotiques et irrationnelles, qu’elle a désormais recours aux dictionnaires et encyclopédies papier. « Google qui a fait fortune en nous aidant à nous frayer un chemin sur Internet se noie désormais dans ses propres absurdités générées par elle-même ». Nous voici confrontés à un problème d’épistémologie, c’est-à-dire de connaissance, pour savoir ce qui est réel et ce qui ne l’est pas. Au XXᵉ siècle, les philosophes ont défini la connaissance comme une croyance vraie justifiée. La méthode scientifique était le moyen pour distinguer la bonne science de la mauvaise, la vérité du mensonge. Mais cette approche suppose souvent qu’il n’y aurait qu’une seule bonne réponse que nous pourrions connaître si nous adoptons les bonnes méthodes et les bons outils. C’est oublier pourtant que la connaissance ne sont pas toujours indépendantes de l’expérience. Ludwig Wittgenstein a utilisé la figure du canard-lapin pour montrer comment des personnes rationnelles pouvaient en venir à avoir des points de vue irréconciliablement différents sur une même réalité. Les épistémologues se sont appuyés sur cette idée pour montrer que les personnes, selon leurs positions sociales, ont des expériences différentes de la réalité et que la connaissance objective ne pouvait naître que de la cartographie de ces multiples positions. Les sociologues de la connaissance, eux, examinent comment différents groupes sociaux en viennent à légitimer différentes manières de comprendre, souvent à l’exclusion des autres. Cela permet de comprendre comment différents faits sociaux circulent, s’affrontent ou se font concurrence, et pourquoi, dans les luttes pour la vérité, ceux qui détiennent le pouvoir l’emportent si souvent… Imposant leurs vérités sur les autres.

Mais ces questions ne faisaient pas partie des préoccupations de ceux qui ont construit internet, ni des systèmes d’IA générative qui s’en nourrissent. Depuis l’origine, internet traite toutes les informations de manière égale. Le réseau ne consiste qu’à acheminer des paquets d’informations parfaitement égaux entre eux, rappelle la sociologue. À cette neutralité de l’information s’est ajoutée une autre métaphore : celle du marché des idées, où chaque idée se dispute à égalité notre attention. Comme dans le mythe du libre marché, on a pu penser naïvement que les meilleures idées l’emporteraient. Mais ce régime épistémique a surtout été le reflet des croyances de l’Amérique contemporaine : un système de connaissance gouverné par une main invisible du marché et entretenue par des conservateurs pour leur permettre de générer une marge bénéficiaire.

« Pourtant, la connaissance n’est pas une marchandise. La « croyance vraie justifiée » ne résulte pas non plus d’une fonction d’optimisation. La connaissance peut être affinée par le questionnement ou la falsification, mais elle ne s’améliore pas en entrant en compétition avec la non-connaissance intentionnelle. Au contraire, face à la non-connaissance, la connaissance perd. »  L’interrogation du monde par des mécanismes organisés, méthodiques et significatifs – comme la méthode scientifique – peut également tomber dans le piège des modes de connaissance fantômes et des impostures méthodologiques. « Lorsque toute information est plate – technologiquement et épistémologiquement – il n’y a aucun moyen d’interroger sa profondeur, ses contours ou leur absence ». En fait, « au lieu d’être organisé autour de l’information, l’Internet contemporain est organisé autour du contenu : des paquets échangeables, non pondérés par la véracité de leur substance. Contrairement à la connaissance, tout contenu est plat. Aucun n’est plus ou moins justifié pour déterminer la vraie croyance. Rien de tout cela, au fond, n’est de l’information. »

« En conséquence, nos vies sont consumées par la consommation de contenu, mais nous ne reconnaissons plus la vérité lorsque nous la voyons. Et lorsque nous ne savons pas comment peser différentes vérités, ou coordonner différentes expériences du monde réel pour regarder derrière le voile, il y a soit une cacophonie, soit un seul vainqueur : la voix la plus forte qui l’emporte. »

Contrairement à Wikipédia, encore relativement organisé, le reste du Web est devenu la proie de l’optimisation des moteurs de recherche, des technologies de classement et de l’amplification algorithmique, qui n’ont fait que promouvoir le plus promouvable, le plus rentable, le plus scandaleux. « Mais aucun de ces superlatifs n’est synonyme de connaissance ». Les systèmes qui nous fournissent nos informations ne peuvent ni mesurer ni optimiser ce qui est vrai. Ils ne s’intéressent qu’à ce sur quoi nous cliquons. Et le clou dans le cercueil est enfoncé par l’intelligence artificielle qui « inonde Internet de contenu automatisé plus rapidement que l’on ne peut licencier une rédaction ». Dans ce paysage sous stéroïdes, aucun système n’est capable de distinguer la désinformation de l’information. Les deux sont réduits à des paquets de même poids cherchant leur optimisation sur le marché libre des idées. Et les deux sont ingérés par une grande machinerie statistique qui ne pèse que notre incapacité à les distinguer.

Aucun système fondé sur ces hypothèses ne peut espérer distinguer la « désinformation » de « l’information » : les deux sont réduites à des paquets de contenu de même valeur, cherchant simplement une fonction d’optimisation dans un marché libre des idées. Et les deux sont également ingérées dans une grande machinerie statistique, qui ne pèse que notre incapacité à les discerner. Le résultat ne promet rien d’autre qu’un torrent indistinct et sans fin, « où la connaissance n’a jamais été un facteur et d’où la connaissance ne peut donc jamais émerger légitimement »« Sans topologie de l’information, nous sommes à la dérive dans le contenu, essayant en vain de naviguer dans une cascade d’absurdités sans boussole ».

« Il est grand temps de revenir à ces méthodes et à ces questions, aux milliers d’années de gestion de l’information et d’échange de connaissances qui ont transmis non seulement des faits ou du contenu, mais aussi une appréciation de ce qu’il faut pour faire émerger des vérités », plaide Vertesi. « Il n’est pas nécessaire que ce soit un projet colonial ou réductionniste. Les connaissances d’aujourd’hui sont plurielles, distribuées, issues de nombreux lieux et peuples, chacun avec des méthodes et des forces d’ancrage uniques. Cela ne signifie pas non plus que tout est permis. Le défi consiste à s’écouter les uns les autres et à intégrer des perspectives conflictuelles avec grâce et attention, et non à crier plus fort que les autres ».

« Alors que nos vies sont de plus en plus infectées par des systèmes d’IA maladroits et pilleurs et leurs flux hallucinatoires, nous devons apprendre à évaluer plutôt qu’à accepter, à synthétiser plutôt qu’à résumer, à apprécier plutôt qu’à accepter, à considérer plutôt qu’à consommer ».

« Notre paysage technologique contemporain exige de toute urgence que nous revenions à une autre des plus anciennes questions de toutes : « Qu’est-ce qui est vraiment réel ? » »

12 / 20

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞