URL du flux RSS
Réseau d'éducation populaire au Libre.

ACCÈS LIBRE

▸ les 20 dernières parutions

10.04.2025 à 16:01

2025 PeerTube Roadmap !

Framasoft
We (Framasoft) are proud to present the 2025 roadmap for the project ! PeerTube is improving thanks to (only) two developers, the financial support of donors, the support of the NLnet foundation, and external contributions, whether in the form of code, … Lire la suite­­
Texte intégral (1397 mots)

We (Framasoft) are proud to present the 2025 roadmap for the project ! PeerTube is improving thanks to (only) two developers, the financial support of donors, the support of the NLnet foundation, and external contributions, whether in the form of code, design (hi La Coopérative des Internets), or user feedback from hundreds of people ! Thanks to all of you !

Already done at the beginning of the year

Before we list future improvements to PeerTube, we can already tell you what we’ve done at the beginning of the year.

Broadly speaking (since you can get the detailed version of what’s new in version 7.1 here), you’ll find the redesign of the « About » page, your PeerTube content as podcasts and improved playback comfort thanks to the update of the p2p-media-loader, the library that allows PeerTube to use P2P in the video player !

As for the released late 2024 app (available on F-Droid, the Play Store and the App Store), it allows you to watch videos (pretty handy for a video-viewing app, isn’t it ?), have a local account so you can add videos to a « to watch later » list, explore platforms, channels and so on, all while avoiding the dark patterns of applications developed by the GAFAMs (like doom scrolling, ubiquitous notifications, etc.).

Version 0.6.0 (released end of January) now allows you to see comments under videos !

Illustration - Dans la mer Sepia, læ poulpe mascotte de PeerTube, dessine un grand chiffre sept avec son encre.

Illustration : David Revoy – Licence : CC-By 4.0

What’s coming this year

Channel transfer

This year will see the arrival of a much requested feature : the ability to transfer ownership of a channel to another account ! Currently, a channel is linked to the PeerTube account that created it. It will soon be possible for the account associated with the channel (or the admin of the instance) to transfer the ownership of this channel and propagate this change throughout the federation (as is already the case when changing the ownership of a video).

This feature goes hand in hand with the development of another much-requested feature : shared administration of a channel (see… below 👀).

Instance customisation

For many instance administrators, it is important to be able to customise their platform as they see fit (in their own image, in the image of the institution they represent, etc.). That’s why we’re working on making it easier to make changes such as the general colours of the interface, the ability to add a logo, customise the video player, allow or disallow the integration of videos according to an allowlist/blocklist, and much more… This extensive customisation of the interface will be accessible to admins directly from the PeerTube web interface.

Set-up wizard

PeerTube is designed for a wide range of audiences : institutions, non-profits, media, companies, etc. In order to simplify the configuration of a platform, we are going to develop a graphical configuration wizard that will allow, after the installation of PeerTube, to apply and display several recommended configuration rules according to the desired profile of the platform (with the installation of plugins depending on the use case : adding chat if lives are authorised, LDAP/OpenID, etc.).

Illustration : David Revoy (CC-By)

Multi-user channel management

Once the work on transferring channel ownership is complete, we’ll finally be able to offer the multi-user channel management ! To the public, the channel will belong to a main account, but can be managed by several other users in the same instance. These co-manager accounts will have the same rights (upload videos, create and manage playlists, customise the channel, etc.) but will not be able to :

  • delete the channel ;
  • transfer it ;
  • manage the list of co-managers

These changes will be accompanied by a number of design and database changes, which is a lot of work !

But also…

This year will also see an improved warning system for sensitive content and « quality of life » features for the management and moderation of instances, allowing institutions, associations, media, administrations, etc. to use PeerTube more serenely. This will be done via shared lists of instances or accounts to be banned and also via auto-tags preventing video publication that contain specific keywords. We’re also planning to add batch action capabilities on videos, so you can update the licence of multiple videos in a single action, for example.

What the year holds for the mobile application

The mobile application is an excellent way to facilitate the adoption of PeerTube by a wide audience. We now want to expand the audience to also include tablet and TV users.

We’ll also allow you to connect to your PeerTube account, giving you access to all your subscriptions, likes, comments, history, notifications, settings and playlists.

By the end of the year, you’ll be able to play your videos in the background, stream them from your phone to your « smart » TV (initially Android ; Apple TVs will take a bit more work) and receive notifications. The video player will also be improved.

For content creators, it will be possible to upload and manage your videos, start a live broadcast and manage your channels directly from the application !

PeerTube moves forward thanks to you !

It’s thanks to the trust you’ve placed in us over the years, your financial (and/or moral) support, the help of la Coopérative des Internets and the funding of the NLnet Foundation that we can offer you this roadmap.

We hope you like it enough to continue to help us !

10.04.2025 à 16:00

Feuille de route PeerTube 2025 !

Framasoft
Nous (Framasoft) sommes fiers de vous présenter la feuille de route 2025 pour le projet ! Si PeerTube s’améliore c’est grâce à (seulement) deux développeurs, au soutien financier des donateurs et donatrices, à celui de la fondation NLnet, et aux contributions … Lire la suite­­
Texte intégral (1596 mots)

Nous (Framasoft) sommes fiers de vous présenter la feuille de route 2025 pour le projet ! Si PeerTube s’améliore c’est grâce à (seulement) deux développeurs, au soutien financier des donateurs et donatrices, à celui de la fondation NLnet, et aux contributions externes, que ce soit au niveau du code, du design (coucou La Coopérative des Internets) ou des retours utilisateurices de centaines de personnes ! Merci à vous !

Déjà fait en ce début d’année

Avant de lister les futures améliorations de PeerTube, nous pouvons déjà vous parler de ce que nous avons réalisé en ce début d’année.

Dans les grandes lignes (puisque vous pouvez avoir la version détaillée des nouveautés de la version 7.1 ici), vous trouverez le redesign de la page « A propos », vos contenus PeerTube en podcasts ou encore un confort de lecture amélioré grâce à la mise à jour de p2p-media-loader, la bibliothèque qui permet à PeerTube de faire du P2P dans le lecteur vidéo !

L’application quant à elle, sortie fin 2024 (disponible sur F-Droid, le Play Store et l’App Store) vous permet de regarder des vidéos (plutôt pratique pour une application de visionnage de vidéos, vous en conviendrez), d’avoir un compte local vous permettant d’ajouter des vidéos à une liste « à voir plus tard », d’explorer les plateformes, les chaînes, etc., tout en sortant des dark patterns des applications développées par les GAFAM (comme le doom scrolling, les notifications omniprésentes, etc.).

La version 0.6.0 (sortie fin janvier) vous permet maintenant de consulter les commentaires sous les vidéos !

 

Illustration - Dans la mer Sepia, læ poulpe mascotte de PeerTube, dessine un grand chiffre sept avec son encre.

Illustration : David Revoy – Licence : CC-By 4.0

Ce que l’année nous réserve

Transfert de chaîne

Cette année arrivera une fonctionnalité très demandée : la possibilité de transférer la propriété une chaîne à un autre compte ! Pour le moment, une chaîne est liée au compte PeerTube qui l’a créée. Il sera bientôt possible pour le compte associé à la chaîne (ou à l’admin de l’instance) de transférer la propriété de cette chaîne et de propager ce changement dans la fédération (comme c’est déjà le cas avec le changement de propriétaire d’une vidéo).

Cette fonctionnalité va de pair avec le développement d’une autre fonctionnalité très demandée : l’administration partagée d’une chaîne (voir… plus bas 👀).

Personnalisation d’instance

Pour beaucoup d’admin d’instances il est important de pouvoir personnaliser sa plateforme comme bon leur semble (à son image, à celle de l’institution qu’iel représente, etc.). C’est pourquoi nous travaillerons à faciliter les changements tels que les couleurs générales de l’interface, la possibilité de mettre un logo, de personnaliser le lecteur vidéo, de permettre ou non l’intégration de vidéos en fonction d’une liste d’autorisation ou de blocage et plus encore… Cette personnalisation poussée de l’interface sera accessible aux admin directement depuis l’interface web de PeerTube.

Assistant de configuration

PeerTube peut s’adresser à différents types de public : institutions, familles, associations, médias, entreprises… Afin de simplifier la configuration d’une plateforme, nous allons développer un assistant de configuration graphique qui permettra, après l’installation de PeerTube, d’appliquer et d’afficher plusieurs règles de configuration recommandées selon le profil voulu de la plateforme (avec l’installation d’extensions selon le cas d’utilisation : ajout du tchat si les lives sont autorisés, LDAP/OpenID, etc.).

 

Illustration : David Revoy (CC-By)

Gestion de chaîne… à plusieurs

Une fois le travail réalisé sur le transfert de propriété de chaîne terminé, nous pourrons enfin vous proposer la gestion de chaîne(s) à plusieurs ! 🎉

Publiquement, la chaîne appartiendra toujours à un compte principal mais pourra être gérée par plusieurs autres utilisateurs de la même instance. Ces comptes co-gérants auront les mêmes droits (téléverser des vidéos, créer et gérer des playlists, personnaliser la chaîne, etc.) mais ne pourront pas :

  • supprimer la chaîne ;
  • la transférer ;
  • gérer la liste des co-gérant⋅es

Ces changements iront de pair avec de nombreux changements au niveau du design et de la base de données, ce qui représente un sacré travail !

Mais aussi…

Cette année apportera aussi une amélioration du système d’avertissement pour les contenus sensibles et des fonctionnalités de « qualité de vie » pour l’administration et la modération des instances, permettant aux institutions, associations, médias, administrations, etc., de s’emparer de PeerTube plus sereinement. Cela pourra se faire via des listes partagées d’instances ou comptes à bloquer, ou via des auto-tags empêchant des publications ou lives utilisant tel ou tel mot clé ! Nous prévoyons aussi d’ajouter des possibilités d’actions en lot, pour par exemple, mettre à jour la licence de plusieurs vidéos en une seule action.

Ce que l’année réserve pour l’application mobile

L’application mobile est un excellent moyen de faciliter l’adoption de PeerTube auprès d’un large public. Nous souhaitons élargir l’audience aux utilisateurs et utilisatrices de tablettes et de télévisions.

Nous allons également permettre la connexion à votre compte PeerTube, vous donnant accès à tous vos abonnements, likes, commentaires, historique, notifications, paramètres et listes de lecture.

En fin d’année, vous aurez la possibilité de lire vos vidéos en arrière-plan, de les diffuser depuis votre téléphone vers votre télévision connectée (Android, dans un premier temps ; les télévisions Apple demandant un peu plus de travail), et de recevoir des notifications. Une amélioration du lecteur vidéo sera aussi effectuée.

Pour les créateurs et créatrices de contenu, il sera possible de téléverser, gérer vos vidéos, démarrer une diffusion en direct et gérer vos chaînes directement depuis l’application.

PeerTube avance grâce à vous !

C’est à la fois grâce à la confiance que vous nous accordez depuis des années, votre soutien financier (et/ou moral), l’aide de la Coopérative des Internets, et le financement de la fondation NLnet que nous pouvons vous proposer cette feuille de route.

Nous espérons donc qu’elle vous plaira suffisamment pour continuer à nous aider !

09.04.2025 à 09:42

FramIActu n°3 — La revue mensuelle sur l’actualité de l’IA !

Framasoft
Google dégrade ses résultats de recherche, Amazon récolte les enregistrements audio des enceintes Echo, OpenAI montre les muscles et l'IA met à mal l'infrastructure du Libre... bienvenue dans la troisième FramIActu !
Texte intégral (4533 mots)

Bienvenue dans ce troisième numéro de FramIActu, la revue mensuelle sur l’actualité de l’IA !

 

Ce mois-ci, encore, nous avons plein de choses à dire au sujet de l’IA et ses impacts sur nos sociétés.
Pour rappel, nous mettons en avant notre veille sur le sujet sur notre site de curation dédié ainsi que sur Mastodon et Bluesky (sur le compte dédié FramamIA) !

 

Vous avez préparé votre boisson chaude (ou froide, c’est le printemps après tout !) préférée ? Alors c’est parti pour la FramIActu !

 

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Celui si est assis et semble parler.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

Tout ce que vous dites à votre Echo est envoyé à Amazon

Dans cet article de Les Numériques, nous apprenons que fin mars, Amazon a retiré le support du traitement local des voix sur les assistants connectés Amazon Echo.

Cela signifie que toutes les enceintes connectées d’Amazon enverront les enregistrements audio sur leurs serveurs pour être traités afin d’améliorer la qualité de leurs services IA.

Amazon promet de ne pas conserver les enregistrements après traitement si l’utilisateurice a modifié ses préférences dans ce sens. Cependant, et comme le rappelle l’article, Amazon a déjà menti concernant cette promesse et l’entreprise a déjà été condamnée pour avoir conservé illégalement des enregistrements vocaux d’enfants.

Outre la question du respect de l’intimité numérique — et donc du RGPD — (mais bon, venant d’Amazon il n’y a aucune surprise sur ce sujet), c’est bien le message envoyé par les géants de la Tech que nous pouvons souligner : l’IA est leur excuse magique pour justifier toute action, même celles supposées illégales. Les géants capitalistes s’embêtent de moins en moins à respecter la loi et cherchent même à la tordre, comme en témoigne cet article de Next.

Mème : deux boutons rouges, un dit « Envoyer toutes mes données à Amazon », l'autre « Envoyer toutes mes données à Amazon ». Un homme tagué « Utilisateur·ice d'Amazon Echo » transpire en ne sachant sur quel bouton appuyer.

L’absence de choix, via Framamèmes. Licence CC-0

C’est assez exceptionnel, mais voici un article, datant de l’année dernière, que nous déterrons ! (En même temps, la FramIActu n’existait pas l’année dernière…)

Nous estimons qu’il est important d’en parler car nous entendons désormais très souvent des témoignages concernant la dégradation des résultats de Google.

Cet article (en anglais), publié par Mashable, traite d’une étude réalisée par des chercheureuses allemand·es décrivant la dégradation de la qualité des résultats de Google.

En effet, en raison du phénomène d’IA Slop, c’est-à-dire l’apparition massive de sites générés par IA et proposant un contenu de faible qualité, une bonne partie des résultats de recherche de Google n’orientent plus vers du contenu pertinent.

Parmi les raisons décrites, les chercheureuses expliquent que les sites générés par IA exploitent parfaitement les algorithmes de Google afin d’être mieux référencés que des contenus rédigés manuellement.

Cependant, on pourrait aussi expliquer la dégradation de la pertinence des résultats de Google, spécifiquement, en se référant à un autre article (en anglais, toujours) d’Edward Zitron, faisant une chronologie complète de comment Google a décidé de réduire volontairement la qualité de ses résultats afin de forcer les utilisateurices à faire plus de recherches sur le moteur de recherche. Cela dans le but d’afficher plus de publicités et donc générer plus de revenus pour l’entreprise.

Une illustration de « l’emmerdification » de Google, comme le souligne Cory Doctorow dans une de ses conférences dont nous avons récemment publié une traduction sur le Framablog.

Une démonstration vulgaire de pouvoir

Dans une note de blog, Jürgen Geuter (connu sous le pseudonyme tante), présente un point de vue intéressant sur l’ajout récent, par OpenAI, de la possibilité de générer des images dans le style du studio d’animation Ghibli.

Dans son analyse, le théoricien souligne l’idée que le choix du style du studio Ghibli n’est pas anodin. Ce choix est une « démonstration vulgaire de pouvoir ».

En effet, le studio, à travers ses œuvres, prône une vision humaniste et littéralement anti-fasciste de la société.
Plus, Hayao Miyazaki, co-fondateur du studio, avait déjà exprimé, en 2016, son effroi vis-à-vis de l’Intelligence Artificielle.
Pour tante, l’utilisation du style emblématique du studio Ghibli, par OpenAI, est la preuve que l’entreprise étasunienne n’a que faire de cette vision et des valeurs du studio, ni même du droit d’auteur ou de tout ce qui n’irait pas dans le sens de ce vampire capitaliste.

Ce comportement fait écho (sans mauvais jeu de mot) avec l’actualité concernant les enceintes connectées d’Amazon.

Comme si les entreprises de l’IA n’avaient pas besoin de respecter la loi, et pouvaient se permettre des pratiques toujours plus agressives, particulièrement depuis l’élection de Donald Trump aux États-Unis.

Mème : sur l'autoroute, un panneau indique « Respecter Les lois, les autres, le vivant » tout droit et « S'en foutre » sur la sortie à droite. Une voiture taguée « Les entreprises de l'IA » fait un dérapage pour prendre la sortie.

Les entreprises de l’IA et le respect. Mème généré avec Framamèmes. Licence CC-0

Aussi, tante appuie l’idée qu’OpenAI doit sortir de nouvelles fonctionnalités et paraître « cool » afin d’attirer les investisseurs. L’ajout du style du studio Ghibli comme « fonctionnalité » de ChatGPT en serait une illustration.

Cette réflexion semble faire sens, surtout lorsqu’on observe une autre actualité décrivant la volonté d’OpenAI de faire une nouvelle levée de fonds à hauteur de 40 milliards de dollars.

L’infrastructure du libre est attaquée par les entreprises d’IA

À travers un article s’appuyant sur les témoignages de différentes acteurices du Libre, nous découvrons la difficulté qu’ont de nombreuses structures à faire face à l’accaparement des ressources du Web par les robots d’indexation de l’IA.

Ces robots, en charge de récupérer le contenu de l’ensemble du Web afin de nourrir les réponses des Intelligences Artificielles génératives, composent parfois presque l’intégralité du trafic affectant un site Web.

Ce trafic représente un véritable problème car il représente une surcharge significative (de manière semblable à une attaque par déni de service) des infrastructures, forçant différents projets à adopter des techniques expérimentales pour se protéger et éviter de tomber en panne.

Par exemple, le projet GNOME a déployé le logiciel Anubis sur sa forge logicielle (où sont déposés les codes sources de l’ensemble des projets de l’organisation).

Anubis permet de détecter si une ressource est accédée par un·e humain·e ou un robot d’IA et permet, dans ce deuxième cas, de bloquer l’accès à la ressource.

Deux heures et demie après avoir installé Anubis, le projet GNOME indiquait que 97 % du trafic avait été bloqué par Anubis, car provenant d’IA.

Malheureusement, des outils comme Anubis nuisent à l’expérience globale du Web et sont peut-être des solutions seulement temporaires jusqu’à ce que les robots d’indexation des IA réussissent à contourner le logiciel et piller les ressources malgré tout.

Alors que l’infrastructure du Libre repose avant tout sur des efforts bénévoles et est déjà largement en tension financière, les géants de l’IA refusent de « respecter » ce fragile écosystème en ignorant ses faiblesses tout en se nourrissant de ses forces (son savoir et tous les communs mis à disposition de toustes).

Là encore, l’exemple le plus flagrant est que les robots d’indexation de l’IA ignorent les directives des sites Web lorsque ces derniers précisent, à l’aide d’un protocole, ne pas souhaiter être indexés par un robot.

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Accroché à son aile gauche, un ballon de baudruche.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

C’est tout pour ce mois-ci mais si vous souhaitez approfondir vos connaissances sur l’Intelligence Artificielle, vous pouvez consulter notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !

Enfin, si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !

Pour nous soutenir, si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié  !

Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu !

08.04.2025 à 09:42

Faire sa veille informationnelle à l’ère de l’IA générative

Framasoft
Alors que pullulent sur le Web des sites générés par Intelligence Artificielle, il devient de plus en plus difficile de dénouer le vrai du faux parmi les informations qui nous submergent. Explorons, ensemble, quelques pistes pour y voir plus clair !
Texte intégral (8676 mots)

Il y a quelques mois, Hubert Guillaud publiait, dans le média Dans Les Algorithmes, un article sur l’abondance de contenus générés par IA sur le Web (le fameux IA Slop).

Quelques semaines plus tard, le média Next publiait une enquête sur les médias diffusant en partie ou exclusivement des articles générés par IA.

Récemment encore, la Chine mettait en place une mesure imposant d’étiqueter les contenus générés par IA, prétextant un besoin de lutter contre la désinformation.

Les techniques d’Intelligence Artificielle générative sont aujourd’hui massivement utilisées pour publier du contenu sur la toile et il devient difficile de déterminer si une information est réelle ou non.

C’est pourquoi nous vous proposons un article permettant d’explorer quelques pistes pour faciliter l’exercice de l’esprit critique !

Bonne lecture !

En quoi la généralisation de l’IA générative nuit à la qualité des informations ?

IA Générative et réalité

L’IA générative (parfois abrégée GenAI) est une technique d’intelligence artificielle ayant pour objectif de produire du contenu qui semble naturel.

Ce qui marque quand on expérimente avec une IA générative, c’est la vraisemblance des réponses : celles-ci nous semblent plausibles.

Pourtant, une IA générative n’a aucune compréhension du réel, de ce qui existe ou non, de ce qui est donc vrai, ou non. Quand on lui demande « Qui est Framasoft ? », celle-ci va faire des calculs complexes et énergivores pour tenter de deviner quel est le résultat le plus probable attendu, en se basant sur toutes les données à partir desquelles elle a été « entraînée ».

Le logiciel nous fournira ainsi une réponse, parfois juste, parfois à côté de la plaque, parce que son algorithme aura estimé que c’est le résultat le plus probable attendu.

Mème : un homme tagué « l'ia » regarde d'un œil intéressé une femme taguée « Réponse probable », pendant que sa compagne taguée « La réalité » lui lance un regard noir.

L’IA est la réalité.

Parmi les gros problèmes de l’IA générative se situe l’incapacité à pouvoir décrire le cheminement de l’algorithme pour générer une réponse. Aucune IA générative ne peut, à ce jour, décrire ses sources ni indiquer pourquoi elle a préféré donner telle réponse plutôt qu’une autre. Nous nous retrouvons, au mieux, avec une chaîne de pensée et un score de probabilité et au pire, avec seulement le contenu de la réponse. À nous alors de faire preuve d’esprit critique pour déterminer si l’IA générative a donné une réponse probable et juste ou probable mais fausse. À nous aussi, comme le décrit Hubert Guillaud dans son article, de douter de la machine pour ne pas nous laisser induire en erreur.

Nous n’en sommes pas habitué·es, pourtant.

En effet, nous avons plutôt tendance à croire aveuglément les machines, persuadé·es que nous en maîtrisons de bout en bout tous les processus. Or, l’IA générative, malgré son ton toujours sûr, sa verve parfois moralisatrice et son incapacité à dire « Je ne sais pas », n’est pas une technique dont nous maîtrisons tous les processus (de la construction à la réponse). Il y a des zones d’ombre, des zones incomprises (du fait de l’essence même de cette technique) qui nous empêchent de pouvoir faire confiance en ses affirmations.

Enfin, l’IA générative inverse notre rapport à la production (d’écrits, notamment). Si autrefois, il était plus long de produire un contenu textuel que de le lire, c’est aujourd’hui l’inverse et ce fait, qui peut sembler anodin de prime abord, transfigure pourtant une bonne partie de notre société, notamment numérique.

IA Slop

Depuis quelques temps, le terme de « Slop » ou d’ « IA Slop » devient de plus en plus populaire pour décrire les contenus de mauvaise qualité réalisés via IA générative et qui pullulent désormais sur le Web.

Le Web, avec l’IA générative, se remplit peu à peu de contenus vides de sens, entièrement pensés pour créer de l’engagement ou plaire aux algorithmes de SEO (Search Engine Optimisation, les techniques mises en place pour être mieux référencé·e sur Google).
L’objectif final étant d’engranger facilement des revenus, via les mécanismes de réseaux sociaux ou la publicité.

La surabondance de ces contenus a plusieurs effets :

    • La raréfaction de contenus « originaux » (créés par un·e humain·e).

    • Une tendance à la réduction de la qualité des résultats de l’IA générative. Les données générées par IA générative écrasant sous leur masse celles créées par des humain·es, ces dernières deviennent donc plus difficiles à retrouver en bout de chaîne.

    • La mise en place d’un environnement « douteux ». Il devient difficile, aujourd’hui, de faire confiance en la qualité réelle d’un contenu a priori.

C’est en réaction à cette vague d’IA Slop et après la lecture de cette excellente enquête de Next sur la présence de plus de 3000 médias français générés par IA que nous avons décidé d’écrire cet article, dont le but est d’aider à mettre en lumière la problématique, mais aussi de présenter des pistes de solution.

Nous y reviendrons plus bas !

Comment reconnaître un texte produit par une IA Générative ?

Dans son enquête sur les sites de médias dont les contenus sont des plagiats générés par des IA génératives, Next a élaboré une méthode pour pouvoir reconnaître ceux-ci et nous la partage dans un article dont nous reprenons ici quelques points (mais nous vous recommandons chaudement de lire l’article de Next pour en découvrir l’intégralité des éléments) !

    • ChatGPT a des « tics de langage » et utilise, abusivement, certains termes tels que « crucial », « fondamental », « captivant », « troublant », « fascinant », « besoin urgent », « il est essentiel », etc ;

    • Les contenus produits par l’IA générative sont très scolaires alors que les journalistes tendent à adopter un « angle », c’est-à-dire un choix particulier dans la manière de traiter le sujet, aidant à se démarquer de ce qui est déjà écrit ;

    • Les fins d’articles générés par ChatGPT résument souvent l’article et/ou abordent des conclusions moralisantes ;

    • Les images d’illustration sont le plus souvent des copiés-collés des articles plagiés, parfois modifiés avec une rotation à 180° pour éviter d’être détectées par des moteurs de recherche d’images inversés. Sinon, elles sont générées par des IA génératives et sont particulièrement grossières et caricaturales, ou n’ont rien à voir avec le sujet ;

    • …

La méthodologie de Next permet de nous outiller pour exercer notre esprit critique dans notre navigation quotidienne.

Cependant, cela peut rapidement être fastidieux, notamment avec l’immense quantité d’articles générés par IA générative auxquels nous sommes confronté·es au quotidien. Dans son enquête, Next souligne d’ailleurs que des milliers d’articles mis en avant par Google Actualités sont en fait le fruit d’IA génératives.

Afin de faciliter la reconnaissance des sites proposant des articles générés par IA, Next a développé une extension de navigateur permettant d’afficher un message d’information lorsque nous accédons à un site GenAI. L’extension est actuellement capable de reconnaître plus de 3000 sites ( !) et sa base de données continue de grossir.

Gardons cependant à l’esprit que si cette extension nous pré-mâche énormément le travail, elle ne suffit cependant pas pour nous permettre de lever notre vigilance. De nouveaux sites émergent chaque jour et l’extension ne peut tous les recenser.

Notons qu’il existe des outils pour détecter si un texte a été écrit par un humain, comme le détecteur de QuillBot ou GPTZero. Cependant, nous ne recommandons pas leur usage (ou du moins pas sans un regard très critique).
Premièrement, ces outils ne sont pas libres, il convient donc de ne pas y envoyer de textes privés ou sensibles. Mais surtout, ces détecteurs sont réputés pour leur manque de fiabilité.
Par exemple, OpenAI proposait un détecteur de textes générés par ChatGPT
jusqu’en 2023, mais a décidé de l’arrêter, car il produisait trop d’erreurs.
Beaucoup de textes écrits par des humain·es peuvent être marqués par erreur comme générés par une IA. Ces détecteurs ont tendance à
défavoriser les locuteurs et locutrices non-natives : les textes en anglais écrits par des personnes dont l’anglais n’est pas la langue maternelle seront plus souvent marqués à tort comme étant écrits par une IA. Et inversement, il existe de nombreuses techniques pour contourner ces détecteurs.
Par exemple, des chercheur·euses ont montré qu’il est possible de paraphraser un texte généré par une IA afin que le texte soit marqué comme écrit par un·e humain·e.

Si nous décidons quand même d’utiliser ces outils, ne nous fions pas à leur décision ou à la probabilité affichée. Remettons-les en perspective avec d’autres éléments, dont ceux mentionnés précédemment.
Sinon nous risquons
d’accepter un texte écrit par une IA.
À l’inverse nous risquerions de jeter le discrédit sur un texte écrit par un·e humain·e, ce qui peut être emb
êtant, en particulier dans le cas des enseignant·es corrigeant des copies d’élèves.

De l’importance de la confiance

Il n’y a pas de méthode stricte et infaillible pour déterminer si un média est de source fiable ou non.
Au final, nous nous basons avant tout sur la confiance qu‘il nous inspire.
Et justement, il n’est pas toujours aisé de déterminer si nous souhaitons faire confiance ou non en un média.

Quelques questions peuvent néanmoins nous aider à affiner notre perception.

Quel est l’objectif du média ?

Se questionner sur l’objectif du média que l’on consulte peut grandement aider à y voir plus clair.

Pourquoi est-ce que celui-ci a été créé ?
Est-ce pour le « bien commun », un intérêt financier ou encore de pouvoir ?
Aucun média n’est totalement objectif, ce qui est normal, mais quel est le positionnement politique du média ?
Cherche-t-il à convaincre plutôt qu’informer ?

Quels sont les engagements du média pour parvenir à l’objectif évoqué ?

Parfois, certains objectifs peuvent n’être que des vœux pieux.
Regarder concrètement quels sont les actes et les engagements mis en place du média pour faire advenir ces objectifs peut nous aiguiller à jauger le degré de confiance que nous donnerons à celui-ci.

Qui possède le média ?

Et donc, quels sont les intérêts des personnes qui possèdent le média ?
Et quel
s pouvoirs exercent ces personnes sur lui ?

La cartographie mise à jour chaque année par Le Monde Diplomatique et ACRIMED est édifiante sur le fait que la majorité des médias « mainstream » sont — au moins en partie — possédés par des milliardaires ou des groupes de milliardaires.

Ces derniers semblent pouvoir orienter les journaux dans certaines directions, comme encore récemment avec Jeff Bezos (patron de, entre autres, Amazon, Twitch ou le Washington Post, quotidien emblématique étasunien), qui a souhaité ne pas faire publier la traditionnelle recommendation de vote du journal à l’approche de l’élection présidentielle étasunienne (alors que cette recommandation allait dans le sens de Harris, l’opposante de Trump).

Cependant, s’il est possible que les médias possédés par les milliardaires soient, en partie, influencés par leurs dirigeant·es, ce n’est pas forcément systématiquement le cas.

Le Monde Diplomatique, par exemple, est possédé à 51 % par le groupe Le Monde, mais à 49 % par l’association de lecteurs et lectrices du journal et l’association composée de toute l’équipe de rédaction. Ce sont ces 49 % qui choisissent le ou la rédacteurice en chef et iels possèdent un droit de veto pour les décisions prises.

Nous y retrouvons là un exemple de contre-pouvoir.

Comment est financé le média ?

Dans une société capitaliste, l’argent est au cœur de bien des choses et nous pensons essentiel de nous questionner sur la manière dont un média est financé.

Est-ce via la publicité ?
Sont-ce les liens d’affiliation (permettant de récolter des sous en fonction du nombre de visites/d’achats sur le lien) ? Les abonnements ? Les aides de l’État ? Les dons ?

Et si c’est un peu de tout ça, dans quelles proportions ?

Il y a bien des manières de financer un média, et toutes ne sont pas forcément viables dans le long terme ou ne correspondent à notre propre idée de la déontologie.

Le média cite-t-il ses sources ?

C’est une des premières choses que nous cherchons en général à consulter : d’où vient l’information mise en avant dans l’article.

Est-ce que c’est une revue scientifique ? Une dépêche AFP ? Un autre journal ? Un vieux Skyblog fait par Camille Dupuis-Morizeau ?

Si — comme trop souvent à notre goût 😬 — les sources ne sont pas citées, il est difficile de prouver la véracité de l’information et il nous faudra chercher celles-ci nous-même.

L’article est-il relu par les pair·es ?

C’est un processus obligatoire dans beaucoup de médias, chaque article est supposé être relu par au moins une autre personne que l’auteur·ice.

Cela permet d’avoir un regard frais sur le sujet, sur la qualité de l’article, etc.
Cependant et évidemment, la relecture n’empêche pas toujours certaines erreurs ou une ligne éditoriale idéologique.

Parfois, nous sommes convaincu·es que l’angle adopté par un article est le bon alors que d’autres estimeront que non.
D’autres fois, nous aurons tout simplement fait une erreur : choisi une source peu fiable, mal interprété une situation, etc.


Les erreurs arrivent et c’est pourquoi le processus de relecture et validation par d’autres existe !

Il y a-t-il une mise en avant des corrections apportées à l’article ?

Comme les erreurs arrivent, il est courant d’apporter des corrections aux articles publiés.

Est-ce que le média met en avant (en haut de son article, voire même en fin) ces corrections ?

Une mise à jour de l’article suite à l’apparition d’un événement nouveau mais crucial à la compréhension du sujet, par exemple ?

Toutes ces questions ne constituent pas une liste exhaustive, bien sûr, mais celles-ci peuvent déjà grandement nous aider à nous positionner vis-à-vis d’un média.

En nous prêtant à l’exercice, nous nous rendrons compte qu’il est parfois difficile de savoir clairement si un média est de confiance et nous devrons donc faire preuve de vigilance à son égard.

Enfin, aujourd’hui, avec la quantité faramineuse de sites générés par IA, nous ressentons facilement un sentiment de submersion et l’énergie nécessaire pour pouvoir exercer notre esprit critique sur tous ces sites dépasse l’entendement.

Faire sa veille, à l’heure de l’IA générative, est un vrai défi !

Mème. À gauche, une carte Uno avec marqué « Crois le premier site venu ou pioche 25 cartes ». À droite, un personnage tagué « Nous » a pioché 25 cartes.

L’exercice de l’esprit critique à l’heure de l’IA, une entreprise difficile.

C’est pourquoi dans la dernière partie de cet article, nous vous proposons de découvrir un outil pouvant aider à faciliter la veille informationnelle !

Vigilance cependant, si cet outil technique peut aider à assumer notre veille, il nous demande tout de même de rester attentifs et attentives, notamment avec la fonctionnalité de veille partagées !

Découvrons cet outil ensemble !

Flus, outil de veille simple

Flus est un outil de veille conçu par Marien, membre de Framasoft.

Ce n’est pas le premier coup d’essai de Marien dans la conception d’un tel outil, il a en effet, en 2012, initié un autre projet de veille : FreshRSS.

C’est grâce à l’enseignement des expériences apprises en concevant FreshRSS qu’il a pu concevoir une expérience aussi fluide dans Flus.

 

Un schéma montrant des sites agrégés vers Flus, d’où ressortent différents services.

Liste des services proposés par Flus.

 

Au cœur de FreshRSS et Flus se situe une technique majeure du Web : les flux RSS.

C’est quoi un flux RSS ?

Les flux RSS existent depuis 1999 et permettent à des applications tierces de savoir, presque en temps réel, si un nouvel article a été publié sur notre site.

Logo des flux RSS

Le gros avantage est de pouvoir centraliser dans un unique logiciel tous les flux auxquels nous souhaitons nous « abonner » et donc prendre connaissance des mises à jour de dizaines (voire centaines ou milliers, c’est à nous de choisir) de sites sans avoir à les ouvrir individuellement !

Le flux RSS est une technique légère, simple, mais terriblement efficace, simplifiant énormément le processus de veille.

C’est grâce aux flux RSS que de nombreux outils de veille fonctionnent… dont Flus !

Flus : un outil pensé pour éviter d’être submergé·es d’informations

Une des problématiques auxquelles nous pouvons être confronté·es en regroupant des centaines de flux RSS dans un logiciel permettant de les lire (ces logiciels sont appelés des agrégateurs) est que nous pouvons nous sentir submergé·es d’informations.

Si nous nous abonnons à des sites qui publient beaucoup d’actualités ou si nous avons beaucoup d’abonnements, il est fréquent de ressentir une forme « d’info-pollution ».

C’est pourquoi Flus a été pensé avec deux fonctionnalités nous permettant de contrôler le flot d’informations auquel nous sommes confronté·es.

Premièrement, l’espace de lecture des flux est conçu pour ne pas laisser s’accumuler les contenus, évitant ainsi une surcharge d’informations. Cet espace est limité volontairement à 50 contenus qui doivent être traités (ex. marqué comme lu, rangé, ou retiré) avant de pouvoir passer à la suite. 

Capture d'écran du journal de Flus.

Capture d’écran du journal de Flus.

Deuxièmement, chaque flux dispose d’un indicateur de fréquence de publication, indiquant le nombre de liens postés chaque jour.

Si ce rythme est trop élevé, il est possible de configurer le filtre définissant sur quelle période Flus va récupérer les publications pour l’abonnement.

Ce dernier point est très utile et est configuré par défaut pour ne récupérer que les publications de la dernière semaine. Cependant, si nous souhaitons tout recevoir d’un flux RSS, il est possible de configurer celui-ci pour tout nous afficher, sans limite temporelle.

Un outil de veille collaborative

Autre aspect intéressant de Flus : la possibilité de partager sa veille avec d’autres ou de construire des veilles collaboratives.

Le site propose d’ailleurs, dans son interface, de découvrir la veille d’autres personnes, triées par catégories.

Cette fonctionnalité est bien chouette lorsque l’on cherche à sortir un peu de ce que l’on connaît et chercher à découvrir d’autres sites ou sujets.

Attention encore ! Ce n’est pas parce que quelqu’un publie sa veille sur Flus que les informations partagées sont forcément fiables.

Là aussi, nous devons trouver où placer notre confiance !

Un modèle de financement basé sur la solidarité

Flus utilise un modèle de financement basé sur le prix libre.

Le principe est simple : vous pouvez profiter de Flus au prix qui vous convient, y compris gratuitement. Cela permet à ses utilisateurs et utilisatrices de participer au fonctionnement de la plateforme à hauteur de leurs moyens.

Afin d’avoir une idée de ce que peut être une contribution financière juste, Marien affiche trois tarifs références : un tarif solidaire pour celles et ceux qui ne peuvent offrir plus, un tarif équilibre qui correspond au juste prix et un tarif soutien qui correspond à l’objectif financier de l’auteur.

 

Alors que l’IA générative transforme agressivement le Web en un immense catalogue de contenus approximatifs, conçus par des IAs pour plaire à des algorithmes (principalement ceux du moteur de recherche de Google), la société capitaliste nous demande toujours plus d’efforts pour réussir à exercer notre esprit critique.

Pourtant il existe encore des espaces de respiration, où nous pouvons relâcher (un peu) notre attention, et des outils nous permettant d’y accéder plus facilement.

Le flux RSS est un outil émancipateur d’une rare simplicité qui, grâce à des plateformes comme Flus ou des outils comme FreshRSS, nous permet de décider de la manière avec laquelle nous nous confrontons aux informations de ce monde.

Alors profitons de ces joyaux techniques pour partager nos veilles, créer des veilles collectives, exercer ensemble notre esprit critique et lutter, solidairement et joyeusement, contre la désinformation en ligne !

08.04.2025 à 08:08

Bullshit sur Graf’hit

Stéphane Crozat
Depuis 2023 et la mise à disposition du grand public des IAG, l’exercice rédactionnel à l’université dysfonctionne. Stéphane Crozat en retranscrit un nouvel épisode dans cet article (les noms des étudiants ont été anonymisés). « En effet, il y a un vrai … Lire la suite­­
Texte intégral (7412 mots)

Depuis 2023 et la mise à disposition du grand public des IAG, l’exercice rédactionnel à l’université dysfonctionne. Stéphane Crozat en retranscrit un nouvel épisode dans cet article (les noms des étudiants ont été anonymisés).

« En effet, il y a un vrai risque de dénaturer le rôle principal de l’école : aider les élèves à développer leur esprit critique et leur autonomie. Imaginez un monde où les machines réalisent nos tâches à notre place. Selon une étude de John Doe en 2022, s’appuyer trop souvent sur des outils comme l’IA pourrait rendre les élèves moins capables de structurer leurs idées ou de résoudre des problèmes par eux-mêmes. »
(Alice, Bob, Claude & Daniel, 2024)

Lire et écrire sur le Web (introduction)

Je suis enseignant-chercheur à l’Université de Technologie de Compiègne (UTC) et cet article fait suite à deux publications précédentes liées au déploiement de l’IA générative (IAG) dans le contexte de l’enseignement supérieur :

À l’automne 2024 j’ai animé le cours WE01 à l’UTC avec deux collègues Quentin Duchemin et Stéphane Poinsart. C’est un cours du département Technologie, Sociétés, Humanités (TSH) que suivent des élèvent ingénieurs. Le cours était intitulé « Écrire, communiquer et collaborer sur le web » et il consistait en des apports théoriques autour du fonctionnement technique de l’Internet, de l’histoire du Web, du droit d’auteur et de la culture libre, du capitalisme de surveillance ou encore des enjeux sociaux-écologiques liés au numérique. Le cours comporte également des apports méthodologiques autour de la lecture et la production d’articles scientifiques ou la critique de ce que le Web produit.

Le travail demandé aux étudiants en WE01 était essentiellement tourné vers la réalisation de fiches de lecture et de productions écrites de type scientifique autour de ces thématiques, en groupe, publiées en ligne sous licence libre, finalisées par une présentation en direct sur la radio locale Graf’hit.

IA et école (le récit en bref)

Alice, Bob, Claude et Daniel ont rédigé ensemble 3 séries d’articles, dont la dernière a donné lieu à une lecture en direct sur la radio Graf’hit. Nous faisons ici une synthèse du processus de rédaction qui a été mobilisé. Le déroulé complet de leurs travaux, détaillé article par article, peut-être consulté en annexe de l’article original, que nous n’avons pas reproduit ici.

Un robot dit « Bonjour ! Comment puis-je vous aider à écrire de la merde, aujourd'hui ?»

Image générée par un être humain grâce au Générateur de Grise Bouille

Étape 1a, le plan détaillé de Bob (fait avec ChatGPT)

Bob injecte dans ChatGPT la bibliographie, et probablement le sujet, donnés par les enseignants au début de cours, afin d’obtenir un plan détaillé. On y trouve des rubriques comme « concepts vus en cours » qui ne correspondent pas à des concepts vus en cours ou des « arguments réfutables » qui répondent à une demande de produire des arguments réfutables, mais au sens de Karl Popper, alors qu’ici le sens et plutôt le sens trivial (ChatGPT n’a pas assisté au cours).

Exemple d’extrait de plan détaillé obtenu avec ChatGPT à partir du sujet fourni en entrée par les enseignants

Valeur éducative et éthique des exercices rédactionnels

  • Concepts vus en cours : l’éthique du travail intellectuel et la question de l’authenticité dans la production du savoir. Importance de la production d’écrits personnels dans l’éducation pour développer l’individualité.
  • Contre-argument réfutable : peut-on se contenter d’une écriture automatisée sans perdre en humanité et en sens critique ?

Image générée par un être humain grâce au générateur de mèmes de Framasoft – https://framamemes.org/

Étape 1b, les références de Bob (produites avec ChatGPT)

Bob demande également à ChatGPT des références bibliographiques pour étayer les propos, ce qui est aussi une consigne donnée dans le cours. Cela conduit à l’apparition de sept sources hallucinées, c’est à dire sept références bibliographiques crédibles mais totalement inventées (les revues scientifiques mentionnées existent pour la plupart).

On note le J. Doe du début, qui correspond en anglais à une personne non identifiée (typiquement en cas de découverte d’un cadavre sans papier dans une série américaine). L’enseignant relit le plan détaillé, mais ne vérifie pas les références. Il prend donc le temps de corriger ce travail de ChatGPT et le trouve globalement de bonne qualité. Bravo ChatGPT.

 

Image générée par un être humain grâce au Générateur de Grise Bouille

Exemple de références bibliographiques hallucinées obtenues avec ChatGPT

  • Doe, J. (2022). Privacy Concerns in AI-Powered Education Systems. Journal of Educational Technology, 45(3), 123-145.
  • Jones, L. (2019). Automated Grading Systems : Benefits and Challenges. Educational Review, 32(2), 250-265.
  • Miller, A. (2021). Bias in Educational AI Algorithms : A Critical Review. AI & Society, 36(1), 89-102.
  • Smith, P., Johnson, T., & Davis, R. (2021). Adaptive Learning Platforms and Their Impact on Student Success. Journal of Learning Analytics, 5(1), 45-67.
  • Tanaka, S. (2020). AI in Classroom Management : Pilot Projects in Japan. Japanese Journal of Educational Technology, 36(4), 210-225.
  • Taylor, M. (2022). Artificial Intelligence in Education : Friend or Foe ? Educational Futures, 12(2), 98-115.
  • Helsinki Study (2023). AI and Pedagogy : Experimental Schools in Finland. Educational Research Quarterly, 40(3), 78-95.
Un étudiant se réjouit : « Première fois que je rends un truc avec une bibliographie aussi fouillée. Il va être content, le prof ! » Un autre doute : « Hum... Je me demande qui est ce "John Doe". Jamais rien lu de lui. »

(image réalisée par le Générateur de Grise Bouille)

Étape 2, la rédaction de Claude (faite sans ChatGPT et sans esprit critique)

Claude ne participe pas du tout à la mise au point du plan détaillé, il laisse Bob travailler seul. Il repart ensuite de ce plan détaillé, et sans aucune interaction avec Bob, sans consulter les sources, il fait un travail de développement du plan sous forme de phrases. Il ajoute néanmoins quelques éléments provenant de sources authentiques.

Ici on note donc que Claude ne fait pas directement usage de l’IA, mais qu’il finalise un article complet sur la base d’un plan complètement produit par IA et de références inventées. C’est un très bon cas de prolétarisation, on a une division des tâches et des responsabilités : Bob produit le plan puis Claude l’article sans connexion avec le travail de Bob.

Exemple d’extrait de plan détaillé obtenu avec ChatGPT mobilisé en entrée pour mener une rédaction sans ChatGPT

L’IA pourrait-elle remplacer l’enseignant ?

Argumentation face à l’hypothèse que l’IA pourrait réduire les interactions humaines en classe (Taylor, 2022).

Proposition : L’IA doit être considérée comme un outil complémentaire et non comme un substitut de l’enseignant.

Exemple de rédaction réalisée par Claude sans ChatGPT sur la base du plan détaillé précédent

L’IA pourrait-elle remplacer l’enseignant ? Si l’IA permet d’automatiser des tâches et de personnaliser l’apprentissage, elle ne peut remplacer l’interaction humaine essentielle. C’est d’ailleurs ce que défend Taylor (2022) avec l’avertissement qu’il propose face à la baisse d’interactions humaines en classe. Or, l’enseignant apporte un soutien émotionnel et une compréhension de l’humain que l’IA ne peux bien entendu pas produire. (Cuisinier, 2007).

L’IA devrait donc compléter l’enseignant et non le remplacer. De plus nous agissons différemment quand on se sait observé (effet Hawthorne), ce qui rajoute une limite supplémentaire, qu’il convient de notifier.

Étape 3, la réponse de Daniel (faite avec ChatGPT)

Alice et Daniel produisent en réponse un autre texte qui défend une position plus en faveur des IA, afin de construire pour la radio un dialogue autour d’études scientifiques orientées pour et contre.

Daniel injecte dans ChatGPT le texte de Bob et Claude et demande à ChatGPT un nouveau plan pour y répondre. Celui-ci sera donc basé sur un plan déjà généré avec ChatGPT et des fausses références. Il demande aussi à ChatGPT de nuancer ses propos. Il mobilise également un article réel, celui de Crozat (qui existe bien, nous pouvons en témoigner). Notons que cet article traite d’un cas précédent d’usage frauduleux de ChatGPT dans le même cours WE01 un an auparavant. Daniel l’a-t-il lu ?

Le résultat obtenu n’est plus cohérent avec les propos prêtés aux auteurs inventés, personne ne se rend compte que cela n’a plus de sens, même au sein de la fiction créée par ChatGPT.

Alice et Daniel se retrouvent avec une seconde bibliographie hallucinée. Il y a une cohérence partielle avec la première, on retrouve presque les mêmes entrées… Mais les auteurs, articles et revues se mélangent, suivant la logique combinatoire de l’IAG. Doe est remobilisé autour des données personnelles, tandis que Miller est dans un cas mobilisé sur les algorithmes de recommandations, dans l’autre sur les inégalités de ressources dans les écoles.

 

Image générée par un être humain grâce au Générateur de Grise Bouille

Exemple de proposition de ChatGPT avec nuance et avec citation de faux articles

Enfin, l’affirmation selon laquelle l’IA « ne remplacera pas l’enseignant » mérite également d’être nuancée. Smith et Lee rappellent que l’IA peut modifier de manière intrinsèque le rôle de l’enseignant, le faisant passer d’un « transmetteur de savoirs » à un « facilitateur d’apprentissages ».

Seconde bibliographie hallucinée, variation combinatoire de la première

  • Doe, J. (2022). Educational Spaces and Data Privacy : Rethinking Schools in the Age of AI. Journal of Educational Ethics.
  • Miller, A. (2021). Equality in Education : Addressing Technological Disparities in the Classroom. International Review of Educational Technology.
  • Smith, L., & Lee, R. (2021). Adapting Learning with Artificial Intelligence : Challenges and Opportunities. Advances in Educational Technologies.
  • Tanaka, H. (2020). Administrative Efficiency through AI : An Educational Perspective. Asian Journal of School Management.
  • Taylor, C. (2022). The Role of Teacher-Student Interaction in Non-Digital Classrooms. Educational Research and Practice.
  • Helsinki Study. (2023). Human-Centered Education in the Digital Age : Case Studies from Finnish Schools. Nordic Journal of Pedagogical Innovation.

Étape 4, la réponse d’Alice (faite avec ChatGPT)

Alice rédige partiellement sans ChatGPT, exclusivement à partir de la seconde version de la bibliographie. On note dans cette intervention l’apparition des prénoms des faux auteurs. Peut-être ont-ils été demandés à ChatGPT pour correspondre au format demandé en cours.

On note aussi l’apparition de nouveaux arguments prêtés à certains auteurs inventés. Comme les articles n’existent pas, la seule façon d’étayer leur contenu avec de nouveaux arguments était d’interroger à nouveau ChatGPT.

Premier argument généré avec ChatGPT

L’éducation sans IA privilégie l’interaction directe entre enseignants et élèves, permettant un lien pédagogique plus fort, difficilement remplaçable par des technologies (Taylor, 2022)

Argument complémentaire demandé à ChatGPT

Charlotte Taylor en 2022 ajoute que cela peut même appauvrir le processus d’apprentissage en rendant les enseignements moins inspirants et moins personnalisés.

Travail à la chaîne

Là où les étudiants avaient comme consigne de travailler ensemble, en groupe, ils ont plutôt mis en place un travail séquentiel. Dans ce cadre, ils semblent avoir très peu communiqué entre eux et de pas s’être relus les uns et les autres.

S’ils n’avaient pas utilisé ChatGPT ils auraient probablement été obligés de collaborer, certains travaux trop peu qualitatifs les auraient fait réagir et auraient, sinon, fait intervenir l’enseignant.

J’ai failli oublier

Vous l’avez peut-être deviné, mais leur sujet c’était… IA et école.

Image générée par un être humain grâce au générateur de mèmes de Framasoft – https://framamemes.org/

On a pas envie de lire des textes écrits par des machines (consignes et autres éléments de contexte)

« L’usage d’IA génératives est simplement interdit dans le cadre de l’UV : ça ne vous apportera rien puisque le but est d’apprendre à écrire par vous-même. »
(extrait de la présentation du cours WE01 en 2024)

Contexte

L’usage des IAG était donc interdit dans le cadre du cours et le règlement des études de l’UTC a été aménagé en 2024 pour interdire a priori l’usage des IAG (elles ne sont autorisées que si les profs l’explicitent).

Nous avons découvert l’usage d’IAG uniquement à la fin, en direct, à la radio alors que des références inventées par ChatGPT étaient mobilisées et que l’auteur John Doe interpelle l’enseignant qui anime l’émission. Après ré-étude du contenu nous avons soulevé un usage pluriel de l’IAG dans le cadre de WE01 par ces 4 étudiants (voir le récit complet en Annexe).

Nous avons rencontré ces quatre personnes pour un entretien d’environ quinze minutes chacune et leur avons posé trois questions :

— Avez-vous utilisé une IAG dans le cadre de l’un de vos exercices rédactionnels ?

— Saviez-vous que l’IAG était interdite dans le cadre de ces exercices ?

— Auriez-vous été capables de réaliser les exercices sans utiliser l’IAG ?

Premières hypothèses

À l’issue de cet échange, voici ce que nous avons relevé :

  • Claude a un usage marginal de ChatGPT de son côté (mais néanmoins existant malgré l’interdiction). Il s’est appuyé sur des travaux générés avec ChatGPT par ses collègues dont il est surprenant qu’il n’ait pas questionné l’origine. Il savait que l’usage de ChatGPT était interdit.
  • Alice et Daniel ont un usage récurrent de ChatGPT, ils ne sont pas à l’origine des fausses références détectées, mais leur usage de ChatGPT a conduit à continuer le projet jusqu’au bout avec ces fausses références. Ils savaient que l’usage de ChatGPT était interdit.
  • Bob est à l’origine du plan détaillé avec fausses références ; il a un usage important de ChatGPT qu’il justifie par le fait qu’il ne savait pas que c’était interdit ; sa moins bonne maîtrise du français étant non francophone ; une situation personnelle qui l’a conduit à être moins disponible pour ses études et peut-être à une situation d’isolement. Il affirme qu’il ne savait pas que l’usage de ChatGPT était interdit.
  • Il est peu crédible que Bob ne savait pas que l’usage de ChatGPT était interdit, cela supposerait une absence de communication totale entre lui et les autres membres du groupe. Si Bob ne sait pas que c’est interdit, il n’a pas de raison de le cacher ; donc il le dit aux autres, qui lui disent que c’est interdit.
  • Il est peu crédible qu’un des membres du groupe ne savait pas que ChatGPT avait été assez largement utilisé par d’autres membres et donc que le rendu final dont il est signataire avait largement mobilisé ChatGPT.

Les quatre étudiants avaient correctement suivi l’UV tout au long de l’année et étaient considérés par leur encadrant comme des élèves sérieux. Ils ont semblé honnêtes et désolés dans les échanges que nous avons eus avec eux. Ils ont présenté des excuses et ont semblé prendre conscience du caractère fâcheux de la situation.

J’ai l’impression que ces étudiants ont tellement intégré l’IA générative dans leurs usages qu’ils ne sont pas rendus compte de l’importance de ce qu’ils faisaient malgré leur connaissance de l’interdiction :

  1. jusqu’à énoncer des références inventées en direct à la radio dans le cadre d’un exercice qu’ils ont trouvé très intéressant et valorisant ;
  2. dans un contexte avec très peu de pression scolaire, leur régularité dans le cours leur en assurait la validation, même avec un rendu médiocre à la fin ;
  3. dans un cadre relationnel de confiance assez horizontal avec les enseignants.

D’abord ne pas lire (quelques perles)

Nous sélectionnons ici quelques citations provenant du travail fourni par les étudiants. La citation de début d’article leur est également créditée.

Nous nous passerons de commentaire, sidérés en quelque sorte, par la pertinence de tels propos critiques vis-à-vis de l’usage de l’IAG dans le contexte pédagogique, écrits sous la dictée de l’IAG.

« Avec l’avènement de l’intelligence artificielle (IA), les pratiques éducatives, notamment les exercices de rédaction, sont mises à l’épreuve. Il devient tentant de laisser les machines écrire à notre place, mais la question se pose : est-ce réellement bénéfique pour les étudiants ? »

« Au cœur de la question se trouve l’importance cognitive et créative de l’écriture. Bien plus qu’un simple moyen de communication, l’écriture est un outil puissant pour structurer notre pensée. »

« Si l’on délègue ces tâches à une IA, on risque de perdre cette précieuse occasion d’entraîner nos capacités cognitives. »

« C’est une démarche éthique : l’apprenant ne se contente pas de répéter des informations, il les reformule et se les approprie. En remplaçant cette démarche par l’automatisation, ne risquons-nous pas de perdre cette dimension humaine, essentielle à la construction de notre individualité ? »

« Pourtant, n’y a-t-il pas un risque que cette facilité entraîne une paresse intellectuelle, voire une dépendance à l’IA pour formuler nos pensées ? »

« Son utilisation massive par les étudiants est pourtant indiscutable ; nos professeurs qui se plaignent régulièrement de corriger des copies réalisées par IA ce qu’il considère, à juste titre, comme une perte de temps. »

Si les étudiants étaient passés à côté de leur sujet il y aurait eu une certaine cohérence, mais ici les problématiques sont très bien transcrites par leurs travaux. Qui tire quel bénéfice de l’IAG ? Quelles conséquences ? Déstructuration de la pensée ? Perte cognitive ? Question éthique ? Construction de l’individualité ? Paresse ? Dépendance ? Perte de temps…

Si l’on fait l’hypothèse que les étudiants ont tout de même lu ce qu’ils ont rendu, on observe donc une décorrélation entre la prise de recul proposée par leurs propos et l’absence totale de distance manifestée dans leur pratique.

Des étudiants modèles (c’est surprenant, malgré tout)

Un cas exemplaire

On pourra penser que ce cas est isolé est qu’il ne fait pas bon raisonner à partir d’un cas particulier.

Mais le cas n’est pas isolé. Je relève des cas similaires depuis 2023 et l’arrivée de ChatGPT. Suite à l’émission de radio, nous avons pris un temps de relecture d’autres travaux, révélant l’usage, moins évident, sans rôle principal pour John Doe, mais néanmoins régulier, d’IAG. Les échanges avec les collègues et les étudiants confirment également cette généralisation.

Par ailleurs, les étudiants forment un modèle raisonnable pour notre analyse. Ils sont assez représentatifs de la population UTCéenne, un étudiant étranger en reprise d’étude, deux étudiants tout juste sortis du lycée et un dernier en second semestre d’étude. Ces étudiants sont tout ce même tous les quatre présents à l’UTC depuis moins d’un an, on pourra faire l’hypothèse que des personnes plus expérimentées auraient moins utilisées l’IAG… ou se seraient moins fait détectées.

Rappelons que l’entrée à l’UTC est fortement sélective, les étudiants qui entrent à l’UTC étaient tous des « premiers de la classe » au lycée. Je ne sais pas exactement quoi faire de cette information, on pourra penser que des bons élèves sont moins enclins à tricher, au contraire que ce qui a fait leur réussite est leur habitude à optimiser, ou encore que confrontés pour la première fois à des difficultés scolaires à l’UTC ils n’ont pas su bien réagir. Les échanges avec des élèves de terminale font penser que tous utilisent les IAG, élèves à l’aise avec leur scolarité ou non.

Il y avait néanmoins des raisons objectives de penser que dans le cadre du cours WE01 les étudiants auraient pu être moins enclins à l’usage d’un ChatGPT.

Un cas surprenant sur le fond

Sur le fond, le sujet même du cours porte sur une dimension critique vis-à-vis du numérique, des enjeux socio-techniques associées, avec, notamment une réflexion sur le capitalisme du surveillance et la captation des données par les GAFAM. Surtout, le cours comporte une partie consacrée à l’écriture scientifique, qui expose le concept de réfutabilité de Karl Popper ou encore… l’importance de vérifier et citer ses sources !

« Lorsqu’une ressource est pré-sélectionnée, vérifier et qualifier la source permet de pré-évaluer la fiabilité de la ressource. »
Cours de WE01

Un cas surprenant sur la forme

Sur la forme, WE01 est un cours plutôt « cool », avec du travail horizontal et des méthodes assez proches de l’éducation populaire. Certains étudiants tutoient les profs ce qui assez inhabituel en début de cursus. On pourrait penser que l’idée de tricher dans ce contexte aurait posé des freins moraux. Enfin le cours n’intégrait pas d’examen et la validation était assurée sur la base d’une « obligation de moyen » : être présent, faire le job honnêtement. Tricher dans ce contexte était surprenant.

Une hypothèse néanmoins est que nous avons insisté sur le caractère « pour de vrai » des exercices proposés : articles publiés sur le web et communiqués via les médias sociaux, passage en direct à la radio. Peut-être avons nous réussi, en quelque sorte, sur ce point, et que leur interprétation du « pour de vrai » a impliqué pour eux, in fine, une obligation de résultat, quelques soient les moyens.

IA embarquée

Une hypothèse complémentaire est que ces étudiants ont tellement intégré l’IA générative dans leurs usages qu’ils ne sont plus aptes à en évaluer les conséquences pour eux. Il se retrouvent à tricher et prendre des risques importants pour leur scolarité dans un contexte avec très peu de pression scolaire et dans un cadre relationnel de confiance. C’est donc à la fois une très mauvaise évaluation bénéfices/risques et une mauvaise attitude vis-à-vis de leur propre sens éthique.

Je pense que cet usage est fortement généralisé à l’UTC, ce qui les dédouane un peu et nous interroge fortement en retour ; leur erreur est un usage tellement médiocre qu’ils ont laissé passer une ou deux fausses références grossières, mais nous aurions pu ne pas nous en apercevoir, et nous pensons que ça a été le cas pour d’autres groupes.

Je fais l’hypothèse que ces habitudes ont été ancrées au lycée et même qu’ils ont perdu des compétences de rédaction et de travail en groupe que nous attendons de leur part (et cela peut nous interroger, peut-être encore plus que nous le faisons déjà, sur les conséquences à l’UTC). Cela va plus vite de faire faire par ChatGPT, que de s’installer et prendre un temps pour partager un espace de travail à plusieurs. Donc : ça vaut le coup. Ils ne se sont pas « fait prendre » ou n’ont pas subi de conséquences importantes jusque-là. Donc : ça marche.

Effets de constitutivité technique (quelques réflexions)

Thèse TAC

La thèse TAC, pour Technologie Anthropologiquement Constitutive, formalisée à l’Université de Technologie de Compiègne, trouve son origine dans les travaux des anthropologues et philosophes André Leroi-Gourhan, Gilbert Simondon ou Bernard Stiegler. Une hypothèse fondatrice de cette théorie est que les humains et les objets techniques forment un couplage indissociable, dès l’origine. On abandonne l’idée que l’humain précède et surplombe la technique, que celle-ci n’est que le simple produit du travail ou de l’intelligence humaine, postérieure à une humanité qui en serait indépendante (Steiner, 2010).

La technique n’est pas un élément extérieur à l’humanité, mais la façon même dont celle-ci conçoit le monde. Les trains modifient la proximité entre les villes selon les connexions existantes ou non, la lumière artificielle modifie les cycles du jour et de la nuit, ou celui des saisons, les voyages spatiaux permettent d’imaginer exploiter des ressources situées dans l’espace ou se réfugier une autre planète si la terre n’est plus habitable.

Technique non neutre

Les objets techniques portent en leurs propriétés physiques des possibles et des probables. Le couteau, dur, pointu, solide, avec une lame d’une certaine taille embarque le geste de planter. Une propriété fondamentale du téléphone portable est qu’il est… portable. Sa taille, son autonomie, son mode de préhension rendent sa présence permanente au côté de l’humain aisée, naturelle en quelque sorte.

La technique n’est donc jamais neutre puisqu’elle configure notre rapport au monde. Nos usages, nos intentions, nos projets, ce que l’on veut faire, sont déjà, au moins en partie, pré-configurés par l’accès au monde rendu possible via la technique. La technique n’est pas neutre non plus car ceux qui la développent ne sont pas neutres. Les concepteurs d’une technique ont des représentations du monde qui sous-tendent ce pourquoi il veulent la faire advenir, ils visent un objectif qui est souhaitable, bon, selon eux. (Steiner, 2024)

Raison computationnelle

Écrire avec un ordinateur, c’est écrire avec une machine à calculer. Donc, à un moment ou un autre, on a envie de la faire calculer. J’ai fait de l’ingénierie documentaire pendant 20 ans, l’objectif de mes travaux via la conception de chaîne éditoriales était d’automatiser, de calculer donc, des tâches de manipulation documentaires (Crozat, 2007). Parce que l’on considère que la mise en forme n’est pas une étape créative, qu’elle n’a pas de réelle valeur ajoutée, que l’on peut la déléguer à la machine. Je me souviens, tout de même, avoir croisé des éditeurs, des artisans de la mise en forme, qui n’étaient pas d’accord. Je devais penser qu’ils étaient rétrogrades, qu’ils s’accrochaient à un savoir-faire en voie de disparition. On dirait, à présent que c’est moi qui m’accroche…

En tous cas, en fin de compte, puisque la technique n’est pas neutre, ce qui compte c’est de se demander ce que le numérique en général, et l’utilisation de l’IA en particulier fait à notre pensée. Dans le lignée de Jack Goody, Bruno Bachimont (2000) parle de raison computationnelle pour désigner ces transformations induites par l’usage du numérique.

Pharmakon

La technique pose toujours problème, c’est par essence un pharmakon, un remède en même temps qu’un poison, au sens qu’a réactivé Bernard Stiegler depuis Platon). Par exemple, l’écriture est un remède aux limites de la mémoire humaine, en même temps, ce qui amoindrit cette mémoire. L’informatique permet d’objectiver des impacts socio-écologiques tout en engendrant de nouveaux impacts socio-écologiques.

« [Platon] décrit alors l’écriture alors comme un pharmakon, mot grec signifiant à la fois le remède et le poison : à la fois remède pour la mémoire, car elle permet de stocker et de conserver les connaissances accumulées, mais aussi poison pour la pensée, car en fixant les connaissances et en épargnant aux individus de se les remémorer, l’écriture empêche leur mémoire de s’exercer. Bref, l’écriture, qui semblait innocente et bénéfique, a aussi de quoi inquiéter. »
(Alombert, 2023)

Prolétarisation

Un problème soulevé par l’usage des IAG qui doit être considéré en contexte pédagogique est celui de la prolétarisation intellectuelle, phénomène déjà largement observé et étudié sur le plan des activités manuelles dans le cadre de l’industrialisation. La prolétarisation est « ce qui consiste à priver un sujet (producteur, consommateur, concepteur) de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser) » (Petit, 2013).

« Passer une commande à une machine, aussi performante soit-elle, ne revient pas à exercer techniquement sa pensée ; au contraire, le savoir-écrire a ici été extériorisé dans la machine numérique sous forme d’automatismes algorithmiques, de même que les savoir-faire avaient été extériorisés dans les machines-outils sous forme d’automatismes mécaniques. De même que l’artisan privé de ses savoir-faire s’était vu prolétarisé. En perdant nos savoir-écrire, nous risquons de devenir des prolétaires de la pensée. »
(Alombert, 2023)

Anne Alombert (2025) précise que « nous risquons de perdre notre capacité à nous exprimer en la déléguant aux algorithmes et en nous contentant de lire bêtement les textes produits » et avec elle notre capacité non seulement de mémorisation, mais, peut-être surtout d’imagination.

Substitution

En tous cas, l’idée que la machine est un instrument de délégation des travaux humains pénibles est ancré depuis la période industrielle au moins, probablement depuis la révolution agraire. L’ordinateur est dédié aux tâches cognitives, certains trouveront les tâches d’écriture fastidieuses, il est logique que l’ordinateur soit alors mobilisé comme assistance. Puis, de l’assistance au remplacement il n’y a qu’un pas. L’histoire de l’industrie nous le montre également.

À ce stade, la question que l’on doit se poser, c’est quel sens cela a-t-il de former la lecture et à l’écriture dans un monde où les IAG savent faire ce travail infiniment plus rapidement ?

Apprendre à bien rédiger ses « prompts » ? (apprendre à bien visser des boulons…)

Une idée défendue par certains comme une évidence, puisqu’il faut bien vivre avec son temps, serait de faire évoluer les formations pour, non plus enseigner comment, par exemple, bien lire et écrire, mais plutôt comment bien utiliser les IAG pour faire ce travail à notre place. C’est aussi applicable à l’expression graphique ou à l’écriture de code informatique. S’il est raisonnable de penser, sur le modèle de l’artisanat, que certaines tâches intellectuelles continueront d’échapper à la machine, il est tout aussi raisonnable de penser, sur le modèle de la mécanisation des tâches manuelles déjà opérée, que le bon usage d’une machine avancée ne nécessitera pas de compétences avancées.

Ces 14 prompts ChatGPT vont te transformer en machine à productivité (LinkedIn, 2024)

 

Selon Jacques Ellul, c’est la recherche systématisée de l’efficacité qui est problématique, car elle vide de leur sens les tâches qui sont menées, transformant le pourquoi on fait en comment on fait le plus efficacement possible (Rognon, 2020). Ainsi, l’idée de faire évoluer nos cours vers des formations à l’usage des IAG pourrait bien impliquer une évolution de l’ingénierie, de la conception de machines donc, à un objectif amoindri, d’utilisation de machines, voire d’utilisation par les machines.

ChatGPT 1 – Nous 0

WE01 v2

Nous observons donc que les étudiants ne savent plus, en entrant à l’université, jouer le jeu de la lecture et de l’écriture, et qu’il le font faire, au moins en partie, par une IAG. D’autre part, nous nous questionnons sur l’intérêt même de défendre ce type de compétence quand on observe en aval que les ingénieurs mobilisent également massivement ces outils pour faire de la veille, produire des rapports ou des présentations. Eux non plus ne veulent plus ni lire ni n’écrire.

En attendant de mieux comprendre ce qui se passe et comment faire évoluer nos formations, nous avons procédé à quelques modifications. WE01 était intitulé « Écrire, communiquer et collaborer sur le web », nous le renommons « Questionner le Web » et le faisons évoluer en conséquence. Nous avons assoupli les exercices rédactionnels, décidés à être moins exigeants et à demander un travail plus modeste en volume. En contre-partie nous avons restitué un examen de contrôle des connaissances. L’objectif du cours devient alors moins de savoir écrire que de disposer d’éléments pour aider à se poser des questions et à remettre en cause les évidences du numérique, dans une logique technocritique.

Nous déconseillons l’usage des IAG tout en les autorisant. Nous imposons en revanche une prise de recul, inspirés par ce que notre collègue Hugues Choplin à développé à l’UTC dans le cadre de son cours IS04.

« Vous ajouterez une section IAG à votre projet pour spécifier si vous avez utilisé des IAG (ou des IA de correction, de traduction…) et si oui : Indiquez quelles IA ont été utilisées, pour quelles parties du travail et pour quelles raisons ; Reproduisez une copie des prompts et des résultats ; Indiquez si les résultats ont été retravaillés et comment. »
Extrait de la présentation du cours WE01 en 2025

Attendre, observer, agir, réagir

Nous réfléchissons à un cours WE02 « Questionner l’IA » qui serait un pendant de WE01, orienté vers l’IA donc. Nous avons pris la décision d’attendre deux ou trois ans pour cela, histoire de se donner de l’espace pour consacrer l’énergie nécessaire au suivi d’une actualité très dynamique. Histoire également de se donner un peu de temps pour mieux analyser les évolutions en amont au lycée, en aval dans le monde socio-économique, et à les initiatives prises dans l’enseignement supérieur. Histoire, peut-être, que le domaine se stabilise un peu… ou pas.

  • D’autres collègues du département TSH à l’UTC envisagent d’intégrer le questionnement de l’IA à leur enseignement. Un service d’IAG hébergée localement est expérimentée, afin, a minima de sortir de la dépendance aux géants étatsuniens (Poinsart, 2025).
  • L’association Picasoft de l’UTC et l’association Framasoft (dont je fais partie) ont signé le manifeste Hiatus, « une coalition composée d’une diversité d’organisations de la société civile française qui entendent résister au déploiement massif et généralisé de l’intelligence artificielle ».
  • L’association Framasoft a lancé le site Framamia, pour aider à suivre et comprendre, et pour faire des propositions alternatives dans le domaine de l’IAG, dans une perspective de littératie technique.

Ces diverses attitudes sont autant de pistes pour maintenir une attitude active et critique vis-à-vis d’un phénomène qui percute l’ensemble de la société et que nous ne pouvons ignorer dans l’enseignement supérieur. Même quand on ne s’y intéresse pas par plaisir, donc.

5 / 20

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
  FIABILITÉ LIMITÉE
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌞