ACCÈS LIBRE
13.04.2025 à 09:00
Framasoft
Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 13 novembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.
L’IA dans les services publics, on en parle plus qu’on ne la voit, regrette le syndicat Solidaires Finances Publiques qui tente de faire le point de ses déploiements au Trésor Public. Les représentants du personnel dénoncent des déploiements opaques pour les usagers comme pour les personnels et regrettent que les agents soient si peu associés aux projets. Ce qui n’est pas sans conséquence sur leur travail et sur la capacité même des agents des impôts à accomplir leur mission. C’est la force de leurs réflexions : faire remonter les difficultés que le déploiement de l’IA génère et nous rappeler que l’enjeu de l’IA n’a rien de technique.
Les publications syndicales sur l’IA sont nombreuses. Souvent, elles sont assez généralistes… et peu spécifiques. C’est-à-dire qu’elles interrogent la place des technologies dans les transformations à venir, font des recommandations pour améliorer les modalités de gouvernance, mais ne regardent pas toujours ses déploiements concrets, préférant poser un cadre général pour en comprendre les effets, comme le montrait, parmi les plus récents, le Plaidoyer pour un dialogue social technologique de FO, les réflexions de la CGT sur le sujet ou celles de la CFE-CGC (voir également le manifeste commun de plusieurs organisations syndicales qui défend un dialogue social technologique ainsi que le tout récent site dédié DIAL-IA).
C’est un peu l’inverse que propose Solidaires Finances Publiques dans le court livre que le syndicat publie aux éditions Syllepse, L’IA aux impôts. Les syndicalistes y évoquent d’abord ce que le déploiement de l’intelligence artificielle change pour les agents et les usagers à la Direction générale des finances publiques (DGFIP), l’une des administrations françaises pionnières dans le développement des outils numériques et de l’IA.
L’IA y est déployée depuis 2014 notamment pour évaluer les risques et les schémas de fraude en modélisant les fraudes passées. Solidaires rappelle d’ailleurs les limites de ces schémas, qui peinent à détecter les fraudes atypiques et ses nouvelles modalités. Mais l’IA à la DGFIP, c’est d’abord de très nombreux projets que le syndicat lui-même ne parvient pas à recenser.
Ce sont d’abord des outils pour détecter la fraude des entreprises et des particuliers, notamment en repérant des anomalies ou des incohérences déclaratives depuis les déclarations de revenus, les comptes bancaires, les données patrimoniales et les informations provenant d’autres administrations, via le projet CFVR (« Ciblage de la fraude et valorisation des requêtes »). C’est également le projet Signaux faibles, pour détecter et identifier les entreprises en difficulté qui produit un score de risque depuis des données financières économiques et sociales des entreprises provenant de plusieurs services publics, afin d’évaluer leur rentabilité, leur endettement, leur niveau d’emploi, leurs difficultés à régler leurs cotisations sociales. C’est aussi un projet pour prédire les difficultés financières des collectivités locales à partir d’indicateurs comme l’endettement des communes. Un autre projet encore vise à estimer la valeur vénale et locative des biens immobiliers exploitant les données de transaction immobilières pour produire de meilleures estimations. Le projet Foncier innovant, lui, vise à détecter depuis des images aériennes, les piscines et bâtiments non déclarés par les contribuables (voir la très bonne synthèse sur ce programme réalisé par le projet Shaping AI). Le projet TAAP (« Traitement d’analyse auto prédictive ») vise à contrôler les dépenses à risques que l’Etat doit payer à ses fournisseurs afin d’accélérer ses règlements. Enfin, on trouve là aussi un voire des projets de chatbot pour répondre aux demandes simples des usagers sur impots.gouv.fr… (l’administration fiscale reçoit chaque année 12 millions de demandes par mail des contribuables, cependant une première expérimentation de réponses automatisées sur les biens immobiliers a produit 70 % de réponses erronées ou fausses).
La liste n’est pourtant pas exhaustive. De nombreux autres projets sont en phase d’expérimentations, même si leur documentation fait bien souvent défaut, à l’image de l’utilisation des réseaux sociaux pour lutter contre la fraude (que beaucoup affublent du doux nom de Big Brother Bercy), dont le bilan est très limité, mais qui a pourtant été accéléré, comme l’évoquait Le Monde. Lors d’une récente cartographie des systèmes d’intelligence artificielle en cours de déploiement au ministère des finances, les premiers échanges auraient révélé que l’administration avait du mal à recenser tous les projets.
Même sur les principaux projets qu’on vient d’énumérer, l’information disponible est très lacunaire, non seulement au grand public mais également aux agents eux-mêmes. L’IA publique se déploie d’abord et avant tout dans la plus grande opacité.
Pour Solidaires, cette opacité est entretenue. L’omerta a une composante politique, nous expliquent les représentants du personnel. Elle permet de désorganiser les luttes des personnels. Les nouveaux agents, qu’ils soient contractuels ou statutaires, sont privés de la connaissance de leurs missions, ils ont moins de compréhension de la chaîne de travail, ils ne savent pas pourquoi ils font ce qu’on leur dit de faire. « Le travail automatique empêche la conscientisation du service public, comme du travail. Il place les agents dans une routine qui les noie sous des canaux informatiques de dossier à traiter », nous expliquent-ils. L’IA permet de faire le job, sans avoir de connaissance métier. Il suffit de traiter les listes d’erreurs, de valider des informations. « Le risque, c’est de ne plus avoir d’agents qualifiés, mais interchangeables, d’un service l’autre ». Mis en difficultés par les objectifs de productivité, par des formations très courtes quand elles ne sont pas inexistantes, ils ne peuvent comprendre ni résister au travail prescrit.
Le développement de l’IA à la DGFIP « part rarement d’un besoin « terrain » », constatent les syndicalistes, c’est-à-dire que les agents sont rarement associés à l’expression des besoins comme à la réalisation des projets. Ceux-ci sont surtout portés par une commande politique et reposent quasi systématiquement sur des prestataires externes. Pour lancer ces projets, la DGFIP mobilise le Fonds pour la transformation de l’action publique (FTAP), lancé en 2017, qui est le catalyseur du financement des projets d’IA dans l’administration. Pour y prétendre, les projets doivent toujours justifier d’économies prévisionnelles, c’est-à-dire prédire les suppressions de postes que la numérisation doit produire. Dans l’administration publique, l’IA est donc clairement un outil pour supprimer des emplois, constate le syndicat. L’État est devenu un simple prestataire de services publics qui doit produire des services plus efficaces, c’est-à-dire rentables et moins chers. Le numérique est le moteur de cette réduction de coût, ce qui explique qu’il soit devenu omniprésent dans l’administration, transformant à la fois les missions des agents et la relation de l’usager à l’administration. Il s’impose comme un « enjeu de croissance », c’est-à-dire le moyen de réaliser des gains de productivité.
Pour Solidaires, ces transformations modifient les missions des personnels, transforment l’organisation comme les conditions de travail des personnels, changent « la façon de servir le public ». Le déploiement de l’IA dans le secteur public n’est pas capacitante. « L’introduction de l’IA émane de choix centralisés » de la seule direction, sans aucune concertation avec les personnels ou ses représentants. Les personnels (comme les publics d’ailleurs) ne reçoivent pas d’information en amont. La formation est rare. Et la transformation des métiers que produit l’intégration numérique consiste surtout en une intensification et une déqualification, en adéquation avec ce que répètent les sociologues du numérique. Ainsi par exemple, les agents du contrôle des dépenses de l’État sont désormais assignés à leurs écrans qui leur assènent les cadences. Les nouvelles dépenses à contrôler passent au rouge si elles ne sont pas vérifiées dans les 5 jours ! Les agents procèdent de moins en moins à leurs propres enquêtes, mais doivent valider les instructions des machines. Ainsi, les agents valident les dépenses, sans plus contrôler les « conditions de passation de marché public ». Même constat au contrôle fiscal, rapportent les représentants du personnel : les agents doivent accomplir les procédures répétitives et peu intéressantes que leur soumettent les machines. Les personnels sont dessaisis de la connaissance du tissu fiscal local. Ils ne peuvent même plus repérer de nouveaux types de fraudes. « On détecte en masse des fraudes simples, mais on délaisse les investigations sur la fraude complexe ». Les erreurs demandent des vérifications chronophages, puisque nul ne sait plus où elles ont lieu. Le risque, prévient Solidaires, c’est de construire un « service public artificiel », ou la modernisation conduit à la perte de compétences et à la dégradation du service. Où l’administration est réduite à une machine statistique. Le risque, comme s’en prévenait le Conseil d’Etat, c’est que la capacité à détecter les erreurs soit anesthésiée.
Cette déqualification ne touche pas que les agents, elle touche aussi les administrations dans leur capacité même à mener les projets. Les investissements sont transférés au privé, à l’image du Foncier innovant, confié à Capgemini et Google. Les projets d’IA sont largement externalisés et les administrations perdent leurs capacités de maîtrise, comme le notaient très bien les journalistes Matthieu Aron et Caroline Michel-Aguirre dans leur livre, Les infiltrés. Certains projets informatiques ont un taux d’externalisation supérieur à 80 % explique Solidaires – quand la Dinum estime qu’un taux supérieur à 70 % constitue déjà un risque de défaillance majeur.
Enfin, la numérisation éloigne les administrés de l’administration, comme le pointait la sociologue Clara Deville. Les agents estiment que les risques d’inexactitudes augmentent avec le remplissage automatique des déclarations de revenus. Avant, quand les agents recevaient les déclarations remplies par les usagers, ils pouvaient parfois détecter des erreurs manifestes, par exemple le fait de mettre des enfants mineurs en occupant de propriétés générant une taxe d’habitation à leur destination. Désormais, les données ne sont plus vérifiées. Les contribuables ne sont plus en obligation de reremplir leur déclaration s’il n’y a pas eu de changement de revenus ou de situation. Si le contribuable ne renvoie rien, on reprend les éléments fournis automatiquement. Le risque c’est de ne plus voir les défaillances de déclaration ou les difficultés que peuvent avoir certains publics, sans revenir vers eux. L’automatisation peut devenir un piège pour certains usagers.
Mais surtout, répètent les militants de Solidaires, les personnels sont confrontés à une opacité totale des projets. L’absence d’information sur les projets est d’abord le signe d’un dialogue social inexistant, particulièrement problématique. Mais l’opacité à d’autres conséquences, notamment une déqualification des agents. Les dépenses à contrôler sont désormais sélectionnées par la machine, mais les agents ignorent sur quels critères. « Pourquoi certaines dépenses insignifiantes qui n’étaient jamais contrôlées auparavant, le sont à présent, alors que d’autres sont validées en masse quand elles étaient scrupuleusement regardées avant l’IA. »
« Le TAAP a pour but d’améliorer les délais de paiement de l’Etat, un objectif louable. Il vise à alléger la sélection des dépenses à contrôler », nous expliquent en entretien les responsables de Solidaires Finances Publiques. Le problème, c’est que le critère n’est plus l’importance, mais le risque. Alors que les agents avaient toute latitude pour contrôler les dépenses qu’ils jugeaient problématiques ou prioritaires, le système leur impose désormais de regarder certaines dépenses plutôt que d’autres. C’est ainsi que des agents se sont vus par exemple devoir contrôler les dépenses d’essence des ambassades qui étaient jusqu’à présent des dépenses à faibles enjeux. La détermination des contrôles par les algorithmes est désormais organisée par en haut. Les data scientists en centrale fournissent aux agents des « listes Data Mining », c’est-à-dire des fichiers avec des listes d’entreprises ou des contribuables à contrôler et vérifier selon des axes de recherche, par exemple des listes d’entreprises soupçonnées de minorer leur TVA ou des listes de particuliers soupçonnés de faire une déclaration de valeur immobilière qui n’est pas au niveau du marché… Le risque, c’est qu’on pourrait dévoyer ces listes pour contrôler certaines catégories de populations ou d’entreprises, préviennent les syndicalistes, qui mettent en garde contre l’absence de garde-fous que produit cette centralisation du contrôle, qui pourrait demain devenir plus politique qu’elle n’est.
Les listes Data Mining sont générées par les data scientist du service central depuis des croisements de données. Ce sont des listes d’entreprises ou de particuliers à regarder. Ces listes doivent d’abord être apurées par les agents… Quand ils reçoivent des listes d’entreprises qui feraient trop de provisions par exemple (ce qui pourrait être un moyen de faire baisser leurs bénéfices), ils doivent les trier, par exemple sortir les compagnies d’assurances, qui, par nature, sont des entreprises qui font plus de provisions que d’autres. Dans ces listes, les anomalies détectées ne sont pas toutes compréhensibles aux agents chargés du contrôle et parfois le critère de recherche détecté par l’IA ne donne rien. Mais si l’agent trouve un autre axe de recherche de fraude, le dossier est statistiquement compté comme relevant d’une réussite du data mining. Ce qui a pour but d’augmenter les résultats que produit la recherche de fraude automatisée, alors qu’elle demeure bien souvent le résultat d’un travail spécifique des agents plutôt que le produit d’une liste fournie par les machines.
Le contrôle fiscal automatisé représente aujourd’hui 50 % du contrôle, mais les résultats notifiés (et non pas recouvrés) eux n’ont pas beaucoup progressé depuis l’expansion de l’automatisation. Ils stagnent à 13-14 %, c’est-à-dire environ 2 milliards d’euros, quand le contrôle fiscal atteint environ 13 milliards. Réaliser 50 % de contrôle automatisé est devenu un objectif, nous expliquent les syndicalistes. Si un service n’arrive pas à l’atteindre, les agents doivent prioriser le traitement des listes Data mining plutôt que de réaliser des contrôles d’initiatives. La vérification de ces listes produit surtout un travail fastidieux et chronophage, que les agents jugent souvent bien peu intéressant et qui ne produit pas beaucoup de résultats.
Le grand problème, estime encore Solidaires, c’est que le contrôle automatisé n’est pas très efficace sur la fraude complexe. A la direction de l’international qui s’occupe des fraudes les plus difficiles, il y a très peu d’utilisation de l’IA par exemple. Pour parvenir à mieux détecter les fraudes les plus évoluées, il faudrait que les agents de terrain qui en sont souvent les meilleurs observateurs, soient mieux associés aux orientations du contrôle centralisé des data-scientists. Ce n’est pas le cas. Alors que les outils pourraient venir aider les agents à faire leur travail, trop souvent, ils proposent surtout de le faire à leur place.
La DGFIP soutient qu’elle n’aurait pas mis en place de score de risque sur le contrôle fiscal… mais « certains agents rapportent que le traitement de listes Data mining fait ressortir régulièrement certains types de contribuables ». On peut malgré tout douter de cette absence de scoring, puisque le fait de lister des contribuables ou des entreprises selon des critères consiste bien à produire des listes classées selon un score.
Les personnels de la DGFIP sont inquiets, rapporte Solidaires. Pour eux, les outils d’IA ne sont pas aussi fiables qu’annoncés. Les contrôles engagés suite à des problèmes détectés « automatiquement » ne sont pas si automatiques : il faut des humains pour les vérifier et les traiter. Bien souvent, c’est l’enrichissement de ces dossiers par les services qui va permettre de donner lieu à une notification ou à un recouvrement. Enfin, le taux de recouvrement lié à l’automatisation est bien faible. L’IA peut s’avérer probante pour des fraudes ou des erreurs assez simples, mais ne sait pas retracer les fraudes élaborées.
Dans la surveillance des finances communales, les indicateurs remplacent les relations avec les personnels de mairie. Solidaires dénonce une industrialisation des procédés et une centralisation massive des procédures. L’IA change la nature du travail et génère des tâches plus répétitives. La DGFiP a perdu plus de 30 000 emplois depuis sa création, dénonce le syndicat. L’IA amplifie les dysfonctionnements à l’œuvre et prolonge la dégradation des conditions de travail. Quant au rapport coût/bénéfice des innovations à base d’IA, le syndicat pose la question d’une innovation pour elle-même. Dans le cadre du projet Foncier Innovant, la mise en oeuvre à coûté 33 millions. La maintenance s’élève à quelques 2 millions par an… Alors que le projet aurait rapporté 40 millions de recettes fiscales. Le rapport coût bénéfice est bien souvent insuffisamment documenté.
Pour Solidaires, ces constats invitent à réinventer le syndicalisme. Le syndicat estime qu’il est difficile de discuter des techniques mobilisées, des choix opérés. Solidaires constate que l’administration « s’exonère » de la communication minimale qu’elle devrait avoir sur les projets qu’elle déploie : coûts, bilans des expérimentations, communication sur les marchés publics passés, points d’étapes, documentation, rapports d’impacts… Pour Solidaires, l’omerta a bien une composante politique. Faire valoir le dialogue social technologique est une lutte constante, rapporte Solidaires. Trouver de l’information sur les projets en cours nécessite de mobiliser bien des méthodes, comme de surveiller le FTAP, les profils Linkedin des responsables des administrations, leurs interventions… mais également à mobiliser la CADA (commission d’accès aux documents administratifs) pour obtenir des informations que les représentants des personnels ne parviennent pas à obtenir autrement.
Ce patient travail de documentation passe aussi par le travail avec d’autres organisations syndicales et militantes, pour comprendre à quoi elles sont confrontées. Pour Solidaires, l’omerta volontaire de l’administration sur ses projets organise « l’obsolescence programmée du dialogue social » qui semble avoir pour but d’exclure les organisations syndicales du débat pour mieux externaliser et dégrader les services publics.
Pourtant, les personnels de terrains sont les mieux à même de juger de l’efficacité des dispositifs algorithmiques, insiste Solidaires. La difficulté à nouveau consiste à obtenir l’information et à mobiliser les personnels. Et Solidaires de s’inquiéter par exemple de l’expérimentation Sicardi, un outil RH qui vise à proposer une liste de candidats pour des postes à pourvoir, automatiquement, au risque de rendre fonctionnel des critères discriminatoires. Solidaires observe comme nombres d’autres organisations les dysfonctionnements à l’œuvre dans l’administration publique et au-delà. « Aujourd’hui, Solidaires Finances Publiques n’a aucun moyen pour confirmer ou infirmer que les algorithmes auto-apprenants utilisés dans le contrôle fiscal sont vierges de tout biais. À notre connaissance, aucun mécanisme n’a été institué en amont ou en aval pour vérifier que les listes de data mining ne comportaient aucun biais ».
Avec le déploiement de l’IA, on introduit un principe de rentabilité du contrôle fiscal, estiment les représentants du personnel. Ce souci de rentabilité du contrôle est dangereux, car il remet en cause l’égalité de tous devant l’impôt, qui est le principal gage de son acceptation.
Solidaires conclut en rappelant que le syndicat n’est pas contre le progrès. Nul ne souhaite revenir au papier carbone. Reste que la modernisation est toujours problématique car elle vient toujours avec des objectifs de réduction massive des moyens humains. Dans l’administration publique, l’IA est d’abord un prétexte, non pour améliorer les missions et accompagner les agents, mais pour réduire les personnels. Le risque est que cela ne soit pas un moyen mais un but. Faire que l’essentiel du contrôle fiscal, demain, soit automatisé.
« L’apparente complexité de ces outils ne saurait les faire échapper au débat démocratique ». En tout cas, ce petit livre montre, à l’image du travail réalisé par Changer de Cap auprès des usagers de la CAF, plus que jamais, l’importance de faire remonter les difficultés que les personnes rencontrent avec ces systèmes.
Bien souvent, quand on mobilise la transformation numérique, celle-ci ne se contente pas d’être une transformation technique, elle est aussi organisationnelle, managériale. A lire le petit livre de Solidaires Finances Publiques, on a l’impression de voir se déployer une innovation à l’ancienne, top down, peu impliquante, qui ne mobilise pas les savoir-faire internes, mais au contraire, les dévitalise. Les syndicalistes aussi ne comprennent pas pourquoi le terrain n’est pas mieux mobilisé pour concevoir ces outils. Certes, la fonction publique est structurée par des hiérarchies fortes. Reste que les transformations en cours ne considèrent pas l’expertise et les connaissances des agents. Les décideurs publics semblent répondre à des commandes politiques, sans toujours connaître les administrations qu’ils pilotent. Dans le discours officiel, ils disent qu’il faut associer les personnels, les former. Dans un sondage réalisé auprès des personnels, le syndicat a constaté que 85 % des agents qui utilisent l’IA au quotidien n’ont pas reçu de formation.
Le sujet de l’IA vient d’en haut plutôt que d’être pensé avec les équipes, pour les aider à faire leur métier. Ces exemples nous rappellent que le déploiement de l’IA dans les organisations n’est pas qu’un enjeu de calcul, c’est d’abord un enjeu social et de collaboration, qui risque d’écarter les personnels et les citoyens des décisions et des orientations prises.
10.04.2025 à 16:01
Framasoft
We (Framasoft) are proud to present the 2025 roadmap for the project ! PeerTube is improving thanks to (only) two developers, the financial support of donors, the support of the NLnet foundation, and external contributions, whether in the form of code, design (hi La Coopérative des Internets), or user feedback from hundreds of people ! Thanks to all of you !
Before we list future improvements to PeerTube, we can already tell you what we’ve done at the beginning of the year.
Broadly speaking (since you can get the detailed version of what’s new in version 7.1 here), you’ll find the redesign of the « About » page, your PeerTube content as podcasts and improved playback comfort thanks to the update of the p2p-media-loader, the library that allows PeerTube to use P2P in the video player !
As for the released late 2024 app (available on F-Droid, the Play Store and the App Store), it allows you to watch videos (pretty handy for a video-viewing app, isn’t it ?), have a local account so you can add videos to a « to watch later » list, explore platforms, channels and so on, all while avoiding the dark patterns of applications developed by the GAFAMs (like doom scrolling, ubiquitous notifications, etc.).
Version 0.6.0 (released end of January) now allows you to see comments under videos !
Illustration : David Revoy – Licence : CC-By 4.0
This year will see the arrival of a much requested feature : the ability to transfer ownership of a channel to another account ! Currently, a channel is linked to the PeerTube account that created it. It will soon be possible for the account associated with the channel (or the admin of the instance) to transfer the ownership of this channel and propagate this change throughout the federation (as is already the case when changing the ownership of a video).
This feature goes hand in hand with the development of another much-requested feature : shared administration of a channel (see… below 👀).
For many instance administrators, it is important to be able to customise their platform as they see fit (in their own image, in the image of the institution they represent, etc.). That’s why we’re working on making it easier to make changes such as the general colours of the interface, the ability to add a logo, customise the video player, allow or disallow the integration of videos according to an allowlist/blocklist, and much more… This extensive customisation of the interface will be accessible to admins directly from the PeerTube web interface.
PeerTube is designed for a wide range of audiences : institutions, non-profits, media, companies, etc. In order to simplify the configuration of a platform, we are going to develop a graphical configuration wizard that will allow, after the installation of PeerTube, to apply and display several recommended configuration rules according to the desired profile of the platform (with the installation of plugins depending on the use case : adding chat if lives are authorised, LDAP/OpenID, etc.).
Illustration : David Revoy (CC-By)
Once the work on transferring channel ownership is complete, we’ll finally be able to offer the multi-user channel management ! To the public, the channel will belong to a main account, but can be managed by several other users in the same instance. These co-manager accounts will have the same rights (upload videos, create and manage playlists, customise the channel, etc.) but will not be able to :
These changes will be accompanied by a number of design and database changes, which is a lot of work !
This year will also see an improved warning system for sensitive content and « quality of life » features for the management and moderation of instances, allowing institutions, associations, media, administrations, etc. to use PeerTube more serenely. This will be done via shared lists of instances or accounts to be banned and also via auto-tags preventing video publication that contain specific keywords. We’re also planning to add batch action capabilities on videos, so you can update the licence of multiple videos in a single action, for example.
The mobile application is an excellent way to facilitate the adoption of PeerTube by a wide audience. We now want to expand the audience to also include tablet and TV users.
We’ll also allow you to connect to your PeerTube account, giving you access to all your subscriptions, likes, comments, history, notifications, settings and playlists.
By the end of the year, you’ll be able to play your videos in the background, stream them from your phone to your « smart » TV (initially Android ; Apple TVs will take a bit more work) and receive notifications. The video player will also be improved.
For content creators, it will be possible to upload and manage your videos, start a live broadcast and manage your channels directly from the application !
It’s thanks to the trust you’ve placed in us over the years, your financial (and/or moral) support, the help of la Coopérative des Internets and the funding of the NLnet Foundation that we can offer you this roadmap.
We hope you like it enough to continue to help us !
10.04.2025 à 16:00
Framasoft
Nous (Framasoft) sommes fiers de vous présenter la feuille de route 2025 pour le projet ! Si PeerTube s’améliore c’est grâce à (seulement) deux développeurs, au soutien financier des donateurs et donatrices, à celui de la fondation NLnet, et aux contributions externes, que ce soit au niveau du code, du design (coucou La Coopérative des Internets) ou des retours utilisateurices de centaines de personnes ! Merci à vous !
Avant de lister les futures améliorations de PeerTube, nous pouvons déjà vous parler de ce que nous avons réalisé en ce début d’année.
Dans les grandes lignes (puisque vous pouvez avoir la version détaillée des nouveautés de la version 7.1 ici), vous trouverez le redesign de la page « A propos », vos contenus PeerTube en podcasts ou encore un confort de lecture amélioré grâce à la mise à jour de p2p-media-loader, la bibliothèque qui permet à PeerTube de faire du P2P dans le lecteur vidéo !
L’application quant à elle, sortie fin 2024 (disponible sur F-Droid, le Play Store et l’App Store) vous permet de regarder des vidéos (plutôt pratique pour une application de visionnage de vidéos, vous en conviendrez), d’avoir un compte local vous permettant d’ajouter des vidéos à une liste « à voir plus tard », d’explorer les plateformes, les chaînes, etc., tout en sortant des dark patterns des applications développées par les GAFAM (comme le doom scrolling, les notifications omniprésentes, etc.).
La version 0.6.0 (sortie fin janvier) vous permet maintenant de consulter les commentaires sous les vidéos !
Illustration : David Revoy – Licence : CC-By 4.0
Cette année arrivera une fonctionnalité très demandée : la possibilité de transférer la propriété une chaîne à un autre compte ! Pour le moment, une chaîne est liée au compte PeerTube qui l’a créée. Il sera bientôt possible pour le compte associé à la chaîne (ou à l’admin de l’instance) de transférer la propriété de cette chaîne et de propager ce changement dans la fédération (comme c’est déjà le cas avec le changement de propriétaire d’une vidéo).
Cette fonctionnalité va de pair avec le développement d’une autre fonctionnalité très demandée : l’administration partagée d’une chaîne (voir… plus bas 👀).
Pour beaucoup d’admin d’instances il est important de pouvoir personnaliser sa plateforme comme bon leur semble (à son image, à celle de l’institution qu’iel représente, etc.). C’est pourquoi nous travaillerons à faciliter les changements tels que les couleurs générales de l’interface, la possibilité de mettre un logo, de personnaliser le lecteur vidéo, de permettre ou non l’intégration de vidéos en fonction d’une liste d’autorisation ou de blocage et plus encore… Cette personnalisation poussée de l’interface sera accessible aux admin directement depuis l’interface web de PeerTube.
PeerTube peut s’adresser à différents types de public : institutions, familles, associations, médias, entreprises… Afin de simplifier la configuration d’une plateforme, nous allons développer un assistant de configuration graphique qui permettra, après l’installation de PeerTube, d’appliquer et d’afficher plusieurs règles de configuration recommandées selon le profil voulu de la plateforme (avec l’installation d’extensions selon le cas d’utilisation : ajout du tchat si les lives sont autorisés, LDAP/OpenID, etc.).
Illustration : David Revoy (CC-By)
Une fois le travail réalisé sur le transfert de propriété de chaîne terminé, nous pourrons enfin vous proposer la gestion de chaîne(s) à plusieurs ! 🎉
Publiquement, la chaîne appartiendra toujours à un compte principal mais pourra être gérée par plusieurs autres utilisateurs de la même instance. Ces comptes co-gérants auront les mêmes droits (téléverser des vidéos, créer et gérer des playlists, personnaliser la chaîne, etc.) mais ne pourront pas :
Ces changements iront de pair avec de nombreux changements au niveau du design et de la base de données, ce qui représente un sacré travail !
Cette année apportera aussi une amélioration du système d’avertissement pour les contenus sensibles et des fonctionnalités de « qualité de vie » pour l’administration et la modération des instances, permettant aux institutions, associations, médias, administrations, etc., de s’emparer de PeerTube plus sereinement. Cela pourra se faire via des listes partagées d’instances ou comptes à bloquer, ou via des auto-tags empêchant des publications ou lives utilisant tel ou tel mot clé ! Nous prévoyons aussi d’ajouter des possibilités d’actions en lot, pour par exemple, mettre à jour la licence de plusieurs vidéos en une seule action.
L’application mobile est un excellent moyen de faciliter l’adoption de PeerTube auprès d’un large public. Nous souhaitons élargir l’audience aux utilisateurs et utilisatrices de tablettes et de télévisions.
Nous allons également permettre la connexion à votre compte PeerTube, vous donnant accès à tous vos abonnements, likes, commentaires, historique, notifications, paramètres et listes de lecture.
En fin d’année, vous aurez la possibilité de lire vos vidéos en arrière-plan, de les diffuser depuis votre téléphone vers votre télévision connectée (Android, dans un premier temps ; les télévisions Apple demandant un peu plus de travail), et de recevoir des notifications. Une amélioration du lecteur vidéo sera aussi effectuée.
Pour les créateurs et créatrices de contenu, il sera possible de téléverser, gérer vos vidéos, démarrer une diffusion en direct et gérer vos chaînes directement depuis l’application.
C’est à la fois grâce à la confiance que vous nous accordez depuis des années, votre soutien financier (et/ou moral), l’aide de la Coopérative des Internets, et le financement de la fondation NLnet que nous pouvons vous proposer cette feuille de route.
Nous espérons donc qu’elle vous plaira suffisamment pour continuer à nous aider !
09.04.2025 à 09:42
Framasoft
Bienvenue dans ce troisième numéro de FramIActu, la revue mensuelle sur l’actualité de l’IA !
Ce mois-ci, encore, nous avons plein de choses à dire au sujet de l’IA et ses impacts sur nos sociétés.
Pour rappel, nous mettons en avant notre veille sur le sujet sur notre site de curation dédié ainsi que sur Mastodon et Bluesky (sur le compte dédié FramamIA) !
Vous avez préparé votre boisson chaude (ou froide, c’est le printemps après tout !) préférée ? Alors c’est parti pour la FramIActu !
Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0
Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0
C’est tout pour ce mois-ci mais si
08.04.2025 à 09:42
Framasoft
08.04.2025 à 08:08
Stéphane Crozat
Depuis 2023 et la mise à disposition du grand public des IAG, l’exercice rédactionnel à l’université dysfonctionne. Stéphane Crozat en retranscrit un nouvel épisode dans cet article (les noms des étudiants ont été anonymisés).
« En effet, il y a un vrai risque de dénaturer le rôle principal de l’école : aider les élèves à développer leur esprit critique et leur autonomie. Imaginez un monde où les machines réalisent nos tâches à notre place. Selon une étude de John Doe en 2022, s’appuyer trop souvent sur des outils comme l’IA pourrait rendre les élèves moins capables de structurer leurs idées ou de résoudre des problèmes par eux-mêmes. »
(Alice, Bob, Claude & Daniel, 2024)
Je suis enseignant-chercheur à l’Université de Technologie de Compiègne (UTC) et cet article fait suite à deux publications précédentes liées au déploiement de l’IA générative (IAG) dans le contexte de l’enseignement supérieur :
À l’automne 2024 j’ai animé le cours WE01 à l’UTC avec deux collègues Quentin Duchemin et Stéphane Poinsart. C’est un cours du département Technologie, Sociétés, Humanités (TSH) que suivent des élèvent ingénieurs. Le cours était intitulé « Écrire, communiquer et collaborer sur le web » et il consistait en des apports théoriques autour du fonctionnement technique de l’Internet, de l’histoire du Web, du droit d’auteur et de la culture libre, du capitalisme de surveillance ou encore des enjeux sociaux-écologiques liés au numérique. Le cours comporte également des apports méthodologiques autour de la lecture et la production d’articles scientifiques ou la critique de ce que le Web produit.
Le travail demandé aux étudiants en WE01 était essentiellement tourné vers la réalisation de fiches de lecture et de productions écrites de type scientifique autour de ces thématiques, en groupe, publiées en ligne sous licence libre, finalisées par une présentation en direct sur la radio locale Graf’hit.
Alice, Bob, Claude et Daniel ont rédigé ensemble 3 séries d’articles, dont la dernière a donné lieu à une lecture en direct sur la radio Graf’hit. Nous faisons ici une synthèse du processus de rédaction qui a été mobilisé. Le déroulé complet de leurs travaux, détaillé article par article, peut-être consulté en annexe de l’article original, que nous n’avons pas reproduit ici.
Image générée par un être humain grâce au Générateur de Grise Bouille
Bob injecte dans ChatGPT la bibliographie, et probablement le sujet, donnés par les enseignants au début de cours, afin d’obtenir un plan détaillé. On y trouve des rubriques comme « concepts vus en cours » qui ne correspondent pas à des concepts vus en cours ou des « arguments réfutables » qui répondent à une demande de produire des arguments réfutables, mais au sens de Karl Popper, alors qu’ici le sens et plutôt le sens trivial (ChatGPT n’a pas assisté au cours).
Exemple d’extrait de plan détaillé obtenu avec ChatGPT à partir du sujet fourni en entrée par les enseignants
Valeur éducative et éthique des exercices rédactionnels
Bob demande également à ChatGPT des références bibliographiques pour étayer les propos, ce qui est aussi une consigne donnée dans le cours. Cela conduit à l’apparition de sept sources hallucinées, c’est à dire sept références bibliographiques crédibles mais totalement inventées (les revues scientifiques mentionnées existent pour la plupart).
On note le J. Doe du début, qui correspond en anglais à une personne non identifiée (typiquement en cas de découverte d’un cadavre sans papier dans une série américaine). L’enseignant relit le plan détaillé, mais ne vérifie pas les références. Il prend donc le temps de corriger ce travail de ChatGPT et le trouve globalement de bonne qualité. Bravo ChatGPT.
Exemple de références bibliographiques hallucinées obtenues avec ChatGPT
(image réalisée par le Générateur de Grise Bouille)
Claude ne participe pas du tout à la mise au point du plan détaillé, il laisse Bob travailler seul. Il repart ensuite de ce plan détaillé, et sans aucune interaction avec Bob, sans consulter les sources, il fait un travail de développement du plan sous forme de phrases. Il ajoute néanmoins quelques éléments provenant de sources authentiques.
Ici on note donc que Claude ne fait pas directement usage de l’IA, mais qu’il finalise un article complet sur la base d’un plan complètement produit par IA et de références inventées. C’est un très bon cas de prolétarisation, on a une division des tâches et des responsabilités : Bob produit le plan puis Claude l’article sans connexion avec le travail de Bob.
Exemple d’extrait de plan détaillé obtenu avec ChatGPT mobilisé en entrée pour mener une rédaction sans ChatGPT
L’IA pourrait-elle remplacer l’enseignant ?
Argumentation face à l’hypothèse que l’IA pourrait réduire les interactions humaines en classe (Taylor, 2022).
Proposition : L’IA doit être considérée comme un outil complémentaire et non comme un substitut de l’enseignant.
Exemple de rédaction réalisée par Claude sans ChatGPT sur la base du plan détaillé précédent
L’IA pourrait-elle remplacer l’enseignant ? Si l’IA permet d’automatiser des tâches et de personnaliser l’apprentissage, elle ne peut remplacer l’interaction humaine essentielle. C’est d’ailleurs ce que défend Taylor (2022) avec l’avertissement qu’il propose face à la baisse d’interactions humaines en classe. Or, l’enseignant apporte un soutien émotionnel et une compréhension de l’humain que l’IA ne peux bien entendu pas produire. (Cuisinier, 2007).
L’IA devrait donc compléter l’enseignant et non le remplacer. De plus nous agissons différemment quand on se sait observé (effet Hawthorne), ce qui rajoute une limite supplémentaire, qu’il convient de notifier.
Alice et Daniel produisent en réponse un autre texte qui défend une position plus en faveur des IA, afin de construire pour la radio un dialogue autour d’études scientifiques orientées pour et contre.
Daniel injecte dans ChatGPT le texte de Bob et Claude et demande à ChatGPT un nouveau plan pour y répondre. Celui-ci sera donc basé sur un plan déjà généré avec ChatGPT et des fausses références. Il demande aussi à ChatGPT de nuancer ses propos. Il mobilise également un article réel, celui de Crozat (qui existe bien, nous pouvons en témoigner). Notons que cet article traite d’un cas précédent d’usage frauduleux de ChatGPT dans le même cours WE01 un an auparavant. Daniel l’a-t-il lu ?
Le résultat obtenu n’est plus cohérent avec les propos prêtés aux auteurs inventés, personne ne se rend compte que cela n’a plus de sens, même au sein de la fiction créée par ChatGPT.
Alice et Daniel se retrouvent avec une seconde bibliographie hallucinée. Il y a une cohérence partielle avec la première, on retrouve presque les mêmes entrées… Mais les auteurs, articles et revues se mélangent, suivant la logique combinatoire de l’IAG. Doe est remobilisé autour des données personnelles, tandis que Miller est dans un cas mobilisé sur les algorithmes de recommandations, dans l’autre sur les inégalités de ressources dans les écoles.
Exemple de proposition de ChatGPT avec nuance et avec citation de faux articles
Enfin, l’affirmation selon laquelle l’IA « ne remplacera pas l’enseignant » mérite également d’être nuancée. Smith et Lee rappellent que l’IA peut modifier de manière intrinsèque le rôle de l’enseignant, le faisant passer d’un « transmetteur de savoirs » à un « facilitateur d’apprentissages ».
Seconde bibliographie hallucinée, variation combinatoire de la première
Alice rédige partiellement sans ChatGPT, exclusivement à partir de la seconde version de la bibliographie. On note dans cette intervention l’apparition des prénoms des faux auteurs. Peut-être ont-ils été demandés à ChatGPT pour correspondre au format demandé en cours.
On note aussi l’apparition de nouveaux arguments prêtés à certains auteurs inventés. Comme les articles n’existent pas, la seule façon d’étayer leur contenu avec de nouveaux arguments était d’interroger à nouveau ChatGPT.
Premier argument généré avec ChatGPT
L’éducation sans IA privilégie l’interaction directe entre enseignants et élèves, permettant un lien pédagogique plus fort, difficilement remplaçable par des technologies (Taylor, 2022)
Argument complémentaire demandé à ChatGPT
Charlotte Taylor en 2022 ajoute que cela peut même appauvrir le processus d’apprentissage en rendant les enseignements moins inspirants et moins personnalisés.
Là où les étudiants avaient comme consigne de travailler ensemble, en groupe, ils ont plutôt mis en place un travail séquentiel. Dans ce cadre, ils semblent avoir très peu communiqué entre eux et de pas s’être relus les uns et les autres.
S’ils n’avaient pas utilisé ChatGPT ils auraient probablement été obligés de collaborer, certains travaux trop peu qualitatifs les auraient fait réagir et auraient, sinon, fait intervenir l’enseignant.
Vous l’avez peut-être deviné, mais leur sujet c’était… IA et école.
Image générée par un être humain grâce au générateur de mèmes de Framasoft – https://framamemes.org/
« L’usage d’IA génératives est simplement interdit dans le cadre de l’UV : ça ne vous apportera rien puisque le but est d’apprendre à écrire par vous-même. »
(extrait de la présentation du cours WE01 en 2024)
L’usage des IAG était donc interdit dans le cadre du cours et le règlement des études de l’UTC a été aménagé en 2024 pour interdire a priori l’usage des IAG (elles ne sont autorisées que si les profs l’explicitent).
Nous avons découvert l’usage d’IAG uniquement à la fin, en direct, à la radio alors que des références inventées par ChatGPT étaient mobilisées et que l’auteur John Doe interpelle l’enseignant qui anime l’émission. Après ré-étude du contenu nous avons soulevé un usage pluriel de l’IAG dans le cadre de WE01 par ces 4 étudiants (voir le récit complet en Annexe).
Nous avons rencontré ces quatre personnes pour un entretien d’environ quinze minutes chacune et leur avons posé trois questions :
— Avez-vous utilisé une IAG dans le cadre de l’un de vos exercices rédactionnels ?
— Saviez-vous que l’IAG était interdite dans le cadre de ces exercices ?
— Auriez-vous été capables de réaliser les exercices sans utiliser l’IAG ?
À l’issue de cet échange, voici ce que nous avons relevé :
Les quatre étudiants avaient correctement suivi l’UV tout au long de l’année et étaient considérés par leur encadrant comme des élèves sérieux. Ils ont semblé honnêtes et désolés dans les échanges que nous avons eus avec eux. Ils ont présenté des excuses et ont semblé prendre conscience du caractère fâcheux de la situation.
J’ai l’impression que ces étudiants ont tellement intégré l’IA générative dans leurs usages qu’ils ne sont pas rendus compte de l’importance de ce qu’ils faisaient malgré leur connaissance de l’interdiction :
Nous sélectionnons ici quelques citations provenant du travail fourni par les étudiants. La citation de début d’article leur est également créditée.
Nous nous passerons de commentaire, sidérés en quelque sorte, par la pertinence de tels propos critiques vis-à-vis de l’usage de l’IAG dans le contexte pédagogique, écrits sous la dictée de l’IAG.
« Avec l’avènement de l’intelligence artificielle (IA), les pratiques éducatives, notamment les exercices de rédaction, sont mises à l’épreuve. Il devient tentant de laisser les machines écrire à notre place, mais la question se pose : est-ce réellement bénéfique pour les étudiants ? »
« Au cœur de la question se trouve l’importance cognitive et créative de l’écriture. Bien plus qu’un simple moyen de communication, l’écriture est un outil puissant pour structurer notre pensée. »
« Si l’on délègue ces tâches à une IA, on risque de perdre cette précieuse occasion d’entraîner nos capacités cognitives. »
« C’est une démarche éthique : l’apprenant ne se contente pas de répéter des informations, il les reformule et se les approprie. En remplaçant cette démarche par l’automatisation, ne risquons-nous pas de perdre cette dimension humaine, essentielle à la construction de notre individualité ? »
« Pourtant, n’y a-t-il pas un risque que cette facilité entraîne une paresse intellectuelle, voire une dépendance à l’IA pour formuler nos pensées ? »
« Son utilisation massive par les étudiants est pourtant indiscutable ; nos professeurs qui se plaignent régulièrement de corriger des copies réalisées par IA ce qu’il considère, à juste titre, comme une perte de temps. »
Si les étudiants étaient passés à côté de leur sujet il y aurait eu une certaine cohérence, mais ici les problématiques sont très bien transcrites par leurs travaux. Qui tire quel bénéfice de l’IAG ? Quelles conséquences ? Déstructuration de la pensée ? Perte cognitive ? Question éthique ? Construction de l’individualité ? Paresse ? Dépendance ? Perte de temps…
Si l’on fait l’hypothèse que les étudiants ont tout de même lu ce qu’ils ont rendu, on observe donc une décorrélation entre la prise de recul proposée par leurs propos et l’absence totale de distance manifestée dans leur pratique.
On pourra penser que ce cas est isolé est qu’il ne fait pas bon raisonner à partir d’un cas particulier.
Mais le cas n’est pas isolé. Je relève des cas similaires depuis 2023 et l’arrivée de ChatGPT. Suite à l’émission de radio, nous avons pris un temps de relecture d’autres travaux, révélant l’usage, moins évident, sans rôle principal pour John Doe, mais néanmoins régulier, d’IAG. Les échanges avec les collègues et les étudiants confirment également cette généralisation.
Par ailleurs, les étudiants forment un modèle raisonnable pour notre analyse. Ils sont assez représentatifs de la population UTCéenne, un étudiant étranger en reprise d’étude, deux étudiants tout juste sortis du lycée et un dernier en second semestre d’étude. Ces étudiants sont tout ce même tous les quatre présents à l’UTC depuis moins d’un an, on pourra faire l’hypothèse que des personnes plus expérimentées auraient moins utilisées l’IAG… ou se seraient moins fait détectées.
Rappelons que l’entrée à l’UTC est fortement sélective, les étudiants qui entrent à l’UTC étaient tous des « premiers de la classe » au lycée. Je ne sais pas exactement quoi faire de cette information, on pourra penser que des bons élèves sont moins enclins à tricher, au contraire que ce qui a fait leur réussite est leur habitude à optimiser, ou encore que confrontés pour la première fois à des difficultés scolaires à l’UTC ils n’ont pas su bien réagir. Les échanges avec des élèves de terminale font penser que tous utilisent les IAG, élèves à l’aise avec leur scolarité ou non.
Il y avait néanmoins des raisons objectives de penser que dans le cadre du cours WE01 les étudiants auraient pu être moins enclins à l’usage d’un ChatGPT.
Sur le fond, le sujet même du cours porte sur une dimension critique vis-à-vis du numérique, des enjeux socio-techniques associées, avec, notamment une réflexion sur le capitalisme du surveillance et la captation des données par les GAFAM. Surtout, le cours comporte une partie consacrée à l’écriture scientifique, qui expose le concept de réfutabilité de Karl Popper ou encore… l’importance de vérifier et citer ses sources !
« Lorsqu’une ressource est pré-sélectionnée, vérifier et qualifier la source permet de pré-évaluer la fiabilité de la ressource. »
Cours de WE01
Sur la forme, WE01 est un cours plutôt « cool », avec du travail horizontal et des méthodes assez proches de l’éducation populaire. Certains étudiants tutoient les profs ce qui assez inhabituel en début de cursus. On pourrait penser que l’idée de tricher dans ce contexte aurait posé des freins moraux. Enfin le cours n’intégrait pas d’examen et la validation était assurée sur la base d’une « obligation de moyen » : être présent, faire le job honnêtement. Tricher dans ce contexte était surprenant.
Une hypothèse néanmoins est que nous avons insisté sur le caractère « pour de vrai » des exercices proposés : articles publiés sur le web et communiqués via les médias sociaux, passage en direct à la radio. Peut-être avons nous réussi, en quelque sorte, sur ce point, et que leur interprétation du « pour de vrai » a impliqué pour eux, in fine, une obligation de résultat, quelques soient les moyens.
Une hypothèse complémentaire est que ces étudiants ont tellement intégré l’IA générative dans leurs usages qu’ils ne sont plus aptes à en évaluer les conséquences pour eux. Il se retrouvent à tricher et prendre des risques importants pour leur scolarité dans un contexte avec très peu de pression scolaire et dans un cadre relationnel de confiance. C’est donc à la fois une très mauvaise évaluation bénéfices/risques et une mauvaise attitude vis-à-vis de leur propre sens éthique.
Je pense que cet usage est fortement généralisé à l’UTC, ce qui les dédouane un peu et nous interroge fortement en retour ; leur erreur est un usage tellement médiocre qu’ils ont laissé passer une ou deux fausses références grossières, mais nous aurions pu ne pas nous en apercevoir, et nous pensons que ça a été le cas pour d’autres groupes.
Je fais l’hypothèse que ces habitudes ont été ancrées au lycée et même qu’ils ont perdu des compétences de rédaction et de travail en groupe que nous attendons de leur part (et cela peut nous interroger, peut-être encore plus que nous le faisons déjà, sur les conséquences à l’UTC). Cela va plus vite de faire faire par ChatGPT, que de s’installer et prendre un temps pour partager un espace de travail à plusieurs. Donc : ça vaut le coup. Ils ne se sont pas « fait prendre » ou n’ont pas subi de conséquences importantes jusque-là. Donc : ça marche.
La thèse TAC, pour Technologie Anthropologiquement Constitutive, formalisée à l’Université de Technologie de Compiègne, trouve son origine dans les travaux des anthropologues et philosophes André Leroi-Gourhan, Gilbert Simondon ou Bernard Stiegler. Une hypothèse fondatrice de cette théorie est que les humains et les objets techniques forment un couplage indissociable, dès l’origine. On abandonne l’idée que l’humain précède et surplombe la technique, que celle-ci n’est que le simple produit du travail ou de l’intelligence humaine, postérieure à une humanité qui en serait indépendante (Steiner, 2010).
La technique n’est pas un élément extérieur à l’humanité, mais la façon même dont celle-ci conçoit le monde. Les trains modifient la proximité entre les villes selon les connexions existantes ou non, la lumière artificielle modifie les cycles du jour et de la nuit, ou celui des saisons, les voyages spatiaux permettent d’imaginer exploiter des ressources situées dans l’espace ou se réfugier une autre planète si la terre n’est plus habitable.
Les objets techniques portent en leurs propriétés physiques des possibles et des probables. Le couteau, dur, pointu, solide, avec une lame d’une certaine taille embarque le geste de planter. Une propriété fondamentale du téléphone portable est qu’il est… portable. Sa taille, son autonomie, son mode de préhension rendent sa présence permanente au côté de l’humain aisée, naturelle en quelque sorte.
La technique n’est donc jamais neutre puisqu’elle configure notre rapport au monde. Nos usages, nos intentions, nos projets, ce que l’on veut faire, sont déjà, au moins en partie, pré-configurés par l’accès au monde rendu possible via la technique. La technique n’est pas neutre non plus car ceux qui la développent ne sont pas neutres. Les concepteurs d’une technique ont des représentations du monde qui sous-tendent ce pourquoi il veulent la faire advenir, ils visent un objectif qui est souhaitable, bon, selon eux. (Steiner, 2024)
Écrire avec un ordinateur, c’est écrire avec une machine à calculer. Donc, à un moment ou un autre, on a envie de la faire calculer. J’ai fait de l’ingénierie documentaire pendant 20 ans, l’objectif de mes travaux via la conception de chaîne éditoriales était d’automatiser, de calculer donc, des tâches de manipulation documentaires (Crozat, 2007). Parce que l’on considère que la mise en forme n’est pas une étape créative, qu’elle n’a pas de réelle valeur ajoutée, que l’on peut la déléguer à la machine. Je me souviens, tout de même, avoir croisé des éditeurs, des artisans de la mise en forme, qui n’étaient pas d’accord. Je devais penser qu’ils étaient rétrogrades, qu’ils s’accrochaient à un savoir-faire en voie de disparition. On dirait, à présent que c’est moi qui m’accroche…
En tous cas, en fin de compte, puisque la technique n’est pas neutre, ce qui compte c’est de se demander ce que le numérique en général, et l’utilisation de l’IA en particulier fait à notre pensée. Dans le lignée de Jack Goody, Bruno Bachimont (2000) parle de raison computationnelle pour désigner ces transformations induites par l’usage du numérique.
La technique pose toujours problème, c’est par essence un pharmakon, un remède en même temps qu’un poison, au sens qu’a réactivé Bernard Stiegler depuis Platon). Par exemple, l’écriture est un remède aux limites de la mémoire humaine, en même temps, ce qui amoindrit cette mémoire. L’informatique permet d’objectiver des impacts socio-écologiques tout en engendrant de nouveaux impacts socio-écologiques.
« [Platon] décrit alors l’écriture alors comme un pharmakon, mot grec signifiant à la fois le remède et le poison : à la fois remède pour la mémoire, car elle permet de stocker et de conserver les connaissances accumulées, mais aussi poison pour la pensée, car en fixant les connaissances et en épargnant aux individus de se les remémorer, l’écriture empêche leur mémoire de s’exercer. Bref, l’écriture, qui semblait innocente et bénéfique, a aussi de quoi inquiéter. »
(Alombert, 2023)
Un problème soulevé par l’usage des IAG qui doit être considéré en contexte pédagogique est celui de la prolétarisation intellectuelle, phénomène déjà largement observé et étudié sur le plan des activités manuelles dans le cadre de l’industrialisation. La prolétarisation est « ce qui consiste à priver un sujet (producteur, consommateur, concepteur) de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser) »
(Petit, 2013).
« Passer une commande à une machine, aussi performante soit-elle, ne revient pas à exercer techniquement sa pensée ; au contraire, le savoir-écrire a ici été extériorisé dans la machine numérique sous forme d’automatismes algorithmiques, de même que les savoir-faire avaient été extériorisés dans les machines-outils sous forme d’automatismes mécaniques. De même que l’artisan privé de ses savoir-faire s’était vu prolétarisé. En perdant nos savoir-écrire, nous risquons de devenir des prolétaires de la pensée. »
(Alombert, 2023)
Anne Alombert (2025) précise que « nous risquons de perdre notre capacité à nous exprimer en la déléguant aux algorithmes et en nous contentant de lire bêtement les textes produits »
et avec elle notre capacité non seulement de mémorisation, mais, peut-être surtout d’imagination.
En tous cas, l’idée que la machine est un instrument de délégation des travaux humains pénibles est ancré depuis la période industrielle au moins, probablement depuis la révolution agraire. L’ordinateur est dédié aux tâches cognitives, certains trouveront les tâches d’écriture fastidieuses, il est logique que l’ordinateur soit alors mobilisé comme assistance. Puis, de l’assistance au remplacement il n’y a qu’un pas. L’histoire de l’industrie nous le montre également.
À ce stade, la question que l’on doit se poser, c’est quel sens cela a-t-il de former la lecture et à l’écriture dans un monde où les IAG savent faire ce travail infiniment plus rapidement ?
Une idée défendue par certains comme une évidence, puisqu’il faut bien vivre avec son temps, serait de faire évoluer les formations pour, non plus enseigner comment, par exemple, bien lire et écrire, mais plutôt comment bien utiliser les IAG pour faire ce travail à notre place. C’est aussi applicable à l’expression graphique ou à l’écriture de code informatique. S’il est raisonnable de penser, sur le modèle de l’artisanat, que certaines tâches intellectuelles continueront d’échapper à la machine, il est tout aussi raisonnable de penser, sur le modèle de la mécanisation des tâches manuelles déjà opérée, que le bon usage d’une machine avancée ne nécessitera pas de compétences avancées.
Selon Jacques Ellul, c’est la recherche systématisée de l’efficacité qui est problématique, car elle vide de leur sens les tâches qui sont menées, transformant le pourquoi on fait en comment on fait le plus efficacement possible (Rognon, 2020). Ainsi, l’idée de faire évoluer nos cours vers des formations à l’usage des IAG pourrait bien impliquer une évolution de l’ingénierie, de la conception de machines donc, à un objectif amoindri, d’utilisation de machines, voire d’utilisation par les machines.
Nous observons donc que les étudiants ne savent plus, en entrant à l’université, jouer le jeu de la lecture et de l’écriture, et qu’il le font faire, au moins en partie, par une IAG. D’autre part, nous nous questionnons sur l’intérêt même de défendre ce type de compétence quand on observe en aval que les ingénieurs mobilisent également massivement ces outils pour faire de la veille, produire des rapports ou des présentations. Eux non plus ne veulent plus ni lire ni n’écrire.
En attendant de mieux comprendre ce qui se passe et comment faire évoluer nos formations, nous avons procédé à quelques modifications. WE01 était intitulé « Écrire, communiquer et collaborer sur le web », nous le renommons « Questionner le Web » et le faisons évoluer en conséquence. Nous avons assoupli les exercices rédactionnels, décidés à être moins exigeants et à demander un travail plus modeste en volume. En contre-partie nous avons restitué un examen de contrôle des connaissances. L’objectif du cours devient alors moins de savoir écrire que de disposer d’éléments pour aider à se poser des questions et à remettre en cause les évidences du numérique, dans une logique technocritique.
Nous déconseillons l’usage des IAG tout en les autorisant. Nous imposons en revanche une prise de recul, inspirés par ce que notre collègue Hugues Choplin à développé à l’UTC dans le cadre de son cours IS04.
« Vous ajouterez une section IAG à votre projet pour spécifier si vous avez utilisé des IAG (ou des IA de correction, de traduction…) et si oui : Indiquez quelles IA ont été utilisées, pour quelles parties du travail et pour quelles raisons ; Reproduisez une copie des prompts et des résultats ; Indiquez si les résultats ont été retravaillés et comment. »
Extrait de la présentation du cours WE01 en 2025
Nous réfléchissons à un cours WE02 « Questionner l’IA » qui serait un pendant de WE01, orienté vers l’IA donc. Nous avons pris la décision d’attendre deux ou trois ans pour cela, histoire de se donner de l’espace pour consacrer l’énergie nécessaire au suivi d’une actualité très dynamique. Histoire également de se donner un peu de temps pour mieux analyser les évolutions en amont au lycée, en aval dans le monde socio-économique, et à les initiatives prises dans l’enseignement supérieur. Histoire, peut-être, que le domaine se stabilise un peu… ou pas.
Ces diverses attitudes sont autant de pistes pour maintenir une attitude active et critique vis-à-vis d’un phénomène qui percute l’ensemble de la société et que nous ne pouvons ignorer dans l’enseignement supérieur. Même quand on ne s’y intéresse pas par plaisir, donc.