ACCÈS LIBRE
13.04.2025 à 09:00
IA aux impôts : vers un « service public artificiel » ?
Texte intégral (4702 mots)
Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 13 novembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.
L’IA dans les services publics, on en parle plus qu’on ne la voit, regrette le syndicat Solidaires Finances Publiques qui tente de faire le point de ses déploiements au Trésor Public. Les représentants du personnel dénoncent des déploiements opaques pour les usagers comme pour les personnels et regrettent que les agents soient si peu associés aux projets. Ce qui n’est pas sans conséquence sur leur travail et sur la capacité même des agents des impôts à accomplir leur mission. C’est la force de leurs réflexions : faire remonter les difficultés que le déploiement de l’IA génère et nous rappeler que l’enjeu de l’IA n’a rien de technique.
Les publications syndicales sur l’IA sont nombreuses. Souvent, elles sont assez généralistes… et peu spécifiques. C’est-à-dire qu’elles interrogent la place des technologies dans les transformations à venir, font des recommandations pour améliorer les modalités de gouvernance, mais ne regardent pas toujours ses déploiements concrets, préférant poser un cadre général pour en comprendre les effets, comme le montrait, parmi les plus récents, le Plaidoyer pour un dialogue social technologique de FO, les réflexions de la CGT sur le sujet ou celles de la CFE-CGC (voir également le manifeste commun de plusieurs organisations syndicales qui défend un dialogue social technologique ainsi que le tout récent site dédié DIAL-IA).
C’est un peu l’inverse que propose Solidaires Finances Publiques dans le court livre que le syndicat publie aux éditions Syllepse, L’IA aux impôts. Les syndicalistes y évoquent d’abord ce que le déploiement de l’intelligence artificielle change pour les agents et les usagers à la Direction générale des finances publiques (DGFIP), l’une des administrations françaises pionnières dans le développement des outils numériques et de l’IA.
L’opacité comme principe, la désorganisation comme résultat
L’IA y est déployée depuis 2014 notamment pour évaluer les risques et les schémas de fraude en modélisant les fraudes passées. Solidaires rappelle d’ailleurs les limites de ces schémas, qui peinent à détecter les fraudes atypiques et ses nouvelles modalités. Mais l’IA à la DGFIP, c’est d’abord de très nombreux projets que le syndicat lui-même ne parvient pas à recenser.
Ce sont d’abord des outils pour détecter la fraude des entreprises et des particuliers, notamment en repérant des anomalies ou des incohérences déclaratives depuis les déclarations de revenus, les comptes bancaires, les données patrimoniales et les informations provenant d’autres administrations, via le projet CFVR (« Ciblage de la fraude et valorisation des requêtes »). C’est également le projet Signaux faibles, pour détecter et identifier les entreprises en difficulté qui produit un score de risque depuis des données financières économiques et sociales des entreprises provenant de plusieurs services publics, afin d’évaluer leur rentabilité, leur endettement, leur niveau d’emploi, leurs difficultés à régler leurs cotisations sociales. C’est aussi un projet pour prédire les difficultés financières des collectivités locales à partir d’indicateurs comme l’endettement des communes. Un autre projet encore vise à estimer la valeur vénale et locative des biens immobiliers exploitant les données de transaction immobilières pour produire de meilleures estimations. Le projet Foncier innovant, lui, vise à détecter depuis des images aériennes, les piscines et bâtiments non déclarés par les contribuables (voir la très bonne synthèse sur ce programme réalisé par le projet Shaping AI). Le projet TAAP (« Traitement d’analyse auto prédictive ») vise à contrôler les dépenses à risques que l’Etat doit payer à ses fournisseurs afin d’accélérer ses règlements. Enfin, on trouve là aussi un voire des projets de chatbot pour répondre aux demandes simples des usagers sur impots.gouv.fr… (l’administration fiscale reçoit chaque année 12 millions de demandes par mail des contribuables, cependant une première expérimentation de réponses automatisées sur les biens immobiliers a produit 70 % de réponses erronées ou fausses).
La liste n’est pourtant pas exhaustive. De nombreux autres projets sont en phase d’expérimentations, même si leur documentation fait bien souvent défaut, à l’image de l’utilisation des réseaux sociaux pour lutter contre la fraude (que beaucoup affublent du doux nom de Big Brother Bercy), dont le bilan est très limité, mais qui a pourtant été accéléré, comme l’évoquait Le Monde. Lors d’une récente cartographie des systèmes d’intelligence artificielle en cours de déploiement au ministère des finances, les premiers échanges auraient révélé que l’administration avait du mal à recenser tous les projets.
Même sur les principaux projets qu’on vient d’énumérer, l’information disponible est très lacunaire, non seulement au grand public mais également aux agents eux-mêmes. L’IA publique se déploie d’abord et avant tout dans la plus grande opacité.
Pour Solidaires, cette opacité est entretenue. L’omerta a une composante politique, nous expliquent les représentants du personnel. Elle permet de désorganiser les luttes des personnels. Les nouveaux agents, qu’ils soient contractuels ou statutaires, sont privés de la connaissance de leurs missions, ils ont moins de compréhension de la chaîne de travail, ils ne savent pas pourquoi ils font ce qu’on leur dit de faire. « Le travail automatique empêche la conscientisation du service public, comme du travail. Il place les agents dans une routine qui les noie sous des canaux informatiques de dossier à traiter », nous expliquent-ils. L’IA permet de faire le job, sans avoir de connaissance métier. Il suffit de traiter les listes d’erreurs, de valider des informations. « Le risque, c’est de ne plus avoir d’agents qualifiés, mais interchangeables, d’un service l’autre ». Mis en difficultés par les objectifs de productivité, par des formations très courtes quand elles ne sont pas inexistantes, ils ne peuvent comprendre ni résister au travail prescrit.
L’IA : des projets venus d’en haut
Le développement de l’IA à la DGFIP « part rarement d’un besoin « terrain » », constatent les syndicalistes, c’est-à-dire que les agents sont rarement associés à l’expression des besoins comme à la réalisation des projets. Ceux-ci sont surtout portés par une commande politique et reposent quasi systématiquement sur des prestataires externes. Pour lancer ces projets, la DGFIP mobilise le Fonds pour la transformation de l’action publique (FTAP), lancé en 2017, qui est le catalyseur du financement des projets d’IA dans l’administration. Pour y prétendre, les projets doivent toujours justifier d’économies prévisionnelles, c’est-à-dire prédire les suppressions de postes que la numérisation doit produire. Dans l’administration publique, l’IA est donc clairement un outil pour supprimer des emplois, constate le syndicat. L’État est devenu un simple prestataire de services publics qui doit produire des services plus efficaces, c’est-à-dire rentables et moins chers. Le numérique est le moteur de cette réduction de coût, ce qui explique qu’il soit devenu omniprésent dans l’administration, transformant à la fois les missions des agents et la relation de l’usager à l’administration. Il s’impose comme un « enjeu de croissance », c’est-à-dire le moyen de réaliser des gains de productivité.
Intensification et déqualification
Pour Solidaires, ces transformations modifient les missions des personnels, transforment l’organisation comme les conditions de travail des personnels, changent « la façon de servir le public ». Le déploiement de l’IA dans le secteur public n’est pas capacitante. « L’introduction de l’IA émane de choix centralisés » de la seule direction, sans aucune concertation avec les personnels ou ses représentants. Les personnels (comme les publics d’ailleurs) ne reçoivent pas d’information en amont. La formation est rare. Et la transformation des métiers que produit l’intégration numérique consiste surtout en une intensification et une déqualification, en adéquation avec ce que répètent les sociologues du numérique. Ainsi par exemple, les agents du contrôle des dépenses de l’État sont désormais assignés à leurs écrans qui leur assènent les cadences. Les nouvelles dépenses à contrôler passent au rouge si elles ne sont pas vérifiées dans les 5 jours ! Les agents procèdent de moins en moins à leurs propres enquêtes, mais doivent valider les instructions des machines. Ainsi, les agents valident les dépenses, sans plus contrôler les « conditions de passation de marché public ». Même constat au contrôle fiscal, rapportent les représentants du personnel : les agents doivent accomplir les procédures répétitives et peu intéressantes que leur soumettent les machines. Les personnels sont dessaisis de la connaissance du tissu fiscal local. Ils ne peuvent même plus repérer de nouveaux types de fraudes. « On détecte en masse des fraudes simples, mais on délaisse les investigations sur la fraude complexe ». Les erreurs demandent des vérifications chronophages, puisque nul ne sait plus où elles ont lieu. Le risque, prévient Solidaires, c’est de construire un « service public artificiel », ou la modernisation conduit à la perte de compétences et à la dégradation du service. Où l’administration est réduite à une machine statistique. Le risque, comme s’en prévenait le Conseil d’Etat, c’est que la capacité à détecter les erreurs soit anesthésiée.
Cette déqualification ne touche pas que les agents, elle touche aussi les administrations dans leur capacité même à mener les projets. Les investissements sont transférés au privé, à l’image du Foncier innovant, confié à Capgemini et Google. Les projets d’IA sont largement externalisés et les administrations perdent leurs capacités de maîtrise, comme le notaient très bien les journalistes Matthieu Aron et Caroline Michel-Aguirre dans leur livre, Les infiltrés. Certains projets informatiques ont un taux d’externalisation supérieur à 80 % explique Solidaires – quand la Dinum estime qu’un taux supérieur à 70 % constitue déjà un risque de défaillance majeur.
Enfin, la numérisation éloigne les administrés de l’administration, comme le pointait la sociologue Clara Deville. Les agents estiment que les risques d’inexactitudes augmentent avec le remplissage automatique des déclarations de revenus. Avant, quand les agents recevaient les déclarations remplies par les usagers, ils pouvaient parfois détecter des erreurs manifestes, par exemple le fait de mettre des enfants mineurs en occupant de propriétés générant une taxe d’habitation à leur destination. Désormais, les données ne sont plus vérifiées. Les contribuables ne sont plus en obligation de reremplir leur déclaration s’il n’y a pas eu de changement de revenus ou de situation. Si le contribuable ne renvoie rien, on reprend les éléments fournis automatiquement. Le risque c’est de ne plus voir les défaillances de déclaration ou les difficultés que peuvent avoir certains publics, sans revenir vers eux. L’automatisation peut devenir un piège pour certains usagers.
Ce que produit l’automatisation des contrôles
Mais surtout, répètent les militants de Solidaires, les personnels sont confrontés à une opacité totale des projets. L’absence d’information sur les projets est d’abord le signe d’un dialogue social inexistant, particulièrement problématique. Mais l’opacité à d’autres conséquences, notamment une déqualification des agents. Les dépenses à contrôler sont désormais sélectionnées par la machine, mais les agents ignorent sur quels critères. « Pourquoi certaines dépenses insignifiantes qui n’étaient jamais contrôlées auparavant, le sont à présent, alors que d’autres sont validées en masse quand elles étaient scrupuleusement regardées avant l’IA. »
« Le TAAP a pour but d’améliorer les délais de paiement de l’Etat, un objectif louable. Il vise à alléger la sélection des dépenses à contrôler », nous expliquent en entretien les responsables de Solidaires Finances Publiques. Le problème, c’est que le critère n’est plus l’importance, mais le risque. Alors que les agents avaient toute latitude pour contrôler les dépenses qu’ils jugeaient problématiques ou prioritaires, le système leur impose désormais de regarder certaines dépenses plutôt que d’autres. C’est ainsi que des agents se sont vus par exemple devoir contrôler les dépenses d’essence des ambassades qui étaient jusqu’à présent des dépenses à faibles enjeux. La détermination des contrôles par les algorithmes est désormais organisée par en haut. Les data scientists en centrale fournissent aux agents des « listes Data Mining », c’est-à-dire des fichiers avec des listes d’entreprises ou des contribuables à contrôler et vérifier selon des axes de recherche, par exemple des listes d’entreprises soupçonnées de minorer leur TVA ou des listes de particuliers soupçonnés de faire une déclaration de valeur immobilière qui n’est pas au niveau du marché… Le risque, c’est qu’on pourrait dévoyer ces listes pour contrôler certaines catégories de populations ou d’entreprises, préviennent les syndicalistes, qui mettent en garde contre l’absence de garde-fous que produit cette centralisation du contrôle, qui pourrait demain devenir plus politique qu’elle n’est.
Les listes Data Mining sont générées par les data scientist du service central depuis des croisements de données. Ce sont des listes d’entreprises ou de particuliers à regarder. Ces listes doivent d’abord être apurées par les agents… Quand ils reçoivent des listes d’entreprises qui feraient trop de provisions par exemple (ce qui pourrait être un moyen de faire baisser leurs bénéfices), ils doivent les trier, par exemple sortir les compagnies d’assurances, qui, par nature, sont des entreprises qui font plus de provisions que d’autres. Dans ces listes, les anomalies détectées ne sont pas toutes compréhensibles aux agents chargés du contrôle et parfois le critère de recherche détecté par l’IA ne donne rien. Mais si l’agent trouve un autre axe de recherche de fraude, le dossier est statistiquement compté comme relevant d’une réussite du data mining. Ce qui a pour but d’augmenter les résultats que produit la recherche de fraude automatisée, alors qu’elle demeure bien souvent le résultat d’un travail spécifique des agents plutôt que le produit d’une liste fournie par les machines.
Le contrôle fiscal automatisé représente aujourd’hui 50 % du contrôle, mais les résultats notifiés (et non pas recouvrés) eux n’ont pas beaucoup progressé depuis l’expansion de l’automatisation. Ils stagnent à 13-14 %, c’est-à-dire environ 2 milliards d’euros, quand le contrôle fiscal atteint environ 13 milliards. Réaliser 50 % de contrôle automatisé est devenu un objectif, nous expliquent les syndicalistes. Si un service n’arrive pas à l’atteindre, les agents doivent prioriser le traitement des listes Data mining plutôt que de réaliser des contrôles d’initiatives. La vérification de ces listes produit surtout un travail fastidieux et chronophage, que les agents jugent souvent bien peu intéressant et qui ne produit pas beaucoup de résultats.
Le grand problème, estime encore Solidaires, c’est que le contrôle automatisé n’est pas très efficace sur la fraude complexe. A la direction de l’international qui s’occupe des fraudes les plus difficiles, il y a très peu d’utilisation de l’IA par exemple. Pour parvenir à mieux détecter les fraudes les plus évoluées, il faudrait que les agents de terrain qui en sont souvent les meilleurs observateurs, soient mieux associés aux orientations du contrôle centralisé des data-scientists. Ce n’est pas le cas. Alors que les outils pourraient venir aider les agents à faire leur travail, trop souvent, ils proposent surtout de le faire à leur place.
La DGFIP soutient qu’elle n’aurait pas mis en place de score de risque sur le contrôle fiscal… mais « certains agents rapportent que le traitement de listes Data mining fait ressortir régulièrement certains types de contribuables ». On peut malgré tout douter de cette absence de scoring, puisque le fait de lister des contribuables ou des entreprises selon des critères consiste bien à produire des listes classées selon un score.
Les personnels de la DGFIP sont inquiets, rapporte Solidaires. Pour eux, les outils d’IA ne sont pas aussi fiables qu’annoncés. Les contrôles engagés suite à des problèmes détectés « automatiquement » ne sont pas si automatiques : il faut des humains pour les vérifier et les traiter. Bien souvent, c’est l’enrichissement de ces dossiers par les services qui va permettre de donner lieu à une notification ou à un recouvrement. Enfin, le taux de recouvrement lié à l’automatisation est bien faible. L’IA peut s’avérer probante pour des fraudes ou des erreurs assez simples, mais ne sait pas retracer les fraudes élaborées.
Dans la surveillance des finances communales, les indicateurs remplacent les relations avec les personnels de mairie. Solidaires dénonce une industrialisation des procédés et une centralisation massive des procédures. L’IA change la nature du travail et génère des tâches plus répétitives. La DGFiP a perdu plus de 30 000 emplois depuis sa création, dénonce le syndicat. L’IA amplifie les dysfonctionnements à l’œuvre et prolonge la dégradation des conditions de travail. Quant au rapport coût/bénéfice des innovations à base d’IA, le syndicat pose la question d’une innovation pour elle-même. Dans le cadre du projet Foncier Innovant, la mise en oeuvre à coûté 33 millions. La maintenance s’élève à quelques 2 millions par an… Alors que le projet aurait rapporté 40 millions de recettes fiscales. Le rapport coût bénéfice est bien souvent insuffisamment documenté.
Face à l’IA, réinventer les luttes
Pour Solidaires, ces constats invitent à réinventer le syndicalisme. Le syndicat estime qu’il est difficile de discuter des techniques mobilisées, des choix opérés. Solidaires constate que l’administration « s’exonère » de la communication minimale qu’elle devrait avoir sur les projets qu’elle déploie : coûts, bilans des expérimentations, communication sur les marchés publics passés, points d’étapes, documentation, rapports d’impacts… Pour Solidaires, l’omerta a bien une composante politique. Faire valoir le dialogue social technologique est une lutte constante, rapporte Solidaires. Trouver de l’information sur les projets en cours nécessite de mobiliser bien des méthodes, comme de surveiller le FTAP, les profils Linkedin des responsables des administrations, leurs interventions… mais également à mobiliser la CADA (commission d’accès aux documents administratifs) pour obtenir des informations que les représentants des personnels ne parviennent pas à obtenir autrement.
Ce patient travail de documentation passe aussi par le travail avec d’autres organisations syndicales et militantes, pour comprendre à quoi elles sont confrontées. Pour Solidaires, l’omerta volontaire de l’administration sur ses projets organise « l’obsolescence programmée du dialogue social » qui semble avoir pour but d’exclure les organisations syndicales du débat pour mieux externaliser et dégrader les services publics.
Pourtant, les personnels de terrains sont les mieux à même de juger de l’efficacité des dispositifs algorithmiques, insiste Solidaires. La difficulté à nouveau consiste à obtenir l’information et à mobiliser les personnels. Et Solidaires de s’inquiéter par exemple de l’expérimentation Sicardi, un outil RH qui vise à proposer une liste de candidats pour des postes à pourvoir, automatiquement, au risque de rendre fonctionnel des critères discriminatoires. Solidaires observe comme nombres d’autres organisations les dysfonctionnements à l’œuvre dans l’administration publique et au-delà. « Aujourd’hui, Solidaires Finances Publiques n’a aucun moyen pour confirmer ou infirmer que les algorithmes auto-apprenants utilisés dans le contrôle fiscal sont vierges de tout biais. À notre connaissance, aucun mécanisme n’a été institué en amont ou en aval pour vérifier que les listes de data mining ne comportaient aucun biais ».
Avec le déploiement de l’IA, on introduit un principe de rentabilité du contrôle fiscal, estiment les représentants du personnel. Ce souci de rentabilité du contrôle est dangereux, car il remet en cause l’égalité de tous devant l’impôt, qui est le principal gage de son acceptation.
Solidaires conclut en rappelant que le syndicat n’est pas contre le progrès. Nul ne souhaite revenir au papier carbone. Reste que la modernisation est toujours problématique car elle vient toujours avec des objectifs de réduction massive des moyens humains. Dans l’administration publique, l’IA est d’abord un prétexte, non pour améliorer les missions et accompagner les agents, mais pour réduire les personnels. Le risque est que cela ne soit pas un moyen mais un but. Faire que l’essentiel du contrôle fiscal, demain, soit automatisé.
« L’apparente complexité de ces outils ne saurait les faire échapper au débat démocratique ». En tout cas, ce petit livre montre, à l’image du travail réalisé par Changer de Cap auprès des usagers de la CAF, plus que jamais, l’importance de faire remonter les difficultés que les personnes rencontrent avec ces systèmes.
Bien souvent, quand on mobilise la transformation numérique, celle-ci ne se contente pas d’être une transformation technique, elle est aussi organisationnelle, managériale. A lire le petit livre de Solidaires Finances Publiques, on a l’impression de voir se déployer une innovation à l’ancienne, top down, peu impliquante, qui ne mobilise pas les savoir-faire internes, mais au contraire, les dévitalise. Les syndicalistes aussi ne comprennent pas pourquoi le terrain n’est pas mieux mobilisé pour concevoir ces outils. Certes, la fonction publique est structurée par des hiérarchies fortes. Reste que les transformations en cours ne considèrent pas l’expertise et les connaissances des agents. Les décideurs publics semblent répondre à des commandes politiques, sans toujours connaître les administrations qu’ils pilotent. Dans le discours officiel, ils disent qu’il faut associer les personnels, les former. Dans un sondage réalisé auprès des personnels, le syndicat a constaté que 85 % des agents qui utilisent l’IA au quotidien n’ont pas reçu de formation.
Le sujet de l’IA vient d’en haut plutôt que d’être pensé avec les équipes, pour les aider à faire leur métier. Ces exemples nous rappellent que le déploiement de l’IA dans les organisations n’est pas qu’un enjeu de calcul, c’est d’abord un enjeu social et de collaboration, qui risque d’écarter les personnels et les citoyens des décisions et des orientations prises.
10.04.2025 à 16:01
2025 PeerTube Roadmap !
Texte intégral (1401 mots)
We (Framasoft) are proud to present the 2025 roadmap for the project ! PeerTube is improving thanks to (only) two developers, the financial support of donors, the support of the NLnet foundation, and external contributions, whether in the form of code, design (hi La Coopérative des Internets), or user feedback from hundreds of people ! Thanks to all of you !
Already done at the beginning of the year
Before we list future improvements to PeerTube, we can already tell you what we’ve done at the beginning of the year.
Broadly speaking (since you can get the detailed version of what’s new in version 7.1 here), you’ll find the redesign of the « About » page, your PeerTube content as podcasts and improved playback comfort thanks to the update of the p2p-media-loader, the library that allows PeerTube to use P2P in the video player !
As for the released late 2024 app (available on F-Droid, the Play Store and the App Store), it allows you to watch videos (pretty handy for a video-viewing app, isn’t it ?), have a local account so you can add videos to a « to watch later » list, explore platforms, channels and so on, all while avoiding the dark patterns of applications developed by the GAFAMs (like doom scrolling, ubiquitous notifications, etc.).
Version 0.6.0 (released end of January) now allows you to see comments under videos !

Illustration : David Revoy – Licence : CC-By 4.0
What’s coming this year
Channel transfer
This year will see the arrival of a much requested feature : the ability to transfer ownership of a channel to another account ! Currently, a channel is linked to the PeerTube account that created it. It will soon be possible for the account associated with the channel (or the admin of the instance) to transfer the ownership of this channel and propagate this change throughout the federation (as is already the case when changing the ownership of a video).
This feature goes hand in hand with the development of another much-requested feature : shared administration of a channel (see… below 👀).
Instance customisation
For many instance administrators, it is important to be able to customise their platform as they see fit (in their own image, in the image of the institution they represent, etc.). That’s why we’re working on making it easier to make changes such as the general colours of the interface, the ability to add a logo, customise the video player, allow or disallow the integration of videos according to an allowlist/blocklist, and much more… This extensive customisation of the interface will be accessible to admins directly from the PeerTube web interface.
Set-up wizard
PeerTube is designed for a wide range of audiences : institutions, non-profits, media, companies, etc. In order to simplify the configuration of a platform, we are going to develop a graphical configuration wizard that will allow, after the installation of PeerTube, to apply and display several recommended configuration rules according to the desired profile of the platform (with the installation of plugins depending on the use case : adding chat if lives are authorised, LDAP/OpenID, etc.).

Illustration : David Revoy (CC-By)
Multi-user channel management
Once the work on transferring channel ownership is complete, we’ll finally be able to offer the multi-user channel management ! To the public, the channel will belong to a main account, but can be managed by several other users in the same instance. These co-manager accounts will have the same rights (upload videos, create and manage playlists, customise the channel, etc.) but will not be able to :
- delete the channel ;
- transfer it ;
- manage the list of co-managers
These changes will be accompanied by a number of design and database changes, which is a lot of work !
But also…
This year will also see an improved warning system for sensitive content and « quality of life » features for the management and moderation of instances, allowing institutions, associations, media, administrations, etc. to use PeerTube more serenely. This will be done via shared lists of instances or accounts to be banned and also via auto-tags preventing video publication that contain specific keywords. We’re also planning to add batch action capabilities on videos, so you can update the licence of multiple videos in a single action, for example.
What the year holds for the mobile application
The mobile application is an excellent way to facilitate the adoption of PeerTube by a wide audience. We now want to expand the audience to also include tablet and TV users.
We’ll also allow you to connect to your PeerTube account, giving you access to all your subscriptions, likes, comments, history, notifications, settings and playlists.
By the end of the year, you’ll be able to play your videos in the background, stream them from your phone to your « smart » TV (initially Android ; Apple TVs will take a bit more work) and receive notifications. The video player will also be improved.
For content creators, it will be possible to upload and manage your videos, start a live broadcast and manage your channels directly from the application !
PeerTube moves forward thanks to you !
It’s thanks to the trust you’ve placed in us over the years, your financial (and/or moral) support, the help of la Coopérative des Internets and the funding of the NLnet Foundation that we can offer you this roadmap.
We hope you like it enough to continue to help us !
10.04.2025 à 16:00
Feuille de route PeerTube 2025 !
Texte intégral (1599 mots)
Nous (Framasoft) sommes fiers de vous présenter la feuille de route 2025 pour le projet ! Si PeerTube s’améliore c’est grâce à (seulement) deux développeurs, au soutien financier des donateurs et donatrices, à celui de la fondation NLnet, et aux contributions externes, que ce soit au niveau du code, du design (coucou La Coopérative des Internets) ou des retours utilisateurices de centaines de personnes ! Merci à vous !
Déjà fait en ce début d’année
Avant de lister les futures améliorations de PeerTube, nous pouvons déjà vous parler de ce que nous avons réalisé en ce début d’année.
Dans les grandes lignes (puisque vous pouvez avoir la version détaillée des nouveautés de la version 7.1 ici), vous trouverez le redesign de la page « A propos », vos contenus PeerTube en podcasts ou encore un confort de lecture amélioré grâce à la mise à jour de p2p-media-loader, la bibliothèque qui permet à PeerTube de faire du P2P dans le lecteur vidéo !
L’application quant à elle, sortie fin 2024 (disponible sur F-Droid, le Play Store et l’App Store) vous permet de regarder des vidéos (plutôt pratique pour une application de visionnage de vidéos, vous en conviendrez), d’avoir un compte local vous permettant d’ajouter des vidéos à une liste « à voir plus tard », d’explorer les plateformes, les chaînes, etc., tout en sortant des dark patterns des applications développées par les GAFAM (comme le doom scrolling, les notifications omniprésentes, etc.).
La version 0.6.0 (sortie fin janvier) vous permet maintenant de consulter les commentaires sous les vidéos !

Illustration : David Revoy – Licence : CC-By 4.0
Ce que l’année nous réserve
Transfert de chaîne
Cette année arrivera une fonctionnalité très demandée : la possibilité de transférer la propriété une chaîne à un autre compte ! Pour le moment, une chaîne est liée au compte PeerTube qui l’a créée. Il sera bientôt possible pour le compte associé à la chaîne (ou à l’admin de l’instance) de transférer la propriété de cette chaîne et de propager ce changement dans la fédération (comme c’est déjà le cas avec le changement de propriétaire d’une vidéo).
Cette fonctionnalité va de pair avec le développement d’une autre fonctionnalité très demandée : l’administration partagée d’une chaîne (voir… plus bas 👀).
Personnalisation d’instance
Pour beaucoup d’admin d’instances il est important de pouvoir personnaliser sa plateforme comme bon leur semble (à son image, à celle de l’institution qu’iel représente, etc.). C’est pourquoi nous travaillerons à faciliter les changements tels que les couleurs générales de l’interface, la possibilité de mettre un logo, de personnaliser le lecteur vidéo, de permettre ou non l’intégration de vidéos en fonction d’une liste d’autorisation ou de blocage et plus encore… Cette personnalisation poussée de l’interface sera accessible aux admin directement depuis l’interface web de PeerTube.
Assistant de configuration
PeerTube peut s’adresser à différents types de public : institutions, familles, associations, médias, entreprises… Afin de simplifier la configuration d’une plateforme, nous allons développer un assistant de configuration graphique qui permettra, après l’installation de PeerTube, d’appliquer et d’afficher plusieurs règles de configuration recommandées selon le profil voulu de la plateforme (avec l’installation d’extensions selon le cas d’utilisation : ajout du tchat si les lives sont autorisés, LDAP/OpenID, etc.).

Illustration : David Revoy (CC-By)
Gestion de chaîne… à plusieurs
Une fois le travail réalisé sur le transfert de propriété de chaîne terminé, nous pourrons enfin vous proposer la gestion de chaîne(s) à plusieurs ! 🎉
Publiquement, la chaîne appartiendra toujours à un compte principal mais pourra être gérée par plusieurs autres utilisateurs de la même instance. Ces comptes co-gérants auront les mêmes droits (téléverser des vidéos, créer et gérer des playlists, personnaliser la chaîne, etc.) mais ne pourront pas :
- supprimer la chaîne ;
- la transférer ;
- gérer la liste des co-gérant⋅es
Ces changements iront de pair avec de nombreux changements au niveau du design et de la base de données, ce qui représente un sacré travail !
Mais aussi…
Cette année apportera aussi une amélioration du système d’avertissement pour les contenus sensibles et des fonctionnalités de « qualité de vie » pour l’administration et la modération des instances, permettant aux institutions, associations, médias, administrations, etc., de s’emparer de PeerTube plus sereinement. Cela pourra se faire via des listes partagées d’instances ou comptes à bloquer, ou via des auto-tags empêchant des publications ou lives utilisant tel ou tel mot clé ! Nous prévoyons aussi d’ajouter des possibilités d’actions en lot, pour par exemple, mettre à jour la licence de plusieurs vidéos en une seule action.
Ce que l’année réserve pour l’application mobile
L’application mobile est un excellent moyen de faciliter l’adoption de PeerTube auprès d’un large public. Nous souhaitons élargir l’audience aux utilisateurs et utilisatrices de tablettes et de télévisions.
Nous allons également permettre la connexion à votre compte PeerTube, vous donnant accès à tous vos abonnements, likes, commentaires, historique, notifications, paramètres et listes de lecture.
En fin d’année, vous aurez la possibilité de lire vos vidéos en arrière-plan, de les diffuser depuis votre téléphone vers votre télévision connectée (Android, dans un premier temps ; les télévisions Apple demandant un peu plus de travail), et de recevoir des notifications. Une amélioration du lecteur vidéo sera aussi effectuée.
Pour les créateurs et créatrices de contenu, il sera possible de téléverser, gérer vos vidéos, démarrer une diffusion en direct et gérer vos chaînes directement depuis l’application.
PeerTube avance grâce à vous !
C’est à la fois grâce à la confiance que vous nous accordez depuis des années, votre soutien financier (et/ou moral), l’aide de la Coopérative des Internets, et le financement de la fondation NLnet que nous pouvons vous proposer cette feuille de route.
Nous espérons donc qu’elle vous plaira suffisamment pour continuer à nous aider !
09.04.2025 à 09:42
FramIActu n°3 — La revue mensuelle sur l’actualité de l’IA !
Texte intégral (4533 mots)
Bienvenue dans ce troisième numéro de FramIActu, la revue mensuelle sur l’actualité de l’IA !
Ce mois-ci, encore, nous avons plein de choses à dire au sujet de l’IA et ses impacts sur nos sociétés.
Pour rappel, nous mettons en avant notre veille sur le sujet sur notre site de curation dédié ainsi que sur Mastodon et Bluesky (sur le compte dédié FramamIA) !
Vous avez préparé votre boisson chaude (ou froide, c’est le printemps après tout !) préférée ? Alors c’est parti pour la FramIActu !

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0
C’est tout pour ce mois-ci mais si
08.04.2025 à 09:42