27.03.2025 à 15:13
Mathilde Dorcadie
27.03.2025 à 07:00
« Il existe sûrement des modérateurs de contenu qui n'ont pas souffert de troubles mentaux liés à leur travail, mais je ne les ai jamais rencontrés », déclare la sociologue et informaticienne Milagros Miceli, qui a consacré ses six dernières années de recherche au secteur de la modération de contenu. « J'en ai la certitude : comme l'extraction de charbon, la modération est un métier dangereux ».
L'extraction de charbon, en raison de la pneumoconiose qui lui est associée, est l'exemple (…)
« Il existe sûrement des modérateurs de contenu qui n'ont pas souffert de troubles mentaux liés à leur travail, mais je ne les ai jamais rencontrés », déclare la sociologue et informaticienne Milagros Miceli, qui a consacré ses six dernières années de recherche au secteur de la modération de contenu. « J'en ai la certitude : comme l'extraction de charbon, la modération est un métier dangereux ».
L'extraction de charbon, en raison de la pneumoconiose qui lui est associée, est l'exemple classique du métier dangereux, mais il ne subsiste que 200.000 mineurs environ dans l'ensemble de l'Union européenne (UE). De nombreux autres métiers sont dangereux, mais il en reste peu pour lesquels la description de poste comporte la mention « présente des risques pour la santé ». La modération de contenu pourrait toutefois en faire partie. Tout comme la poussière de silice causait des maladies des poumons chez les mineurs, le visionnage sans fin de contenus perturbants et morbides constitue un danger pour les employés dont c'est le quotidien.
Les modérateurs sont en somme les agents de sécurité des réseaux sociaux. Ils sont chargés par des plateformes comme Facebook ou TikTok de supprimer les contenus qui enfreignent leur règlement. Les posts qu'ils suppriment sont les contenus haineux, violents, choquants, pornographiques (y compris pédocriminels), les contenus provenant d'organisations interdites comme les groupes terroristes, ceux qui servent à intimider ou à harceler, les suicides et les mutilations. Les contenus qui s'affichent sur les écrans des modérateurs ont été soit signalés par un utilisateur, soit identifiés par un système d'intelligence artificielle comme potentiellement à supprimer. Une grande partie du travail des modérateurs de contenu consiste à étiqueter ce qu'ils voient sur leur écran pour entraîner l'intelligence artificielle à repérer plus efficacement les contenus nocifs.
Chris Gray est le premier modérateur de contenu en Europe à intenter une action en justice contre l'entreprise Meta, maison-mère de Facebook et Instagram. En 2017 et 2018, il a travaillé pour CPL, un sous-traitant de Meta, à Dublin. C'est seulement plusieurs années après avoir été licencié que Chris Gray a commencé à prendre conscience de l'ampleur des ravages de ce travail sur sa santé mentale. « J'ai rencontré une journaliste qui voulait traiter la question sous l'angle de l'être humain, elle m'a poussé à parler des contenus malsains que j'avais vus », relate-t-il. « Je n'en avais jamais parlé à personne, même pas à ma femme. J'avais intégré l'accord de confidentialité qu'on m'avait martelé : 'On ne parle jamais du travail.' »
« Lorsque j'ai commencé à lui raconter, je me suis complètement effondré, j'ai perdu toute contenance. J'étais assis dans ce café et je n'arrivais pas à arrêter de pleurer. La journaliste a insisté pour que j'aille consulter un médecin. Voilà comment tout a commencé. »
Le médecin a diagnostiqué chez lui un syndrome de stress post-traumatique (SSPT) et en 2019 Chris a entamé une action devant la haute cour de justice irlandaise contre CPL et Meta pour faire reconnaître le préjudice psychologique que lui a causé l'exposition répétée à des contenus traumatisants. L'affaire est toujours en cours.
Aux États-Unis, une affaire similaire impliquant des modérateurs de contenu pour Meta s'est conclue par un accord amiable et les travailleurs ont reçu une indemnisation pouvant aller jusqu'à 50.000 dollars par personne. Chris Gray n'a pas encore reçu de proposition pour un accord amiable et il indique qu'il ne l'accepterait pas s'il en recevait une.
« L'accord passé aux États-Unis prévoyait que pour recevoir l'argent, ils devaient accepter de dire que personne n'avait subi de dommage. Ce n'est pas comme cela que je vois les choses. La modération de contenu en est encore là où se trouvait l'industrie du tabac dans les années 1960, tout le monde sait que c'est dangereux, mais cela n'a pas encore été prouvé et certaines personnes ont de très gros intérêts à faire croire qu'il n'y a pas vraiment de problème. Je veux qu'un tribunal reconnaisse que ce métier est dangereux pour la santé des travailleurs. Une fois que le caractère nocif sera établi, nous pourrons commencer à parler de comment limiter les risques. »
Bien que leur travail soit utilisé par les grosses plateformes de réseaux sociaux, les modérateurs de contenu sont presque tous employés par des sous-traitants, des entreprises « d'externalisation des processus métier », comme on les appelle, ou BPO (pour Business Processing Outsourcing) selon le sigle en anglais. Un voile de mystère entoure ce secteur. Aucune plateforme d'importance ne souhaite révéler combien de modérateurs de contenu sont employés pour leur compte par ces prestataires de service, pas plus que le nombre de prestataires auxquels elles sous-traitent cette activité, mais il ne fait aucun doute que ce secteur est déjà considérable et qu'il est en pleine expansion : en 2021, Facebook à lui seul enregistrait chaque jour trois millions de posts signalés pour suppression !
Une partie du travail de modération de contenu peut être délocalisée. Les Philippines, par exemple, sont en train de devenir un centre mondial de la modération de contenu. Cependant, selon Antonio Casilli, spécialiste du « travail du clic » (qui comprend la modération de contenu, mais ne s'y limite pas), les plateformes ne peuvent pas se passer de modérateurs vivant dans l'Union européenne : « Parfois, la modération de contenu doit avoir lieu sur le territoire européen pour des raisons juridiques, parce que les contenus ou les données relèvent du règlement général européen sur la protection des données (RGPD). Il y a aussi des raisons linguistiques : il est par exemple difficile de trouver certaines langues, comme le lituanien ou le suédois, dans des pays d'Afrique. Certaines choses ne peuvent être externalisées vers des pays à faible revenu. »
Selon Antonio Casilli, le secteur européen de la modération de contenu s'est beaucoup concentré ces dernières années : quelques grosses sociétés ont racheté leurs rivaux et dominent désormais le marché, comme les gigantesques Teleperformance, Appen et Telus. Ces fournisseurs organisent le secteur de la même manière que les centres d'appels, avec une surveillance intense des travailleurs et la confidentialité comme priorité. « Leurs contrats sont extrêmement stricts sur la confidentialité, en fait ce sont des accords de confidentialité déguisés en contrats de travail plus qu'autre chose », explique Antonio Casilli.
« La plupart des dispositions portent sur le secret et la confidentialité, il n'y en a presque pas sur les droits des travailleurs. Et elles ne mentionnent nulle part les risques pour la santé spécifiquement associés à ce travail ».
Une autre caractéristique du secteur de la modération de contenu est le recours aux migrants. Antonio Casilli fait partie des auteurs d'une étude intitulée Who Trains the Data for European Artificial Intelligence ?, qui s'inscrit dans l'initiative EnCOre sur les travailleurs du clic commandée par le groupe de La Gauche au Parlement européen. Les chercheurs suivent des groupes échantillons de modérateurs de contenu employés par les prestataires de services métier Telus et Accenture en Allemagne (à Berlin et à Essen) et un autre, anonymisé, au Portugal.
Sur le site portugais, tous les travailleurs qu'ils ont rencontrés sont des migrants : ils viennent de Russie, de Pologne, d'Inde ou de Turquie. Sur les sites allemands, la plupart des travailleurs sont des migrants venus d'Asie et d'Afrique. « Ils subissent un chantage contractuel, puisque leur visa dépend généralement de leur statut de travailleur », explique Antonio Casilli. « Donc s'ils cessent de travailler pour ces entreprises, ou bien s'ils donnent l'alerte, ils risquent d'être renvoyés dans leur pays d'origine. »
Les sous-traitants, les accords de confidentialité, les visas des migrants sont autant de couches de déni, de secret et de marginalisation qui protègent les grosses plateformes de réseaux sociaux de toute responsabilité quant aux conditions de travail des modérateurs de contenu. Mais derrière ces murs d'opacité, ce sont de vraies personnes qui vivent une vraie vie, et certaines sont déterminées à se faire entendre malgré les obstacles.
Ayda Eyvazzade est iranienne et vit à Berlin. Comme Chris Gray, elle a été modératrice de contenu et pour elle non plus, les dangers de ce métier ne font aucun doute. « J'ai vraiment vécu des moments traumatisants », déclare- t-elle. « Je me souviens avoir vu un enfant réduit en esclavage sexuel. Ces images m'ont hantée. Vous vous sentez très seul et isolé quand vous faites ce travail, vous devenez anxieux, voire désespéré. Mon sommeil en a beaucoup pâti. J'en faisais des cauchemars, de ces images. Je me réveillai plus fatiguée que je ne m'étais couchée. »
Ayda Eyvazzade a été licenciée en novembre 2023, après presque cinq ans de travail pour ce sous-traitant (qu'elle ne nommera pas en raison de l'accord de confidentialité qu'elle a dû signer). Elle décrit comment la surveillance humaine et la surveillance numérique combinées accroissent la pression de ce métier. Les modérateurs de contenu sont évalués selon des indicateurs clés de performance auxquels ils doivent satisfaire. Tout moment qu'ils passent à l'écart de l'ordinateur pour encaisser des images ou des vidéos qu'ils viennent de voir compte comme du temps « improductif ».
« Si vous voyez quelque chose qui vous secoue, vous pouvez quitter votre bureau pour vous ressaisir, mais vous ne devez pas oublier de signaler sur votre ordinateur que vous êtes en pause bien-être », explique Ayda Eyvazzade. « Et si vos supérieurs estiment que vous passez trop de temps en bien-être, alors ils peuvent vous dire que votre temps de production est inférieur à ce qu'on attend de vous, que vous êtes beaucoup trop en bien-être. On vous met donc sous pression pour que vous passiez plus de temps en production au détriment des moments en bien-être. »
Après le suicide d'un modérateur de contenu de Telus, à Essen, l'entreprise a modifié sa politique pour accorder aux travailleurs un temps illimité de bien-être. Mais Milagros Miceli, qui mène une recherche auprès des modérateurs de contenu d'Essen, a constaté que la pression à visionner beaucoup de contenus en un minimum de temps n'a pas disparu.
« Les modérateurs de contenu ont droit à des pauses bien-être, mais ils ont toujours des indicateurs clés de performance à remplir et ils n'y parviennent pas s'ils prennent trop de pauses. Ce sont ces indicateurs de rendement qui sont le facteur disciplinaire le plus important pour les travailleurs gérés par des algorithmes. »
L'étude EnCOre, à laquelle participe également Milagros Miceli, fait état « d'événements graves chez des travailleurs, tels que des évanouissements, des cas d'épuisement professionnel ou de troubles psy- chiques et hélas au moins un suicide ». Rien de nouveau sous le soleil pour le fondateur et PDG de Meta, Mark Zuckerberg. Dans l'enregistrement audio d'une réunion de 2019 qui a fuité, un membre du personnel lui dit que beaucoup de modérateurs de contenu souffrent d'un SSPT. Le PDG lui répond que « certains comptes rendus sont à [s]on avis un peu exagérés ».
Milagros Miceli, qui a mené des entretiens avec des centaines de modérateurs de contenu, pense exactement le contraire. « Les problèmes sont bien plus graves que ce qu'on pourrait penser », dit-elle. « J'ai entendu un homme expliquer que sa femme l'avait quitté parce qu'après avoir modéré des contenus pédocriminels, il n'arrivait plus à avoir de rapports sexuels. Tous ces travailleurs subissent de vrais troubles psychiques, certifiés par de vrais psychiatres. »
Les BPO prétendent fournir des services de conseil en interne, mais Chris Gray comme Ayda Eyvazzade estiment que la plupart des conseillers auxquels ils se sont adressés étaient sous-qualifiés. Milagros Miceli approuve : « Beaucoup de ces conseillers maison ne sont pas des thérapeutes agréés. Et beaucoup de travailleurs les soupçonnent d'informer la direction de ce que leur disent les modérateurs. »
Répondant pour le compte de Telus aux conclusions de l'étude EnCOre, l'agence de communication Aretera a fait savoir que Telus prend très au sérieux le bien-être des membres de son équipe. Aretera indique que les modérateurs de contenu de Telus ont accès à un soutien 24 heures sur 24 et 7 jours sur 7, que Telus dispose en interne de « conseillers qualifiés, guidés par des psychologues agréés » et que des « améliorations technologiques » permettent d'aider les travailleurs, notamment par des « filtres permettant de flouter les vidéos, la coupure automatique du son et des paramètres réglables de visionnage de vidéos ». L'agence de communication a également précisé : « On estime à seulement 1 % le taux d'absentéisme dû à des problèmes de santé mentale dans l'entreprise ».
Ayda Eyvazzade était élue au Conseil du travail, une institution prévue par le droit du travail allemand pour représenter les salariés au sein d'une entreprise, sous les couleurs du syndicat Ver.di. Elle explique toutefois que le Conseil du travail était dominé par des salariés qui avaient été « cooptés » par la direction et faisaient entendre la voix de leur maître, aussi avait-elle été considérée comme une empêcheuse de tourner en rond et mise sur la touche. Elle a finalement été virée après plusieurs tentatives pour la contraindre à démissionner. Elle pense que Ver.di pourrait avoir été plus pugnace dans ses rapports avec l'entreprise, y compris en saisissant la justice.
Milagros Miceli pense elle aussi que si les syndicats se renforcent dans ce secteur, il leur faudra être mieux préparés à affronter le secret et l'intimidation qui caractérisent actuellement le travail de modération. « Une partie du problème réside dans le fait que les syndicats luttent à la fois pour s'adapter à une nouvelle époque et pour établir des relations avec les travailleurs migrants qui tâchent de s'organiser dans ce secteur numérique », conclut-elle.
En mai, la Commission européenne a annoncé une nouvelle enquête sur les infractions présumées au règlement DSA par Meta eu égard à la sécurité des enfants qui utilisent Instagram et Facebook. Un haut fonctionnaire de la Commission s'est également interrogé sur le fait de savoir comment X (ex-Twitter) pouvait satisfaire à ses obligations au titre du règlement DSA alors qu'il emploie nettement moins de modérateurs que Meta ou TikTok. Mais l'équilibre est difficile à trouver : plus les plateformes embauchent de modérateurs de contenu pour répondre aux pressions politiques de l'UE, plus les travailleurs mis en danger sont nombreux.
« Il ne s'agit que de savoir ce qui est important politiquement », commente Chris Gray à propos de ce débat réglementaire. « Toute personne ayant des enfants se soucie du risque que ses enfants soient exposés aux horreurs que l'on peut trouver sur les réseaux sociaux, mais combien de ces parents s'intéressent aux gens qui se trouvent dans une pièce quelque part et qui doivent visionner encore et encore ces horreurs pour éviter à leurs enfants de tomber dessus ? »
Le Conseil du travail des modérateurs de Telus à Essen a fait un certain nombre de propositions pour améliorer les conditions de travail : plus de congés pour relâcher la tension psychologique, l'accès à un soutien professionnel à la santé mentale sans peur que la direction soit informée, une rémunération juste, la reconnaissance de leur travail comme une profession qualifiée, la reconnaissance de la dangerosité de ce métier et enfin la prise de mesures appropriées pour limiter les risques.
Au Bundestag, le siège du Parlement fédéral allemand, des modérateurs de contenu se sont réunis lors d'un sommet en 2023. Ils y ont présenté un manifeste et l'un des modérateurs du Conseil du travail d'Essen a livré son témoignage. Mais, signe que les BPO n'ont aucune envie que les choses changent, ce travailleur a ensuite été suspendu par Telus au motif qu'il avait enfreint l'accord de confidentialité qu'il avait signé. Le Bundestag n'a pas encore donné suite aux recommandations des modérateurs de contenu.
Selon Leila Chaibi, la députée européenne qui dirige les travaux du groupe de La Gauche sur l'intelligence artificielle et le travail, l'initiative EnCOre met en lumière la nécessité d'une action réglementaire européenne dans ce domaine. « Ce rapport devrait être un signal d'alarme pour tous les décideurs de l'UE : nous devons agir pour protéger les travailleurs du clic et répondre à leurs besoins spécifiques », a-t-elle déclaré.
Malgré la culture du secret qui règne sur les plateformes et dans les BPO, le secteur de la modération de contenu finira inévitablement par sortir de l'ombre pour aboutir sous les projecteurs. À ce moment-là, les plateformes comme Meta et TikTok devront répondre à cette question simple : pourquoi ont-elles des centaines de pages d'instructions pour assurer la sécurité de leurs utilisateurs et pas une seule sur celle de leurs modérateurs ?
Cet article a été publié pour la première fois en décembre 2024 par le magazine HesaMag, publié par l'Institut syndical européen (ETUI) dans le numéro 29 (page 28).