Lien du flux RSS
Analyse l’impact de l’information sur la situation politique et sociale des pays, et sur les relations internationales

Accès libre

▸ les 10 dernières parutions

09.01.2023 à 10:39

La propagande russe à l’épreuve de la déplateformisation

Damien Liccia

En dépit de la “déplateformisation” des médias russes officiels RT et Sputnik en mars 2022, la diffusion de contenus pro-russes en Ukraine reste soutenue sur le web et les réseaux sociaux en Occident et dans le reste du monde. Une nébuleuse de blogueurs nationalistes et de “passeurs de contenus” ayant pris fait et cause pour la guerre, et sans liens officiels avec l’État russe, se sont saisis des possibilités offertes par les réseaux alternatifs comme Telegram et des limites de la modération des grandes plateformes pour poursuivre leur entreprise de propagande.
Texte intégral (965 mots)

Télécharger le PDF de l’étude

En envahissant l’Ukraine en février 2022, la Russie s’est également lancée dans une campagne à l’échelle globale pour rallier les opinions mondiales à sa cause. Avec la “déplateformisation” de ses médias officiels RT et Sputnik, le dispositif de propagande officiel de l’État russe a accusé une perte importante en termes de visibilité et d’influence à l’international. Pour autant, la circulation des contenus pro-guerre reste assurée sur le web et les réseaux sociaux par une nébuleuse de blogueurs nationalistes russes dont les contenus, visant en premier lieu les opinions russes et ukrainiennes, sont traduits et relayés dans le reste du monde par l’entremise de “passeurs de contenus”. Une étude, réalisée par l’agence IDS, s’intéresse aux stratégies déployées par ces différents acteurs pour contourner la modération des plateformes, aux narratifs qu’ils diffusent et au processus d’internationalisation de ces contenus.

Une propagande sur Telegram menée par des blogueurs sans lien officiels avec le Kremlin

L’étude s’appuie sur une cartographie de 1 800 chaînes russophones publiant sur la guerre en Ukraine sur Telegram, à l’origine de plus de 8 millions de posts depuis janvier 2022. Certaines d’entre elles, comme Rybar, Colonel Cassad ou Golos Mordora, sont suivies par plusieurs centaines de milliers de personnes et jouent le rôle de véritables médias sur la guerre en Ukraine. Leur grande liberté de ton vis-à-vis du commandement militaire russe (notamment lors du retrait de l’armée russe de Kherson), leur idéologie nationaliste jusqu’au-boutiste et leur influence croissante interrogent sur le rôle que ces blogueurs pourraient jouer dans la suite du conflit – notamment en cas de défaite et de désaveu de l’actuel pouvoir russe.

De quoi parle la blogosphère russe sur Telegram ?

Bien que ces blogueurs ne sont pas officiellement liés à l’État russe (mais entretiennent pour certains des liens avec des oligarques proches du Kremlin comme Evgueni Prigojine), leur contenus s’inscrivent pleinement dans l’entreprise globale de propagande autour de la guerre en Ukraine. Ceux-ci sont notamment repris et relayés par un écosystème de 23 faux médias locaux en Ukraine, qui cherchent à légitimer l’invasion auprès des minorités russes dans le pays. De même, l’étude met en lumière un écosystème de chaînes Telegram “officielles” créés en mars et avril 2022 cherche à normaliser la présence russe dans les territoires occupés.

Une diffusion des contenus pro-russe à l’international via l’entremise de “passeurs de contenus”

Si les contenus diffusés par l’écosystème nationaliste sur Telegram visent en premier lieu les opinions russes et ukrainiennes, leur influence s’étend cependant à l’international. L’étude montre le rôle joué par certains « passeurs de contenus » qui continuent de relayer les contenus des médias russes (notamment ceux de Sputnik Afrique) en promouvant l’usage de VPN pour y accéder, en traduisant des posts de blogueurs nationalistes pour assurer leur diffusion ou en exploitant les failles de la modération des grandes plateformes.

Mapping des utilisateurs partageant des articles issus de Sputnik Afrique

Ainsi, l’analyse de la diffusion du terme “ukronazis” sur Twitter, popularisé depuis le début de l’invasion par des blogueurs nationalistes russes, montre que ce terme a acquis une grande popularité dans le monde entier, touchant selon les pays des segments différents. Si une partie de l’extrême-droite française s’est appropriée le terme, celui-ci connaît surtout un grand succès auprès de sphères d’extrême-gauche situées en Amérique du Sud. Des bots et comptes de spam semblent utilisés pour amplifier la visibilité de ces contenus.

Télécharger le PDF de l’étude

06.09.2022 à 15:34

Décès de notre président et fondateur François-Bernard Huyghe

Rédaction OSI

Paris, le 6 septembre 2022 Nous avons appris aujourd’hui avec beaucoup de tristesse le décès de notre Président…
Lire plus (229 mots)

Paris, le 6 septembre 2022

Nous avons appris aujourd’hui avec beaucoup de tristesse le décès de notre Président et fondateur François-Bernard Huyghe auprès de son éditeur Hubert de Langle. Nous adressons nos plus sincères condoléances à ses proches et à tous ceux qui l’ont connu.

Docteur d’Etat en sciences politiques et HDR, directeur de recherche à l’IRIS et enseignant au CELSA Paris IV Sorbonne, François-Bernard Huyghe était un spécialiste incontesté des questions liées à la désinformation. Ses grandes qualités de pédagogue, son érudition et sa gentillesse ont marqué de nombreuses générations d’étudiants en communication et en intelligence économique.

Auteur de nombreux ouvrages de référence en science politique, ses nombreuses études ont grandement contribué à structurer le champ de la recherche sur les phénomènes de manipulation de l’opinion. Son dernier essai, La Bataille des Mots, paru chez VA Éditions en juin 2022, s’inscrivait dans la droite ligne de ses recherches sur la dimension sémantique des clivages qui traversent la vie politique française.

Nous aurons à cœur au sein de l’Observatoire de poursuivre ses travaux sur ces phénomènes en constante mutation, et de faire vivre ainsi ses réflexions, plus que jamais d’actualité.

08.12.2021 à 14:03

Health Data Hub : Faute de mieux, le pire n’est plus une option

Thibault Delhomme

En choisissant de précipiter la mise en œuvre du Health Data Hub sur fond de crise sanitaire au…
Texte intégral (1197 mots)

En choisissant de précipiter la mise en œuvre du Health Data Hub sur fond de crise sanitaire au printemps 2020, la France s’est trouvée contrainte, pour des raisons techniques, d’opter pour une solution commercialisée par une filiale de Microsoft au détriment d’une solution souveraine. Une reculade emblématique qui illustre les limites des ambitions françaises et européennes en matière de protection des données sensibles en l’absence d’alternative compétitive au plan technologique.

Parmi les mesures prises par l’arrêté du 21 avril 2020 prescrivant les mesures d’organisation pour faire face à l’épidémie dans le cadre de l’état d’urgence sanitaire, la mise en œuvre anticipée du Health Data Hub (HDH), anciennement Système National des Données de Santé, a jeté une lumière très crue sur l’état des capacités des acteurs français et européens du cloud. Volet constitutif de la politique “France is AI”, le lancement de la nouvelle plateforme des données de santé a vu son déploiement anticipé de plusieurs mois par rapport au calendrier initialement prévu du fait de la crise sanitaire. La décision, prise afin de répondre au  besoin créé par la pandémie d’une meilleure exploitation des données de santé, aura désavantagé les solutions souveraines. Dans l’urgence, le choix d’un hébergeur a été confié à une centrale d’achat publique, l’UGAP, qui, sans nécessiter une mise en concurrence, a ainsi considéré Microsoft, via sa filiale AZURE, comme le seul pouvant remplir les spécifications techniques fixées par le HDH.

Un nouveau projet SAFARI des données de santé ?

La nature sensible des données hébergées par le HDH a parfois donné lieu dans le débat public à quelques rapprochements avec le projet SAFARI. Lancé dans les années 1970, ce système, permettant de relier entre eux des fichiers nominatifs grâce au numéro INSEE de chaque Français, avait été abandonné après sa divulgation dans la presse et la polémique qui s’en était suivie, et avait  4 ans plus tard la création de la CNIL. Ce parallèle avec les enjeux actuels soulevés par le HDH montre surtout l’évolution des termes du débat et des enjeux liés à la protection de la vie personnelle des Français. 40 ans après sa création, la CNIL semble avoir fait le deuil d’une plateforme indépendante, échappant au principe d’extra-territorialité du droit américain qui permet aux agences de sécurité américaines de demander à leurs entreprises l’accès aux données qu’elles hébergent. Consciente du risque, l’autorité française a déclaré que le risque de transfert de données européennes par des instances américaines serait surveillé avec attention. Un  risque qui persiste toujours comme l’a rappelé l’année dernière la Cour de justice de l’Union européenne à l’occasion de son arrêt Schrems II.

La CNIL reste donc très prudente à cet égard alors même que des garanties ont été données à l’autorité par le ministère de la Santé afin de trouver des solutions techniques à horizon 2022 pour empêcher les violations du RGPD en matière de transfert illégal. Les détails à ce propos restent cependant très flous, notamment quant à la manière d’empêcher l’hébergeur d’avoir accès aux données qu’il stocke.

Un problème de compétitivité de la part des entreprises européennes

La politique “France is AI”, à l’origine du HDH, trouve sa genèse dans le rapport Villani: « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne ». Si la souveraineté numérique est initialement présentée comme l’un des piliers du plan, comment expliquer le choix d’un acteur américain en lieu et place d’une entreprise européenne pour héberger des données sensibles ? Comme l’a souligné le Conseil d’État qui se prononçait en juillet 2020 sur la suspension du HDH, l’urgence justifiait alors le risque. Si le nom du français OVHcloud est souvent revenu pour prendre le pas sur Microsoft, celui-ci n’apparaissait pas assez crédible sur le plan technique. En effet, comme l’a déclaré la directrice du projet Stéphanie Combes, à l’époque seul l’Américain possédait l’attestation nécessaire d’Hébergeur de Données de Santé (HDS) ainsi que les compétences techniques pour remplir les conditions requises à l’exécution rapide du projet dans un contexte d’urgence. À ce titre, le HDH est d’ailleurs allé jusqu’à ajouter une clause de transfert du marché dans le cas où un acteur européen ayant les compétences nécessaires techniques (Cybersécurité), ou administratives (HDS) serait disponible.

À l’origine des lacunes techniques reprochées à OVHcloud, on retrouve la question récurrente de la compétitivité des entreprises européennes du numérique. Situation ironique quand on pense à la défense par Bruno le Maire du “Cloud de confiance”, censé protéger les entreprises européennes de l’extra-territorialité du droit américain, comme devait le faire  avant lui le Safe Harbor, le Cloud souverain, et plus récemment, le Privacy Shield. L’obligation du HDH de placer entre les mains d’une source, dont la faillibilité est reconnue, des données sensibles de santé est finalement nécessaire faute de mieux au nom de l’urgence.

L’arbitrage entre performance et souveraineté semble, comme à travers cet exemple, devoir se faire quasi-systématiquement au détriment de cette dernière pour des raisons évidentes de pragmatisme et d’efficacité. Pour que la notion même de souveraineté numérique puisse trouver une traduction concrète au-delà des mots, celle-ci nécessite d’être adossée à une vision industrielle de long terme, seule à pouvoir répondre à terme aux enjeux numériques des entreprises et des acteurs publics du continent.

15.11.2021 à 15:30

Les technologies du faux : un état des lieux

Christophe Deschamps

« Ceci est la réalité.Et j’en fais partie. »Philip K. Dick Introduction C’est une évidence de rappeler que la manipulation,…
Texte intégral (8853 mots)

« Ceci est la réalité.
Et j’en fais partie. »
Philip K. Dick

Introduction

C’est une évidence de rappeler que la manipulation, la tromperie, l’intoxication et plus globalement toutes les méthodes visant à influencer une cible sont aussi vieilles que l’humanité. Rhétorique, stratagèmes, artifices, publicité, nudge marketing,… si chaque époque et chaque culture ont développé leurs propres méthodes (tout en continuant d’exploiter les précédentes), l’objectif reste inchangé : modifier la perception qu’une “cible” a de la réalité afin de la faire agir en conséquence. Notre époque n’est pas avare en la matière et l’intelligence artificielle, dans ses composantes d’apprentissage machine (machine learning) et plus spécifiquement d’apprentissage profond (deep learning), lui confère une niveau d’incidence potentiellement considérable.

En liminaire, notons que la manipulation n’a pas nécessairement besoin de s’appuyer sur le faux pour être efficace et que s’appuyer sur le vrai, le véridique, la rend à la fois plus crédible et plus complexe à déconstruire. Là où le fake peut être mis à mal par une seule preuve pointant la volonté de tromperie et discréditant de fait son émetteur connu ou supposé, la manipulation, qui s’appuie sur une demi-vérité, est plus subtile et partant plus difficile à prouver. Pour autant le régime du faux, entraînant à sa suite celui du fake, étend tous les jours son emprise comme nous allons le constater. Précisons en effet avant d’aller plus loin que si le faux désigne ce qui n’est pas véridique, il ne porte pas d’intentionnalité et se différencie ainsi du fake, c’est à dire de ce qui est fabriqué dans l’objectif manifeste de tromper. S’appuyer sur des fakes est donc une modalité de l’influence, tout comme s’appuyer sur des demi-vérités (ou sur des arguments factuels et bien ordonnés).

Évoquant ce thème en 2016, le chercheur François-Bernard Huyghe, écrivait à propos de l’émergence du web “2.0” dès 2005 : “Le facteur qui va tout bouleverser est l’équation «numérique plus réseaux». (…) Si chacun peut devenir émetteur à son tour et non simple récepteur des mass médias(…) il peut informer donc désinformer.” Il évoquait corollairement la nécessité pour les réseaux sociaux de capter l’attention des cibles, ce qui passe par la possibilité de pouvoir modifier les contenus numériques “à très faible coût, avec des exigences de plus en plus faible en termes de compétence techniques (logiciels plus simples et accessibles)” et précisait enfin que “les ressources documentaires, banques d’images, bases d’information en ligne, immédiatement, gratuitement… permettent de piocher dans des réserves de données qui permettent de forger des trucages vraisemblables. Le travail du faussaire est donc facilité pour ne pas dire banalisé.[1]

Un discours qui anticipait bien la période actuelle puisqu’un an plus tard émergeait le phénomène des deep fakes (en français “hypertrucages”), capable de produire des vidéos ou des photos dans lesquelles, par exemple, le visage d’un homme politique est remplacé par un autre ou encore lui faisant remuer les lèvres, telle une marionnette, afin de lui faire dire ce que l’on souhaite. L’expression “deep fake” a été forgée en ajoutant au terme “fake” le “deep” de “deep learning” qui désigne un ensemble de techniques permettant à l’intelligence artificielle d’apprendre à reconnaître et reproduire des formes, structures, objets, visages et qui pour cela tire parti de bases d’images existantes. Le faussaire devient ainsi un faussaire augmenté par l’IA.

Historiquement, deux innovations ont permis l’émergence des deepfakes, le système de reconnaissance facial développé par Yann LeCun pour Facebook, baptisé Deepface[2], et les GAN (Generative Adversarial Network) développés par le chercheur Ian Goodfellow[3] dans ses recherches en intelligence artificielle pour le compte d’Alphabet (Google)[4]. Les deepfakes sont générés par les GAN , une technique dans laquelle deux algorithmes, le générateur et le discriminateur, sont en compétition, le premier produisant des faux de plus en plus crédibles a mesure que le second les détecte. Le “dialogue” étant entretenu jusqu’à obtenir des faux plausibles pour l’œil humain. Par défaut, un GAN est capable de produire une image aléatoire à partir de n’importe quel jeu d’images avec lequel on l’alimente. Afin qu’il soit en mesure de recréer l’image d’une personne spécifique il faut donc introduire une condition, on parle alors de “conditional GAN” ou cGAN (voir par exemple l’algorithme pix2pix), c’est à dire l’entraîner sur un set d’images de la personne que l’on tente de récréer, ce qui implique a priori que cette personne soit suffisamment populaire ou visible pour que l’on puisse collecter des photos d’elle.

Des visages et des corps

Sans surprise, les premiers deepfakes apparus à l’automne 2017 étaient des vidéos pornographiques dans lesquelles les visages d’actrices connues (Gal Gadot, Emma Watson, Jennifer Lawrence,…) remplaçaient ceux des actrices originales[5]. Les outils open source utilisés s’inspiraient alors de face2face, un logiciel expérimental présenté par une équipe de chercheurs en 2016[6].

En quelques années ces technologies se sont commoditisées et leurs usages démultipliés. Outre les changements de visages sur des vidéos ou des photos, qui commencent à être utilisés dans le cinéma (cf. l’apparition de Luke Skywalker jeune dans un épisode de The Mandalorian), on a vu arriver de nombreuses autres possibilités proposées par des développeurs indépendants, des équipes universitaires mais aussi, de plus en plus souvent, des entreprises.

Hormis les vidéos truquées d’hommes politiques ou d’acteurs, les deepfakes ont commencé à entrer dans les usages via des applications pour smartphone utilisables par tous. C’est le cas par exemple de Reface, de Cupace ou de Hellos, des applications de “face swapping” pour smartphone qui permettent d’incruster un visage dans une scène de film, un tableau, un clip vidéo,… D’autres applications familiarisent également l’utilisateur avec les GAN comme FaceApp pour aider au relooking,  Photo Glory ou Deoldify qui offrent la possibilité de coloriser des photos noir et blanc, Unfade qui permet de les restaurer, ou encore Deep Nostalgia qui permet d’en animer les visages.

Par ailleurs des services permettant de générer de faux visages particulièrement crédibles sont en ligne depuis plusieurs années déjà comme par exemple Thispersondoesnotexist.com ou generated.photos.

Figure 1 Générateur de visages de Generated.photos

Mais ces services ne sont que la partie triviale de l’usage des GAN. En effet, ce ne sont plus seulement de simples visages clonés que la société japonaise Datagrid propose depuis 2019, mais des représentations de corps humains synthétiques complets et “animables” qui doivent notamment permettre de remplacer les photos de mannequins dans les magazines de modes ou les défilés virtuels.

Autre exemple, la société Adobe, très en pointe sur le traitement de l’image via l’IA grâce à sa suite Adobe Sensei, a présenté lors de sa conférence annuelle d’octobre 2021 plusieurs technologies utilisant les GAN pour, par exemple, appliquer la pose spécifique d’un sujet à un autre sujet ou encore modifier l’expression d’une personne sur un cliché.[7]

Plus révélatrice encore est l’approche de la société anglaise Snap, la maison mère de Snapchat, qui a racheté ces deux dernières années une vingtaine de startups dans les secteurs de l’IA et du Big Data avec pour objectif d’élaborer et diffuser des applications de réalité virtuelle ou augmentée transparentes pour l’utilisateur[8]. Ainsi Ariel AI développe une technologie pour smartphone qui permet de “superposer” un corps à un autre en temps réel (Real-Time 3D reconstruction) ou d’en générer un à partir de modèles anthropomorphes (data-driven human modeling) puis de l’insérer directement dans une scène “live”, ouvrant ainsi la voie a des hypertrucages diffusés en direct.

S’il s’agit ici de technologies de modélisation 3D plutôt que de GAN, ces derniers sont à envisager comme la cerise sur le gâteau puisqu’ils permettront l’incrustation de visages hyper réalistes sur les corps virtuels générés. Le rachat de Voca.ai, une startup spécialisée dans les voix synthétiques (cf. ci-dessous), complète d’ailleurs l’ensemble et vient valider l’idée d’une offensive globale de Snapchat sur les hypertrucages et la “fabrication” d’avatars les plus proches possibles de l’humain.

Facebook suit évidemment la même voie, comme l’indiquait récemment Mark Zuckerberg en évoquant le prochain lancement d’un metavers, “un Internet incarné, où au lieu de simplement regarder le contenu, vous êtes dedans”. Et de préciser :”Je pense qu’au cours des cinq prochaines années, dans le prochain chapitre de notre entreprise, nous ferons la transition entre le fait que les gens nous voient principalement comme une entreprise de médias sociaux et le fait que nous soyons une entreprise de metaverse”.[9] Cette direction est désormais confirmée avec le changement de nom de Facebook en Meta[10].

A l’instar de ce qu’annonçait l’auteur de science-fiction Neil Stephenson en forgeant le terme « metaverse » pour son roman “Le samouraï virtuel”, il s’agit donc bien de créer un double virtuel du monde réel dans lequel chacun d’entre nous disposera d’un ou plusieurs avatars plus ou moins réalistes. Il permettra de créer les meilleurs conditions d’interactions interpersonnelles virtuelles possibles (salles de réunions, magasins, visites culturelles, rencontres …) et aura “incidemment” pour effet de démultiplier les capacités de ventes d’espaces de ces méga-régies publicitaires que sont les réseaux sociaux, ainsi que celles des biens en ligne (œuvres, objets, biens immobiliers) grâce au développement concomitant des NFT[11]. Car, à l’instar des jeux multi-joueurs en ligne il y aura évidemment des metavers multiples et concurrent et cela est en lien direct avec les technologies du faux puisque c’est au sein des équipes de recherche de ces firmes qu’elles s’élaborent. Bien entendu, ces univers parallèles seront eux mêmes soumis aux tensions et interactions entre vrai, faux et fake. En effet, même si un avatar est un double virtuel, donc nécessairement un faux par rapport à l’individu réel qu’il incarne, il pourra avoir statut d’avatar “officiel”, à savoir validé par l’individu qu’il représente et la plateforme qui l’accueille (les technologies de blockchain auront probablement un rôle important à jouer ici aussi). Le même individu pourra et devra alors très probablement créer des avatars fake, des sockpuppets[12], qui lui permettront de retrouver un minimum d’anonymat, tout comme l’on dispose souvent de plusieurs profils sur les réseaux sociaux. Il va sans dire que pour d’autres individus (parfois les mêmes) ces avatars seront créés dans le seul but de tromper les quidams rencontrés dans le metavers.

Point important qui n’avait pas encore été souligné au sujet des deepfakes, il est possible depuis 2018 de mettre en œuvre une substitution de visage (face swapping) sur une diffusion en temps réel avec un résultat souvent bluffant. Le logiciel le plus utilisé pour cela, DeepFaceLive, est gratuit et s’installe sous Windows 10. Il ne nécessite même plus les longues phases d’entraînement d’algorithmes sur sets d’images (qui peuvent prendre entre 3 et 10 jours) puisqu’il est possible d’utiliser des modèles de visages “prêts à l’emploi”, déjà compilés par d’autres utilisateurs.

Les entreprises des synthetic media spécialisées en ce domaine ont d’ores et déjà mis au point des modèles économiques spécifiques à l’instar d’Hour One, qui rémunère des personnes pour qu’elles cèdent les droits sur leur visage. Un catalogue de ces visages est ensuite proposé aux clients qui peuvent l’exploiter pour certains usages déjà répertoriés (et d’autres à imaginer). Cela va de l’accompagnement de visites de biens immobiliers en ligne à la présentation vidéo de rapports financiers, en passant par les cours de langue.

Des voix

Si les deepfakes font la part belle aux images, le domaine de l’audio innove au moins autant autour de deux axes, celui des sons et de la musique synthétique et celui des voix. Ce dernier nous intéresse particulièrement puisqu’il permet de donner la parole aux avatars et la société Hour.one en est encore un bon exemple. Cette startup israëlo-américaine propose, en parallèle de son catalogue de visages, un catalogue de voix alimenté sur le même principe de cession des droits par des individus contre rémunération. Une fois clonées, ces voix sont couplées aux visages choisis par le client et la solution d’Hour One peut alors générer une quantité infinie de séquences d’une personne récitant n’importe quel texte, dans n’importe quelle langue. La société Berlitz, un client d’Hour One spécialisé dans l’enseignement des langues, indique générer ainsi des centaines de vidéos en quelques minutes. “Nous remplaçons le studio (…). Un être humain n’a pas besoin de perdre son temps à filmer”.

Autre startup en vue dans ce secteur, Synthesia rémunère des acteurs pour enregistrer leur voix et propose également de nombreux avatars multilingues. Son interface est très orientée vers l’utilisateur final qui peut choisir parmi une bibliothèque d’acteurs (ou téléverser ses propres modèles) puis créer une scène en ajoutant des composants tels que des meubles, des objets (bien souvent générés également par des GAN), du texte, des images et créer ainsi une vidéo sans compétences spécifiques. Là encore les langues parlées sont multiples comme le montre ce clip dans lequel, grâce à la technologie de Synthesia, David Beckham évoque la lutte contre la malaria en neuf langues.

Chez Sonantic ou CyberVoice, on poursuit le même objectif appliqué aux personnages de jeux vidéos. Là aussi on clone les voix des interprètes afin de pouvoir les réutiliser à loisir dans les scènes de jeu. Ce qui ne va pas sans inquiéter les acteurs, souvent semi-professionnels, quant à leur “utilité” une fois leur voix clonée. Comme l’explique l’une d’elle “imaginez que vous devenez un personnage aimé par beaucoup mais que vous n’avez pas fait une seule chose pour contribuer à ce rôle. Zéro créativité de la part de l’acteur. Zéro épanouissement. Zéro art.”[13] Leur inquiétude porte également sur l’utilisation qui sera faite de leur voix. Que se passe t-il si l’éditeur s’en sert pour véhiculer des idées ou des mots que son possesseur n’approuve pas ? Les questions liées à l’éthique et aux droits associés à la voix d’un individu et plus globalement à toute utilisation d’un clonage de ce qui le constitue vont entraîner dans les années à venir d’inévitables batailles judiciaires. Ainsi, l’utilisation de la voix synthétique d’Anthony Bourdain, chef cuisinier star décédé en 2018, pour lui faire prononcer des paroles “inédites” dans un film lui rendant hommage, a déjà créé la polémique, tant du côté des spectateurs qui se sont sentis trompés que des ayants-droits qui n’avaient a priori pas donné leur accord[14].

L’usage de ces tech­no­lo­gies va chan­ger d’échelle dans les mois à venir puisque, pour la première fois, un film sera entièrement doublé avec des voix synthétiques créées à partir de celles des acteurs anglo-saxons. Ainsi, lorsque le thril­ler amé­ri­cain Every Time I Die (sorti en 2019) sera diffusé dans les salles en Amé­rique du Sud, les spec­ta­teurs enten­dront les interprètes ori­gi­naux parler en espa­gnol et en por­tu­gais grâce à la technologie de la société Deepdub.[15]

Si plusieurs startups de ce domaine mettent en avant sur leur site web une déclaration éthique indiquant les conditions d’utilisation des voix qu’elles clonent, il est clair qu’elles ne le font pas toutes. Par ailleurs, les programmes de “voice cloning” sont très nombreux et en accès libre sur Github… Autant dire que les prochaines années risquent d’être un eldorado pour les startups peu regardantes et leur clients, et un champ de bataille judiciaire sans fin d’où émergeront des lois et jurisprudences à la fois nécessaires et difficiles à faire respecter.

Des corps synthétiques pour alimenter l’IA

Si, comme on l’a vu, il faut des centaines d’images d’une personne cible pour obtenir une très bonne correspondance, les choses pourraient cependant évoluer rapidement. En effet, les possibilités atteintes par les deepfakes, déjà impressionnantes, sont encore plus avancées que ne le laissent entrevoir les exemples déjà présentés. Ainsi, a l’instar d’Ariel.ai évoquée précédemment, la société Datagen, propose, des représentations de corps humains synthétiques complets à animer. Pour les générer, la société scanne de vraies personnes payées pour cela et utilise ensuite ces données brutes pour les faire passer par une série d’algorithmes, qui créent des représentations en 3D de leur corps, visage, yeux et mains. Son objectif est toutefois différent de celui des entreprises précédentes puisqu’il s’agit ici de proposer des sets de données d’individus virtuels totalement configurables et combinables en terme de variance (âge, sexe, taille, poids). Ce “produit” doit permettre à leurs clients de constituer des panels d’avatars et d’étudier leur comportement en les intégrant à des simulations où ils joueront le rôle d’humains. Il s’agira par exemple de suivre et comprendre leurs mouvements de corps lors d’un passage en magasin sans caisse, leurs expressions faciales afin de monitorer la vigilance des conducteurs de voitures intelligentes, ou encore l’usage qu’ils feront d’une manette de jeu.

Même idée pour Synthesis.ai qui met à disposition des sets de visages avec une variabilité incluant par exemple le port de lunettes, de masque, les expressions, l’éclairage,…

Le dispositif, baptisé HumanAPI, se présente sous la forme d’une interface applicative utilisable par d’autres entreprises qui peuvent ainsi l’intégrer à leurs propres services et logiciels. La donnée synthétique anthropomorphe « as-a-service » en somme. Et le PDG et fondateur de Synthesis.ai, Yashar Behzadi, de préciser : “HumanAPI permet également toutes sortes de nouvelles opportunités pour nos clients, notamment des assistants intelligents d’IA, des coachs de fitness virtuels et, bien sûr, le monde des applications du metavers.[16]

Interface HumanAPI
Figure 2 – Page de présentation de l’interface HumanAPI (https://synthesis.ai/api/)

Ce que l’on voit émerger ici est clairement un nouveau marché, celui des données synthétiques dont les usages sont innombrables[17] et qui vont permettre d’alimenter les algorithmes d’apprentissage profond, notamment les GAN, en images hyperréalistes à bas coût plutôt que de les collecter difficilement dans le monde réel du fait des réglementations sur la confidentialité et le respect de la vie privée.

En effet, les données synthétiques sont “vierges” et peuvent être utilisées pour créer des ensembles de données plus diversifiés. On peut, comme Synthesis.ai, générer facilement des visages bien étiquetés par âges, formes, IMC, couleur de peau, afin de créer un système de reconnaissance faciale qui fonctionnera pour toutes les populations. Ce qui ne veut pas dire que les algorithmes utilisés pour générer ces faux n’ont aucun biais. Comment s’assurer par exemple que l’expression que l’on a modélisée initialement sur un humain “véritable”, comme étant de la joie ou de la colère était bien ce qu’il voulait exprimer et surtout qu’elle sera interprétée comme telle par ceux qui la verront ? La complexité des expressions humaines est telle que la réduire à un catalogue semble pour le moins problématique et risque de générer des choix et des actions basés sur des interprétations erronées du réel.

Notons que le marché des données synthétiques est en pleine expansion et ne touche pas seulement la création d’avatars mais plus globalement tout secteur d’activité ayant besoin de datasets complexes à collecter ou onéreux, afin d’être utilisées pour simuler des données dont il ne dispose pas.

Figure 3 – Cartes de “synthetic medias” (pas Samsung Next Ventures)

Il peut s’agir comme on l’a vu d’une population de clients plus diversifiée mais aussi de transactions impliquant des problématiques de respect de la vie privée. Les données synthétiques sont également très utilisées pour gérer des questions de confidentialité. Ainsi la société Mostly.ai travaille avec des sociétés financières, de télécommunications et d’assurance pour fournir des jeux de données clients répartis différemment des vraies mais sur un même volume, permettant ainsi aux entreprises de partager leur base de données clients avec des fournisseurs extérieurs tout en restant en conformité avec la loi.

Quoiqu’il en soit, ce nouveau marché se construit sur une capacité croissante à entraîner des algorithmes de deep learning à partir de jeux de données virtuels, c’est à dire à créer du faux vraisemblable avec du faux crédible (ou inversement). Si cela s’avère être une solution intéressante lorsqu’il s’agit de modéliser et anticiper le comportement d’un système industriel ou d’anonymiser un portefeuille clients, il nous semble qu’il n’en va pas de même avec la “matière anthropomorphe”. Le risque étant de tenter, par ces modélisations, de prévoir l’imprévisible à savoir le comportement humain.

Toute image est bonne à prendre

Les représentations du visages ou des parties du corps humain ne sont cependant pas les seuls à pouvoir être exploitées par ces algorithmes pour lesquels une image en vaut une autre et qui sont donc capables de tirer parti de n’importe quel jeu de données visuel, quoi qu’il représente. Ainsi les expérimentations se multiplient dans de nombreuses directions. En mai dernier par exemple, une étude[18] menée par le chercheur Bo Zhao et son équipe, à l’université de Washington, montrait qu’il était possible de créer grâce aux GAN de vraies-fausses images satellites de villes.

Appliqué au domaine de la cartographie, l’algorithme apprend essentiellement les caractéristiques des images satellite d’une zone urbaine, puis génère une fausse image en introduisant les caractéristiques de l’image satellite apprise dans une carte de référence différente, de la même manière que les filtres d’image populaires peuvent reproduire les caractéristiques d’un visage sur un autre.

Figure 4 – Les images c) et d) ont été générées à partir des images a) et b)

Ici, les chercheurs ont donc combiné les images de trois villes, Tacoma, Seattle et Pékin en créant de nouvelles images d’une ville à partir des caractéristiques des deux autres. Ils ont désigné Tacoma comme ville de référence et y ont ensuite intégré les caractéristiques géographiques et urbaines de Seattle et de Pékin pour créer un deepfake de celle-ci. Les possibilités offertes ici sont vertigineuses et Bo Zhao, dont le but était autant d’explorer les possibilités de création que de détection de fausses images satellites de conclure : “cette étude vise à encourager une compréhension plus holistique des données et des informations géographiques, afin que nous puissions démystifier la question de la fiabilité absolue des images satellites ou d’autres données géospatiales (…) Nous voulons également développer une réflexion plus orientée vers l’avenir afin de prendre des contre-mesures telles que la vérification des faits lorsque cela est nécessaire[19].

L’imagerie satellite étant depuis longtemps la base des prévisions météorologiques, le champ d’action s’est vite étendu en ce sens et plusieurs équipes de chercheurs utilisent déjà les GAN dans le but de les améliorer en enrichissant ainsi les modélisations. L’un de ces projets, mené en collaboration par la société anglaise Deepmind et le Met Office (le Météo France anglais), a vu, lors d’une comparaison en aveugle avec les outils existants, plusieurs dizaines d’experts juger que les prévisions données par le modèle GAN étaient meilleures pour l’emplacement, l’étendue, le mouvement et l’intensité de la pluie, et ce dans 89 % des cas[20].

Mais l’imagerie satellite n’est pas la seule à attirer les expérimentations des chercheurs, l’imagerie médicale voit elle aussi se multiplier les études visant à évaluer l’utilisation d’images synthétiques de qualité, peu coûteuses et non invasives (deepfakes d’images radiographiques, de scanner, d’IRM…) pour entrainer d’autres systèmes de détection utilisant également le deep learning, a l’instar des corps synthétiques déjà évoqués. Les GAN les plus performants sont capables de générer des images médicales réalistes qui peuvent tromper des experts entraînés, même si, comme le soulignent les auteurs d’une de ces études, “aucun GAN n’est capable de reproduire toute la richesse d’un jeu de données médicales[21]. Pour l’instant…

Du texte et du code

Si l’image, photographie ou vidéo, présente l’usage le plus spectaculaire de cette nouvelle industrie du faux, le texte n’est pas loin derrière. Les possibilités de traitement du langage naturel (natural language processing ou NLP en anglais ) se sont en effet démultipliées avec l’arrivée de nouveaux modèles avancés intégrant l’intelligence artificielle et plus spécifiquement les réseaux de neurones. On y trouve BERT, proposé par Google, mais le plus prometteur est GPT-3 (bientôt GPT-4) d’OpenAI, une entreprise fondée notamment par Elon Musk. GPT-3 (pour Generative Pre-Trained Transformer 3) est un modèle alimenté par 175 milliards de paramètres, c’est-à-dire de valeurs qu’un réseau de neurones essaye d’optimiser pendant l’entraînement (son prédécesseur GPT-2 n’en n’avait “que” 1,5 milliards). Le modèle est donc conçu pour générer du texte en utilisant des algorithmes déjà entraînés, c’est à dire nourris d’un corpus de références collectées sur le web (l’intégralité de la Wikipedia par exemple). Cet entraînement lui permet, via une analyse sémantique, de “comprendre” la mécanique d’une langue (essentiellement l’anglais pour l’instant). Une fois passée cette étape, lorsqu’on fournit à l’algorithme un extrait de texte, par exemple une phrase d’introduction, celui-ci va tenter de le compléter en prédisant les mots qui pourraient faire sens pour l’utilisateur, comme on peut le constater en testant le service Talktotransformer (sous GPT-2).

Les possibilités sont alors innombrables et limitées par la seule imagination :

Mais ces exemples ne donnent qu’une idée limitée des usages potentiels de ce type d’algorithmes et l’on trouve déjà sur le site gpt3demo plus de deux-cent exemples de mises en œuvre dans des domaines aussi variés que la pensée créative, le recrutement, la poésie ou… la création de phrases d’accroche pour Tinder. Notons que la génération d’image évoquée précédemment n’est jamais très loin puisque l’outil DALL.E, présent dans cet annuaire et développé également par OpenAI, permet de créer des images à partir d’un texte ou de la voix.

Figure 5 – Exemples de créations par DALL.E en réponse à la question “une chaise imitant un avocat”

Parmi toutes ces possibilités déjà existantes il en est une qui est à considérer comme la pierre angulaire de l’essor imminent des technologies du faux. C’est la capacité de GPT-3 à générer du code informatique. Présentée en avril dernier, cette fonction donne des résultats impressionnants et Microsoft l’a déjà intégrée à ses offres d’entreprise Power Apps[22] et plus récemment Azure[23] afin de permettre à chacun de développer en no code/low-code. On peut se faire une idée de la puissance de cette fonctionnalité en visionnant la vidéo de présentation proposée par OpenAI, où l’on voit deux développeurs créer une campagne d’emails et l’envoyer via le service Mailchimp, formater un texte dans Word ou coder un jeu uniquement à la voix.

L’impression laissée par cette vidéo est celle d’une magie en acte, d’une parole qui devient créatrice par l’intermédiaire d’une IA invisible ou qui le deviendra bientôt. Ou quand le logiciel laisse la place au Logos…

Ce qu’il faut donc absolument saisir c’est que dans un futur proche GPT-3 et ses concurrents à venir (notamment MT-NLG de Microsoft et NVIDIA) vont mettre cette parole créatrice à la disposition de tous. C’est la promesse des technologies No code ou low-code dont l’utilisation sera responsable de 65% de l’activité de développement en 2024 d’après le Magic Quadrant de Gartner[24] et dont le marché mondial devrait générer un revenu de 187 milliards de dollars d’ici 2030, contre 10 milliards de dollars en 2019[25].

La commoditisation est en marche et le territoire à explorer infini…

Conclusion

Si ce tour d’horizon des technologies du faux nous laisse percevoir l’ampleur des changements à venir dans nos usages quotidiens, il n’avait pour objectif que de tenter de circonscrire le sujet et de nombreuses dimensions n’ont donc pas été abordées. Tout d’abord la véracité et la pertinence des faux générés. En effet, les deepfakes sont (heureusement) loin d’être toujours crédibles et leur potentiel en tant qu’artifice en est dès lors compromis. Il peuvent également s’avérer nuisibles, comme lorsqu’un chatbot médical utilisant GPT-3 conseille à un (faux) patient de se suicider[26]. Par ailleurs la question des biais qui y sont introduits, volontairement ou non, par les développeurs et les jeux de données utilisés reste sensible et complexe à traiter : sur quels critères choisir les biais à limiter ou à privilégier ? Qui est légitime pour en juger ? Faut-il un vote démocratique pour en décider ?

Autre dimension essentielle non traitée ici, les innombrables risques que ces technologies font courir à notre société en ce que le faux peut être élaboré dans l’intention de nuire, devenant alors du fake créé pour toutes les raisons, bonnes ou mauvaise, amenant un acteur ou une entité à vouloir en manipuler d’autres. Nous n’avons pas encore développé ces aspects négatifs mais ils peuvent déjà être aisément déduits des exemples que nous avons donnés.

Une troisième dimension est celle des impacts que les technologies du faux et leur usage en mode fake aura sur les organisations publiques ou privées et, partant, des techniques de détection et des mesures (et contre-mesures) à déployer pour en enrayer la propagation. C’est ce sujet et plus précisément ce qu’il implique dans les sphères de l’intelligence économique et de l’analyse du renseignement, que nous aborderons dans un prochain article.


Christophe Deschamps est consultant et formateur indépendant sur les thématiques de veille stratégique, d’intelligence économique et de gestion des connaissances. Il est l’auteur du blog www.outilsfroids.net, consacré à ces mêmes thèmes. Il est par ailleurs doctorant au CEREGE.


[1] François-Bernard Huyghe (2016) Désinformation : armes du faux, lutte et chaos dans la société de l’information. In : Sécurité globale, vol. 6, n° 2, p. 63–72. En ligne : https://www.cairn.info/revue-securite-globale-2016-2-page-63.htm.

[2] LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015) Deep learning. In : Nature, vol. 521, n° 7553, p. 436–444. DOI: 10.1038/nature14539.

[3] Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil et al. (2014) Generative Adversarial Networks. En ligne : https://arxiv.org/pdf/1406.2661.

[4] Holubowicz, Gérard (2021) L’histoire des deepfakes. En ligne : https://journalism.design/chapitre-1-histoire-des-deepfakes/, consulté le 10 novembre 2021.

[5] Cole, Samantha (2017) AI-Assisted Fake Porn Is Here and We’re All Fucked. In : VICE, 12 novembre 2017. En ligne : https://www.vice.com/en/article/gydydm/gal-gadot-fake-ai-porn, consulté le 11 novembre 2021.

[6] Thies, Justus; Zollhofer, Michael; Stamminger, Marc; Theobalt, Christian; Niessner, Matthias (2016) Face2Face: Real-Time Face Capture and Reenactment of RGB Videos: 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR): IEEE. En ligne : http://openaccess.thecvf.com/content_cvpr_2016/papers/Thies_Face2Face_Real-Time_Face_CVPR_2016_paper.pdf.

[7] Ahmed, Arooj (2021) Adobe Revealed Several New AI Powered Features At The Annual MAX Conference, Here Are Three Best Of Them / Digital Information World. En ligne : https://www.digitalinformationworld.com/2021/10/adobe-revealed-several-new-ai-powered.html, consulté le 11 novembre 2021.

[8] Pimenta, Joana (2021) Snapchat rachète une entreprise par mois. In : Siècle Digital, 4 juin 2021. En ligne : https://siecledigital.fr/2021/06/04/acquisitions-snap-snapchat/, consulté le 11 novembre 2021.

[9] Reisacher, Appoline (9/30/2021) Metaverse : tout savoir sur cet univers virtuel qui attire les géants de la tech. In : BDM, 9/30/2021. En ligne : https://www.blogdumoderateur.com/metaverse-univers-virtuel-attire-geants-tech/, consulté le 11 novembre 2021.

[10] Neveu, Louis (2021) Pourquoi Facebook devient Meta ? En ligne : https://www.futura-sciences.com/tech/actualites/facebook-facebook-devient-meta-94538/, consulté le 11 novembre 2021.

[11] Les Non Fongible Tokens (NFT) ou Jetons non fongibles sont des certificats d’authenticité attribués  aux créations numériques. Ils permettent de s’approprier une œuvre et d’être authentifié comme propriétaire unique via la technologie de blockchain.

[12] Le terme de sockpuppet (en français « marionnette ») est utilisé par les hackers, pentesters et investigateurs OSINT pour désigner les faux profils créés pour mener leurs activités anonymement.

[13] Hart, Aimee (6/26/2021) Voice AI is scary good now. Video game actors hate it. In : Input, 6/26/2021. En ligne : https://www.inputmag.com/gaming/video-game-voice-ai-human-actors-witcher-3-mod-controversy, consulté le 11 novembre 2021.

[14] O’Brien, Matt; Ortutay, Barbara (7/17/2021) Why the Anthony Bourdain voice cloning creeps people out. In : Associated Press, 7/17/2021. En ligne : https://apnews.com/article/anthony-bourdain-documentary-voice-cloning-technology-1dae37f748a22c946e2193fbb00ccc11, consulté le 11 novembre 2021.

[15] Gamerman, Ellen (2021) The Rise of the Robo-Voices. In : The Wall Street Journal, 10 juillet 2021. En ligne : https://www.wsj.com/articles/the-rise-of-the-robo-voices-11633615201, consulté le 11 novembre 2021.

[16] AI, Synthesis (2021) Synthesis AI Launches HumanAPI to Create Millions of Photorealistic Digital Humans, On-Demand, 11 septembre 2021. En ligne : https://www.prnewswire.com/news-releases/synthesis-ai-launches-humanapi-to-create-millions-of-photorealistic-digital-humans-on-demand-301419311.html, consulté le 15 novembre 2021.

[17] Cf. cette étude par Samsung Next Ventures, Synthetic Media Landscape 2020. En ligne : https://www.syntheticmedialandscape.com/, consulté le 11 novembre 2021.

[18] Zhao, Bo; Zhang, Shaozeng; Xu, Chunxue; Sun, Yifan; Deng, Chengbin (2021) Deep fake geography? When geospatial data encounter Artificial Intelligence. In : Cartography and Geographic Information Science, vol. 48, n° 4, p. 338–352. DOI: 10.1080/15230406.2021.1910075.

[19] Eckart, Kim (2021) A growing problem of ‘deepfake geography’: How AI falsifies satellite images. UW News, éd. En ligne : https://www.washington.edu/news/2021/04/21/a-growing-problem-of-deepfake-geography-how-ai-falsifies-satellite-images/, consulté le 11 novembre 2021.

[20] Ravuri, Suman; Lenc, Karel; Willson, Matthew; Kangin, Dmitry; Lam, Remi; Mirowski, Piotr et al. (2021) Skilful precipitation nowcasting using deep generative models of radar. In : Nature, vol. 597, n° 7878, p. 672–677. DOI: 10.1038/s41586-021-03854-z.

[21] Skandarani, Youssef; Jodoin, Pierre-Marc; Lalande, Alain (2021) GANs for Medical Image Synthesis: An Empirical Study. En ligne : https://arxiv.org/pdf/2105.05318.

[22] Lardinois, Frederic (5/25/2021) Microsoft uses GPT-3 to let you code in natural language. In : TechCrunch, 5/25/2021. En ligne : https://techcrunch.com/2021/05/25/microsoft-uses-gpt-3-to-let-you-code-in-natural-language/, consulté le 11 novembre 2021.

[23] Aballéa, Arthur (2021) Microsoft facilite l’accès à GPT-3 sur Azure via l’API OpenAI. In : BDM, 11 février 2021. En ligne : https://www.blogdumoderateur.com/microsoft-facilite-acces-gpt-3-azure-via-api-openai/, consulté le 11 novembre 2021.

[24] Low-Code Is the Future – OutSystems Named a Leader in the 2019 Gartner Magic Quadrant for Enterprise Low-Code Application (2019). In : Bloomberg, 8 décembre 2019. En ligne : https://www.bloomberg.com/press-releases/2019-08-12/low-code-is-the-future-outsystems-named-a-leader-in-the-2019-gartner-magic-quadrant-for-enterprise-low-code-application, consulté le 11 novembre 2021.

[25] Prescient & Strategic Intelligence Private Limited, éd. (2020) Low-Code Development Platform Market Research Report: By Offering, Deployment Type, Enterprise, Vertical – Global Industry Analysis and Growth Forecast to 2030. En ligne : https://www.researchandmarkets.com/reports/5184624/low-code-development-platform-market-research, consulté le 11 novembre 2021.

[26] Daws, Ryan (2020) Medical chatbot using OpenAI’s GPT-3 told a fake patient to kill themselves. En ligne : https://artificialintelligence-news.com/2020/10/28/medical-chatbot-openai-gpt3-patient-kill-themselves/, consulté le 11 novembre 2021.

14.11.2021 à 19:30

Rhétoriques de la peur

François-Bernard Huyghe

Après la rhétorique de la nouveauté en 2017, celle de la peur en 2022 pourrait faire de la campagne électorale à venir le révélateur inédit de nouvelles tensions idéologiques.
Texte intégral (692 mots)

« Vous exploitez les peurs des Français », un incontournable des débats télévisés. Vous exploitez : cynique, trompeur, manipulateur. Les peurs : passions tristes, hystéries hors de la réalité. Des Français : gare aux colères des foules égarées. Mêlant crypto stratégie, proto psychanalyse et pseudo sociologie, l’accusation est censée tétaniser le méchant, délirant, démago. Mais aussi établir une ligne rouge. Il y a ceux qui exploitent des peurs et ceux qui cherchent des solutions à l’écoute des Français. Les déclinistes et les ouverts. Les rabougris et des progressistes. Les ennemis de la modernité et les amis du futur. Ajoutez « même pas peur » et attendez que « la peur change de camp »..

Pareille disqualification exclut du débat. Tantôt dans un registre libéral macronien : efficacité et modernité versus phantasmes archaïques. Tantôt plus à « gauche » : la crainte révèle une « phobie », une manifestation de la domination de classe, de genre, coloniale, etc….. Certains en conçoivent, du coup, une quasi phobophobie : crainte de développer des fantasmes et d’offenser un groupe (à l’égard de l’islam, des minorités…).  

Que redoutez-vous, la fin du monde ou de la fin du mois, la perte de  l’identité ou de la démocratie, la manipulation médiatique ou la société de surveillance numérique ? Les fake news et la « haine », le transhumanisme et Big Brother, la déstabilisation par la Chine et la Russie, le retour des années 30, l’eschatologie écologique ou l’insécurité au coin de la rue ? Sans compter que, dès que réapparaît un thème ancestral (la peur de l’épidémie avec la Covid), la panique peut nourrir à la fois la tentations de la surveillance et les interprétations paranoïaques en retour (Big Reset, dictature sanitaire…).

Les peurs collectives, certes, sont tout sauf neuves : pendant la Guerre froide que pesait celle du communisme (ou, en face, de l’impérialisme) au regard des terreurs médiévales et comment comparer à celle de la destruction de l’environnement ? D’autant plus que l’usage médiatique du mot ne cesse de s’étendre : que signifie, par exemple, la « peur des LGBT » ? Mais c’est surtout cette dénonciation tous azimuts qui caractérise la période et qui déterminera sans doute la campagne électorale.

La peur – catégorie politique – produit un effet miroir.  Ces peurs – comme celles de la radicalité ou de la répression – vont par paires. L’obsession incarnée par Éric Zemour que disparaisse la France nourrit chez ses adversaires la crainte d’un grand retour en arrière réactionnaire contre droits, morale et acquis. Ce qui engendre en retour l’angoisse du « on ne peut plus rien dire » et de  la dictature bienpensante. Bien-pensance elle-même d’autant plus effrayée par la radicalisation des esprits, la dégradation du débat et les reculs de la raison. Et ainsi de suite.

La peur suppose deux choses. D’abord, une  réaction au risque d’un malheur. Mais en politique, elle se implique aussi : nous contre eux, eux qui provoquent, aggravent, excusent ou incarnent ce mal. Le clan, le pouvoir, la classe responsables auraient pu savoir, prévenir, gérer et ne l’a pas fait par intérêt ou idéologie. Voire ils l’ont provoqué par intérêt ou idéologie. Notre peur renvoie à leur faute. D’où division. Mais aussi réduction : le politique n’apparaît plus comme la  recherche du bien commun via l’exercice du pouvoir, mais comme celle du moindre mal, de l’exclusion du risque, y compris  le risque moral (déni de la réalité pour les uns,  phantasmes clivants pour les autres…). Après la rhétorique de la nouveauté en 2017, celle de la peur en 2022 pourrait faire de la campagne électorale à venir le révélateur inédit de nouvelles tensions idéologiques.

29.10.2021 à 14:01

Vers un protectionnisme européen des données ?

Thibault Delhomme

La crise de confiance entre la France et les États-Unis a replacé au centre du débat public la…
Texte intégral (1496 mots)

La crise de confiance entre la France et les États-Unis a replacé au centre du débat public la nécessité pour l’Union européenne de retrouver un certain degré de souveraineté à l’égard de ses grands rivaux économiques. En effet, l’Europe apparaît de plus en plus pour les puissances étrangères comme un véritable marché à sens unique en particulier en matière de données personnelles. Une politique volontariste en la matière et l’affirmation de champions européens capables de peser dans la compétition mondiale sont plus que jamais nécessaires pour briser cette situation d’extrême dépendance du continent à l’égard de ses concurrents.

Au-delà de la situation de la question de l’imposition, c’est celui de l’extraterritorialité du droit américain qui pose des défis auxquels l’Union européenne n’a pas, encore, apporté de réponse pertinente. Le Clarifying Lawful Overseas Use of Data Act, ou CLOUD Act, pris en mars 2018 par l’administration Trump, permet aux agences comme le FBI, la CIA et la NSA, à l’aide de mandats, d’obtenir n’importe quelle information disponible sur les serveurs des GAFAMs. Les répercussions de cette nouvelle réglementation dépassent très largement les frontières des Etats-Unis dans la mesure où les géants du numérique américains concentrent la majorité du trafic sur internet. À eux seuls, Microsoft et Google représentent ensemble près de 2 milliards d’adresses mails. Vu d’Europe, l’entrée en vigueur du CLOUD act a mis à mal les objectifs du RGPD en termes de protection et de contrôle des données personnelles des utilisateurs. Elle met en lumière aussi la fragilité de la politique de l’Union européenne sur le sujet en rappelant, si besoin était, que les données personnelles de ses citoyens qui utilisent les services numériques les plus populaires au monde sont à la disposition d’une puissance étrangère.

Un marché européen à la merci des acteurs américains et chinois

Pour tenter de renverser cette situation de quasi monopole de l’information que se sont constitués les Etats-Unis, on a vu se développer plusieurs réponses à plusieurs échelles. En France, pouvoirs publics et entrepreneurs du numérique ont cherché à répondre à cette situation par le renforcement de la concurrence, avec notamment la création du moteur de recherche Qwant autour d’une promesse forte : le respect absolu de la vie privée de ses utilisateurs. Cependant, après 10 ans d’existence, le résultat ne permet pas au moteur de recherche de prétendre rivaliser réellement avec Google, qui concentre encore plus de 91% des recherches dans l’Hexagone tandis que son rival made in France oscille dans les 1%. Par ailleurs, Qwant marchant jusqu’à maintenant à perte, a annoncé qu’il devrait cette année arriver “proche” de l’équilibre grâce à son développement en Allemagne, mais aussi à de nouveaux soutiens financiers. Parmi ces derniers, le plus notable provient de l’équipementier chinois Huawei, ciblé par des accusations récurrentes d’espionnage au profit de Pékin. A l’instar d’autres services hébergés par des firmes américaines (Microsoft ou encore AWS), les alternatives existantes sur le marché européen sont donc souvent loin de constituer des solutions parfaitement souveraines.

L’affirmation de grands acteurs européens du numérique, condition de l’indépendance de l’UE, apparaît autrement menacée par l’émergence des BATX chinoises (Baidu, Alibaba, Tencent, Xiaomi). Bien que leur présence sur le marché du numérique européen soit relativement réduite, celles-ci nourrissent des ambitions mondiales, grâce à l’appui de l’Etat chinois. À la différence de l’Europe, les autorités chinoises s’impliquent largement dans le développement des entreprises nationales hors des frontières de la Chine, et les protègent sur leur sol de nouveaux concurrents étrangers de manière plus ou moins agressive. Il y a 11 ans , Google en avait fait l’amère expérience en devant quitter le marché chinois après avoir subi de nombreuses attaques informatiques. L’ampleur de la censure d’État a conduit la firme de Mountain View à renoncer à son projet de créer une version adaptée pour ce marché.

Créer les conditions d’émergence de champions européens

A l’instar de ses rivaux, qui veillent jalousement sur les intérêts et sur le développement de leurs entreprises du numérique, l’Union européenne ne pourrait-elle pas créer ses propres “champions” du numérique via un cadre protectionniste afin de rééquilibrer la concurrence, ou même de supplanter les entreprises américaines ?

L’existence d’alternatives aux firmes chinoises et américaines apparaît en effet la seule manière de donner corps à l’objectif d’une souveraineté numérique des États du continent. Si le RGPD a introduit la possibilité pour les utilisateurs européens d’avoir plus de contrôle sur les données qu’ils transmettent aux GAFAMs, il n’a cependant aucun effet sur les informations que transmettent ces derniers aux autorités américaines, comme le prouve la seule existence du CLOUD act. Ainsi, il n’est pas simplement question de savoir comment réguler la vente à objectif commercial de nos habitudes de consommation numérique, mais de trouver des moyens d’isoler la moindre donnée numérique pour la protéger d’acteurs tiers.

Ceci étant posé, la manière de créer concrètement les conditions de l’émergence d’acteurs crédibles se heurte à de nombreuses difficultés juridiques et politiques. D’un côté, la création de véritables GAFAMs européennes qui exerceraient un monopole sur le marché européen, à la manière des BATX, ne correspond pas au modèle mis en avant dans les différents traités européens. La mise en place d’un tel écosystème est en soit une mesure qui tuerait la concurrence et ne serait pas dans l’intérêt du consommateur à court et moyen terme, tant le service pourvu par les GAFAMs est d’une excellente qualité, avec laquelle il est difficile de rivaliser. Pour permettre à des services comme Qwant de s’affranchir des serveurs de Microsoft et de Huawei, il faudrait donc des années et des investissements massifs, non seulement pour rattraper le retard technique, mais aussi pour mettre en place des infrastructures nécessaires pour la fourniture de tels services.

Le modèle chinois, quant à lui, ne semble viable que sur ce marché particulier, tant les autorités ignorent les questions éthiques vis-à-vis de la collecte et de l’utilisation des données numériques. Par ailleurs, les États Membres de l’UE sont aussi bien liés par les traités européens, que par des traités internationaux, notamment en matière de commerce international qui les empêchent de prendre des actes d’entrave à la concurrence. Ce sont ces mêmes engagements qui ont engendré de nombreux contentieux devant l’OMC entre les États-Unis et l’Europe sur les aides apportées pour soutenir respectivement Boeing et Airbus.

C’est cette équation insoluble à l’heure actuelle que les pouvoirs publics européens doivent s’attacher à résoudre. Ceux-ci ne pourront faire l’économie de considérer la nécessité d’appliquer une certaine dose de protectionnisme afin de préserver cette “industrie naissante” en Europe. En la matière, l’impuissance politique et le refus de trancher ne reviendraient pas seulement à livrer le marché commun aux firmes internationales, mais constitueraient de facto une négation de l’ambition européenne de préservation de la vie privée de ses citoyens.

18.10.2021 à 16:03

« Les maîtres de la manipulation ont bouleversé les règles du jeu politique » (David Colon)

Rédaction OSI

Avec Maîtres de la manipulation. Un siècle de persuasion de masse, l’historien David Colon s’intéresse aux publicitaires, aux…
Texte intégral (2757 mots)

Avec Maîtres de la manipulation. Un siècle de persuasion de masse, l’historien David Colon s’intéresse aux publicitaires, aux propagandistes, aux artistes et aux scientifiques qui ont perfectionné l’art de la persuasion et de la manipulation de masse aux XXe et XXe siècle. Un essai incontournable pour comprendre les progrès de la publicité, du marketing politique et des relations publiques et qui ouvre le champ à une réflexion nécessaire sur les conséquences de leurs innovations pour la démocratie et la vie publique.

David Colon est enseignant et chercheur à Sciences Po, où il enseigne l’histoire de la communication. Il est l’auteur de Propagande (Flammarion, « Champs Histoire », 2021) et des Maîtres de la manipulation. Un siècle de persuasion de masse (Tallandier, septembre 2021). Il a reçu le prix Akropolis 2019 et le prix Jacques Ellul 2020.

Dans votre précédent livre, Propagande, la manipulation de masse dans le monde contemporain, vous vous intéressiez déjà aux progrès de l’art et de la science de convaincre les masses depuis la fin du XIXe siècle. Pourquoi avoir choisi d’adopter une grille de lecture plus biographique dans ce nouvel ouvrage ?

Dans Propagande, je postulais que la propagande était une science appliquée. Dans ce nouveau livre, j’entends en apporter la démonstration vivante, à travers les portraits des vingt plus grands maîtres de la manipulation de masse, qui ont su tirer profit des progrès scientifiques et technologiques pour concevoir et perfectionner l’art de la persuasion de masse.

Plusieurs des grandes figures à l’origine du métier des relations publiques et dont vous retracez le parcours (Ivy Lee, George Creel, Albert Lasker, Edward Bernays…) sont des citoyens américains. Comment expliquer l’importance originelle des Etats-Unis dans la genèse de la propagande moderne alors que l’opinion publique est déjà un sujet d’intérêt majeur dans les autres sociétés industrielles comme la France (avec Gustave Le Bon) ou le Royaume-Uni ?

Gustave Le Bon écrit en effet dans La psychologie des foules que « connaître l’art d’impressionner l’imagination, c’est connaître l’art de les gouverner ». Toutefois, c’est aux États-Unis que sa pensée trouve une traduction concrète Ivy Lee, parce qu’il a lu Le Bon, a l’idée d’inventer de nouveaux outils (les relations publiques modernes, la communication de crise, le lobbying industriel) pour prémunir les industriels des risques que représentent pour eux les revendications des « foules démocratiques ».

Gustave Le Bon écrit en effet dans La psychologie des foules que « connaître l’art d’impressionner l’imagination, c’est connaître l’art de les gouverner ». Toutefois, c’est aux États-Unis que sa pensée trouve une traduction concrète Ivy Lee, parce qu’il a lu Le Bon, a l’idée d’inventer de nouveaux outils (les relations publiques modernes, la communication de crise, le lobbying industriel) pour prémunir les industriels des risques que représentent pour eux les revendications des « foules démocratiques ».

Les États-Unis sont le creuset de la persuasion de masse, car ils connaissent avant le reste des pays industrialisés la démocratie avec le droit de vote accordé aux femmes en 1920, des campagnes politiques à l’échelle de la nation et une société de consommation de masse. C’est par conséquent la demande précoce tant politique qu’industrielle d’une plus grande maîtrise du comportement des Américains qui y conduit à l’invention de la publicité scientifique, des sondages et des études de marché, et à la création de centres de recherche tout entier voués à l’étude des mobiles des électeurs et des consommateurs ou à l’élaboration de formes de communication persuasives (l’École de Yale). En matière de persuasion de masse, les États-Unis s’imposent comme l’atelier du monde.

Comment les techniques inventées Outre-Atlantique se sont-elles popularisées en France ? Comment le secteur des relations publiques s’est-il structuré originellement dans l’Hexagone ? Le métier des relations publiques s’est-il singularisé en France par rapport aux Etats-Unis ?

En France, l’importation de ce que l’on nomme pudiquement « les méthodes américaines » est d’abord le fait de publicitaires. Marcel Bleustein Blanchet, qui a voyagé trois fois aux États-Unis dans l’entre-deux-guerres, en rapporte la publicité radiophonique et plus tard les sondages et les études de marché. Michel Bongrand, quant à lui, importe en 1965 et 1967 dans la vie politique française les techniques de marketing qui avaient contribué en 1960 à la victoire de Kennedy.

En 1968, Bongrand tente même d’importer en France le métier de consultant politique, qui aux États-Unis désigne alors des communicants chargés de l’ensemble d’une campagne politique. Il crée avec Joseph Napolitan, ancien conseiller de Kennedy, l’Association internationale des consultants politiques, qui se révèle avant tout une parfaite porte d’entrée pour les maîtres américains de la persuasion politique, à l’image de Napolitan embauché par Giscard d’Estaing en 1974. Plus largement, dans le contexte de la guerre froide, les États-Unis cherchent volontiers à exporter leur savoir-faire en matière de communication, de sondages ou d’études de marché, car il participe de leur diplomatie culturelle. La singularité des États-Unis par rapport à la France, toutefois, c’est qu’il n’est pas rare de rencontrer des spin doctors qui construisent de A à Z la campagne d’un candidat aux plus hautes fonctions : Roger Ailes et Lee Atwater en 1988 au profit de George H. Bush, ou Karl Rove à deux reprises au bénéfice de George W. Bush. En France, aucun communicant n’a encore eu un tel pouvoir.

Comment expliquer la rapidité d’appropriation des nouveaux médias de masse destinés à la culture, à l’information ou au divertissement par les praticiens du secteur tout au long du XXe siècle ? On lit pourtant dans votre ouvrage que beaucoup de ces innovations comme la diffusion de spots politiques à la télévision étaient loin de présenter un caractère d’évidence ou d’efficacité à leur origine.

Le talent de ces ingénieurs de la persuasion réside précisément dans leur aptitude à identifier le potentiel de ces nouveaux médias et à le mettre à profit . George Creel, le premier, a saisi en 1917 pour le compte du président Wilson le potentiel propagandiste du cinéma et de la radio. En 1952, à peine a-t-il inventé le spot télévisé publicitaire que Rosser Reeves applique sa découverte à la campagne d’Eisenhower. Plus près de nous, Steve Bannon, a compris le premier que les forums internet et les réseaux socio numériques se prêtaient à une nouvelle forme de persuasion, la propagande de réseau, ou que l’analyse prédictive des comportements pouvait être mise au service d’une fabrique du chaos politique.

Aux côtés des innovations scientifiques de pointe, dont les « maîtres de la manipulation » ont su se saisir pour perfectionner l’art de la persuasion, on est souvent surpris de trouver dans votre ouvrage d’autres auteurs plus classiques parmi leurs références : Aristote ou encore Machiavel pour ne citer qu’eux. Ces penseurs ont-ils encore quelque chose à nous apprendre de l’art de persuader ou ont-ils été dépassés ?

Les progrès de la persuasion sont incrémentaux au XXe siècle : une technique, une fois qu’elle a fait la preuve empirique de son efficacité, rejoint un répertoire tacite d’outils dont on se sert à l’envi sans nécessairement en connaître l’origine. Au XXIe siècle, ces progrès sont exponentiels, en raison de l’échelle gigantesque et des potentialités nouvelles offertes par le numérique. L’art de la persuasion remet toutefois sans cesse au goût du jour des principes très anciens : l’art de semer la division, pensé par Sun Tzu, a été revigoré par les réseaux numériques, et l’art grec du Kairos, consistant à déterminer le moment opportun pour entreprendre une démarche de persuasion, ne relève plus désormais de l’intuition, mais d’une approche scientifique rendue possible par exemple  par les outils d’analyse prédictive de Facebook.

Face à l’idée d’une toute puissance de la propagande (qui confine parfois au fantasme), les démocraties cherchent toujours à réguler la pratique des relations publiques et de la publicité. A partir de quel moment ce sujet est-il devenu un problème politique ?

Les maîtres de la manipulation ont bouleversé les règles du jeu politique, en offrant à leurs riches clients des outils de persuasion de masse d’une efficacité croissante. Ce sujet est devenu  un problème politique à partir du moment où l’art de la persuasion a permis aux industriels de faire prévaloir leur point de vue au détriment par exemple des syndicats et du droit syndical, dont nombre de maîtres de la manipulation, à commencer par Ivy Lee et Albert Lasker, ont patiemment sapé les fondements. Il est devenu aujourd’hui un problème vital pour les démocraties libérales, menacées par des entreprises de déstabilisation dont on commence tout juste à ressentir les effets depuis le Brexit ou l’insurrection du Capitole.

Les démocraties apparaissent s’être facilement appropriées les armes de la propagande en situation de crise, notamment lors des deux guerres mondiales (à l’instar du comité Creel, du rapprochement entre Hollywood et l’armée américaine ou de la création d’un secrétariat d’Etat en France chargé de la propagande en 1939). Comment ces pratiques ont-elles été perçues par l’opinion publique des démocraties ?

Il y a trois attitudes principales à l’égard de la propagande en démocratie sur le siècle écoulé. La première, que je crois la plus répandue, est l’ignorance. Il faut en effet souligner fait que depuis les années 1950 au moins, les techniques de persuasion de masse sont souvent difficilement décelables. Les « persuadeurs cachés », comme les nommait Vance Packard, s’emploient en effet à dissimuler leurs traces, et le microciblage comportemental, de nos jours, rend extrêmement difficile de déceler en temps réel des opérations de manipulation de masse.

La deuxième attitude est le déni : il est souvent très difficile d’admettre que des gouvernements démocratiques puissent recourir à la propagande, que l’on considère à tort comme l’apanage des régimes autoritaires ou totalitaire. Pour beaucoup de nos concitoyens, la propagande en démocratie est une vérité inconvenante.

Enfin, la troisième attitude consiste à admettre l’existence de la propagande en démocratie, mais de refuser à y recourir à son profit. C’est l’attitude du parti social-démocrate allemand face à la propagande psychologique des nazis, ou l’attitude du candidat démocrate Adlai Stevenson en 1952 et 1956, qui refuse de recourir à des spots télévisés parce qu’il refuse d’être « vendu comme du dentifrice ».

Plusieurs praticiens et théoriciens de la propagande ont estimé que celle-ci était indispensable en démocratie y compris en période de paix, qu’il s’agisse d’assurer le consentement des citoyens aux politiques publiques et aux institutions ou pour se défendre contre les offensives informationnelles de régimes autoritaires. Qu’en est-il aujourd’hui ? Les deux notions peuvent-elles être conciliées ?

Edward Bernays et Harold Laswell, pour ne citer qu’eux, ont en effet revendiqué haut et fort la nécessité de recourir à la propagande et, dans le cas de Bernays, à la manipulation, pour fabriquer le consentement démocratique. La propagande est d’autant plus nécessaire en démocratie que l’on ne peut pas, en principe, y recourir à la contrainte pour agir sur les comportements des citoyens. Pendant l’essentiel du XXe siècle, le recours à l’ingénierie du consentement à l’intérieur des frontières nationales des pays démocratiques a été favorisé par le fait que les médias de masse franchissaient difficilement les frontières, à l’exception du radio et de la télévision par satellite. Au XXIe siècle, au contraire, le numérique a ouvert brutalement l’espace informationnel des démocraties aussi bien à des offensives informationnelles étrangères, qu’à des opérations de guerre psychologique menées par des acteurs politiques ou économiques internes, comme l’a illustré l’affaire Cambridge Analytica. Cela conduit les démocraties à chercher à protéger l’accès à leur sphère informationnelle, à se doter de nouvelles capacités de guerre informationnelle, et à tenter de contrer les offensives propagandistes internes aussi bien par des mesures législatives, souvent liberticides, que par le développement de nouvelles technologies visant à influencer les comportements des citoyens, comme le nudge. C’est, en effet, un équilibre nécessairement instable, comme l’a montré en son temps le père de la cybernétique, Norbert Wiener, qui considérait le contrôle des moyens de communication comme « le plus efficace et le plus important » des « facteurs anti-homéostatiques » : « Le pays qui jouira de la plus grande sécurité, écrit-il en 1950, sera celui (…) où l’on se rendra compte pleinement que l’information importe en tant que stade d’un processus continu par lequel nous observons le monde extérieur et agissons efficacement sur lui ».

Les dispositifs de persuasion mis en place par les GAFAM pour capter l’attention de leurs utilisateurs et les retenir le plus longtemps sur leur plateforme, tout comme le « nudge », apparaissent procéder d’une tentative de persuasion inconsciente qui met à mal l’idée d’un citoyen libre et éclairé raisonnant par lui-même. Le rapport entre persuadeur et persuadé semble pencher définitivement en défaveur de celui-ci. La démocratie peut-elle s’en accommoder ?

La démocratie ne peut pas et ne doit pas s’accommoder de dispositifs de manipulation qui sapent ses fondements mêmes, d’une part en privant en nombre les individus de leur libre-arbitre, d’autre part en faisant prévaloir à l’excès des points de vue contraires à l’intérêt général, par exemple celui des industries polluantes qui encouragent une propagande climatosceptique. Le nudge, conçu par Richard Thaler pour aider les individus à prendre la décision la plus favorable pour eux, a parfois été détourné de son objet, par exemple par Facebook en 2018 pour persuader nombre de ses utilisateurs européens renoncer d’eux-mêmes au bénéfice de la protection que leur apportait le Règlement européen sur la protection des données (RGPD), ou plus récemment dans l’espoir de conduire les utilisateurs d’Iphone à renoncer à la protection apportée par le nouvel IOS d’Apple contre le tracking publicitaire. La Commission européenne, dans son projet de Règlement européen sur l’intelligence artificielle (REIA), prévoit l’interdiction en 2024 des systèmes qui manipulent le comportement humain en déployant des techniques subliminales pour agir sur le comportement humain, pour exploiter les vulnérabilités d’un groupe, ou pour procéder à une analyse prédictive de leur personnalité. Une telle initiative, qui se heurte déjà au puissant lobbying de certains géants du numérique, doit être soutenue le plus largement possible.

Les Maîtres de la manipulation.Un siècle de persuasion de masse

21.09.2021 à 10:03

François-Bernard Huyghe : « Les élites semblent découvrir que la guerre économique existe »

Rédaction OSI

Après la rupture par l’Australie d’un contrat portant sur la livraison par la France de 12 sous-marins conventionnels, le président de l’Observatoire stratégique de l’information François-Bernard Huyghe analyse la dimension stratégique et informationnelle de ce revers commercial et diplomatique.
Texte intégral (927 mots)

Après la rupture par l’Australie d’un contrat portant sur la livraison par la France de 12 sous-marins conventionnels, le président de l’Observatoire stratégique de l’information François-Bernard Huyghe analyse la dimension stratégique et informationnelle de ce revers commercial et diplomatique.

L’annulation du méga-contrat australien est-elle révélatrice d’une faillite stratégique française ?

François-Bernard Huyghe : Oui sur plusieurs plans. Le renseignement d’abord : nous sommes tombés des nues, nous n’avions, paraît-il, rien vu venir. Or, comme disait Napoléon, à la guerre, il est excusable d’être battu, mais pas d’être surpris.

C’est toute notre stratégie d’influence dans la zone Indo-Pacifique qui est mise en cause (et pas seulement nos méthodes de négociation commerciale ou de soutien diplomatique). C’est une zone où nous avons des territoires (Mayotte, Nouvelle-Calédonie, Wallis-et-Futuna, etc…), 7000 soldats, des navires etc. Imaginons que le référendum de décembre en Nouvelle- Calédonie voie triompher l’indépendance, pensons une seconde qui pourrait en profiter.

Enfin, il y a une dimension symbolique. Face à une réaction française très forte et des propos très durs de Jean-Yves Le Drian – et sur la forme et sur le fond – , Biden n’a guère changé son week-end et nos partenaires nous traitent avec ce qu’il faut bien appeler un certain mépris : business is business, de quoi s’énervent les grenouilles ? C’est peut-être cette placidité le pire.

Cette affaire peut-elle faire l’effet d’un électrochoc au sein des cercles dirigeants en France dans le sens d’une meilleure prise en considération de la guerre économique ?

F.-B. H. : Les élites semblent découvrir :

a) Que les nations ont des intérêts, pas des amis.

b) Que ce n’est pas gentil Biden, méchant Trump et que les démocrates ne nous admirent guère sinon comme destination touristique.

c) Que le projet de Biden de réinstaurer l’hégémonie US sur le monde libre et contre la Chine suppose des alliés obéissants et certainement pas des partenaires égaux (et d’ailleurs, en Afghanistan…).

d) Que la guerre économique existe, en effet.

e) Que nous aurions pu nous inquiéter plus tôt des révélations sur l’espionnage américain dans les années 90 (Echelon) ou au moment de l’affaire Snowden et, nous énerver, par exemple, que le portable de François Hollande soit écouté sous Obama.

f) Que nos alliés européens ne nous manifestent pas une solidarité très spectaculaire.

Mais ces élites sont tellement formatées…

Entre les menaces d’ingérence étrangères, la crise ouverte avec les Etats-Unis, l’Australie et le Royaume-Uni et le silence de l’UE, la France paraît de plus en plus isolée et vulnérable sur la scène mondiale. La France a-t-elle les ressources pour s’adapter à cette nouvelle donne géostratégique ?

F.-B. H. : Entre les USA qui nous traitent comme quantité négligeable, l’Otan qui est en état de mort cérébrale (dixit Macron) et la quête d’une autonomie stratégique pour une Europe de la défense sur laquelle même les plus indulgents ont des doutes (ainsi : l’Allemagne s’apprête à acheter des F18 américains), il nous faut en effet, nous réinterroger. Nos capacités militaires de souveraineté sont largement dépendantes de nos capacités d’exportation militaire, donc de notre stratégie et poids politique pour soutenir notre puissance économique. Et nous n’avons plus la même image qu’à l’époque du discours Dominique de Villepin à l’Onu.

Comment faire progresser une véritable culture de l’indépendance stratégique en France ? S’agit-il d’une bataille culturelle à mener ?

F.-B. H. : Largement culturelle, oui. Et cela commence dans les universités et les grandes écoles. Mais il faut aussi donner des exemples qui parlent au peuple : ainsi, dans cette affaire, une fois jouée ou surjouée la brouille, il faut faire un acte symbolique (certains suggèrent de requitter le commandement intégré de l’Otan, ce qui paraît utopique) mais en tout cas pas se contenter de paroles rassurantes. Marquer spectaculairement le coup une semaine pour rentrer dans le rang ne suffit pas, surtout dans la mesure où Macron va présider l’UE en janvier. Une proposition stratégique, mais laquelle ?

Ces enjeux peuvent-ils porter au cours de la prochaine élection présidentielle ?

F.-B. H. : Les candidats de droite ou vaguement souverainistes de gauche ont un boulevard pour critiquer Macron l’atlantiste qui n’est même pas un bon vendeur. Ils peuvent proposer des mesures de rétorsion que personne n’appliquera vraiment. Est-ce que cela pèsera vraiment sur le vote ? Nourrir le discours sur la France en déclin et qui doit repenser son identité et ses intérêts (avec une petite nostalgie gaullo-miterandienne) ? Je n’avais pas prévu que Zemmour passerait de 4 à 10 % dans les sondages en une semaine et polariserait le débat, alors, je ne regarde plus ma boule de cristal.

18.09.2021 à 13:00

Raphaël Chauvancy : « La France a pris beaucoup de retard sur les guerres de l’information »

Rédaction OSI

Alors que les nouveaux conflits se doublent désormais de plus en plus d’une dimension informationnelle, la France reste…
Texte intégral (2916 mots)

Alors que les nouveaux conflits se doublent désormais de plus en plus d’une dimension informationnelle, la France reste mal préparée à ces nouveaux enjeux. Dans son dernier essai intitulé Les nouveaux visages de la guerre : Comment la France doit se préparer aux conflits de demain (VA Editions), Raphaël Chauvancy analyse les nouveaux défis géopolitiques qui s’imposent à elle et appelle à se doter de capacités d’intervention dans la sphère informationnelle pour répondre à ces nouvelles menaces.

Vous déplorez dans votre livre le manque de culture stratégique et de lucidité des élites françaises vis-à-vis des nouveaux défis géopolitiques. S’agit-il d’un constat définitif, ou percevez-vous a contrario une prise de conscience de ces nouveaux enjeux ?

L’incapacité des élites françaises à comprendre les grands enjeux contemporains ne tient pas seulement à un manque de culture stratégique mais au refus même d’une approche stratégique. Elles ont partagé avec enthousiasme l’illusion de la fin de l’histoire dans les années 1990 et n’en sont toujours pas revenues depuis. Il s’agit de la manifestation d’un phénomène d’enfermement cognitif collectif, qu’Irving Janis a désigné sous le nom de Groupthink, dont il est extrêmement difficile de se libérer puisque la pression sociale et les croyances partagées font écran avec l’analyse rationnelle des faits.

Il serait donc illusoire d’espérer que les élites remettent massivement en cause des certitudes et des préjugés profondément ancrés. Sans doute faut-il davantage tabler sur leur remplacement progressif. L’impératif d’efficacité favorise l’ascension de dirigeants plus ouverts sur le monde et capables de sortir des sentiers battus. Ils sont de plus en plus nombreux, notamment parmi les plus jeunes, à appliquer des grilles de lecture adaptées à l’environnement multi-conflictuel postmoderne. Par ailleurs, la qualité de la réflexion géopolitique et de la prospective conceptuelle appliquée aux nouvelles conflictualités, comme la guerre économique et la guerre cognitive, en France est sans équivalent hors du monde anglo-saxon.

Le monde politique et le monde militaire s’adaptent aux nouveaux enjeux et aux nouvelles formes d’affrontements économiques et immatériels. Le gouvernement français vient ainsi de doter le pays d’une agence anti fake news, tandis que le général Burkhardt a fixé l’investissement de la 5e dimension parmi les priorités de l’armée de Terre.

Pour diverses raisons, dont la faiblesse du réseau des PME-ETI par rapport aux entreprises multinationales en France, le monde entrepreneurial semble en retrait par rapport à la prise de conscience institutionnelle, mais les déboires rencontrés le contraignent à son corps défendant à constater progressivement la réalité d’une guerre économique dont il subit les effets de plein fouet.

Les mondes intellectuels et médiatiques sont, pour leur part, largement hermétiques aux enjeux de la guerre informationnelle dont ils se trouvent pourtant partie prenante. Cela tient, notamment, à la place particulière de l’intellectuel en France qui est peu disposé à accepter que l’« engagement » dont il est si fier soit détourné par des acteurs poursuivant leurs buts propres dans le cadre d’affrontements stratégiques qui le dépassent. Les médias, eux, prétendent se tenir au-dessus de la mêlée. Ce déni facilite d’ailleurs leur réduction au rôle de caisse de résonance et facilite les instrumentalisations qu’ils récusent.

Pourquoi la France peine-t-elle encore à prendre la mesure du contexte de conflictualité généralisée auquel elle est confrontée ?

La France a une culture du combat direct. Elle est l’héritage d’une situation géopolitique particulière, Paris se situant à quelques étapes des frontières ouvertes du nord-est. Les Français ont donc développé une approche plus tactique que stratégique, afin de répondre à l’impératif d’urgence et d’immédiateté, et ne conçoivent la guerre que sous la forme de la bataille aux frontières.

Ils sont relativement indifférents aux expéditions lointaines et étrangers à la notion de guerre couverte. Les atteintes américaines, russes ou chinoises à notre souveraineté stratégique dans les sphères économiques, informationnelles ou autres sont trop souvent soit minorées, soit perçues comme des distorsions ou des accidents.

Cette vision plus tactique que stratégique est l’origine de la méconnaissance totale en France de ces problématiques de guerres informationnelles. Certaines opérations de guerre psychologique ont été de réels succès tactiques, à l’instar de la « Bleuite » durant la Guerre d’Algérie qui a permis d’éliminer un certain nombre de cadres du FLN. Mais cette opération n’a rien changé à la situation stratégique et n’a pas empêché la France de perdre la guerre. Celle-ci peut s’expliquer par une erreur stratégique qui l’a conduit à se tromper d’objectif. Comme l’a bien montré Christian Harbulot, le FLN a très tôt compris que le sort du conflit ne se déciderait pas sur le terrain mais que son véritable centre de gravité se situait au niveau de l’opinion publique mondiale. Il a remporté la victoire des perceptions et de la légitimité, ce qui a rendu inutile la victoire militaire française et lui a permis d’atteindre ses objectifs.

Une autre tendance consiste à se rassurer en assimilant la révolution stratégique que constitue la guerre systémique entre les grandes puissances à une simple accentuation des rivalités. Mais la guerre économique ne se réduit pas à un durcissement de la compétition, elle est la forme nouvelle de la quête de la puissance à travers l’économie. La guerre cognitive ne se limite pas davantage à l’utilisation de proxys sur les réseaux sociaux, elle engage la survie stratégique d’une nation en modélisant ses critères de jugement et en dégradant les ressorts de sa volonté grâce à des manœuvres offensives d’ingénierie sociale et d’influence culturelle. Et la guerre militaire elle-même redevient une possibilité.

Enfin, la France a misé sur la fin de la guerre et l’obsolescence des nations. Il est difficile de revenir en arrière. C’est d’ailleurs pourquoi elle n’a pas su faire de l’Union européenne le formidable démultiplicateur de puissance qu’elle devrait être si elle était appréhendée comme un outil stratégique et non comme un impératif moral.

La coopération étroite entre le public et le privé apparaît dans votre livre comme l’un des avantages compétitifs des grandes puissances à l’instar des Etats-Unis, dans un contexte où la guerre devient globale et, entre autres, économique. Le développement de telles relations est-il envisageable en France ?

La méfiance historique entre puissance publique et privée en France se double effectivement d’un aveuglement idéologique. Le pouvoir soupçonne les forces de l’argent et les corps intermédiaires de sédition tandis que ceux-ci considèrent généralement l’Etat comme un prédateur ou un oppresseur.

Par ailleurs, la France ne peut pas compter sur un écosystème de think tanks dotés de ressources importantes. Si celui-ci existe dans les pays anglo-saxons, c’est parce que ce type de structures disposent de ressources importantes qui leur permettent d’attirer des chercheurs. En leur absence, c’est l’Etat qui doit impulser le changement. Malgré des limites en termes de savoir-faire et de capacités opérationnelles, une prise de conscience semble heureusement émerger dans les cercles dirigeants.

Seule une vision stratégique globale permettrait de surmonter les méfiances réciproques entre le public et le privé. C’est pourquoi la diffusion de nouvelles grilles de lecture et la compréhension par l’ensemble des Français et de leurs élites des contraintes et des impératifs liés aux nouvelles guerres systémiques est si importante.

Des ponts commencent à être jetés mais la route est longue. Elle passe par une plus grande perméabilité entre le monde politique et la haute fonction publique d’une part et le monde privé d’autre part. Elle passe également par la constitution d’organes mixtes de synthèse stratégique. A l’heure des réseaux, le fonctionnement en tuyaux d’orgue est totalement obsolète. La confiance ne se décrète pas mais la crise de la COVID aura au moins eu le mérite de rapprocher l’Etat et les entrepreneurs pour empêcher une faillite nationale. Les Français sauront-ils saisir cette opportunité de créer des synergies durables ou la gâcheront-ils ? L’avenir le dira.

Comment la France se prépare-t-elle aux guerres de l’information ?

La France a pris beaucoup de retard en termes de guerre de l’information par méconnaissance des enjeux. Elle commence tout juste à comprendre que les clés de la puissance et de la prospérité se trouvent désormais dans le monde immatériel et la sphère informationnelle. Elle n’a donc pas développé les outils techniques qui lui auraient permis de s’affranchir de la tutelle américaine.

La réponse française à ces nouveaux enjeux se borne donc à répondre par de la veille et de la censure, en se focalisant sur la problématique des fake news, ce qui est encore la solution la plus simple. Savoir contre-attaquer est un savoir-faire que nous ne maîtrisons pas encore au niveau institutionnel. Avoir des velléités opérationnelles ne sert à rien si elles sont mal montées. Les quelques tentatives que nous avons effectuées ont été facilement repérées, et n’ont guère eu plus de réussite que les charges de pantalons rouges en 1914.

Pourtant, la plupart des conflits ont désormais une dimension informationnelle importante. Si nous ne sommes pas capables de l’investir en nous dotant de capacités offensives, nous nous condamnons à perdre dans tous les conflits dans lesquels nous sommes engagés. A l’inverse, la guerre informationnelle est désormais intégrée dans la doctrine de certains Etats comme le Royaume-Uni, qui est beaucoup plus désinhibé que nous. Dans leurs réflexions sur l’avenir de la guerre, les Britanniques affirment noir sur blanc chercher à se doter de capacités offensives en matière de guerre informationnelle. Cette différence est aussi la marque d’une culture militaire qui privilégie la stratégie et sait se donner du temps sur la tactique et le combat frontal.

La France peut-elle se doter en la matière de sa propre stratégie et de ses propres outils sans les faire dépendre des Etats-Unis, qui exercent un monopole technologique en la matière ?

Plusieurs tentatives ont été faites en France pour s’autonomiser, dont les plus connues concernent le moteur de recherche Qwant par exemple, ou dans le domaine du stockage des données, l’entreprise OVH. Mais l’utilisation de Qwant reste anecdotique et dépend en partie de Microsoft, tandis que l’incendie dont a récemment été victime OVH a révélé l’amateurisme d’une entreprise qui avait colocalisé les serveurs principaux et de ceux de secours…

Il n’existe donc toujours pas à ce jour d’alternative technique nationale crédible aux solutions américaines – ou chinoises. Il est d’ailleurs difficile d’imaginer la France mettre en place les conditions de son indépendance numérique en dehors d’une approche européenne. Les investissements et l’échelle nécessaire pour proposer des solutions viables nécessitent une synergie entre les grands États européens. Malheureusement ceux-ci ne voient pas toujours la nécessité de s’affranchir de Washington.

En revanche, grâce au développement de la culture écrite française sur la guerre de l’information, des outils conceptuels de combat sont désormais disponibles, même s’il s’agit d’un domaine où la prise d’ascendant implique un renouvellement permanent des méthodes et des approches.

En matière de guerre informationnelle, la France peut-elle rivaliser avec d’autres acteurs (Etats, groupes paramilitaires, organisations terroristes, associations militantes…), qui, moins scrupuleux et moins inhibés moralement, n’hésitent pas à recourir aux armes du faux et de la désinformation ?

La réflexion sur la guerre informationnelle en France fournit un cadre conceptuel général de grande qualité. Un certain nombre de praticiens seraient d’ailleurs capables de rivaliser avec leurs grands compétiteurs étrangers.

En revanche, l’utilisation offensive et stratégique de l’information est généralement confondue en France avec sa manipulation et assimilée à des barbouzeries ou à la propagandes d’Etats totalitaires.

L’assimilation de la guerre informationnelle à une forme de guerre sale est d’autant plus dommageable qu’à l’inverse de la guerre de tranchées, la guerre de l’information est une guerre de mouvement. L’attaquant y bénéficie d’un avantage décisif. La défense même ne peut prendre la forme que d’une contre-attaque. Vouloir limiter la guerre de l’information à des opérations défensives comme certains prétendent le faire en France revient donc à refuser de combattre et à recevoir passivement les coups de nos adversaires.

Le contraste est fort avec la désinhibition de nombreux acteurs. Elle constitue cependant elle aussi une faiblesse, puisqu’elle est une tentation permanente à franchir certaines lignes rouges en termes d’intoxication du public. Or les fausses informations, les fameuses fake news, ou les manipulations sont décelables. Une fois exposées sur la place publique, elles se retournent contre leur initiateur. Les interdits moraux d’une société démocratique ouverte comme la nôtre peuvent constituer à cet égard un avantage. Nos offensives informationnelles peuvent être d’autant plus percutantes qu’elles ne peuvent reposer sur des mensonges qui seraient détectés et dénoncés au sein de notre propre société. La transparence aussi est une arme, à condition de ne pas la confondre avec la naïveté et de l’utiliser dans un contexte offensif.

Quels sont les freins à lever pour créer une véritable culture de la guerre informationnelle en France ?

Le développement de la guerre informationnelle pâtit d’une méconnaissance du grand public. Il souffre également du manque de confiance des citoyens vis-à-vis de leurs dirigeants. Dans ce contexte de défiance généralisée, des initiatives positives, comme la création récente de l’agence Viginum, courent le risque d’être interprétées comme la mise en place d’un dispositif de surveillance de masse ou de propagande, par manque de culture informationnelle.

Les Français ne sont pas encore prêts à prendre le pas de la guerre informationnelle. Si le concept de guerre économique leur est désormais devenu familier, ils peinent encore à comprendre que nous soyons la cible d’offensives dans le domaine de l’information et de la connaissance.

Un travail d’explication et de pédagogie du grand public est donc nécessaire, pour le convaincre de la nécessité et de la licéité éthique et morale du combat informationnel. Face à des acteurs autoritaires prêts à relever chacune de nos contradictions entre nos principes et nos pratiques pour affaiblir nos structures sociales et notre légitimité, nous ne pouvons pas nous permettre de déroger à nos valeurs de société ouverte. Notre force est de jouer sur la transparence de l’information face à des Etats autoritaires.

D’autre part, la connaissance joue un rôle majeur dans un contexte de guerre économique systémique. Même nos alliés anglo-saxons ou allemands, par exemple, n’hésitent pas à profiter de notre naïveté pour lancer des attaques informationnelles contre nos intérêts. Ces actions nous font perdre des contrats et donc détruisent des emplois et nuisent à notre prospérité. Il est grand temps de réagir.

C’est pourquoi un travail de communication sur cette forme de conflictualité est impératif. Même si elle doit évidemment se poursuivre, la recherche conceptuelle en France est déjà d’une très grande qualité sur le sujet, notamment grâce aux travaux effectués depuis vingt ans par l’Ecole de Guerre Economique et ses réseaux. L’enjeu est désormais d’amplifier le courant et de familiariser les médias grand public avec ces nouvelles notions, préalable essentiel au développement de capacités nationales efficaces pour répondre à l’enjeu des guerres de l’information.

25.03.2021 à 12:39

[ÉTUDE] – Dans la tête de Sputnik

Damien Liccia

Sputnik France, l’un des deux médias russes actifs dans l’écosystème informationnel francophone, est régulièrement accusé de chercher à influencer l’opinion publique française et celle de nombreux pays africains où le français est une langue couramment parlée par la population. Afin d’évaluer son influence et décrypter les stratégies qu’il met en oeuvre, il n’est pas seulement nécessaire de connaître les objectifs poursuivis par la diplomatie russe, mais aussi d’établir la grille d’analyse la plus fine possible de son contenu, en étudiant les métadonnées. C’est l’objet de cette étude, menée dans le cadre des travaux d’OSI, qui a passé au crible plus de 170 000 articles publiés par Sputnik entre 2014 et 2020.
Texte intégral (2916 mots)

Cliquez ici pour télécharger la version PDF l’étude.

Introduction

Pourquoi s’intéresser aux médias russes

L’activité éditoriale des médias russes que sont RT et Sputnik constitue depuis plusieurs années un sujet d’intérêt majeur pour tous ceux qui sont amenés à s’intéresser aux questions de cadrage et de manipulation de l’information. Ce champ de recherche a vu son intérêt redoubler du fait d’une politisation et d’une mise à l’agenda manifestes de la part de l’exécutif français qui, à la suite des élections américaines de 2016 et du référendum sur le Brexit tenu quelques mois auparavant, s’est montré particulièrement sensible à la question de l’ingérence russe dans la vie politique hexagonale, après un scrutin au printemps 2017 marqué par de nombreux cas d’opérations d’influence et autres cyberattaques, ayant notamment ciblé La République en Marche (LREM). 

Le 29 mai 2017, dans le cadre de la visite en France de Vladimir Poutine, Emmanuel Macron, à l’occasion de la conférence de presse commune rassemblant les deux chefs d’État au château de Versailles est ainsi revenu sur l’action de Sputnik et de Russia Today (RT) dans le cadre de la campagne électorale française qui venait à peine de se clore. Pour le Président français, ces deux médias russes, proches du Kremlin, se sont comportés ni plus ni moins que comme des “agents d’influence”, et aucunement comme comme des “organes de presse”. Les accusations vont même plus loin, puisque Sputnik et RT sont accusés d’avoir répandu de la “propagande mensongère” et des “contre-vérités infamantes”.

“En vérité, Russia Today et Sputnik ne se sont pas comportés comme des organes de presse et des journalistes, mais comme des organes d’influence, de propagande et de propagande mensongère, ni plus ni moins. Quand des organes de presse répandent des contre-vérités infamantes, ce ne sont plus des journalistes, ce sont des organes d’influence”.1

Éléanor Douet au micro de RTL

Un an et demi plus tard, le 31 décembre 2018, après une séquence marquée par l’émergence sur le devant de la scène médiatique et politique du mouvement des “Gilets jaunes”, Emmanuel Macron, dans son adresse aux Français à l’occasion des vœux pour l’année 2019 exprime, en premier lieu, un vœu de vérité.2

“Le vœu de vérité, c’est aussi celui qui doit nous conduire, afin de demeurer une démocratie robuste, à mieux nous protéger des fausses informations, des manipulations et des intoxications” et le Président de la République, un peu plus loin, de souligner que “partout en Europe montent les partis extrémistes tandis que les interventions de puissances étrangères étatiques et privées se multiplient”. 

Quelques semaines après ces voeux, faisant le bilan du mouvement des gilets jaunes, Emmanuel Macron constatait encore que “les gens qui sont surinvestis sur les réseaux sont les deux extrêmes”, notant que “ce sont des gens qui achètent des comptes, qui trollent”, et pointait à travers eux la responsabilité de “Russia Today, Sputnik, etc.”3.

Le supposé basculement dans l’ère des “fake news”, de la post-vérité et dans la manipulation à grande échelle, notamment via les réseaux sociaux, a été concomitant d’une emphase mise, de manière récurrente, sur les menées informationnelles russes dans les écosystèmes informationnels occidentaux, et tout particulièrement lors des phases critiques des processus électoraux. Au point que, et au risque de forcer le trait à outrance, on pourrait en venir à se demander si dans cette bascule, dont tant l’effectivité que la pertinence demeurent naturellement sujettes à caution, Sputnik et RT n’en sont pas venus à se glisser dans le rôle d’agents provocateurs particulièrement efficaces. Après tout, il n’est qu’à regarder la médiatisation de la supposée ingérence informationnelle de la Russie dans le processus référendaire catalan de l’automne 2017 pour constater que bien souvent, par un schéma synecdotique tendant à prendre la partie pour le tout, les menées informationnelles ainsi décrites, loin d’être le fait de réseaux complexes de bots animés par des IA surpuissantes, sont avant tout réductibles à des traitements de l’information cadrés, biaisés et anormaux de la part des deux médias couramment incriminés. Quoi qu’il en soit, dans ce schéma de basculement qui s’est ouvert depuis la brèche de 2016, Sputnik et RT en sont venus à cristalliser nombre de craintes, dont il convient de discerner ce qui ressort, effectivement, de craintes fondées des constructions chimériques d’artefacts de type “tigres de papier” qui égarent les appréhensions des décideurs des démocraties libérales.

Un média emblématique de la nouvelle diplomatie publique russe

Né en novembre 2014 à la suite de la fusion de la radio La Voix de la Russie et de l’agence de presse RIA Novosti pour former l’agence fédérale d’information Rossija Segodnja, dont il constitue la principale branche4, Sputnik est devenu en l’espace de quelques années l’un des symboles les plus emblématiques de la nouvelle diplomatie publique russe. Disposant de plus d’une trentaine de déclinaisons linguistiques, Sputnik a lancé dès 2014 sa version en français, dont le rayonnement ne se limite pas, loin s’en faut, au seul périmètre hexagonal et francophone. La déclinaison francophone de Sputnik s’adresse également à l’ensemble des pays africains de langue français, et ce notamment à travers ses comptes sur les réseaux sociaux.

Classement des pages Facebook les plus influ- entes, en termes de nombres d’abonnés, sur le réseau social Facebook
Table 1: Classement des pages Facebook les plus influentes, en termes de nombres d’abonnés, sur le réseau social Facebook

L’influence prêtée à Sputnik dans le débat public par de nombreux observateurs et notamment par les plus hauts responsables de l’État français est devenue un sujet brûlant dans le débat public hexagonal, qui se confond parfois avec la lutte contre le complotisme5, et une pomme de discorde entre Paris et Moscou6 . Le fait est d’autant plus notable que de nombreux autres médias étrangers en français, pour certains propriétés d’États autoritaires ou de “démocraties illibérales” , cherchent aussi à influencer ou à convaincre la population française sans devenir pour autant un sujet de controverse dans le débat public7.

L’explication de ce traitement différencié réside en partie dans la nature et l’intensité de la confrontation symbolique entre l’Est et l’Ouest et dans l’écho qu’elle trouve en France (entre un camp conservateur et/ou eurosceptique, qui coïncide en partie avec les deux extrêmes, et un camp libéral et atlantiste8), auquel répondent des enjeux géopolitiques majeurs, opposant la Russie et la France et ses alliés (en Europe de l’Est, en Afrique subsaharienne ou encore au Proche-Orient). Celle-ci se trouve par ailleurs renforcée par la dimension mondiale du phénomène qui permet des comparaisons internationales. L’attention dont font l’objet les médias russes procède par ailleurs d’une réactivation des craintes de la guerre froide liées à une supposée “stupéfiante efficacité de la propagande russe”9. Ces différentes explications ont en commun d’expliciter le contexte de réception des contenus de Sputnik. A l’exception de la dernière, qui se limite à éclairer le sous-jacent psychologique des réactions suscitées par le média russe, celles-ci peuvent se permettre de faire l’impasse d’une analyse du contenu publié par ce média dans sa globalité, en se focalisant uniquement sur quelques exemples de choix. Si cette approche, qui emprunte au travers dit du cherry picking, a le mérite de la simplicité au regard de l’immensité de la tâche que représente l’analyse de corpus d’articles conséquents, cette démarche peut susciter des angles morts dans l’analyse, dont peuvent découler des biais de perception préjudiciables à la bonne compréhension de ce que publie réellement Sputnik. Si la valorisation de la Russie selon une logique de nation branding, tout comme la publication de contenus relevant d’un “soft power agressif” transparaissent évidemment à travers la ligne éditoriale de Sputnik, celles-ci ne sauraient à elles-seules épuiser la complexité d’un tel objet médiatique. Elles répondent du moins à une fonction de “propagande classique”, consistant à offrir “une vitrine authentique de son système sur lequel les malheureux étrangers soumis à la censure seraient mal informés”, et à une “fonction dénonciation” en “favorisant l’opposition idéologique dans une zone sous influence adverse” – selon une typologie des fonctions remplies par les médias d’Etat développée par François-Bernard Huyghe.10

Une ligne éditoriale polyphonique La ligne éditoriale peut-être définie comme le produit de toutes les décisions prises au sein d’une rédaction (tant par la hiérarchie que par les journalistes qui la composent) pour se conformer à une série de principes idéaux, auxquels l’ensemble des contenus publiés par le média devraient pour partie ou en totalité se conformer (en termes de tonalité, de thématique ou encore de parti pris).

En ce qui concerne Sputnik, c’est le caractère foisonnant de sa production qui ressort d’une analyse qualitative. Baptiste Campion, chercheur à l’Université catholique de Louvain, insiste dans un article publié dans la Revue Nouvelle en 2017 sur “le patchwork confusionniste et relativiste non hiérarchisé” qui la caractérise. Il note de la part du média une tendance consistant “à multiplier les versions sur un évènement donné, quitte à se contredire allègrement d’un article à l’autre” concernant par exemple le vol MH17, abattu au-dessus de l’Ukraine par un missile sol-air, dont l’Australie et les Pays-Bas notamment imputent la responsabilité à la Russie11. “On pourrait penser que ces publications multiples et contradictoires se limitent aux questions à enjeu géopolitique, afin de « noyer le poisson ». Il faut constater que cette façon de faire est loin d’être limitée à cela : tous les sujets, de l’alimentation aux civilisations antiques en passant par l’astrophysique ou les faits divers sont traités de la même manière”12. Dans les travaux consacrés à Sputnik, cette foisonnance apparaît poursuivre a minima trois objectifs stratégiques :

  1. Le premier, d’ordre idéologique, consiste à profiter de la crise de confiance des opinions publiques occidentales à l’égard des autorités publiques et des grands médias pour gagner de nouvelles audiences, et de participer à l’entretenir par une posture radicalement relativiste à l’égard des “vérités officielles”. “Toutes les nouvelles qui se succèdent sont présentées comme des hypothèses égales dans un monde incertain caractérisé par le mensonge généralisé des élites et des médias (occidentaux)”, souligne Baptiste Campion. Cet axe s’inscrit à la fois dans une fonction de dénonciation en “donnant une voix à ceux qui critiquent le pouvoir”, mais aussi dans une “fonction contraste” visant à offrir à “un public soumis à une sorte d’unanimité de ses médias nationaux, l’occasion de découvrir d’autres contenus pour l’attirer et marquer sa différence”13.
  2. Le deuxième est d’ordre technique. La publication d’articles diversifiés sur des sujets populaires ou adoptant des thèmes insolites vise à générer le maximum de clics, y compris sur des contenus non-stratégiques, afin de gagner en visibilité de manière globale. Dans un chapitre consacré à la “Russie :”l’espace informationnel” comme terrain de conflictualité” au sein de l’ouvrage collectif Les guerres de l’information à l’ère numérique (PUF), Maxime Audinet et Céline Marangé soulignent que “les stratégies de référencement agressives pratiquées par [Sputnik et RT], notamment par un recours décomplexé au clickbait, leur donnent une visibilité accrue sur les principaux moteurs de recherche”. Cette stratégie est amplifiée par ailleurs par le relais de ses contenus par un “écosystème complexe de plusieurs dizaines de comptes [. . . ] où ils servent de ressources à de nombreux acteurs engagés dans la réinformation de l’opinion”. Celle-ci porte ses fruits puisque les deux chercheurs notent que les différents sites de Sputnik et RT sont “particulièrement compétitifs dans le trafic internet mondial” par rapport aux sites d’autres médias publics comme Al Jazeera, Deutsche Welle, RFI ou encore CGTN. Sur Facebook, ces articles postés avec des commentaires comprenant des call to action visent à améliorer la performance globale du média grâce à l’algorithme du réseau social, qui met en avant les contenus engageants dans les timelines des utilisateurs abonnés à la page de Sputnik.14
  3. Le troisième objectif ressortant des travaux consacrés à Sputnik, enfin, est le “brouillage” de sa véritable ligne éditoriale. L’enjeu serait ainsi de diluer la part des articles stratégiques pour crédibiliser l’idée que le média serait relativement objectif et semer le doute sur son agenda.

Derrière les écrans de fumée

Selon cette dernière logique, deux lignes éditoriales coexisteraient au sein du média :

  1. La première, destinée à donner le change aux lecteurs, au robot Google et à l’algorithme de Facebook, serait constituée de contenus sur des thèmes très diversifiés (faits divers, reprise de dépêches, actus insolites), parfois sans lien direct avec leur mission initiale de promotion de la Russie, parfois même contradictoires au regard de ce que devrait être sa ligne éditoriale. Leur dénominateur commun, au-delà du soft power, serait le relativisme et la remise en cause permanente des vérités officielles. Ce positionnement serait autant un facteur différenciant dans un paysage médiatique occupé par de nombreux titres de presse qu’un moyen de toucher des audiences actives sur les réseaux sociaux et politiquement contestataires (notamment situées à l’extrême-droite ou proche du mouvement des Gilets jaunes), qu’il s’agirait de convertir en soutiens à des moments clefs. Chacun de ces contenus se caractériserait par une faible intensité stratégique, que reflèterait leur faible qualité journalistique. Françoise Daucé, directrice d’études à l’EHESS et spécialiste de la Russie, notait en juillet 2017 dans La Revue des Médias, que “les contenus proposés par [les versions françaises de RT et Sputnik] sont relativement pauvres et relèvent d’un journalisme que l’on pourrait qualifier de « basse intensité »”. A l’appui de ce constat, elle soulignait dans le même article que “le site Sputnik publie des articles courts, qui ne sont jamais signés, à l’exception des tribunes d’opinion. Il effectue un travail de synthèse de dépêches d’agence, de contenus issus des réseaux sociaux, de photos”15. Ce constat, qui remonte à il y a près de quatre ans, peut être le signe d’une rédaction dotée de faibles moyens, et pourrait être nuancé par une comparaison avec sa production éditoriale présente. De nombreux articles récents apparaissent en effet aujourd’hui signés par des journalistes spécialisés sur des thématiques précises (Afrique, Russie, Economie, Défense, Enquête. . . ). Quant au bâtonnage de dépêches ou de communiqués, celui-ci est aujourd’hui largement répandu dans la plupart des rédactions de médias web d’actualité pour remonter dans les moteurs de recherche et sur les réseaux sociaux et ne saurait être considéré comme le propre de ce média. Par ailleurs, ces contenus font preuve d’efficacité, puisqu’ils traduisent de la part de ses concepteurs une bonne compréhension du lectorat en langue française et de ses habitudes en matière de consommation de contenus, ce qui constitue un facteur clef de succès pour un média tel que celui-ci.
  2. La deuxième ligne éditoriale, celle qui servirait ouvertement la propagande russe, serait “brouillée” derrière cet écran de fumée. “Autour des « informations insolites » s’ajoutent des articles sur des sujets bien plus sérieux, qui nous permettent de cerner la ligne éditoriale du média”, souligne Colin Gérard dans un article publié en 2017 sur Diploweb16. “Censés présenter un point de vue « multipolaire », ces articles ne sont en réalité qu’une reprise des narratifs développés par le pouvoir russe” explique-t-il17. Ces contenus tiendraient ainsi à la fois d’une promotion de la Russie (soft power positif), plus ou moins subtile, et/ou d’un appui aux intérêts de la diplomatie russe, en “s’inspirant des principes et des méthodes de la subversion soviétique”18 et en recourant parfois à des fausses informations19.

Cette analyse, pour pertinente qu’elle soit pour comprendre le fonctionnement théorique du média, revient cependant à plaquer une grille de lecture exogène sur le contenu produit par Sputnik, qui s’éclairerait uniquement en fonction du contexte et de notre compréhension (nécessairement limitée, en tant qu’observateurs) des intérêts géopolitiques de la Russie. Cette grille de lecture se prête également mal à l’appréhension des variations dans la ligne éditoriale du média, via l’identification notamment de ruptures depuis sa création – en réduisant l’analyse à une succession de focus à l’occasion de “moments stratégiques”, dont les clefs de lecture sont fournies par ailleurs par une compréhension du contexte et répondent à ces deux variables : contenu d’influence ou contenu de “crédibilisation”.

Cette approche suscite un angle mort : tout ce dont nous n’avons pas connaissance sur la base de ces informations, ou qui ne correspond pas à ce que nous croyons savoir de l’idéologie diffusée par Sputnik et par la Russie de manière générale, risque d’être assimilé abusivement à des contenus anecdotiques, et de passer au travers du filtre de l’analyse. En dehors de “moments clefs”, dans lesquels l’intention poursuivie par les initiateurs du média est de nous convaincre de certaines choses, en assénant de manière répétée et cadrée un narratif donné, Sputnik continue quand même de nous parler, sur un autre registre et de sujets multiples. Il n’est pas établi qu’il ne cherche pas à dire quelque chose à certains publics très précis, dans des séquences temporelles où l’intensité stratégique apparaît pourtant moindre, y compris à travers les caractéristiques du contenu publié.

Partir du contenu ne permet pas de recomposer avec certitude la réflexion stratégique qui en est à l’origine, aussi une analyse de ce type ne peut s’abstraire ou s’autonomiser complètement d’une compréhension du contexte de leur publication. Elle permet néanmoins de collecter des indices (récurrence, volumétrie ou encore sémantique), échappant à une analyse qualitative ou à toute connaissance a priori du sujet, et permettent de formuler des hypothèses sur les intentions ayant guidé la production de ces contenus.

A travers l’analyse des articles publiés sur le média, l’enjeu est donc de comprendre et de décoder sa ligne éditoriale. Une telle appréciation ne saurait se limiter à un jugement monolithique, mais doit adopter une grille de lecture dynamique dans le temps tant du point de vue volumétrique, que du point de vue sémantique.

Approche et méthodologie

Contrairement aux travaux déjà réalisés sur les médias russes, et notamment ceux cités dans notre propos liminaire, qui se caractérisent pour l’essentiel par une nette prégnance des enjeux géopolitiques et géographiques, notre intérêt pour ces enjeux est davantage lié à des réflexions portant sur l’évolution de la structuration de l’espace public et de la dissémination d’informations dans la couche sémantique du cyberespace.

Il s’agit, en quelque sorte, de prendre au sérieux l’entreprise d’influence poursuivie par Sputnik en déplaçant la question du “pourquoi” vers celle du “comment” : de se demander non pas à quels principes répond Sputnik ou dans quel cadre de réflexion s’inscrit son action, mais de s’intéresser à la manière dont ce média entend parvenir à ses fins dans l’espace francophone. Pour ce faire, nous avons choisi d’analyser le contenu publié par Sputnik France depuis sa création, à travers l’analyse de ses données et métadonnées pour tenter de comprendre ce que Sputnik cherche à nous dire et surtout de quoi il cherche à nous convaincre.

Réalisée par des non-russophones, cette étude entend se focaliser exclusivement sur la version francophone de Sputnik et sur ses comptes sociaux dans la même langue, pour l’essentiel sa page Facebook. Elle n’entend pas revenir sur l’historique de ce média ou sur les sources russes relatives à la guerre informationnelle, sur lesquelles de nombreuses études ont déjà été réalisées par des chercheurs en géopolitique et en sciences de l’information et de la communication parlant russe et ayant de ce fait accès aux sources originales. Ces travaux sont précieux pour appréhender les contours de cet objet médiatique singulier, et nous nous sommes largement appuyés sur leurs apports.

Notre étude est le fruit d’un travail étalé sur deux deux ans allant de la mise en place d’un protocole particulier de récupération de données, jusqu’à son exploitation. Le cœur de l’étude est articulée autour de l’exploitation d’un corpus de 176 904 articles émis par Sputnik France entre le 1er janvier 2014 et le 31 décembre 2020, dont la répartition éditoriale annuelle se répartit comme suit :

Synthèse annuelle de l’activité éditoriale de Sputnik France
Table 2: Synthèse annuelle de l’activité éditoriale de Sputnik France

Source: données extraites du site internet de Sputnik France Naturellement, et bien que notre protocole vise à être le plus exhaustif possible, en termes de collectes de données, un tel corpus, bien que massif, ne saurait prétendre à une quelconque forme d’exhaustivité. De manière générale, dans le champ des humanités numériques l’exhaustivité est au mieux un mirage, au pire un écueil inhibant desquels il convient de se détourner, sous peine de ne jamais être en possession du corpus idéal.

La synthèse de l’activité éditoriale de Sputnik20 présentée dans le tableau ci-dessus donne à penser que notre récupération est relativement exhaustive sur la période étudiée, à savoir entre 2014 et 2020. Cet ordre de grandeur est, au demeurant, confirmé par les différents focus volumétriques que nous avons, en parallèle, effectués sur le média via des services spécialisés, à l’image notamment de la solution SaaS Buzzsumo21. Caractéristiques techniques Pour mener à bien la phase de récupération de données, nous avons codé un scraper dédié, à même d’itérer sur la requête suivante :

https://fr.sputniknews.com/search/?query=+

En effet, la création d’une requête vide sur le site de Sputnik permet d’accéder directement à l’ensemble des articles publiés et qui sont classés de manière antichronologique. Une telle approche n’est pas forcément toujours réplicable, puisque nombre de sites ne renvoient aucune information lorsqu’une requête vide est passée, nécessitant dès lors la création de requêtes davantage sophistiquées, allant de l’utilisation de stop words, ou mots vides, jusqu’à la création de dictionnaires dédiés.

https://francais.rt.com/recherche?q=+

À titre de comparaison, et pour prendre un exemple proche de notre objet d’étude, sur le site de RT France, cette même requête ne renvoie aucun résultat. Afin de récupérer l’ensemble des articles publiés par RT, il faudrait donc recourir à une approche plus développée, fondée notamment sur l’analyse des patterns qui se répètent dans les articles du site, à l’image, par exemple, de la formule “lire aussi” située à la fin des articles du site.

D’un autre côté, l’agencement de l’information sur le site de Sputnik ne facilite pas forcément le scraping de données. En effet, contrairement à RT France où le contenu est accessible via du long scrolling, sur Sputnik il faut cliquer sur un bouton du type “Plus d’info” pour obtenir 20 articles supplémentaires.

En l’absence d’API, comme c’est le cas sur la plupart des médias aujourd’hui, nous avons donc eu recours à du scraping de données en utilisant les packages RSelenium et rvest. Selenium est un outil d’automatisation qui permet de piloter un navigateur web, comme Firefox ou Chrome par exemple, via du code. Selenium est notamment nécessaire si l’on souhaite scraper un site internet qui nécessite de cliquer sur des boutons sans que cela ne redirige vers une autre page.

Selenium va donc permettre de reproduire une activité humaine sur un site internet et ainsi de faciliter la récupération du code source des pages consultées. Pour sa part, un package comme rvest permet de récupérer des éléments spécifiques du code source (titres, paragraphes, chapô, dates ou encore des liens hypertextes) sur la base d’une récupération ciblées au niveau des balises html ou des xpath.

Enjeux légaux

Outre les enjeux et caractéristiques techniques de cette étude, il convient également d’aborder la dimension juridique et légale d’une telle entreprise. Si le scraping n’a rien d’illégal, des outils comme Selenium étant d’ailleurs originellement créés pour faire du testing poussé de site internet, afin, pour les développeurs, de simuler à la chaîne le comportement d’utilisateurs et ainsi mettre au jour d’hypothétiques failles, l’utilisation que nous faisons de Selenium, couplé à rvest, revêt une autre finalité.

Si l’on considère le scraping comme une forme de copie d’un site internet, dès lors que l’on automatise la récupération à la chaîne de codes sources notre démarche est potentiellement contraire aux mentions légales du site de Sputnik que nous reproduisons ci-dessous :

L’ensemble des éléments figurant sur le Site (textes, graphismes, photographies, images, plans, noms, logos, marques, créations et œuvres protégeables diverses, bases de données, déposés ou non, etc.) ainsi que le Site lui-même, sont protégés par les dispositions du Code de la Propriété Intellectuelle et, hors de France, de la protection du droit d’auteur dans tous les états signataires de la Convention de Berne.

Tous les éléments visuels, qu’ils soient ou non déposés à titre de marque ou à un autre titre, qu’il soient ou non accompagnés des sigles ™, ®, ou ©, de même que la présentation et le contenu de tous les articles, revues de presse, et plus généralement toute informations figurant sur le Site, est la propriété exclusive de Rossiya Segodnya ou de tiers avec lesquels cette dernière a conclu des accords en permettant la diffusion. 

L’utilisateur du Site ne dispose pas du droit de les reproduire ou de les diffuser, par quelque moyen que ce soit, hors le consentement préalable exprès de Rossiya Segodnya. Il est interdit d’utiliser, reproduire (si ce n’est pour les besoins de la consultation du Site sur écran), représenter, modifier, adapter, traduire, copier ou distribuer, tout ou partie du Site, quel qu’en soit le support, sans l’autorisation expresse et préalable de Rossiya Segodnya.

Toute utilisation non expressément autorisée peut engager la responsabilité civile et/ou pénale de son auteur. Rossiya Segodnya se réserve le droit d’engager des poursuites judiciaires à l’encontre de toute personne qui n’aurait pas respecté cette interdiction. 

Toute demande concernant l’utilisation des éléments contenus dans le site doit être adressée à feedback.f r@sputniknews.com 

Le terme ” Sputnik ” est une marque française déposée et dument enregistrée.

Cependant, les données que nous avons récupérées sont mises en base et n’ont pour seule finalité que des enjeux de recherche en sciences de l’information et de la communication (SIC). Elles n’ont aucunement vocation à être publiées telles quelles, bien qu’il puisse être, dans l’absolu, intéressant de proposer de tels corpus afin que d’autres acteurs du monde de la recherche puissent reproduire, et ainsi valider ou contredire, les éléments présentés dans cet article.

Sputnik sur les réseaux sociaux

Les ressorts statistiques de la dynamique de Sputnik sur Facebook

Sur l’ensemble du réseau Sputnik, la page Facebook française occupe la troisième position en termes de nombre d’abonnés. Ce positionnement dans le classement global de la déclinaison française de Sputnik est, à lui seul, source de nombreuses hypothèses. Si, naturellement les demi-million d’abonnés que compte la France dépasse très certainement les seules limites de la France, et doit nécessairement capter des pans entiers de groupes d’utilisateurs francophones, force est de constater que l’intitulé de la page est moins axé sur le déterminant linguistique que géographique. Après tout, Sputnik dispose bien de déclinaison par périmètre linguistique, après Sputnik Arabic et Sputnik Mundo. Dès lors, il s’avère intéressant d’essayer de déterminer comment s’est construite une telle audience dans le temps et, surtout, quels sont les ressorts, pour l’essentiel éditoriaux, qui ont contribué à ce succès.

Évolution du nombre de membres sur la page Sputnik France

Comme l’indique le graphique ci-dessus, réalisé à partir des données accessibles via CrowdTangle22, un service de Facebook, Sputnik a multiplié son audience sur Facebook par plus de deux entre 2016 et 2020. Si la dimension exclusivement organique de cette acquisition d’abonnés peut être questionnées, que ce soit via le recours hypothétique à des campagnes de paid ou bien par l’utilisation de pratiques plus dark d’acquisitions d’abonnés, il n’en demeure pas moins que ces performances tendent à illustrer la force de frappe croissante de Sputnik.

Évolution annuelle du nombre d’abonnés sur la page Facebook de Sputnik
Table 3: Évolution annuelle du nombre d’abonnés sur la page Facebook de Sputnik

Si le taux d’évolution annuelle du nombre d’abonnés sur la page est sensiblement constant entre 2018 et 2019, une surperformance notable est observable en 2020, ce qui donne à penser que pour Sputnik, le contexte global induit par la crise sanitaire a constitué un terreau favorable au développement de l’audience du média sur Facebook.

Afin d’avoir une vision plus fine des différentes séquences d’acquisition, nous avons, dans le graphique ci-dessous, représenté l’évolution mensuelle du nombre d’abonnés sur la page, en ajoutant, lorsque des ruptures notables apparaissent, les données d’évolution.

Dynamiques d'acquisition d'abonnés par Sputnik sur Facebook

En 2017, nous constatons notamment que Sputnik connaît une accélération importante de son nombre de nouveaux abonnés dans la période qui correspond à la tenue en France de l’élection présidentielle :

  • Entre février et mai 2017, le média connaît ainsi une augmentation de 8% de son audience ;
  • Entre mars et avril, période durant laquelle le campagne a battu son plein, ce taux d’évolution est de 4%.

En 2018, Sputnik profite également de la cristallisation du mouvement des “Gilets jaunes” avec une évolution de 6%, entre octobre et décembre, de la communauté Facebook du média.

Si l’année 2019 ne fait pas apparaître de phases d’accélération saillantes, ce qui se retrouve dans le taux d’évolution annuel le plus bas sur la période étudiée à 16.70% par rapport à l’année précédente, la situation est tout autre en 2020. Le média connaît une première rupture de tendance entre février et mars, qui correspond à la bascule de la situation épidémique et sanitaire dans le pays, avec une hausse de 5% de la communauté Facebook sur la période. Entre septembre et décembre 2020, période marquée par le reconfinement du pays, l’émergence de la thématique vaccinale et l’existence de controverses protéiformes relatives notamment à la gestion par l’exécutif de la crise, Sputnik voit son audience connaître une progression de 8%.

Nombre de publications émises par mois sur la page Facebook de Sputnik

En s’intéressant de plus près au comportement d’une série de variables dans le temps, et notamment de leur comportement par rapport à une moyenne de référence, il semble apparaître que le seul critère de l’activité éditoriale de Sputnik sur le réseau social, ne saurait expliquer les ruptures de tendance observées dans l’acquisition d’audience.

En d’autres termes, et comme nous pouvons le constater avec le graphique ci-dessus, les phases d’activités de Sputnik sur Facebook supérieures à une moyenne annuelle de référence, ne correspondent que de manière imparfaite aux dynamiques observées supra concernant l’évolution du nombre de membres sur la page.

Si, en 2017, nous constatons que Sputnik a, bel et bien, connu une rupture manifeste de son activité éditoriale sur le réseau social, entre février et mars, renforcée par la suite en avril, cela n’est pas toujours le cas sur les autres phases saillantes préalablement mises au jour.

A contrario, à l’hiver 2018, période où, comme nous avons pu le voir, Sputnik est pourtant parvenu à réaliser de solides performances en termes de nouveaux abonnés, il serait faux de dire que le média a profité de la crise des Gilets jaunes pour publier beaucoup plus sur sa page Facebook. Au contraire, les mois de novembre et de décembre de cette année se caractérisent par une activité éditoriale inférieure à la moyenne.

Cette absence de corrélation, ou a minima l’existence d’une corrélation erratique et imparfaite, entre l’acquisition d’abonnés sur la page et l’activité éditoriale, invite à tester d’autres variables explicatives.

Nombre de commentaires suscités par mois sur la page Facebook de Sputnik

À cet égard, l’analyse des commentaires suscités par les publications organiques émises par Sputnik tend à mettre au jour un parallélisme manifeste avec les dynamiques observées en termes d’acquisition d’abonnés. Par rapport à février 2017, le mois d’avril se caractérise par une augmentation de 180% du nombre de commentaires suscités ce qui, indéniablement, donne à penser que les publications de Sputnik relatives à la campagne présidentielle française ont donné lieu à des réactions nourries de la part des utilisateurs du réseau social.

Même constat en 2018 où, émergence du mouvement des Gilets jaunes oblige, le nombre de commentaires suscités explose littéralement avec une hausse de 233% entre novembre et octobre. Un schéma similaire, d’une amplitude cependant inférieure, peut être observé entre juin et juillet 2019, avec pour ce dernier mois une augmentation de 57% des commentaires suscités. En cause notamment, une médiatisation accrue de la part de Sputnik de l’activisme des “Gilets jaunes” au début de l’été, avec notamment les actions entreprises le 14 juillet.

L’année 2020 renforce également ce constat, avec des hausses significatives du nombre de commentaires suscités qui correspondent aux phases de montée en puissance de la pandémie de Covid-19 et de cristallisation du débat public sur ce sujet en France et dans le monde. Le mois de mars se caractérise ainsi par une augmentation de 90% du nombre de commentaires postés sous les publications de la page, tandis qu’entre août et octobre de la même année, le nombre de commentaires suscités est en hausse de 89%.

De quoi donner à penser que, si l’activité éditoriale brute ne constitue pas un facteur explicatif suffisant pour rendre compte de l’évolution de la communauté Facebook de Sputnik, le paramètre relatif au nombre de commentaires suscités, quant à lui, revêt une significativité accrue qu’il convient de tester plus en avant.

Nombre d'interactions suscitées par mois sur la page Facebook de Sputnik

De manière non surprenante, du fait de l’overlap existant, en partie, entre ces deux paramètres, l’évolution du nombre d’interactions sur la page Facebook, présentée dans le graphique ci-dessus, tend également à mettre au jour l’existence d’un paramètre explicatif de l’évolution de la communauté de Sputnik.

Ces différentes constations réalisées, nous pouvons dès lors étudier plus en avant les liens unissant ces différentes variables avec l’évolution de la page.

Pour ce faire, nous avons créé un tableau résumant, mois par mois, les taux d’évolution par rapport à m-1 des paramètre suivants :

  • Nombre de membres ;
  • Nombre d’interactions ;
  • Nombre de posts émis ;
  • Nombre de photos émises ;
  • Nombre de vidéos émises ;
  • Nombre de commentaires suscités.

Une fois ces différentes données obtenues, toujours dans notre phase de prétraitement, nous avons décidé de les normaliser afin de réduire la complexité des modèles testés. La normalisation est un procédé nécessaire dans ce type de travaux afin de redimensionner les variables explicatives numériques, ici nos différents taux d’évolution, et surtout de permettre de comparer ces dernières sur la base d’une échelle commune. Sans cette opération, les disparités qui prévaudraient rendraient la modélisation au mieux inefficiente, au pire complètement erronée.

Ce travail de prétraitement finalisé, nous avons réalisé six régressions linéaires du type :

  • “Évolution du nombre d’abonnés” ~ “évolution du nombre d’interactions” ;
  • “Évolution du nombre d’abonnés” ~ “évolution du nombre de commentaires suscités” ;
  • “Évolution du nombre d’abonnés” ~ “évolution du nombre de posts émis” ;
  • “Évolution du nombre d’abonnés” ~ “évolution du nombre de photos émises” ;
  • “Évolution du nombre d’abonnés” ~ “évolution du nombre de vidéos émises”
Analyse des corrélations potentielles unissant une série de variables avec l'évolution du nombre de membres sur la page Facebook de Sputnik

Le résultat de cet exercice de modélisation est restitué ci-dessus, avec six graphiques présentant les droites de régression linéaire pour les différents tests réalisés. Il apparaît assez nettement que le nombre de photos, le nombre de liens ainsi que le nombre de posts émis n’ont aucun impact sur l’évolution mensuelle du nombre d’abonnés.

À contrario, l’existence d’un lien entre le nombre d’interactions suscitées, le nombre de vidéos émises et le nombre de commentaires suscités et l’évolution du nombre d’abonnés tend à être souligné.

Ces enseignements sont importants car cela conduit, en partie, à écarter l’explication d’un gonflage artificiel de la communauté soit via l’achat de faux abonnés, soit en ciblant délibérément via des campagnes de sponsoring des utilisateurs au clic réputé être prétendument plus facile (par exemple des audiences y compris non francophones dans certains pays asiatiques ou africains).

Paramètres ayant un impact sur l’évolution mensuelle du nombre d’abonnés sur la page Facebook
Table 4: Paramètres ayant un impact sur l’évolution mensuelle du nombre d’abonnés sur la page Facebook

Ce constat est renforcé par l’analyse des résultats du modèle linéaire, qui mettent en avant la significativité des paramètres interactions et vidéos publiées. De quoi, à nouveau, renforcer l’idée que les phases d’évolutions saillantes de la communauté Facebook de Sputnik sont liées à des actions purement organiques. En l’espèce, les différents chiffres issus des modélisations réalisées jusque-là permettent d’esquisser un schéma abstrait d’acquisition d’audience sur Sputnik : des vidéos cadrées et anglées sont réalisées par Sputnik, sur une fréquence relativement soutenue. Ces dernières suscitent des commentaires et des interactions ; c’est d’ailleurs le propre de ce format, considéré comme étant l’un des plus engageants en community management. Ces engagements, nombreux, permettent par la suite d’augmenter organiquement la visibilité des publications grâce aux caractéristiques de l’algorithme de Facebook. Ces réactions en chaîne permettent de toucher de nouvelles audiences qui, intéressées par le format vidéo proposé par Sputnik, choisissent de s’abonner à la page.

À noter, pour revenir sur notre travail de modélisation, que si le modèle linéaire tend finalement à accorder une importante et une significativité moindre à la variable du nombre de commentaires, une analyse par corrélogramme permet de quelque peu nuancer ce constat, et de garder cette dernière au rang des critères explicatifs, bien que ces derniers ne sauraient prétendre être les seuls, de l’évolution du nombre d’abonnés sur la page.

SPUTNIK SUR LES RÉSEAUX SOCIAUX

En effet, une analyse par corrélogramme permet d’évaluer et de tester plus en avant la significativité des variables et des corrélations. Il en ressort que l’évolution du nombre de membres est impactée significativement par l’évolution du nombre d’interactions suscitées, du nombre de vidéos publiées ainsi que du nombre de commentaires reçus.

En utilisant une fonction permettant de tester plus en avant la significativité de l’influence de chaque paramètre il ressort notamment que :

Évolution membres ~ InteractionsÉvolution membres ~ CommentairesÉvolution membres ~ VidéosÉvolution membres ~ PostsÉvolution membres ~ Photos
0.00000980.00016270.01481050.10438880.8362185
Source: sur la base d’une analyse par corrélogramme

Ces différents éléments qui, à dessein laissent de côté les thématiques et autres ressorts narratifs constitutifs des publications Facebook de Sputnik, permettent d’appréhender les mécanismes qui régissent la dynamique de la page de Sputnik. Ils permettent d’évacuer certaines hypothèses, notamment celles qui rendraient raison des centaines de milliers d’abonnés par des pratiques majoritairement darks (paid ou achat de likes), pour au contraire souligner la vie organique dense de la page. Cette insertion organique est, à n’en pas douter, un enseignement lourd de conséquence.

Ces résultats en termes de performances communautaires s’expliquent également, selon nous, par une professionnalisation accrue, au fil du temps, des techniques et stratégies d’animation de communautés de la part du média.

Une animation professionnelle de la page Facebook de Sputnik

Activité éditoriale hebdomadaire de Sputnik sur Facebook et sur le site

Comme nous pouvons le constater avec les deux graphiques ci-dessus, le premier restituant la volumétrie du nombre de publications hebdomadaires sur la page Facebook de Sputnik et le second s’intéressant, quant à lui, à l’activité éditoriale sur le site internet de Sputnik, l’alignement entre les deux espaces n’est intervenu que de manière graduelle et progressive.

Comparaison entre l'activité éditoriale hebdomadaire sur le site internet et la page Facebook de Sputnik

En juxtaposant les deux courbes, après avoir normalisé les données d’activité éditoriale, il ressort ainsi qu’entre 2017 et début 2019, les deux espaces ne fonctionnent pas de manière harmonieuse. Tous les articles publiés par Sputnik ne sont pas poussés sur Facebook.

À contrario, depuis 2019, nous observons un véritable alignement en termes d’activité éditoriale. Cette convergence, proche d’une forme de juxtaposition parfaite, peut être appréhendée comme la transcription statistique tout à la fois d’une montée en puissance sur Facebook de la part de Sputnik, et par ricochet d’une professionnalisation accrue de l’utilisation du réseau social.

Croisement entre l'activité sur le site internet et la page Facebook

Comme l’indique le graphique ci-dessus, au fil du temps, et de manière quasiment linéaire, nous assistons à une utilisation de la page Facebook de la part des équipes de Sputnik de plus en plus systématique. Si en 2016, prévalait encore, comme nous l’avons vu, une forme quelque peu erratique de relais sur la page Facebook, de sorte que tous les articles mis en ligne par le média n’étaient pas nécessairement systématiquement publiés sur Facebook, la situation évolue, année après année, en faveur d’un alignement quasi parfait. En témoigne les clusters pouvant être relevés en 2019 et, surtout, en 2020, qui plaident donc en faveur d’une professionnalisation accrue de l’utilisation des réseaux sociaux. Ce graphique constitue donc l’un des exemples les plus probants du mouvement conjoint de professionnalisation et de rationalisation des assets stratégiques de Sputnik.

En pure hypothèse, il est possible d’envisager que cet alignement croissant au fil du temps s’explique par le recrutement de profils dédiés, de type community manager, pour assurer le meilleur continuum entre l’émission d’articles et leur relais sur la page Facebook du média.

Sputnik, aux sources du média

Analyse de l’activité éditoriale au fil du temps

Sur la base des différents enseignements issus de l’analyse de la page Facebook de Sputnik, il s’avère nécessaire de remonter directement à la source des publications émises, et donc de s’intéresser à l’activité éditoriale du site internet lui-même.

Activité éditoriale de Sputnik depuis le 1er janvier 2014

L’analyse du graphique ci-dessus souligne qu’à l’exception de certaines phases de rupture de tendance nettes, notamment au second semestre 2015, ainsi qu’au début de l’année 2019, l’activité éditoriale sur le site de Sputnik est relativement stable. Si en moyenne, et sur la période étudiée, 483 articles sont publiés de manière hebdomadaire, nous ne relevons pas de grands écarts par rapport à cette moyenne à l’exception d’avril 2017.

plot of chunk sputnik_source_calendar

Dans un souci d’identification plus poussée des journées saillantes de Sputnik, tout particulièrement en termes d’activité éditoriale, nous pouvons réaliser un graphique à la lisière entre le format de type calendrier et la heat map, ou carte de chaleur.

Afin de faire ressortir ces différentes séquences quotidiennes, nous avons calculé, pour chaque année, la moyenne quotidienne des articles mis en ligne sur le site du média. Sur la base des moyennes ainsi obtenues, nous avons représenté avec une colorimétrie allant du gris au rouge les journées où l’activité éditoriale de Sputnik est supérieure (ou égale) à 25% par rapport à la moyenne annuelle.

Ce chiffre de 25% a été arrêté à la suite d’une série de tests itératifs ayant permis d’appréhender les ruptures de tendances éditoriales les plus évocatrices. S’il relève quelque peu de l’arbitraire, nous aurions très bien pu choisir de mettre le curseur plus bas, ou plus haut, il constitue malgré tout un niveau intéressant pour mesurer les ruptures de production de contenus par rapport au rythme moyen habituel sur le média.

201520162017201820192020
13 janvier22 mars18 janvier20 juillet11 janvier13 février
14 janvier2 juin17 avril22 août1er mars14 février
15 janvier14 juin23 avril29 août19 septembre15 mai
20 janvier19 juillet24 avril4 septembre11 octobre22 mai
21 janvier20 juillet25 avril6 septembre14 octobre28 mai
22 janvier18 août26 avril24 septembre17 octobre10 juin
23 janvier21 octobre2 mai25 septembre29 octobre30 juin
26 janvier24 octobre7 mai27 septembre30 octobre2 juillet
27 janvier25 octobre2 novembre28 septembre31 octobre1er septembre
28 janvier9 novembre3 novembre2 octobre18 novembre10 septembre
Table 6 : 10 principales journées de l’année avec le plus grand nombre de publications de la part de Sputnik entre 2015 et 2020

Focus sur les principales journées d’activité de Sputnik

Sur la base de cette mise au jour des principales dates, il est possible d’extraire pour chaque année les 10 principales journées. À des fins de lisibilité, nous avons listé ces dernières dans le tableau ci-dessus. Cependant, tirer parti de ces différentes dates n’est pas une tâche aisée, dans la mesure où cela impliquerait de réaliser cinquante focus dédiés, et par-là même de traiter exactement 5.603 articles. Une telle démarche nécessiterait une étude centrée uniquement sur l’analyse qualitative de ces différentes dates et qui se concentrerait sur l’analyse et la restitution de ces différentes moments clés.

À la logique qualitative, nécessairement plus fine et précise, nous avons dès lors choisi de substituer une approche de type probabiliste. À cet effet, nous avons utilisé une méthode d’analyse sémantique, basée sur le package R tidylo notamment développé par Julia Silge, dont les travaux portant sur l’analyse textuelle et la modélisation ont inspiré nombre des analyses de cette étude2324 qui permet, pour le présenter de manière très succincte, d’identifier pour chaque point d’entrée les items, ici sémantiques, qui lui sont le plus associés. Pour présenter de manière schématique le procédé, les fonctions de ce package et notamment bind_log_odds(), permettent sur la base des corpus textuels A et B de mettre au jour les items qui ont davantage de probabilité d’être utilisés dans l’un ou l’autre des corpus. Cette mesure statistique et probabiliste de type weighted log odds est assez proche de la méthode de pondération par term frequency-inverse document frequency, très utilisée également pour faire ressortir les caractéristiques propres à un document, par rapport à l’ensemble de documents agrégés composant le corpus d’étude donné.

Contrairement à l’exemple volontairement simpliste présenté ci-dessus, nous avons donc appliqué ce procédé sur un corpus avec 50 entrées distinctes, avec pour chacune en moyenne 93 titres d’articles de Sputnik. Si les risques en termes de réduction de la pertinence des résultats sont nécessairement à prendre en compte dès lors que l’on change ainsi d’échelle, les résultats obtenus s’avèrent être dans l’ensemble probants.

Quoi qu’il en soit, cette approche permet, en un laps de temps resserré, soit en quelques minutes contre plusieurs heures, voire journées, nécessaires pour exploiter un corpus de plusieurs milliers d’articles, d’identifier les items qui permettent très vite d’associer une date à un évènement marquant.

Analyse des mots les plus probables utilisés par Sputnik sur les journées identifiées

Les différents panneaux du graphique ci-dessus représentent les items dont on peut estimer qu’ils ont le plus de probabilité d’être associés aux journées avec des pics d’activité éditoriale de la part de Sputnik. Cela nous permet donc d’avoir un aperçu des ressorts éditoriaux du média et, par ricochet, des thématiques qui, au niveau de la rédaction, de manière consciente ou inconsciente, peuvent donner lieu à des accélérations significatives du flux de contenus produit par Sputnik.

Des choix dans la titraille loin d’être anodins

Pour prendre quelques exemples issus de ces différents différents panneaux, nous pouvons notamment constater que Sputnik a réalisé une couverture relativement conséquente des attentats ayant frappé la Belgique en 2016. Les attentats de Bruxelles, en date du 22 mars 2016, ont ainsi donné lieu à 46 articles sur le site de Sputnik. Certains des titres choisis par Sputnik s’avèrent particulièrement révélateurs de la manière dont le média angle et titre généralement ce type contenus, tranchant, en la matière, très nettement avec la manière dont les médias traditionnels hexagonaux relateraient et traiteraient d’affaire de ce type. :

Nous retrouvons plusieurs des grilles de lecture prêtées à Sputnik : *

  • Remise en perspective internationale ;
  • Problématique des migrants ;
  • Caractère spectaculaire (chaos, larmes…) ;
  • Remise en cause des démocraties occidentales ;
  • Mise en avant de personnalités autoritaires (Erdogan)

Comme l’indique la capture d’écran ci-dessus, la manière dont Sputnik titre sur les prédictions de Recep Tayyip Erdogan est similaire au traitement réalisé par la rédaction de RT France de cette information. Bien qu’un autre média est également titré sur le même schéma, ce choix éditorial apparaît comme particulier aux deux médias russes, comme le permettent de le constater les résultats renvoyés sur la requête “erdogan (prédisait|prédit) bruxelles”.

Sputnik en (partie) de campagne

Plusieurs journées d’avril 2017 reviennent également dans nos différents graphiques, et cette récurrence s’explique par le traitement de l’élection présidentielle réalisé par Sputnik. Sputnik, et nous aurons l’occasion de revenir sur ce sujet plus en avant dans la suite de notre développement, a en effet couvert de manière très poussée, en termes de nombre d’articles produits, l’élection présidentielle française. Une couverture qui, comme nous le rappelions dès le propos liminaire de notre étude, est à l’origine de nombre de questionnements de suspicions quant aux ressorts de cette activité éditoriale soutenue.

La récurrence du mois d’avril 2017, invite naturellement à s’intéresser à la manière dont la rédaction a traité cette séquence. Pour ce faire, et dans le même esprit que notre focus sur les principales dates saillantes, nous avons cherché à évaluer de quelle manière l’utilisation des mots, tout à la fois dans les titres et le corps de l’article, pour les contenus propres à chaque candidat, et donc ne mentionnant aucun des autres, permet de donner une indication sur la ligne éditoriale du média.

En d’autres termes, il s’agit d’essayer de déterminer si Sputnik a pris parti pour un candidat à un moment donné, ou si au contraire une forme de neutralité a prévalu. Si des ébauches de réponses viennent nécessairement à l’esprit dès lors qu’une telle hypothèse est posée, il nous est apparu intéressant, dans la lignée de nos approches heuristiques habituelles, de faire reposer la réponse à ce questionnement sur des modèles statistiques, davantage que sur des analyses qualitatives, nécessairement biaisées.

Dans le même esprit que pour l’analyse par date réalisée supra, ce cadre analytique fondé sur une démarche de type probabiliste, sans intervention de l’opérateur, hormis dans le paramétrage du script, permet, via la mise au jour d’items ayant plus de chances d’avoir été utilisés pour relater l’actualité d’un candidat plutôt qu’un autre, est l’un des plus à même de restituer de potentiels parti pris de la part des rédacteurs et journalistes du média.

Pour mener à bien cette analyse, nous avons choisi de concentrer notre attention sur les quatre candidats arrivés en tête au premier tour, à savoir Emmanuel Macron, Marine Le Pen, François Fillon et Jean-Luc Mélenchon.

Analyse des mots les plus probables utilisés par Sputnik pour qualifier les principaux candidats à la présidentielle dans les titres des articles

Sur la base du graphique ci-dessus, on constate notamment que Sputnik a traité à plusieurs reprises les rumeurs, dont certaines se sont avérées être de véritables fake news, entourant le candidat Emmanuel Macron. Ce traitement se caractérise par une absence totale de distanciation, une complaisance certaine avec les éléments de nature à porter atteinte à la dynamique du candidat de LREM et un parti pris manifeste, positionnant Sputnik, dans ce cas spécifique, à la lisière entre un pseudo média d’investigation et un média de type presse à scandales.

Sur la période, Sputnik a ainsi publié trois articles portant sur le patrimoine du candidat de La République en Marche (LREM) :

  • “Patrimoine non déclaré de Macron: pourquoi les médias et la justice sont-ils muets ?” (lien vers l’article) ;
  • “Le patrimoine non-déclaré de Macron ne sera pas dévoilé en raison… de la transparence” (lien vers l’article) ;
  • “Déclaration de patrimoine: Macron dans le collimateur d’Anticor” (lien vers l’article)

Une thématique source de maints fantasmes tout au long des semaines ayant précédé l’élection présidentielle, et au sujet de laquelle Emmanuel Macron a dû, à plusieurs reprises, et en diverses circonstances, s’exprimer et se justifier. Si les questionnements relatifs aux patrimoines des candidats aux élections, et notamment aux élections présidentielles, est une sorte de marronnier électoral, auquel s’adonne tout aussi bien les journalistes que les candidats eux-mêmes, le traitement réalisé de ce sujet par Sputnik s’inscrit davantage dans une volonté, envers et contre tous, de mettre la question du patrimoine d’Emmanuel Macron sur le devant de la scène. Il s’agit moins ici d’une volonté de faire éclater sur la place publique une quelconque vérité, découlant d’une enquête au long cours, basée sur une méthodologie solide, que de tenter, coûte que coûte, de peser sur le cours des évènements et d’influencer le lectorat.

Sputnik s’intéresse également, à trois reprises à nouveau, à une soirée ayant eu lieu en janvier 2016 et au cours de laquelle Emmanuel Macron aurait rencontré plusieurs acteurs économiques à Las Vegas. L’épisode, bien que d’une portée moindre par rapport à la problématique du patrimoine, a fait figure d’axes d’attaque récurrent et éculés au printemps 2017 pour déstabiliser Emmanuel Macron :

Le traitement de la campagne d’Emmanuel Macron, très nettement à charge de la part de Sputnik, concerne également les enjeux ayant traits aux relations internationales et à la géopolitique. Le 28 avril, durant l’entre-deux-tours, Sputnik publie par exemple deux articles critiques dénonçant les déclarations d’Emmanuel Macron relatives à la Pologne :

Dans son traitement des derniers jours de la campagne du candidat LREM, Sputnik revient notamment sur le déplacement sensible d’Emmanuel Macron à Amiens, dans le cadre de sa visite de l’usine Whirlpool. Le choix du titre de l’article fait par la rédaction de Sputnik témoigne d’une volonté manifeste de mettre l’emphase sur ce moment saillant de la campagne. Ici, la plume qui signe l’article est moins celle d’un journaliste, que d’un militant qui semble se réjouir des déboires rencontrés par Emmanuel Macron dans sa ville natale :

Capture Google Macron hué à Amiens

Comme l’indique la capture d’écran ci-dessus, Sputnik et RT France ont chacun choisi d’utiliser le verbe “huer” dans les titres de leurs articles consacrés à cet évènement. En termes de visibilité, les médias russes préemptent fortement la requête avec leur deux articles référencés, ainsi qu’une vidéo YouTube (18 928 vues) qui occupe la première place dans le classement.

À rebours de cette volonté permanente d’attaquer et de dénigrer la candidature d’Emmanuel Macron, Marine Le Pen bénéficie, quant à elle, d’un soutien tacite de la part de Sputnik, comme l’indiquent les quelques exemples de titres ci-dessous :

Sur la campagne présidentielle :

Sur l’Union européenne :

Sur la Russie :

  • “Marine Le Pen : «Mener une guerre froide contre la Russie est dangereux pour l’Europe»” (lien vers l’article)
  • “Poutine et Trump, «des méchants» à ne pas fréquenter? Marine Le Pen s’en moque” (lien vers l’article)

À noter que le traitement fait par Sputnik de la candidature de Jean-Luc Mélenchon est également relativement favorable au candidat de La France Insoumise (LFI). Sputnik met notamment en avant les prises de position sensiblement anti-américaines de Mélenchon sur les frappes de l’armée américaine contre une base aérienne du régime syrien :

Une emphase qui est donc mise sur les prises de position du candidat insoumis sur les enjeux du moment en termes de relations internationales, qui, et au risque de nécessairement quelque peu caricaturer, rebouclent tout en partie avec les enjeux stratégiques de la Russie. De quoi contribuer pour Jean-Luc Mélenchon à l’obtention d’articles sur Sputnik au pire neutres, au mieux nettement positifs.

Analyse des mots les plus probables utilisés par Sputnik pour qualifier les principaux candidats à la présidentielle dans le corps des articles

En reproduisant cette analyse directement sur le corps des articles eux-mêmes de nouveaux enseignements peuvent être relevés, notamment concernant le candidat Emmanuel Macron.

Sputnik a toute une série d’articles sur les attaques informationnelles et cyber dont le candidat et son parti ont été victimes, et ce tout particulièrement, dans les derniers jours de la campagne. Pour rappel, LREM avait été victime d’une cyberattaque, ayant consisté à la divulgation de plusieurs fichiers confidentiels du parti politique, composés notamment de mails, n’avait pas manqué d’être comparée aux actions entreprises quelques mois auparavant aux États-Unis avec notamment le piratage du DNC. Dans son livre *What Happened*, publié en septembre 2017, Hillary Clinton qui revient sur les ressorts de sa défaite en novembre 2016, et aborde à plusieurs reprises le rôle d’officines étrangères dans le processus électoral, évoque l’épisode du piratage de LREM. Tout en soulignant que cette “cyber-attaque de grande ampleur juste avant l’élection présidentielle [lui rappelle] furieusement l’opération menée contre [elle]”, Hillary Clinton rappelle que “lorsque des e-mails volés à Macron sont apparus en ligne, les médias français se sont refusés à l’espèce de couverture sensationnaliste à laquelle nous avons assisté chez nous, en partie grâce à la législation française, qui prémunit contre ce genre de dérives à l’approche d’une élection”. Et Hillary Clinton d’ajouter qu’à l’occasion de cette élection les électeurs français ont “fermement rejeté Le Pen, la candidate d’extrême droite pro-Moscou”.25

En l’état Sputnik ne s’est pas livré à une opération de hack & leak, qui aurait pu contribuer à faire du média russe un vecteur pivot dans la dissémination des éléments piratés de LREM. D’autres opérateurs, pour l’essentiel sur les réseaux sociaux, et notamment sur Twitter, se sont livrés à cette opération de mise sur la place publique et de blanchiment des informations et autres données personnelles ainsi dérobées.

Article Sputnik sur Macron

Pour sa part, Sputnik a essentiellement cherché à créer de la confusion sur les auteurs supposés de ces actions offensives, à l’image de l’article ci-dessus. Le titre est à cet égard un concentré d’ironie, comme en témoigne l’utilisation des guillemets pour caractériser les “hackers russes”. Si ce choix typographique de ponctuation peut sembler, de prime abord quelque peu anecdotique, il n’en est rien. Du côté de la rédaction de Sputnik, on peut considérer que cette expression de “hackers russes” est devenu une sorte de meme, si ce n’est de *private joke*, visant à parer, et le cas échéant à dévier, les soupçons récurrents qui pèsent contre les officines gravitant dans l’orbite du Kremlin depuis plusieurs années.

Évolution du nombre de mentions annuelles de l'expresion hackers russes de la part de Sputnik

Ce constat se base sur la récurrence de l’expression dans les articles de Sputnik, avec sur la période couverte dans le cadre de cette étude 206 articles relevés qui, soit dans le titre, soit dans le corps de l’article, mentionnent lesdits hackers.

Comme l’indique le graphique ci-dessous, l’année 2017 est celle au cours de laquelle cette expression a été le plus utilisée, avant de progressivement refluer.

Évolution du nombre de mentions mensuelles de l'expresion hackers russes de la part de Sputnik

En nous intéressant à l’utilisation mensuelle de l’expression, nous constatons que le premier semestre de l’année concentre les mentions, avec des pics en janvier, mars et mai 2017.

Analyse des mots les plus probables utilisés dans les articles de Sputnik utilisant l'expression hackers russes

Comme l’indique le graphique ci-dessous, qui reprend la même méthodologie d’analyse que dans les développements précédents, l’expression “hackers russes” telle qu’employée par les rédacteurs de Sputnik s’avère être protéiforme. Elle est majoritairement utilisée dans des articles relatifs aux conséquences politiques et judiciaires de l’élection américaine de 2016, pour discréditer les enseignements, issus des enquêtes et autres commissions en cours, concernant les agissements d’opérateurs supposément proches du Kremlin à l’automne 2016. Elle est également utilisée pour dénoncer les discours tendant à faire du Kremlin un acteur de l’ombre derrière le référendum catalan de l’automne 201726.

Article Sputnik sur Fallout

L’expression étant protéiforme, elle sert également à railler les erreurs de communication de l’“adversaire”, à l’image de l’article ci-dessus publié début janvier 2017, et qui ironisait de manière assez sévère sur le fait que la chaîne d’information en continu CNN ait utilisé des captures d’écran issus du jeu vidéo populaire Fallout 4 pour décrire les supposées actions entreprises de la part des hackers russes.

Généralement, à l’image de la capture d’écran ci-dessus, les articles traitant des “hackers russes” sont signés par un journaliste au nom pour le moins de cocasse : “La Main du Kremlin”.