08.12.2021 à 13:03
Thibault Delhomme
En choisissant de précipiter la mise en œuvre du Health Data Hub sur fond de crise sanitaire au printemps 2020, la France s’est trouvée contrainte, pour des raisons techniques, d’opter pour une solution commercialisée par une filiale de Microsoft au détriment d’une solution souveraine.
L’article Health Data Hub : Faute de mieux, le pire n’est plus une option est apparu en premier sur Observatoire stratégique de l'information.
Parmi les mesures prises par l’arrêté du 21 avril 2020 prescrivant les mesures d’organisation pour faire face à l’épidémie dans le cadre de l’état d’urgence sanitaire, la mise en œuvre anticipée du Health Data Hub (HDH), anciennement Système National des Données de Santé, a jeté une lumière très crue sur l’état des capacités des acteurs français et européens du cloud. Volet constitutif de la politique “France is AI”, le lancement de la nouvelle plateforme des données de santé a vu son déploiement anticipé de plusieurs mois par rapport au calendrier initialement prévu du fait de la crise sanitaire. La décision, prise afin de répondre au besoin créé par la pandémie d’une meilleure exploitation des données de santé, aura désavantagé les solutions souveraines. Dans l’urgence, le choix d’un hébergeur a été confié à une centrale d’achat publique, l’UGAP, qui, sans nécessiter une mise en concurrence, a ainsi considéré Microsoft, via sa filiale AZURE, comme le seul pouvant remplir les spécifications techniques fixées par le HDH.
La nature sensible des données hébergées par le HDH a parfois donné lieu dans le débat public à quelques rapprochements avec le projet SAFARI. Lancé dans les années 1970, ce système, permettant de relier entre eux des fichiers nominatifs grâce au numéro INSEE de chaque Français, avait été abandonné après sa divulgation dans la presse et la polémique qui s’en était suivie, et avait 4 ans plus tard la création de la CNIL. Ce parallèle avec les enjeux actuels soulevés par le HDH montre surtout l’évolution des termes du débat et des enjeux liés à la protection de la vie personnelle des Français. 40 ans après sa création, la CNIL semble avoir fait le deuil d’une plateforme indépendante, échappant au principe d’extra-territorialité du droit américain qui permet aux agences de sécurité américaines de demander à leurs entreprises l’accès aux données qu’elles hébergent. Consciente du risque, l’autorité française a déclaré que le risque de transfert de données européennes par des instances américaines serait surveillé avec attention. Un risque qui persiste toujours comme l’a rappelé l’année dernière la Cour de justice de l’Union européenne à l’occasion de son arrêt Schrems II.
La CNIL reste donc très prudente à cet égard alors même que des garanties ont été données à l’autorité par le ministère de la Santé afin de trouver des solutions techniques à horizon 2022 pour empêcher les violations du RGPD en matière de transfert illégal. Les détails à ce propos restent cependant très flous, notamment quant à la manière d’empêcher l’hébergeur d’avoir accès aux données qu’il stocke.
La politique “France is AI”, à l’origine du HDH, trouve sa genèse dans le rapport Villani: « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne ». Si la souveraineté numérique est initialement présentée comme l’un des piliers du plan, comment expliquer le choix d’un acteur américain en lieu et place d’une entreprise européenne pour héberger des données sensibles ? Comme l’a souligné le Conseil d’État qui se prononçait en juillet 2020 sur la suspension du HDH, l’urgence justifiait alors le risque. Si le nom du français OVHcloud est souvent revenu pour prendre le pas sur Microsoft, celui-ci n’apparaissait pas assez crédible sur le plan technique. En effet, comme l’a déclaré la directrice du projet Stéphanie Combes, à l’époque seul l’Américain possédait l’attestation nécessaire d’Hébergeur de Données de Santé (HDS) ainsi que les compétences techniques pour remplir les conditions requises à l’exécution rapide du projet dans un contexte d’urgence. À ce titre, le HDH est d’ailleurs allé jusqu’à ajouter une clause de transfert du marché dans le cas où un acteur européen ayant les compétences nécessaires techniques (Cybersécurité), ou administratives (HDS) serait disponible.
À l’origine des lacunes techniques reprochées à OVHcloud, on retrouve la question récurrente de la compétitivité des entreprises européennes du numérique. Situation ironique quand on pense à la défense par Bruno le Maire du “Cloud de confiance”, censé protéger les entreprises européennes de l’extra-territorialité du droit américain, comme devait le faire avant lui le Safe Harbor, le Cloud souverain, et plus récemment, le Privacy Shield. L’obligation du HDH de placer entre les mains d’une source, dont la faillibilité est reconnue, des données sensibles de santé est finalement nécessaire faute de mieux au nom de l’urgence.
L’arbitrage entre performance et souveraineté semble, comme à travers cet exemple, devoir se faire quasi-systématiquement au détriment de cette dernière pour des raisons évidentes de pragmatisme et d’efficacité. Pour que la notion même de souveraineté numérique puisse trouver une traduction concrète au-delà des mots, celle-ci nécessite d’être adossée à une vision industrielle de long terme, seule à pouvoir répondre à terme aux enjeux numériques des entreprises et des acteurs publics du continent.
L’article Health Data Hub : Faute de mieux, le pire n’est plus une option est apparu en premier sur Observatoire stratégique de l'information.
15.11.2021 à 15:30
Christophe Deschamps
Focus proposé par Christophe Deschamps, consultant et formateur indépendant sur les thématiques de veille stratégique, d'intelligence économique et de gestion des connaissances.
L’article Les technologies du faux : un état des lieux est apparu en premier sur Observatoire stratégique de l'information.
C’est une évidence de rappeler que la manipulation, la tromperie, l’intoxication et plus globalement toutes les méthodes visant à influencer une cible sont aussi vieilles que l’humanité. Rhétorique, stratagèmes, artifices, publicité, nudge marketing,… si chaque époque et chaque culture ont développé leurs propres méthodes (tout en continuant d’exploiter les précédentes), l’objectif reste inchangé : modifier la perception qu’une “cible” a de la réalité afin de la faire agir en conséquence. Notre époque n’est pas avare en la matière et l’intelligence artificielle, dans ses composantes d’apprentissage machine (machine learning) et plus spécifiquement d’apprentissage profond (deep learning), lui confère une niveau d’incidence potentiellement considérable.
En liminaire, notons que la manipulation n’a pas nécessairement besoin de s’appuyer sur le faux pour être efficace et que s’appuyer sur le vrai, le véridique, la rend à la fois plus crédible et plus complexe à déconstruire. Là où le fake peut être mis à mal par une seule preuve pointant la volonté de tromperie et discréditant de fait son émetteur connu ou supposé, la manipulation, qui s’appuie sur une demi-vérité, est plus subtile et partant plus difficile à prouver. Pour autant le régime du faux, entraînant à sa suite celui du fake, étend tous les jours son emprise comme nous allons le constater. Précisons en effet avant d’aller plus loin que si le faux désigne ce qui n’est pas véridique, il ne porte pas d’intentionnalité et se différencie ainsi du fake, c’est à dire de ce qui est fabriqué dans l’objectif manifeste de tromper. S’appuyer sur des fakes est donc une modalité de l’influence, tout comme s’appuyer sur des demi-vérités (ou sur des arguments factuels et bien ordonnés).
Évoquant ce thème en 2016, le chercheur François-Bernard Huyghe, écrivait à propos de l’émergence du web “2.0” dès 2005 : “Le facteur qui va tout bouleverser est l’équation «numérique plus réseaux». (…) Si chacun peut devenir émetteur à son tour et non simple récepteur des mass médias(…) il peut informer donc désinformer.” Il évoquait corollairement la nécessité pour les réseaux sociaux de capter l’attention des cibles, ce qui passe par la possibilité de pouvoir modifier les contenus numériques “à très faible coût, avec des exigences de plus en plus faible en termes de compétence techniques (logiciels plus simples et accessibles)” et précisait enfin que “les ressources documentaires, banques d’images, bases d’information en ligne, immédiatement, gratuitement… permettent de piocher dans des réserves de données qui permettent de forger des trucages vraisemblables. Le travail du faussaire est donc facilité pour ne pas dire banalisé.”[1]
Un discours qui anticipait bien la période actuelle puisqu’un an plus tard émergeait le phénomène des deep fakes (en français “hypertrucages”), capable de produire des vidéos ou des photos dans lesquelles, par exemple, le visage d’un homme politique est remplacé par un autre ou encore lui faisant remuer les lèvres, telle une marionnette, afin de lui faire dire ce que l’on souhaite. L’expression “deep fake” a été forgée en ajoutant au terme “fake” le “deep” de “deep learning” qui désigne un ensemble de techniques permettant à l’intelligence artificielle d’apprendre à reconnaître et reproduire des formes, structures, objets, visages et qui pour cela tire parti de bases d’images existantes. Le faussaire devient ainsi un faussaire augmenté par l’IA.
Historiquement, deux innovations ont permis l’émergence des deepfakes, le système de reconnaissance facial développé par Yann LeCun pour Facebook, baptisé Deepface[2], et les GAN (Generative Adversarial Network) développés par le chercheur Ian Goodfellow[3] dans ses recherches en intelligence artificielle pour le compte d’Alphabet (Google)[4]. Les deepfakes sont générés par les GAN , une technique dans laquelle deux algorithmes, le générateur et le discriminateur, sont en compétition, le premier produisant des faux de plus en plus crédibles a mesure que le second les détecte. Le “dialogue” étant entretenu jusqu’à obtenir des faux plausibles pour l’œil humain. Par défaut, un GAN est capable de produire une image aléatoire à partir de n’importe quel jeu d’images avec lequel on l’alimente. Afin qu’il soit en mesure de recréer l’image d’une personne spécifique il faut donc introduire une condition, on parle alors de “conditional GAN” ou cGAN (voir par exemple l’algorithme pix2pix), c’est à dire l’entraîner sur un set d’images de la personne que l’on tente de récréer, ce qui implique a priori que cette personne soit suffisamment populaire ou visible pour que l’on puisse collecter des photos d’elle.
Sans surprise, les premiers deepfakes apparus à l’automne 2017 étaient des vidéos pornographiques dans lesquelles les visages d’actrices connues (Gal Gadot, Emma Watson, Jennifer Lawrence,…) remplaçaient ceux des actrices originales[5]. Les outils open source utilisés s’inspiraient alors de face2face, un logiciel expérimental présenté par une équipe de chercheurs en 2016[6].
En quelques années ces technologies se sont commoditisées et leurs usages démultipliés. Outre les changements de visages sur des vidéos ou des photos, qui commencent à être utilisés dans le cinéma (cf. l’apparition de Luke Skywalker jeune dans un épisode de The Mandalorian), on a vu arriver de nombreuses autres possibilités proposées par des développeurs indépendants, des équipes universitaires mais aussi, de plus en plus souvent, des entreprises.
Hormis les vidéos truquées d’hommes politiques ou d’acteurs, les deepfakes ont commencé à entrer dans les usages via des applications pour smartphone utilisables par tous. C’est le cas par exemple de Reface, de Cupace ou de Hellos, des applications de “face swapping” pour smartphone qui permettent d’incruster un visage dans une scène de film, un tableau, un clip vidéo,… D’autres applications familiarisent également l’utilisateur avec les GAN comme FaceApp pour aider au relooking, Photo Glory ou Deoldify qui offrent la possibilité de coloriser des photos noir et blanc, Unfade qui permet de les restaurer, ou encore Deep Nostalgia qui permet d’en animer les visages.
Par ailleurs des services permettant de générer de faux visages particulièrement crédibles sont en ligne depuis plusieurs années déjà comme par exemple Thispersondoesnotexist.com ou generated.photos.
Mais ces services ne sont que la partie triviale de l’usage des GAN. En effet, ce ne sont plus seulement de simples visages clonés que la société japonaise Datagrid propose depuis 2019, mais des représentations de corps humains synthétiques complets et “animables” qui doivent notamment permettre de remplacer les photos de mannequins dans les magazines de modes ou les défilés virtuels.
Autre exemple, la société Adobe, très en pointe sur le traitement de l’image via l’IA grâce à sa suite Adobe Sensei, a présenté lors de sa conférence annuelle d’octobre 2021 plusieurs technologies utilisant les GAN pour, par exemple, appliquer la pose spécifique d’un sujet à un autre sujet ou encore modifier l’expression d’une personne sur un cliché.[7]
Plus révélatrice encore est l’approche de la société anglaise Snap, la maison mère de Snapchat, qui a racheté ces deux dernières années une vingtaine de startups dans les secteurs de l’IA et du Big Data avec pour objectif d’élaborer et diffuser des applications de réalité virtuelle ou augmentée transparentes pour l’utilisateur[8]. Ainsi Ariel AI développe une technologie pour smartphone qui permet de “superposer” un corps à un autre en temps réel (Real-Time 3D reconstruction) ou d’en générer un à partir de modèles anthropomorphes (data-driven human modeling) puis de l’insérer directement dans une scène “live”, ouvrant ainsi la voie a des hypertrucages diffusés en direct.
S’il s’agit ici de technologies de modélisation 3D plutôt que de GAN, ces derniers sont à envisager comme la cerise sur le gâteau puisqu’ils permettront l’incrustation de visages hyper réalistes sur les corps virtuels générés. Le rachat de Voca.ai, une startup spécialisée dans les voix synthétiques (cf. ci-dessous), complète d’ailleurs l’ensemble et vient valider l’idée d’une offensive globale de Snapchat sur les hypertrucages et la “fabrication” d’avatars les plus proches possibles de l’humain.
Facebook suit évidemment la même voie, comme l’indiquait récemment Mark Zuckerberg en évoquant le prochain lancement d’un metavers, “un Internet incarné, où au lieu de simplement regarder le contenu, vous êtes dedans ». Et de préciser :”Je pense qu’au cours des cinq prochaines années, dans le prochain chapitre de notre entreprise, nous ferons la transition entre le fait que les gens nous voient principalement comme une entreprise de médias sociaux et le fait que nous soyons une entreprise de metaverse ».[9] Cette direction est désormais confirmée avec le changement de nom de Facebook en Meta[10].
A l’instar de ce qu’annonçait l’auteur de science-fiction Neil Stephenson en forgeant le terme « metaverse » pour son roman “Le samouraï virtuel”, il s’agit donc bien de créer un double virtuel du monde réel dans lequel chacun d’entre nous disposera d’un ou plusieurs avatars plus ou moins réalistes. Il permettra de créer les meilleurs conditions d’interactions interpersonnelles virtuelles possibles (salles de réunions, magasins, visites culturelles, rencontres …) et aura “incidemment” pour effet de démultiplier les capacités de ventes d’espaces de ces méga-régies publicitaires que sont les réseaux sociaux, ainsi que celles des biens en ligne (œuvres, objets, biens immobiliers) grâce au développement concomitant des NFT[11]. Car, à l’instar des jeux multi-joueurs en ligne il y aura évidemment des metavers multiples et concurrent et cela est en lien direct avec les technologies du faux puisque c’est au sein des équipes de recherche de ces firmes qu’elles s’élaborent. Bien entendu, ces univers parallèles seront eux mêmes soumis aux tensions et interactions entre vrai, faux et fake. En effet, même si un avatar est un double virtuel, donc nécessairement un faux par rapport à l’individu réel qu’il incarne, il pourra avoir statut d’avatar “officiel”, à savoir validé par l’individu qu’il représente et la plateforme qui l’accueille (les technologies de blockchain auront probablement un rôle important à jouer ici aussi). Le même individu pourra et devra alors très probablement créer des avatars fake, des sockpuppets[12], qui lui permettront de retrouver un minimum d’anonymat, tout comme l’on dispose souvent de plusieurs profils sur les réseaux sociaux. Il va sans dire que pour d’autres individus (parfois les mêmes) ces avatars seront créés dans le seul but de tromper les quidams rencontrés dans le metavers.
Point important qui n’avait pas encore été souligné au sujet des deepfakes, il est possible depuis 2018 de mettre en œuvre une substitution de visage (face swapping) sur une diffusion en temps réel avec un résultat souvent bluffant. Le logiciel le plus utilisé pour cela, DeepFaceLive, est gratuit et s’installe sous Windows 10. Il ne nécessite même plus les longues phases d’entraînement d’algorithmes sur sets d’images (qui peuvent prendre entre 3 et 10 jours) puisqu’il est possible d’utiliser des modèles de visages “prêts à l’emploi”, déjà compilés par d’autres utilisateurs.
Les entreprises des synthetic media spécialisées en ce domaine ont d’ores et déjà mis au point des modèles économiques spécifiques à l’instar d’Hour One, qui rémunère des personnes pour qu’elles cèdent les droits sur leur visage. Un catalogue de ces visages est ensuite proposé aux clients qui peuvent l’exploiter pour certains usages déjà répertoriés (et d’autres à imaginer). Cela va de l’accompagnement de visites de biens immobiliers en ligne à la présentation vidéo de rapports financiers, en passant par les cours de langue.
Si les deepfakes font la part belle aux images, le domaine de l’audio innove au moins autant autour de deux axes, celui des sons et de la musique synthétique et celui des voix. Ce dernier nous intéresse particulièrement puisqu’il permet de donner la parole aux avatars et la société Hour.one en est encore un bon exemple. Cette startup israëlo-américaine propose, en parallèle de son catalogue de visages, un catalogue de voix alimenté sur le même principe de cession des droits par des individus contre rémunération. Une fois clonées, ces voix sont couplées aux visages choisis par le client et la solution d’Hour One peut alors générer une quantité infinie de séquences d’une personne récitant n’importe quel texte, dans n’importe quelle langue. La société Berlitz, un client d’Hour One spécialisé dans l’enseignement des langues, indique générer ainsi des centaines de vidéos en quelques minutes. “Nous remplaçons le studio (…). Un être humain n’a pas besoin de perdre son temps à filmer”.
Autre startup en vue dans ce secteur, Synthesia rémunère des acteurs pour enregistrer leur voix et propose également de nombreux avatars multilingues. Son interface est très orientée vers l’utilisateur final qui peut choisir parmi une bibliothèque d’acteurs (ou téléverser ses propres modèles) puis créer une scène en ajoutant des composants tels que des meubles, des objets (bien souvent générés également par des GAN), du texte, des images et créer ainsi une vidéo sans compétences spécifiques. Là encore les langues parlées sont multiples comme le montre ce clip dans lequel, grâce à la technologie de Synthesia, David Beckham évoque la lutte contre la malaria en neuf langues.
Chez Sonantic ou CyberVoice, on poursuit le même objectif appliqué aux personnages de jeux vidéos. Là aussi on clone les voix des interprètes afin de pouvoir les réutiliser à loisir dans les scènes de jeu. Ce qui ne va pas sans inquiéter les acteurs, souvent semi-professionnels, quant à leur “utilité” une fois leur voix clonée. Comme l’explique l’une d’elle “imaginez que vous devenez un personnage aimé par beaucoup mais que vous n’avez pas fait une seule chose pour contribuer à ce rôle. Zéro créativité de la part de l’acteur. Zéro épanouissement. Zéro art.”[13] Leur inquiétude porte également sur l’utilisation qui sera faite de leur voix. Que se passe t-il si l’éditeur s’en sert pour véhiculer des idées ou des mots que son possesseur n’approuve pas ? Les questions liées à l’éthique et aux droits associés à la voix d’un individu et plus globalement à toute utilisation d’un clonage de ce qui le constitue vont entraîner dans les années à venir d’inévitables batailles judiciaires. Ainsi, l’utilisation de la voix synthétique d’Anthony Bourdain, chef cuisinier star décédé en 2018, pour lui faire prononcer des paroles “inédites” dans un film lui rendant hommage, a déjà créé la polémique, tant du côté des spectateurs qui se sont sentis trompés que des ayants-droits qui n’avaient a priori pas donné leur accord[14].
L’usage de ces technologies va changer d’échelle dans les mois à venir puisque, pour la première fois, un film sera entièrement doublé avec des voix synthétiques créées à partir de celles des acteurs anglo-saxons. Ainsi, lorsque le thriller américain Every Time I Die (sorti en 2019) sera diffusé dans les salles en Amérique du Sud, les spectateurs entendront les interprètes originaux parler en espagnol et en portugais grâce à la technologie de la société Deepdub.[15]
Si plusieurs startups de ce domaine mettent en avant sur leur site web une déclaration éthique indiquant les conditions d’utilisation des voix qu’elles clonent, il est clair qu’elles ne le font pas toutes. Par ailleurs, les programmes de “voice cloning” sont très nombreux et en accès libre sur Github… Autant dire que les prochaines années risquent d’être un eldorado pour les startups peu regardantes et leur clients, et un champ de bataille judiciaire sans fin d’où émergeront des lois et jurisprudences à la fois nécessaires et difficiles à faire respecter.
Si, comme on l’a vu, il faut des centaines d’images d’une personne cible pour obtenir une très bonne correspondance, les choses pourraient cependant évoluer rapidement. En effet, les possibilités atteintes par les deepfakes, déjà impressionnantes, sont encore plus avancées que ne le laissent entrevoir les exemples déjà présentés. Ainsi, a l’instar d’Ariel.ai évoquée précédemment, la société Datagen, propose, des représentations de corps humains synthétiques complets à animer. Pour les générer, la société scanne de vraies personnes payées pour cela et utilise ensuite ces données brutes pour les faire passer par une série d’algorithmes, qui créent des représentations en 3D de leur corps, visage, yeux et mains. Son objectif est toutefois différent de celui des entreprises précédentes puisqu’il s’agit ici de proposer des sets de données d’individus virtuels totalement configurables et combinables en terme de variance (âge, sexe, taille, poids). Ce “produit” doit permettre à leurs clients de constituer des panels d’avatars et d’étudier leur comportement en les intégrant à des simulations où ils joueront le rôle d’humains. Il s’agira par exemple de suivre et comprendre leurs mouvements de corps lors d’un passage en magasin sans caisse, leurs expressions faciales afin de monitorer la vigilance des conducteurs de voitures intelligentes, ou encore l’usage qu’ils feront d’une manette de jeu.
Même idée pour Synthesis.ai qui met à disposition des sets de visages avec une variabilité incluant par exemple le port de lunettes, de masque, les expressions, l’éclairage,…
Le dispositif, baptisé HumanAPI, se présente sous la forme d’une interface applicative utilisable par d’autres entreprises qui peuvent ainsi l’intégrer à leurs propres services et logiciels. La donnée synthétique anthropomorphe « as-a-service » en somme. Et le PDG et fondateur de Synthesis.ai, Yashar Behzadi, de préciser : « HumanAPI permet également toutes sortes de nouvelles opportunités pour nos clients, notamment des assistants intelligents d’IA, des coachs de fitness virtuels et, bien sûr, le monde des applications du metavers.« [16]
Ce que l’on voit émerger ici est clairement un nouveau marché, celui des données synthétiques dont les usages sont innombrables[17] et qui vont permettre d’alimenter les algorithmes d’apprentissage profond, notamment les GAN, en images hyperréalistes à bas coût plutôt que de les collecter difficilement dans le monde réel du fait des réglementations sur la confidentialité et le respect de la vie privée.
En effet, les données synthétiques sont “vierges” et peuvent être utilisées pour créer des ensembles de données plus diversifiés. On peut, comme Synthesis.ai, générer facilement des visages bien étiquetés par âges, formes, IMC, couleur de peau, afin de créer un système de reconnaissance faciale qui fonctionnera pour toutes les populations. Ce qui ne veut pas dire que les algorithmes utilisés pour générer ces faux n’ont aucun biais. Comment s’assurer par exemple que l’expression que l’on a modélisée initialement sur un humain “véritable”, comme étant de la joie ou de la colère était bien ce qu’il voulait exprimer et surtout qu’elle sera interprétée comme telle par ceux qui la verront ? La complexité des expressions humaines est telle que la réduire à un catalogue semble pour le moins problématique et risque de générer des choix et des actions basés sur des interprétations erronées du réel.
Notons que le marché des données synthétiques est en pleine expansion et ne touche pas seulement la création d’avatars mais plus globalement tout secteur d’activité ayant besoin de datasets complexes à collecter ou onéreux, afin d’être utilisées pour simuler des données dont il ne dispose pas.
Il peut s’agir comme on l’a vu d’une population de clients plus diversifiée mais aussi de transactions impliquant des problématiques de respect de la vie privée. Les données synthétiques sont également très utilisées pour gérer des questions de confidentialité. Ainsi la société Mostly.ai travaille avec des sociétés financières, de télécommunications et d’assurance pour fournir des jeux de données clients répartis différemment des vraies mais sur un même volume, permettant ainsi aux entreprises de partager leur base de données clients avec des fournisseurs extérieurs tout en restant en conformité avec la loi.
Quoiqu’il en soit, ce nouveau marché se construit sur une capacité croissante à entraîner des algorithmes de deep learning à partir de jeux de données virtuels, c’est à dire à créer du faux vraisemblable avec du faux crédible (ou inversement). Si cela s’avère être une solution intéressante lorsqu’il s’agit de modéliser et anticiper le comportement d’un système industriel ou d’anonymiser un portefeuille clients, il nous semble qu’il n’en va pas de même avec la “matière anthropomorphe”. Le risque étant de tenter, par ces modélisations, de prévoir l’imprévisible à savoir le comportement humain.
Les représentations du visages ou des parties du corps humain ne sont cependant pas les seuls à pouvoir être exploitées par ces algorithmes pour lesquels une image en vaut une autre et qui sont donc capables de tirer parti de n’importe quel jeu de données visuel, quoi qu’il représente. Ainsi les expérimentations se multiplient dans de nombreuses directions. En mai dernier par exemple, une étude[18] menée par le chercheur Bo Zhao et son équipe, à l’université de Washington, montrait qu’il était possible de créer grâce aux GAN de vraies-fausses images satellites de villes.
Appliqué au domaine de la cartographie, l’algorithme apprend essentiellement les caractéristiques des images satellite d’une zone urbaine, puis génère une fausse image en introduisant les caractéristiques de l’image satellite apprise dans une carte de référence différente, de la même manière que les filtres d’image populaires peuvent reproduire les caractéristiques d’un visage sur un autre.
Ici, les chercheurs ont donc combiné les images de trois villes, Tacoma, Seattle et Pékin en créant de nouvelles images d’une ville à partir des caractéristiques des deux autres. Ils ont désigné Tacoma comme ville de référence et y ont ensuite intégré les caractéristiques géographiques et urbaines de Seattle et de Pékin pour créer un deepfake de celle-ci. Les possibilités offertes ici sont vertigineuses et Bo Zhao, dont le but était autant d’explorer les possibilités de création que de détection de fausses images satellites de conclure : “cette étude vise à encourager une compréhension plus holistique des données et des informations géographiques, afin que nous puissions démystifier la question de la fiabilité absolue des images satellites ou d’autres données géospatiales (…) Nous voulons également développer une réflexion plus orientée vers l’avenir afin de prendre des contre-mesures telles que la vérification des faits lorsque cela est nécessaire”[19].
L’imagerie satellite étant depuis longtemps la base des prévisions météorologiques, le champ d’action s’est vite étendu en ce sens et plusieurs équipes de chercheurs utilisent déjà les GAN dans le but de les améliorer en enrichissant ainsi les modélisations. L’un de ces projets, mené en collaboration par la société anglaise Deepmind et le Met Office (le Météo France anglais), a vu, lors d’une comparaison en aveugle avec les outils existants, plusieurs dizaines d’experts juger que les prévisions données par le modèle GAN étaient meilleures pour l’emplacement, l’étendue, le mouvement et l’intensité de la pluie, et ce dans 89 % des cas[20].
Mais l’imagerie satellite n’est pas la seule à attirer les expérimentations des chercheurs, l’imagerie médicale voit elle aussi se multiplier les études visant à évaluer l’utilisation d’images synthétiques de qualité, peu coûteuses et non invasives (deepfakes d’images radiographiques, de scanner, d’IRM…) pour entrainer d’autres systèmes de détection utilisant également le deep learning, a l’instar des corps synthétiques déjà évoqués. Les GAN les plus performants sont capables de générer des images médicales réalistes qui peuvent tromper des experts entraînés, même si, comme le soulignent les auteurs d’une de ces études, “aucun GAN n’est capable de reproduire toute la richesse d’un jeu de données médicales”[21]. Pour l’instant…
Si l’image, photographie ou vidéo, présente l’usage le plus spectaculaire de cette nouvelle industrie du faux, le texte n’est pas loin derrière. Les possibilités de traitement du langage naturel (natural language processing ou NLP en anglais ) se sont en effet démultipliées avec l’arrivée de nouveaux modèles avancés intégrant l’intelligence artificielle et plus spécifiquement les réseaux de neurones. On y trouve BERT, proposé par Google, mais le plus prometteur est GPT-3 (bientôt GPT-4) d’OpenAI, une entreprise fondée notamment par Elon Musk. GPT-3 (pour Generative Pre-Trained Transformer 3) est un modèle alimenté par 175 milliards de paramètres, c’est-à-dire de valeurs qu’un réseau de neurones essaye d’optimiser pendant l’entraînement (son prédécesseur GPT-2 n’en n’avait “que” 1,5 milliards). Le modèle est donc conçu pour générer du texte en utilisant des algorithmes déjà entraînés, c’est à dire nourris d’un corpus de références collectées sur le web (l’intégralité de la Wikipedia par exemple). Cet entraînement lui permet, via une analyse sémantique, de “comprendre” la mécanique d’une langue (essentiellement l’anglais pour l’instant). Une fois passée cette étape, lorsqu’on fournit à l’algorithme un extrait de texte, par exemple une phrase d’introduction, celui-ci va tenter de le compléter en prédisant les mots qui pourraient faire sens pour l’utilisateur, comme on peut le constater en testant le service Talktotransformer (sous GPT-2).
Les possibilités sont alors innombrables et limitées par la seule imagination :
Mais ces exemples ne donnent qu’une idée limitée des usages potentiels de ce type d’algorithmes et l’on trouve déjà sur le site gpt3demo plus de deux-cent exemples de mises en œuvre dans des domaines aussi variés que la pensée créative, le recrutement, la poésie ou… la création de phrases d’accroche pour Tinder. Notons que la génération d’image évoquée précédemment n’est jamais très loin puisque l’outil DALL.E, présent dans cet annuaire et développé également par OpenAI, permet de créer des images à partir d’un texte ou de la voix.
Parmi toutes ces possibilités déjà existantes il en est une qui est à considérer comme la pierre angulaire de l’essor imminent des technologies du faux. C’est la capacité de GPT-3 à générer du code informatique. Présentée en avril dernier, cette fonction donne des résultats impressionnants et Microsoft l’a déjà intégrée à ses offres d’entreprise Power Apps[22] et plus récemment Azure[23] afin de permettre à chacun de développer en no code/low-code. On peut se faire une idée de la puissance de cette fonctionnalité en visionnant la vidéo de présentation proposée par OpenAI, où l’on voit deux développeurs créer une campagne d’emails et l’envoyer via le service Mailchimp, formater un texte dans Word ou coder un jeu uniquement à la voix.
L’impression laissée par cette vidéo est celle d’une magie en acte, d’une parole qui devient créatrice par l’intermédiaire d’une IA invisible ou qui le deviendra bientôt. Ou quand le logiciel laisse la place au Logos…
Ce qu’il faut donc absolument saisir c’est que dans un futur proche GPT-3 et ses concurrents à venir (notamment MT-NLG de Microsoft et NVIDIA) vont mettre cette parole créatrice à la disposition de tous. C’est la promesse des technologies No code ou low-code dont l’utilisation sera responsable de 65% de l’activité de développement en 2024 d’après le Magic Quadrant de Gartner[24] et dont le marché mondial devrait générer un revenu de 187 milliards de dollars d’ici 2030, contre 10 milliards de dollars en 2019[25].
La commoditisation est en marche et le territoire à explorer infini…
Si ce tour d’horizon des technologies du faux nous laisse percevoir l’ampleur des changements à venir dans nos usages quotidiens, il n’avait pour objectif que de tenter de circonscrire le sujet et de nombreuses dimensions n’ont donc pas été abordées. Tout d’abord la véracité et la pertinence des faux générés. En effet, les deepfakes sont (heureusement) loin d’être toujours crédibles et leur potentiel en tant qu’artifice en est dès lors compromis. Il peuvent également s’avérer nuisibles, comme lorsqu’un chatbot médical utilisant GPT-3 conseille à un (faux) patient de se suicider[26]. Par ailleurs la question des biais qui y sont introduits, volontairement ou non, par les développeurs et les jeux de données utilisés reste sensible et complexe à traiter : sur quels critères choisir les biais à limiter ou à privilégier ? Qui est légitime pour en juger ? Faut-il un vote démocratique pour en décider ?
Autre dimension essentielle non traitée ici, les innombrables risques que ces technologies font courir à notre société en ce que le faux peut être élaboré dans l’intention de nuire, devenant alors du fake créé pour toutes les raisons, bonnes ou mauvaise, amenant un acteur ou une entité à vouloir en manipuler d’autres. Nous n’avons pas encore développé ces aspects négatifs mais ils peuvent déjà être aisément déduits des exemples que nous avons donnés.
Une troisième dimension est celle des impacts que les technologies du faux et leur usage en mode fake aura sur les organisations publiques ou privées et, partant, des techniques de détection et des mesures (et contre-mesures) à déployer pour en enrayer la propagation. C’est ce sujet et plus précisément ce qu’il implique dans les sphères de l’intelligence économique et de l’analyse du renseignement, que nous aborderons dans un prochain article.
[1] François-Bernard Huyghe (2016) Désinformation : armes du faux, lutte et chaos dans la société de l’information. In : Sécurité globale, vol. 6, n° 2, p. 63–72. En ligne : https://www.cairn.info/revue-securite-globale-2016-2-page-63.htm
[2] LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015) Deep learning. In : Nature, vol. 521, n° 7553, p. 436–444. DOI: 10.1038/nature14539.[3] Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil et al. (2014) Generative Adversarial Networks. En ligne : https://arxiv.org/pdf/1406.2661.
[4] Holubowicz, Gérard (2021) L’histoire des deepfakes. En ligne : https://journalism.design/chapitre-1-histoire-des-deepfakes/, consulté le 10 novembre 2021
[5] Cole, Samantha (2017) AI-Assisted Fake Porn Is Here and We’re All Fucked. In : VICE, 12 novembre 2017. En ligne : https://www.vice.com/en/article/gydydm/gal-gadot-fake-ai-porn, consulté le 11 novembre 2021.
[6] Thies, Justus; Zollhofer, Michael; Stamminger, Marc; Theobalt, Christian; Niessner, Matthias (2016) Face2Face: Real-Time Face Capture and Reenactment of RGB Videos: 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR): IEEE. En ligne : http://openaccess.thecvf.com/content_cvpr_2016/papers/Thies_Face2Face_Real-Time_Face_CVPR_2016_paper.pdf.
[7] Ahmed, Arooj (2021) Adobe Revealed Several New AI Powered Features At The Annual MAX Conference, Here Are Three Best Of Them / Digital Information World. En ligne : https://www.digitalinformationworld.com/2021/10/adobe-revealed-several-new-ai-powered.html, consulté le 11 novembre 2021.
[8] Pimenta, Joana (2021) Snapchat rachète une entreprise par mois. In : Siècle Digital, 4 juin 2021. En ligne : https://siecledigital.fr/2021/06/04/acquisitions-snap-snapchat/, consulté le 11 novembre 2021.
[9] Reisacher, Appoline (9/30/2021) Metaverse : tout savoir sur cet univers virtuel qui attire les géants de la tech. In : BDM, 9/30/2021. En ligne : https://www.blogdumoderateur.com/metaverse-univers-virtuel-attire-geants-tech/, consulté le 11 novembre 2021.
[10] Neveu, Louis (2021) Pourquoi Facebook devient Meta ? En ligne : https://www.futura-sciences.com/tech/actualites/facebook-facebook-devient-meta-94538/, consulté le 11 novembre 2021.
[11] Les Non Fongible Tokens (NFT) ou Jetons non fongibles sont des certificats d’authenticité attribués aux créations numériques. Ils permettent de s’approprier une œuvre et d’être authentifié comme propriétaire unique via la technologie de blockchain.
[12] Le terme de sockpuppet (en français « marionnette ») est utilisé par les hackers, pentesters et investigateurs OSINT pour désigner les faux profils créés pour mener leurs activités anonymement.
[13] Hart, Aimee (6/26/2021) Voice AI is scary good now. Video game actors hate it. In : Input, 6/26/2021. En ligne : https://www.inputmag.com/gaming/video-game-voice-ai-human-actors-witcher-3-mod-controversy, consulté le 11 novembre 2021.
[14] O’Brien, Matt; Ortutay, Barbara (7/17/2021) Why the Anthony Bourdain voice cloning creeps people out. In : Associated Press, 7/17/2021. En ligne : https://apnews.com/article/anthony-bourdain-documentary-voice-cloning-technology-1dae37f748a22c946e2193fbb00ccc11, consulté le 11 novembre 2021.
[15] Gamerman, Ellen (2021) The Rise of the Robo-Voices. In : The Wall Street Journal, 10 juillet 2021. En ligne : https://www.wsj.com/articles/the-rise-of-the-robo-voices-11633615201, consulté le 11 novembre 2021.
[16] AI, Synthesis (2021) Synthesis AI Launches HumanAPI to Create Millions of Photorealistic Digital Humans, On-Demand, 11 septembre 2021. En ligne : https://www.prnewswire.com/news-releases/synthesis-ai-launches-humanapi-to-create-millions-of-photorealistic-digital-humans-on-demand-301419311.html, consulté le 15 novembre 2021.
[17] Cf. cette étude par Samsung Next Ventures, Synthetic Media Landscape 2020. En ligne : https://www.syntheticmedialandscape.com/, consulté le 11 novembre 2021.
[18] Zhao, Bo; Zhang, Shaozeng; Xu, Chunxue; Sun, Yifan; Deng, Chengbin (2021) Deep fake geography? When geospatial data encounter Artificial Intelligence. In : Cartography and Geographic Information Science, vol. 48, n° 4, p. 338–352. DOI: 10.1080/15230406.2021.1910075.
[19] Eckart, Kim (2021) A growing problem of ‘deepfake geography’: How AI falsifies satellite images. UW News, éd. En ligne : https://www.washington.edu/news/2021/04/21/a-growing-problem-of-deepfake-geography-how-ai-falsifies-satellite-images/, consulté le 11 novembre 2021.
[20] Ravuri, Suman; Lenc, Karel; Willson, Matthew; Kangin, Dmitry; Lam, Remi; Mirowski, Piotr et al. (2021) Skilful precipitation nowcasting using deep generative models of radar. In : Nature, vol. 597, n° 7878, p. 672–677. DOI: 10.1038/s41586-021-03854-z.
[21] Skandarani, Youssef; Jodoin, Pierre-Marc; Lalande, Alain (2021) GANs for Medical Image Synthesis: An Empirical Study. En ligne : https://arxiv.org/pdf/2105.05318.
[22] Lardinois, Frederic (5/25/2021) Microsoft uses GPT-3 to let you code in natural language. In : TechCrunch, 5/25/2021. En ligne : https://techcrunch.com/2021/05/25/microsoft-uses-gpt-3-to-let-you-code-in-natural-language/, consulté le 11 novembre 2021.
[23] Aballéa, Arthur (2021) Microsoft facilite l’accès à GPT-3 sur Azure via l’API OpenAI. In : BDM, 11 février 2021. En ligne : https://www.blogdumoderateur.com/microsoft-facilite-acces-gpt-3-azure-via-api-openai/, consulté le 11 novembre 2021.
[24] Low-Code Is the Future – OutSystems Named a Leader in the 2019 Gartner Magic Quadrant for Enterprise Low-Code Application (2019). In : Bloomberg, 8 décembre 2019. En ligne : https://www.bloomberg.com/press-releases/2019-08-12/low-code-is-the-future-outsystems-named-a-leader-in-the-2019-gartner-magic-quadrant-for-enterprise-low-code-application, consulté le 11 novembre 2021.
[25] Prescient & Strategic Intelligence Private Limited, éd. (2020) Low-Code Development Platform Market Research Report: By Offering, Deployment Type, Enterprise, Vertical – Global Industry Analysis and Growth Forecast to 2030. En ligne : https://www.researchandmarkets.com/reports/5184624/low-code-development-platform-market-research, consulté le 11 novembre 2021.
[26] Daws, Ryan (2020) Medical chatbot using OpenAI’s GPT-3 told a fake patient to kill themselves. En ligne : https://artificialintelligence-news.com/2020/10/28/medical-chatbot-openai-gpt3-patient-kill-themselves/, consulté le 11 novembre 2021.
L’article Les technologies du faux : un état des lieux est apparu en premier sur Observatoire stratégique de l'information.
14.11.2021 à 18:30
François-Bernard Huyghe
Les débats accusent souvent d'exploiter les peurs des Français, touchant diverses préoccupations. Ces peurs, bien qu'anciennes, sont amplifiées médiatiquement. Elles divisent, orientant la politique vers l'évitement du risque, présageant de nouvelles tensions électorales.
L’article Rhétoriques de la peur est apparu en premier sur Observatoire stratégique de l'information.
« Vous exploitez les peurs des Français », un incontournable des débats télévisés. Vous exploitez : cynique, trompeur, manipulateur. Les peurs : passions tristes, hystéries hors de la réalité. Des Français : gare aux colères des foules égarées. Mêlant crypto stratégie, proto psychanalyse et pseudo sociologie, l’accusation est censée tétaniser le méchant, délirant, démago. Mais aussi établir une ligne rouge. Il y a ceux qui exploitent des peurs et ceux qui cherchent des solutions à l’écoute des Français. Les déclinistes et les ouverts. Les rabougris et des progressistes. Les ennemis de la modernité et les amis du futur. Ajoutez « même pas peur » et attendez que « la peur change de camp »..
Pareille disqualification exclut du débat. Tantôt dans un registre libéral macronien : efficacité et modernité versus phantasmes archaïques. Tantôt plus à « gauche » : la crainte révèle une « phobie », une manifestation de la domination de classe, de genre, coloniale, etc….. Certains en conçoivent, du coup, une quasi phobophobie : crainte de développer des fantasmes et d’offenser un groupe (à l’égard de l’islam, des minorités…).
Que redoutez-vous, la fin du monde ou de la fin du mois, la perte de l’identité ou de la démocratie, la manipulation médiatique ou la société de surveillance numérique ? Les fake news et la « haine », le transhumanisme et Big Brother, la déstabilisation par la Chine et la Russie, le retour des années 30, l’eschatologie écologique ou l’insécurité au coin de la rue ? Sans compter que, dès que réapparaît un thème ancestral (la peur de l’épidémie avec la Covid), la panique peut nourrir à la fois la tentations de la surveillance et les interprétations paranoïaques en retour (Big Reset, dictature sanitaire…).
Les peurs collectives, certes, sont tout sauf neuves : pendant la Guerre froide que pesait celle du communisme (ou, en face, de l’impérialisme) au regard des terreurs médiévales et comment comparer à celle de la destruction de l’environnement ? D’autant plus que l’usage médiatique du mot ne cesse de s’étendre : que signifie, par exemple, la « peur des LGBT » ? Mais c’est surtout cette dénonciation tous azimuts qui caractérise la période et qui déterminera sans doute la campagne électorale.
La peur – catégorie politique – produit un effet miroir. Ces peurs – comme celles de la radicalité ou de la répression – vont par paires. L’obsession incarnée par Éric Zemour que disparaisse la France nourrit chez ses adversaires la crainte d’un grand retour en arrière réactionnaire contre droits, morale et acquis. Ce qui engendre en retour l’angoisse du « on ne peut plus rien dire » et de la dictature bienpensante. Bien-pensance elle-même d’autant plus effrayée par la radicalisation des esprits, la dégradation du débat et les reculs de la raison. Et ainsi de suite.
La peur suppose deux choses. D’abord, une réaction au risque d’un malheur. Mais en politique, elle se implique aussi : nous contre eux, eux qui provoquent, aggravent, excusent ou incarnent ce mal. Le clan, le pouvoir, la classe responsables auraient pu savoir, prévenir, gérer et ne l’a pas fait par intérêt ou idéologie. Voire ils l’ont provoqué par intérêt ou idéologie. Notre peur renvoie à leur faute. D’où division. Mais aussi réduction : le politique n’apparaît plus comme la recherche du bien commun via l’exercice du pouvoir, mais comme celle du moindre mal, de l’exclusion du risque, y compris le risque moral (déni de la réalité pour les uns, phantasmes clivants pour les autres…). Après la rhétorique de la nouveauté en 2017, celle de la peur en 2022 pourrait faire de la campagne électorale à venir le révélateur inédit de nouvelles tensions idéologiques.
L’article Rhétoriques de la peur est apparu en premier sur Observatoire stratégique de l'information.
29.10.2021 à 12:01
Thibault Delhomme
L'extraterritorialité du CLOUD Act américain menace la vie privée européenne face aux GAFAM. L'UE peine à rivaliser, même avec des initiatives comme Qwant. Les géants chinois BATX émergent aussi. Une stratégie européenne robuste est nécessaire.
L’article Vers un protectionnisme européen des données ? est apparu en premier sur Observatoire stratégique de l'information.
Au-delà de la situation de la question de l’imposition, c’est celui de l’extraterritorialité du droit américain qui pose des défis auxquels l’Union européenne n’a pas, encore, apporté de réponse pertinente. Le Clarifying Lawful Overseas Use of Data Act, ou CLOUD Act, pris en mars 2018 par l’administration Trump, permet aux agences comme le FBI, la CIA et la NSA, à l’aide de mandats, d’obtenir n’importe quelle information disponible sur les serveurs des GAFAMs. Les répercussions de cette nouvelle réglementation dépassent très largement les frontières des Etats-Unis dans la mesure où les géants du numérique américains concentrent la majorité du trafic sur internet. À eux seuls, Microsoft et Google représentent ensemble près de 2 milliards d’adresses mails. Vu d’Europe, l’entrée en vigueur du CLOUD act a mis à mal les objectifs du RGPD en termes de protection et de contrôle des données personnelles des utilisateurs. Elle met en lumière aussi la fragilité de la politique de l’Union européenne sur le sujet en rappelant, si besoin était, que les données personnelles de ses citoyens qui utilisent les services numériques les plus populaires au monde sont à la disposition d’une puissance étrangère.
Pour tenter de renverser cette situation de quasi monopole de l’information que se sont constitués les Etats-Unis, on a vu se développer plusieurs réponses à plusieurs échelles. En France, pouvoirs publics et entrepreneurs du numérique ont cherché à répondre à cette situation par le renforcement de la concurrence, avec notamment la création du moteur de recherche Qwant autour d’une promesse forte : le respect absolu de la vie privée de ses utilisateurs. Cependant, après 10 ans d’existence, le résultat ne permet pas au moteur de recherche de prétendre rivaliser réellement avec Google, qui concentre encore plus de 91% des recherches dans l’Hexagone tandis que son rival made in France oscille dans les 1%. Par ailleurs, Qwant marchant jusqu’à maintenant à perte, a annoncé qu’il devrait cette année arriver « proche » de l’équilibre grâce à son développement en Allemagne, mais aussi à de nouveaux soutiens financiers. Parmi ces derniers, le plus notable provient de l’équipementier chinois Huawei, ciblé par des accusations récurrentes d’espionnage au profit de Pékin. A l’instar d’autres services hébergés par des firmes américaines (Microsoft ou encore AWS), les alternatives existantes sur le marché européen sont donc souvent loin de constituer des solutions parfaitement souveraines.
L’affirmation de grands acteurs européens du numérique, condition de l’indépendance de l’UE, apparaît autrement menacée par l’émergence des BATX chinoises (Baidu, Alibaba, Tencent, Xiaomi). Bien que leur présence sur le marché du numérique européen soit relativement réduite, celles-ci nourrissent des ambitions mondiales, grâce à l’appui de l’Etat chinois. À la différence de l’Europe, les autorités chinoises s’impliquent largement dans le développement des entreprises nationales hors des frontières de la Chine, et les protègent sur leur sol de nouveaux concurrents étrangers de manière plus ou moins agressive. Il y a 11 ans , Google en avait fait l’amère expérience en devant quitter le marché chinois après avoir subi de nombreuses attaques informatiques. L’ampleur de la censure d’État a conduit la firme de Mountain View à renoncer à son projet de créer une version adaptée pour ce marché.
A l’instar de ses rivaux, qui veillent jalousement sur les intérêts et sur le développement de leurs entreprises du numérique, l’Union européenne ne pourrait-elle pas créer ses propres « champions » du numérique via un cadre protectionniste afin de rééquilibrer la concurrence, ou même de supplanter les entreprises américaines ?
L’existence d’alternatives aux firmes chinoises et américaines apparaît en effet la seule manière de donner corps à l’objectif d’une souveraineté numérique des États du continent. Si le RGPD a introduit la possibilité pour les utilisateurs européens d’avoir plus de contrôle sur les données qu’ils transmettent aux GAFAMs, il n’a cependant aucun effet sur les informations que transmettent ces derniers aux autorités américaines, comme le prouve la seule existence du CLOUD act. Ainsi, il n’est pas simplement question de savoir comment réguler la vente à objectif commercial de nos habitudes de consommation numérique, mais de trouver des moyens d’isoler la moindre donnée numérique pour la protéger d’acteurs tiers.
Ceci étant posé, la manière de créer concrètement les conditions de l’émergence d’acteurs crédibles se heurte à de nombreuses difficultés juridiques et politiques. D’un côté, la création de véritables GAFAMs européennes qui exerceraient un monopole sur le marché européen, à la manière des BATX, ne correspond pas au modèle mis en avant dans les différents traités européens. La mise en place d’un tel écosystème est en soit une mesure qui tuerait la concurrence et ne serait pas dans l’intérêt du consommateur à court et moyen terme, tant le service pourvu par les GAFAMs est d’une excellente qualité, avec laquelle il est difficile de rivaliser. Pour permettre à des services comme Qwant de s’affranchir des serveurs de Microsoft et de Huawei, il faudrait donc des années et des investissements massifs, non seulement pour rattraper le retard technique, mais aussi pour mettre en place des infrastructures nécessaires pour la fourniture de tels services.
Le modèle chinois, quant à lui, ne semble viable que sur ce marché particulier, tant les autorités ignorent les questions éthiques vis-à-vis de la collecte et de l’utilisation des données numériques. Par ailleurs, les États Membres de l’UE sont aussi bien liés par les traités européens, que par des traités internationaux, notamment en matière de commerce international qui les empêchent de prendre des actes d’entrave à la concurrence. Ce sont ces mêmes engagements qui ont engendré de nombreux contentieux devant l’OMC entre les États-Unis et l’Europe sur les aides apportées pour soutenir respectivement Boeing et Airbus.
C’est cette équation insoluble à l’heure actuelle que les pouvoirs publics européens doivent s’attacher à résoudre. Ceux-ci ne pourront faire l’économie de considérer la nécessité d’appliquer une certaine dose de protectionnisme afin de préserver cette “industrie naissante” en Europe. En la matière, l’impuissance politique et le refus de trancher ne reviendraient pas seulement à livrer le marché commun aux firmes internationales, mais constitueraient de facto une négation de l’ambition européenne de préservation de la vie privée de ses citoyens.
L’article Vers un protectionnisme européen des données ? est apparu en premier sur Observatoire stratégique de l'information.
18.10.2021 à 16:03
Rédaction OSI
Avec Maîtres de la manipulation. Un siècle de persuasion de masse, l’historien David Colon s’intéresse aux publicitaires, aux propagandistes, aux artistes et aux scientifiques qui ont perfectionné l’art de la persuasion et de la manipulation de masse aux XXe et XXe siècle. Un essai incontournable pour comprendre les progrès de la publicité, du marketing politique et des relations publiques et qui ouvre le champ à une réflexion nécessaire sur les conséquences de leurs innovations pour la démocratie et la vie publique.
L’article « Les maîtres de la manipulation ont bouleversé les règles du jeu politique » (David Colon) est apparu en premier sur Observatoire stratégique de l'information.
David Colon est enseignant et chercheur à Sciences Po, où il enseigne l’histoire de la communication. Il est l’auteur de Propagande (Flammarion, « Champs Histoire », 2021) et des Maîtres de la manipulation. Un siècle de persuasion de masse (Tallandier, septembre 2021). Il a reçu le prix Akropolis 2019 et le prix Jacques Ellul 2020.
Dans votre précédent livre, Propagande, la manipulation de masse dans le monde contemporain, vous vous intéressiez déjà aux progrès de l’art et de la science de convaincre les masses depuis la fin du XIXe siècle. Pourquoi avoir choisi d’adopter une grille de lecture plus biographique dans ce nouvel ouvrage ?
Dans Propagande, je postulais que la propagande était une science appliquée. Dans ce nouveau livre, j’entends en apporter la démonstration vivante, à travers les portraits des vingt plus grands maîtres de la manipulation de masse, qui ont su tirer profit des progrès scientifiques et technologiques pour concevoir et perfectionner l’art de la persuasion de masse.
Plusieurs des grandes figures à l’origine du métier des relations publiques et dont vous retracez le parcours (Ivy Lee, George Creel, Albert Lasker, Edward Bernays…) sont des citoyens américains. Comment expliquer l’importance originelle des Etats-Unis dans la genèse de la propagande moderne alors que l’opinion publique est déjà un sujet d’intérêt majeur dans les autres sociétés industrielles comme la France (avec Gustave Le Bon) ou le Royaume-Uni ?
Gustave Le Bon écrit en effet dans La psychologie des foules que « connaître l’art d’impressionner l’imagination, c’est connaître l’art de les gouverner ». Toutefois, c’est aux États-Unis que sa pensée trouve une traduction concrète Ivy Lee, parce qu’il a lu Le Bon, a l’idée d’inventer de nouveaux outils (les relations publiques modernes, la communication de crise, le lobbying industriel) pour prémunir les industriels des risques que représentent pour eux les revendications des « foules démocratiques ».
Gustave Le Bon écrit en effet dans La psychologie des foules que « connaître l’art d’impressionner l’imagination, c’est connaître l’art de les gouverner ». Toutefois, c’est aux États-Unis que sa pensée trouve une traduction concrète Ivy Lee, parce qu’il a lu Le Bon, a l’idée d’inventer de nouveaux outils (les relations publiques modernes, la communication de crise, le lobbying industriel) pour prémunir les industriels des risques que représentent pour eux les revendications des « foules démocratiques ».
Les États-Unis sont le creuset de la persuasion de masse, car ils connaissent avant le reste des pays industrialisés la démocratie avec le droit de vote accordé aux femmes en 1920, des campagnes politiques à l’échelle de la nation et une société de consommation de masse. C’est par conséquent la demande précoce tant politique qu’industrielle d’une plus grande maîtrise du comportement des Américains qui y conduit à l’invention de la publicité scientifique, des sondages et des études de marché, et à la création de centres de recherche tout entier voués à l’étude des mobiles des électeurs et des consommateurs ou à l’élaboration de formes de communication persuasives (l’École de Yale). En matière de persuasion de masse, les États-Unis s’imposent comme l’atelier du monde.
Comment les techniques inventées Outre-Atlantique se sont-elles popularisées en France ? Comment le secteur des relations publiques s’est-il structuré originellement dans l’Hexagone ? Le métier des relations publiques s’est-il singularisé en France par rapport aux Etats-Unis ?
En France, l’importation de ce que l’on nomme pudiquement « les méthodes américaines » est d’abord le fait de publicitaires. Marcel Bleustein Blanchet, qui a voyagé trois fois aux États-Unis dans l’entre-deux-guerres, en rapporte la publicité radiophonique et plus tard les sondages et les études de marché. Michel Bongrand, quant à lui, importe en 1965 et 1967 dans la vie politique française les techniques de marketing qui avaient contribué en 1960 à la victoire de Kennedy.
En 1968, Bongrand tente même d’importer en France le métier de consultant politique, qui aux États-Unis désigne alors des communicants chargés de l’ensemble d’une campagne politique. Il crée avec Joseph Napolitan, ancien conseiller de Kennedy, l’Association internationale des consultants politiques, qui se révèle avant tout une parfaite porte d’entrée pour les maîtres américains de la persuasion politique, à l’image de Napolitan embauché par Giscard d’Estaing en 1974. Plus largement, dans le contexte de la guerre froide, les États-Unis cherchent volontiers à exporter leur savoir-faire en matière de communication, de sondages ou d’études de marché, car il participe de leur diplomatie culturelle. La singularité des États-Unis par rapport à la France, toutefois, c’est qu’il n’est pas rare de rencontrer des spin doctors qui construisent de A à Z la campagne d’un candidat aux plus hautes fonctions : Roger Ailes et Lee Atwater en 1988 au profit de George H. Bush, ou Karl Rove à deux reprises au bénéfice de George W. Bush. En France, aucun communicant n’a encore eu un tel pouvoir.
Comment expliquer la rapidité d’appropriation des nouveaux médias de masse destinés à la culture, à l’information ou au divertissement par les praticiens du secteur tout au long du XXe siècle ? On lit pourtant dans votre ouvrage que beaucoup de ces innovations comme la diffusion de spots politiques à la télévision étaient loin de présenter un caractère d’évidence ou d’efficacité à leur origine.
Le talent de ces ingénieurs de la persuasion réside précisément dans leur aptitude à identifier le potentiel de ces nouveaux médias et à le mettre à profit . George Creel, le premier, a saisi en 1917 pour le compte du président Wilson le potentiel propagandiste du cinéma et de la radio. En 1952, à peine a-t-il inventé le spot télévisé publicitaire que Rosser Reeves applique sa découverte à la campagne d’Eisenhower. Plus près de nous, Steve Bannon, a compris le premier que les forums internet et les réseaux socio numériques se prêtaient à une nouvelle forme de persuasion, la propagande de réseau, ou que l’analyse prédictive des comportements pouvait être mise au service d’une fabrique du chaos politique.
Aux côtés des innovations scientifiques de pointe, dont les « maîtres de la manipulation » ont su se saisir pour perfectionner l’art de la persuasion, on est souvent surpris de trouver dans votre ouvrage d’autres auteurs plus classiques parmi leurs références : Aristote ou encore Machiavel pour ne citer qu’eux. Ces penseurs ont-ils encore quelque chose à nous apprendre de l’art de persuader ou ont-ils été dépassés ?
Les progrès de la persuasion sont incrémentaux au XXe siècle : une technique, une fois qu’elle a fait la preuve empirique de son efficacité, rejoint un répertoire tacite d’outils dont on se sert à l’envi sans nécessairement en connaître l’origine. Au XXIe siècle, ces progrès sont exponentiels, en raison de l’échelle gigantesque et des potentialités nouvelles offertes par le numérique. L’art de la persuasion remet toutefois sans cesse au goût du jour des principes très anciens : l’art de semer la division, pensé par Sun Tzu, a été revigoré par les réseaux numériques, et l’art grec du Kairos, consistant à déterminer le moment opportun pour entreprendre une démarche de persuasion, ne relève plus désormais de l’intuition, mais d’une approche scientifique rendue possible par exemple par les outils d’analyse prédictive de Facebook.
Face à l’idée d’une toute puissance de la propagande (qui confine parfois au fantasme), les démocraties cherchent toujours à réguler la pratique des relations publiques et de la publicité. A partir de quel moment ce sujet est-il devenu un problème politique ?
Les maîtres de la manipulation ont bouleversé les règles du jeu politique, en offrant à leurs riches clients des outils de persuasion de masse d’une efficacité croissante. Ce sujet est devenu un problème politique à partir du moment où l’art de la persuasion a permis aux industriels de faire prévaloir leur point de vue au détriment par exemple des syndicats et du droit syndical, dont nombre de maîtres de la manipulation, à commencer par Ivy Lee et Albert Lasker, ont patiemment sapé les fondements. Il est devenu aujourd’hui un problème vital pour les démocraties libérales, menacées par des entreprises de déstabilisation dont on commence tout juste à ressentir les effets depuis le Brexit ou l’insurrection du Capitole.
Les démocraties apparaissent s’être facilement appropriées les armes de la propagande en situation de crise, notamment lors des deux guerres mondiales (à l’instar du comité Creel, du rapprochement entre Hollywood et l’armée américaine ou de la création d’un secrétariat d’Etat en France chargé de la propagande en 1939). Comment ces pratiques ont-elles été perçues par l’opinion publique des démocraties ?
Il y a trois attitudes principales à l’égard de la propagande en démocratie sur le siècle écoulé. La première, que je crois la plus répandue, est l’ignorance. Il faut en effet souligner fait que depuis les années 1950 au moins, les techniques de persuasion de masse sont souvent difficilement décelables. Les « persuadeurs cachés », comme les nommait Vance Packard, s’emploient en effet à dissimuler leurs traces, et le microciblage comportemental, de nos jours, rend extrêmement difficile de déceler en temps réel des opérations de manipulation de masse.
La deuxième attitude est le déni : il est souvent très difficile d’admettre que des gouvernements démocratiques puissent recourir à la propagande, que l’on considère à tort comme l’apanage des régimes autoritaires ou totalitaire. Pour beaucoup de nos concitoyens, la propagande en démocratie est une vérité inconvenante.
Enfin, la troisième attitude consiste à admettre l’existence de la propagande en démocratie, mais de refuser à y recourir à son profit. C’est l’attitude du parti social-démocrate allemand face à la propagande psychologique des nazis, ou l’attitude du candidat démocrate Adlai Stevenson en 1952 et 1956, qui refuse de recourir à des spots télévisés parce qu’il refuse d’être « vendu comme du dentifrice ».
Plusieurs praticiens et théoriciens de la propagande ont estimé que celle-ci était indispensable en démocratie y compris en période de paix, qu’il s’agisse d’assurer le consentement des citoyens aux politiques publiques et aux institutions ou pour se défendre contre les offensives informationnelles de régimes autoritaires. Qu’en est-il aujourd’hui ? Les deux notions peuvent-elles être conciliées ?
Edward Bernays et Harold Laswell, pour ne citer qu’eux, ont en effet revendiqué haut et fort la nécessité de recourir à la propagande et, dans le cas de Bernays, à la manipulation, pour fabriquer le consentement démocratique. La propagande est d’autant plus nécessaire en démocratie que l’on ne peut pas, en principe, y recourir à la contrainte pour agir sur les comportements des citoyens. Pendant l’essentiel du XXe siècle, le recours à l’ingénierie du consentement à l’intérieur des frontières nationales des pays démocratiques a été favorisé par le fait que les médias de masse franchissaient difficilement les frontières, à l’exception du radio et de la télévision par satellite. Au XXIe siècle, au contraire, le numérique a ouvert brutalement l’espace informationnel des démocraties aussi bien à des offensives informationnelles étrangères, qu’à des opérations de guerre psychologique menées par des acteurs politiques ou économiques internes, comme l’a illustré l’affaire Cambridge Analytica. Cela conduit les démocraties à chercher à protéger l’accès à leur sphère informationnelle, à se doter de nouvelles capacités de guerre informationnelle, et à tenter de contrer les offensives propagandistes internes aussi bien par des mesures législatives, souvent liberticides, que par le développement de nouvelles technologies visant à influencer les comportements des citoyens, comme le nudge. C’est, en effet, un équilibre nécessairement instable, comme l’a montré en son temps le père de la cybernétique, Norbert Wiener, qui considérait le contrôle des moyens de communication comme « le plus efficace et le plus important » des « facteurs anti-homéostatiques » : « Le pays qui jouira de la plus grande sécurité, écrit-il en 1950, sera celui (…) où l’on se rendra compte pleinement que l’information importe en tant que stade d’un processus continu par lequel nous observons le monde extérieur et agissons efficacement sur lui ».
Les dispositifs de persuasion mis en place par les GAFAM pour capter l’attention de leurs utilisateurs et les retenir le plus longtemps sur leur plateforme, tout comme le « nudge », apparaissent procéder d’une tentative de persuasion inconsciente qui met à mal l’idée d’un citoyen libre et éclairé raisonnant par lui-même. Le rapport entre persuadeur et persuadé semble pencher définitivement en défaveur de celui-ci. La démocratie peut-elle s’en accommoder ?
La démocratie ne peut pas et ne doit pas s’accommoder de dispositifs de manipulation qui sapent ses fondements mêmes, d’une part en privant en nombre les individus de leur libre-arbitre, d’autre part en faisant prévaloir à l’excès des points de vue contraires à l’intérêt général, par exemple celui des industries polluantes qui encouragent une propagande climatosceptique. Le nudge, conçu par Richard Thaler pour aider les individus à prendre la décision la plus favorable pour eux, a parfois été détourné de son objet, par exemple par Facebook en 2018 pour persuader nombre de ses utilisateurs européens renoncer d’eux-mêmes au bénéfice de la protection que leur apportait le Règlement européen sur la protection des données (RGPD), ou plus récemment dans l’espoir de conduire les utilisateurs d’Iphone à renoncer à la protection apportée par le nouvel IOS d’Apple contre le tracking publicitaire. La Commission européenne, dans son projet de Règlement européen sur l’intelligence artificielle (REIA), prévoit l’interdiction en 2024 des systèmes qui manipulent le comportement humain en déployant des techniques subliminales pour agir sur le comportement humain, pour exploiter les vulnérabilités d’un groupe, ou pour procéder à une analyse prédictive de leur personnalité. Une telle initiative, qui se heurte déjà au puissant lobbying de certains géants du numérique, doit être soutenue le plus largement possible.
L’article « Les maîtres de la manipulation ont bouleversé les règles du jeu politique » (David Colon) est apparu en premier sur Observatoire stratégique de l'information.
21.09.2021 à 08:03
Rédaction OSI
Après la rupture par l’Australie d’un contrat portant sur la livraison par la France de 12 sous-marins conventionnels, le président de l’Observatoire stratégique de l’information François-Bernard Huyghe analyse la dimension stratégique et informationnelle de ce revers commercial et diplomatique.
L’article François-Bernard Huyghe : « Les élites semblent découvrir que la guerre économique existe » est apparu en premier sur Observatoire stratégique de l'information.
Après la rupture par l’Australie d’un contrat portant sur la livraison par la France de 12 sous-marins conventionnels, le président de l’Observatoire stratégique de l’information François-Bernard Huyghe analyse la dimension stratégique et informationnelle de ce revers commercial et diplomatique.
L’annulation du méga-contrat australien est-elle révélatrice d’une faillite stratégique française ?
François-Bernard Huyghe : Oui sur plusieurs plans. Le renseignement d’abord : nous sommes tombés des nues, nous n’avions, paraît-il, rien vu venir. Or, comme disait Napoléon, à la guerre, il est excusable d’être battu, mais pas d’être surpris.
C’est toute notre stratégie d’influence dans la zone Indo-Pacifique qui est mise en cause (et pas seulement nos méthodes de négociation commerciale ou de soutien diplomatique). C’est une zone où nous avons des territoires (Mayotte, Nouvelle-Calédonie, Wallis-et-Futuna, etc…), 7000 soldats, des navires etc. Imaginons que le référendum de décembre en Nouvelle- Calédonie voie triompher l’indépendance, pensons une seconde qui pourrait en profiter.
Enfin, il y a une dimension symbolique. Face à une réaction française très forte et des propos très durs de Jean-Yves Le Drian – et sur la forme et sur le fond – , Biden n’a guère changé son week-end et nos partenaires nous traitent avec ce qu’il faut bien appeler un certain mépris : business is business, de quoi s’énervent les grenouilles ? C’est peut-être cette placidité le pire.
Cette affaire peut-elle faire l’effet d’un électrochoc au sein des cercles dirigeants en France dans le sens d’une meilleure prise en considération de la guerre économique ?
F.-B. H. : Les élites semblent découvrir :
a) Que les nations ont des intérêts, pas des amis.
b) Que ce n’est pas gentil Biden, méchant Trump et que les démocrates ne nous admirent guère sinon comme destination touristique.
c) Que le projet de Biden de réinstaurer l’hégémonie US sur le monde libre et contre la Chine suppose des alliés obéissants et certainement pas des partenaires égaux (et d’ailleurs, en Afghanistan…).
d) Que la guerre économique existe, en effet.
e) Que nous aurions pu nous inquiéter plus tôt des révélations sur l’espionnage américain dans les années 90 (Echelon) ou au moment de l’affaire Snowden et, nous énerver, par exemple, que le portable de François Hollande soit écouté sous Obama.
f) Que nos alliés européens ne nous manifestent pas une solidarité très spectaculaire.
Mais ces élites sont tellement formatées…
Entre les menaces d’ingérence étrangères, la crise ouverte avec les Etats-Unis, l’Australie et le Royaume-Uni et le silence de l’UE, la France paraît de plus en plus isolée et vulnérable sur la scène mondiale. La France a-t-elle les ressources pour s’adapter à cette nouvelle donne géostratégique ?
F.-B. H. : Entre les USA qui nous traitent comme quantité négligeable, l’Otan qui est en état de mort cérébrale (dixit Macron) et la quête d’une autonomie stratégique pour une Europe de la défense sur laquelle même les plus indulgents ont des doutes (ainsi : l’Allemagne s’apprête à acheter des F18 américains), il nous faut en effet, nous réinterroger. Nos capacités militaires de souveraineté sont largement dépendantes de nos capacités d’exportation militaire, donc de notre stratégie et poids politique pour soutenir notre puissance économique. Et nous n’avons plus la même image qu’à l’époque du discours Dominique de Villepin à l’Onu.
Comment faire progresser une véritable culture de l’indépendance stratégique en France ? S’agit-il d’une bataille culturelle à mener ?
F.-B. H. : Largement culturelle, oui. Et cela commence dans les universités et les grandes écoles. Mais il faut aussi donner des exemples qui parlent au peuple : ainsi, dans cette affaire, une fois jouée ou surjouée la brouille, il faut faire un acte symbolique (certains suggèrent de requitter le commandement intégré de l’Otan, ce qui paraît utopique) mais en tout cas pas se contenter de paroles rassurantes. Marquer spectaculairement le coup une semaine pour rentrer dans le rang ne suffit pas, surtout dans la mesure où Macron va présider l’UE en janvier. Une proposition stratégique, mais laquelle ?
Ces enjeux peuvent-ils porter au cours de la prochaine élection présidentielle ?
F.-B. H. : Les candidats de droite ou vaguement souverainistes de gauche ont un boulevard pour critiquer Macron l’atlantiste qui n’est même pas un bon vendeur. Ils peuvent proposer des mesures de rétorsion que personne n’appliquera vraiment. Est-ce que cela pèsera vraiment sur le vote ? Nourrir le discours sur la France en déclin et qui doit repenser son identité et ses intérêts (avec une petite nostalgie gaullo-miterandienne) ? Je n’avais pas prévu que Zemmour passerait de 4 à 10 % dans les sondages en une semaine et polariserait le débat, alors, je ne regarde plus ma boule de cristal.
L’article François-Bernard Huyghe : « Les élites semblent découvrir que la guerre économique existe » est apparu en premier sur Observatoire stratégique de l'information.