Titre du flux RSS

Accès libre Analyse l’impact de l’information sur la situation politique et sociale des pays, et sur les relations internationales

▸ les 10 dernières parutions

06.09.2022 à 15:34

Décès de notre président et fondateur François-Bernard Huyghe

Rédaction OSI

Paris, le 6 septembre 2022 Nous avons appris aujourd’hui avec beaucoup de tristesse le décès de notre Président…
Lire plus (229 mots)

Paris, le 6 septembre 2022

Nous avons appris aujourd’hui avec beaucoup de tristesse le décès de notre Président et fondateur François-Bernard Huyghe auprès de son éditeur Hubert de Langle. Nous adressons nos plus sincères condoléances à ses proches et à tous ceux qui l’ont connu.

Docteur d’Etat en sciences politiques et HDR, directeur de recherche à l’IRIS et enseignant au CELSA Paris IV Sorbonne, François-Bernard Huyghe était un spécialiste incontesté des questions liées à la désinformation. Ses grandes qualités de pédagogue, son érudition et sa gentillesse ont marqué de nombreuses générations d’étudiants en communication et en intelligence économique.

Auteur de nombreux ouvrages de référence en science politique, ses nombreuses études ont grandement contribué à structurer le champ de la recherche sur les phénomènes de manipulation de l’opinion. Son dernier essai, La Bataille des Mots, paru chez VA Éditions en juin 2022, s’inscrivait dans la droite ligne de ses recherches sur la dimension sémantique des clivages qui traversent la vie politique française.

Nous aurons à cœur au sein de l’Observatoire de poursuivre ses travaux sur ces phénomènes en constante mutation, et de faire vivre ainsi ses réflexions, plus que jamais d’actualité.

21.02.2022 à 16:00

Quelles stratégies de contenu à l’heure de la fin des cookies tiers ?

Matthieu Lebeau

Même si elle est ajournée jusqu’en 2023 par Google, la fin des cookies tiers est inéluctable, car elle…
Texte intégral (1541 mots)

Même si elle est ajournée jusqu’en 2023 par Google, la fin des cookies tiers est inéluctable, car elle cristallise la contradiction entre les exigences des internautes en termes de confidentialité des données personnelles et leurs attentes de personnalisation des expériences digitales. D’autres options s’inventent dès aujourd’hui pour les marques, reposant notamment sur la collecte de cookies propriétaires, via de nouvelles approches owned et earned media, qui redonnent aussi toute leur place au cœur des dispositifs digitaux aux sites Internet et aux stratégies SEO, longuement occultés par l’essor des réseaux sociaux.

Pourquoi les cookies tiers vont-ils disparaître ? Tout d’abord, cette « fin » est déjà largement engagée : le navigateur Safari (Apple) récuse par exemple ces traceurs depuis mars 2020. Ce qui est en question, c’est spécifiquement la fin des cookies tiers sur Chrome, le navigateur de Google, qui capte environ deux tiers du marché français. On l’a dit, cette échéance a été plusieurs fois repoussée déjà, mais il ne s’agit pas d’une option. La fin des cookies tiers est écrite, car ceux-ci cristallisent les paradoxes du digital à l’heure de la maturité : ils permettent de délivrer l’expérience toujours plus personnalisée qu’attend chaque internaute et dans le même temps, ils exemplifient à l’extrême le débat contemporain sur la privacy et l’utilisation non consentie des données personnelles. Le cookie tiers permet en effet d’exploiter des données personnelles captées en un point A du web pour les utiliser en un point B, C, D, etc… Bref, d’exploiter des données personnelles dans un contexte potentiellement non voulu par celui auprès desquelles elles ont été collectées. On connaît les scandales que de telles mécaniques ont déjà générés.

À quoi ressembleront les stratégies digitales dans un web sans cookies tiers ? Elles seront assurément construites sur une exigence de privacy pour laquelle les attentes des internautes et des citoyens n’ont jamais été aussi élevées, et surtout non négociables, ce qui expose significativement la réputation des marques, des entreprises et des institutions.

À elles aussi de voir dans cette contrainte, l’opportunité de créer les conditions d’une moindre dépendance aux investissements publicitaires et donc au paid media, donc aux plateformes, et d’instaurer leur souveraineté digitale en termes d’audiences. Mais aussi de (re)mettre au centre de leur approche l’intérêt de l’internaute, les conditions de sa confiance et d’une relation de long terme, c’est-à-dire déployer une stratégie où owned et earned media sont articulés de façon vertueuse et affinitaire.

1. Au revoir third party cookies, bonjour first party cookies !

Les cookies propriétaires (first party cookies) se distinguent des cookies tiers (third party cookies) en ce qu’ils réservent la personnalisation de l’expérience digitale à l’écosystème sur lequel ils ont été collectés.

Un cookie propriétaire capté sur un site A optimise l’expérience sur ce site A,. De par leur nature, ils ne sont pas concernés par le bannissement des cookies tiers et ils permettent – beaucoup de marques BtoB s’y emploient déjà – de créer un trésor de guerre data pour les annonceurs, d’enrichir leur connaissance de leurs clients, d’optimiser l’expérience sur leur site et de lancer des dispositifs relationnels sur cette base, comme des newsletters.

2. Replacer les sites au cœur des écosystèmes digitaux

Si les cookies propriétaires sont stratégiques, les sites Internet (re)deviennent par voie de conséquence les flagships des écosystèmes digitaux. Depuis 2008 et l’arrivée de Facebook en Europe, les stratégies digitales, guidées par l’émergence massive des réseaux sociaux, ont en effet considérablement pondéré le rôle qui était jusqu’alors le leur, pour mener parfois à une vision cosmétique du site « vitrine », exercice imposé, sans âme, sans aspérité et sans valeur ajoutée en termes d’influence, de relation ou de business.

Or, sans site, pas de cookies. Sans cookies, pas de recueil de data. Sans recueil de data, pas de personnalisation. Sans personnalisation, pas d’audience. Sans audience, pas de cookies à poser. CQFD.

3. Replacer l’offre éditoriale au service de l’intérêt des audiences

La question fondamentale reste celle de l’audience ; et pour y répondre il faut revenir à quelques évidences et bonnes pratiques qui sont finalement très proches des principes de l’inbound marketing.

Pour audiencer un site Internet, la meilleure approche, en tout cas la plus vertueuse sur le long terme reste celle du pot de miel : proposer des contenus et des services qualitatifs et différenciants. Quels sont les killer content et les killer features de la séquence post cookies tiers ? Ce sont ceux qui ME sont utiles, qui éclairent MON opinion, MON choix ou MA décision et qui ME permettent de faciliter le passage à l’action. Plus précisément :

  • Les contenus d’utilité : livres blancs, infographies, tutoriels… qui offrent pédagogie, expertise et pragmatisme ; comme le font d’ailleurs certains outils, comme les simulateurs que proposent certains sites d’assureurs.
  • Les contenus d’opinion : les tribunes, les points de vue, les interviews, les contenus signés par des dirigeants, des collaborateurs mais aussi potentiellement par des tiers et publiés au sein de l’écosystème d’un annonceur.
  • Les contenu de décision : les cas clients, les testimoniaux, les retours d’expérience, mais aussi les insights.

4. Replacer le SEO au cœur des stratégies d’influence, de réputation et de business

Après avoir été tendanciellement cantonné par l’essor des réseaux sociaux à un exercice tactique (optimiser des positions qui sont souvent le reflet de la notoriété de l’annonceur, protéger la marque et sa réputation, bref à un moyen), le SEO – surtout dans sa dimension sémantique de longue traîne – redevient une fin et un enjeu stratégique. Pourquoi ? Parce que l’acquisition directe de trafic et son transit par un site Internet propriétaire est central pour recueillir données et informations sur les audiences. Sachant que les plateformes sociales, à commencer par Linkedin et Facebook, ont depuis longtemps fermé le robinet d’audience sortante en pénalisant très fortement les posts intégrant un lien sortant non sponsorisé, le trafic organique provenant des moteurs de recherche et de Google reste le principal levier d’acquisition à la main des annonceurs.

5. Recréer l’intensité relationnelle grâce aux newsletters

La newsletter est le cafard d’Internet : on a mille fois annoncé sa disparition et elle ressurgit sous des formes nouvelles : digest, programme relationnel, micro-learning, veille… La newsletter présente deux avantages :

  • Pour l’internaute, c’est un rendez-vous utile, choisi, régulier qui porte à sa connaissance une sélection d’informations pertinentes et utiles consultables où il veut et quand il veut. À croire que la newsletter pourrait à elle seule résoudre la crise de l’attention.
  • Pour l’annonceur, c’est un canal direct et privilégié avec ses audiences, qui lui permet de mieux les servir et les accompagner pour mieux les connaître, sans l’intermédiation d’une plateforme sociale dont l’algorithme discriminera – hors sponsorisation – l’exposition d’une publication de la marque à quelques % de sa propre communauté !

6. Créer les conditions de l’émergence d’alliés visibles et vocaux

Objective ou circonstancielle, la parole de tiers pèse chaque jour davantage dans la construction de l’opinion publique comme dans celle des décideurs. Mais dans un monde digital où la segmentation sera rendue problématique, cette parole garantit aussi l’accès à des populations et des communautés spécifiques.

C’est pourquoi la capacité d’une marque ou d’une institution à tisser l’influence et à rendre vocaux et visibles des alliés, c’est-à-dire des tiers dont la parole sera positive pour l’entreprise, ses thématiques, ses convictions et ses combats est centrale. 77% des décideurs marketing souhaite investir davantage dans l’advocacy et le earned content pour créer des échos affinitaires et crédibles, autour d’un investissement qu’ils jugent plus solide pour créer la confiance, que celui consacré aux budgets publicitaires.

08.12.2021 à 14:03

Health Data Hub : Faute de mieux, le pire n’est plus une option

Thibault Delhomme

En choisissant de précipiter la mise en œuvre du Health Data Hub sur fond de crise sanitaire au…
Texte intégral (1191 mots)

En choisissant de précipiter la mise en œuvre du Health Data Hub sur fond de crise sanitaire au printemps 2020, la France s’est trouvée contrainte, pour des raisons techniques, d’opter pour une solution commercialisée par une filiale de Microsoft au détriment d’une solution souveraine. Une reculade emblématique qui illustre les limites des ambitions françaises et européennes en matière de protection des données sensibles en l’absence d’alternative compétitive au plan technologique.

Parmi les mesures prises par l’arrêté du 21 avril 2020 prescrivant les mesures d’organisation pour faire face à l’épidémie dans le cadre de l’état d’urgence sanitaire, la mise en œuvre anticipée du Health Data Hub (HDH), anciennement Système National des Données de Santé, a jeté une lumière très crue sur l’état des capacités des acteurs français et européens du cloud. Volet constitutif de la politique “France is AI”, le lancement de la nouvelle plateforme des données de santé a vu son déploiement anticipé de plusieurs mois par rapport au calendrier initialement prévu du fait de la crise sanitaire. La décision, prise afin de répondre au  besoin créé par la pandémie d’une meilleure exploitation des données de santé, aura désavantagé les solutions souveraines. Dans l’urgence, le choix d’un hébergeur a été confié à une centrale d’achat publique, l’UGAP, qui, sans nécessiter une mise en concurrence, a ainsi considéré Microsoft, via sa filiale AZURE, comme le seul pouvant remplir les spécifications techniques fixées par le HDH.

Un nouveau projet SAFARI des données de santé ?

La nature sensible des données hébergées par le HDH a parfois donné lieu dans le débat public à quelques rapprochements avec le projet SAFARI. Lancé dans les années 1970, ce système, permettant de relier entre eux des fichiers nominatifs grâce au numéro INSEE de chaque Français, avait été abandonné après sa divulgation dans la presse et la polémique qui s’en était suivie, et avait  4 ans plus tard la création de la CNIL. Ce parallèle avec les enjeux actuels soulevés par le HDH montre surtout l’évolution des termes du débat et des enjeux liés à la protection de la vie personnelle des Français. 40 ans après sa création, la CNIL semble avoir fait le deuil d’une plateforme indépendante, échappant au principe d’extra-territorialité du droit américain qui permet aux agences de sécurité américaines de demander à leurs entreprises l’accès aux données qu’elles hébergent. Consciente du risque, l’autorité française a déclaré que le risque de transfert de données européennes par des instances américaines serait surveillé avec attention. Un  risque qui persiste toujours comme l’a rappelé l’année dernière la Cour de justice de l’Union européenne à l’occasion de son arrêt Schrems II.

La CNIL reste donc très prudente à cet égard alors même que des garanties ont été données à l’autorité par le ministère de la Santé afin de trouver des solutions techniques à horizon 2022 pour empêcher les violations du RGPD en matière de transfert illégal. Les détails à ce propos restent cependant très flous, notamment quant à la manière d’empêcher l’hébergeur d’avoir accès aux données qu’il stocke.

Un problème de compétitivité de la part des entreprises européennes

La politique “France is AI”, à l’origine du HDH, trouve sa genèse dans le rapport Villani: « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne ». Si la souveraineté numérique est initialement présentée comme l’un des piliers du plan, comment expliquer le choix d’un acteur américain en lieu et place d’une entreprise européenne pour héberger des données sensibles ? Comme l’a souligné le Conseil d’État qui se prononçait en juillet 2020 sur la suspension du HDH, l’urgence justifiait alors le risque. Si le nom du français OVHcloud est souvent revenu pour prendre le pas sur Microsoft, celui-ci n’apparaissait pas assez crédible sur le plan technique. En effet, comme l’a déclaré la directrice du projet Stéphanie Combes, à l’époque seul l’Américain possédait l’attestation nécessaire d’Hébergeur de Données de Santé (HDS) ainsi que les compétences techniques pour remplir les conditions requises à l’exécution rapide du projet dans un contexte d’urgence. À ce titre, le HDH est d’ailleurs allé jusqu’à ajouter une clause de transfert du marché dans le cas où un acteur européen ayant les compétences nécessaires techniques (Cybersécurité), ou administratives (HDS) serait disponible.

À l’origine des lacunes techniques reprochées à OVHcloud, on retrouve la question récurrente de la compétitivité des entreprises européennes du numérique. Situation ironique quand on pense à la défense par Bruno le Maire du “Cloud de confiance”, censé protéger les entreprises européennes de l’extra-territorialité du droit américain, comme devait le faire  avant lui le Safe Harbor, le Cloud souverain, et plus récemment, le Privacy Shield. L’obligation du HDH de placer entre les mains d’une source, dont la faillibilité est reconnue, des données sensibles de santé est finalement nécessaire faute de mieux au nom de l’urgence.

L’arbitrage entre performance et souveraineté semble, comme à travers cet exemple, devoir se faire quasi-systématiquement au détriment de cette dernière pour des raisons évidentes de pragmatisme et d’efficacité. Pour que la notion même de souveraineté numérique puisse trouver une traduction concrète au-delà des mots, celle-ci nécessite d’être adossée à une vision industrielle de long terme, seule à pouvoir répondre à terme aux enjeux numériques des entreprises et des acteurs publics du continent.

3 / 10