LePartisan.info À propos Podcasts Fil web Écologie Blogs Revues Médias
Signaux Faibles
Souscrire à ce FLUX

SIGNAUX FAIBLES

Clément JEANNEAU

Mouvements émergents d'aujourd'hui, capables de façonner demain

▸ les 10 dernières parutions

11.05.2019 à 09:45

Mythes et légendes de l’intelligence artificielle

signauxfaiblesco

Que n’a-t-il pas déjà été dit sur l’intelligence artificielle (IA) ? La fascination – ou l’agacement – que suscite l’IA est à la hauteur du buzz médiatique qui a porté le sujet ces dernières années. A coup de punchlines de certaines personnalités désormais bien connues (« sans politique volontariste en matière d’IA, la France pourrait devenir le […]
Texte intégral (8524 mots)

Que n’a-t-il pas déjà été dit sur l’intelligence artificielle (IA) ? La fascination – ou l’agacement – que suscite l’IA est à la hauteur du buzz médiatique qui a porté le sujet ces dernières années.

A coup de punchlines de certaines personnalités désormais bien connues (« sans politique volontariste en matière d’IA, la France pourrait devenir le Zimbabwe de 2080 »), le sujet est sorti des seules sphères technophiles pour se loger au cœur des discours de nombreux dirigeants d’entreprises, personnalités politiques, philosophes, etc.

Ces phrases chocs ont eu du bon. Elles ont réveillé des décideurs pour certains apathiques face à la montée de la technologie, inconscients de la domination américaine et chinoise et des enjeux sous-jacents de souveraineté. Elles ont servi de déclic pour accélérer la prise de conscience.

Reste pourtant, malgré ce tintamarre (qui n’a rien eu d’artificiel, lui), comme un goût d’inachevé. Le sentiment que l’accumulation de prophéties catastrophistes (« les dirigeants européens sont les Gamelin de l’IA ») a parfois empêché de faire entendre un discours plus nuancé, plus distancié. Que le sensationnalisme l’a trop souvent emporté au détriment d’une réalité scientifique plus prosaïque, forcément moins spectaculaire.

De là le besoin de revenir sur terre. C’est l’objet de cet article.

Mythe n°1 : croire qu’il existe UNE intelligence artificielle

L’IA englobe parfois des réalités très différentes. Selon les points de vue et ce que l’on y inclue, elle peut renvoyer aussi bien à des logiques d’automatisation (faire effectuer, par un logiciel, des tâches répétitives et souvent fastidieuses – de là l’essor des « chatbots » par exemple) ou de statistiques. Les statistiques ouvrent la voie au « machine learning » (apprentissage automatique), un sous-domaine de l’IA dont les progrès permettent de réaliser des tâches plus complexes (reconnaissance visuelle et vocale, prévisions, recommandations…). Le machine learning regroupe lui-même plusieurs subdivisions, dont l’apprentissage supervisé et l’apprentissage non-supervisé, et peut mener au fameux « deep learning», qui s’appuie notamment sur les « réseaux de neurones ».

Précisons également que contrairement à certaines idées répandues, l’IA ne se résume pas au machine learning, et que le deep learning n’est pas nécessairement « l’approche ultime » en matière d’IA.

Face à ce jargon, il est facile de s’emmêler les pinceaux ; les différentes notions se retrouvent d’ailleurs parfois mélangées…sciemment. Des outils relativement simples sont parfois présentés comme des solutions d’IA très innovantes, en induisant en erreur sur leur caractère faussement révolutionnaire.

Mythe n°2 : croire que la mention « IA » rime forcément avec innovation


« Il y a cette blague dans Le Bourgeois gentilhomme à propos d’un homme [Monsieur Jourdain] qui apprend que toute parole est soit prose, soit vers, et qui est enchanté de découvrir qu’il a parlé en prose toute sa vie sans en avoir conscience. Les statisticiens pourraient ressentir la même chose aujourd’hui : ils ont travaillé sur « l’intelligence artificielle » toute leur carrière sans en avoir conscience » – Benedict Evans

Certains malins profitent de la méconnaissance entourant ces sujets pour présenter leurs solutions sous un nouveau jour. C’est ainsi que des modèles statistiques utilisés avec un peu d’informatique connaissent parfois un toilettage marketing pour se transformer en outil d’« IA », ce qui sonne plus moderne.

https://www.contrepoints.org/wp-content/uploads/2019/03/berthier.jpg


Comme l’écrit le chercheur Thierry Berthier, « l’emploi du mot IA devient un marqueur séparant le discours marketing grand public du discours d’expert pratiquant ». Cette séparation se retrouve par exemple dans cette blague qui a circulé ces derniers mois sur les réseaux sociaux :

https://i0.wp.com/blockchainpartner.fr/wp-content/uploads/2018/12/blague-IA.png


Une étude récente indiquait même que 40% des « startups IA » en Europe n’utiliseraient en réalité pas d’IA ! Si ce chiffre a été déconstruit ensuite, la vitesse de sa propagation témoigne d’un sentiment largement partagé autour d’un certain niveau de tartufferie en la matière…

Mythe n°3 : croire que l’IA est une technologie de luxe, accessible à quelques happy few


Une distinction est importante à avoir en tête : « faire de l’IA » est très différent d’ « utiliser de l’IA ». « Très peu de startups créent de nouvelles briques de l’IA » explique ainsi le consultant Olivier Ezratty : « les briques de base de l’IA sont un Lego géant essentiellement disponible en open source. Une bonne part du travail d’aujourd’hui consiste à les choisir et à réaliser un travail d’intégration et d’assemblage ».

L’investisseur Benedict Evans va jusqu’à écrire qu’ « il n’y aura bientôt plus aucune startup « IA ». On parlera plutôt d’entreprises d’analyses de processus industriels, d’entreprises d’optimisation de ventes, d’entreprises d’aide à la résolution de litiges, etc. », toutes rendues possibles grâce à l’IA.

Pour lui, « la diffusion du machine learning signifie des startups très diverses peuvent construire des choses bien plus rapidement qu’avant. Le machine learning doit être vu comme un bloc de construction qui ouvre de nouvelles possibilités et qui sera intégré partout. Si vous ne l’utilisez pas alors que vos concurrents l’utilisent, vous vous ferez distancer. »

Il dresse un parallèle entre le machine learning et le langage de programmation SQL (langage phare pour communiquer avec des bases de données) : « Walmart a connu le succès en partie grâce à l’utilisation de bases de données pour gérer ses stocks et sa logistique plus efficacement. Mais aujourd’hui, si vous créez une entreprise de distribution en annonçant que vous utiliserez des bases de données, cela ne vous rendrait ni différent ni intéressant, car SQL a été intégré partout. La même chose se produira avec le machine learning. »

Dès lors, l’IA ne sera plus forcément un élément différenciant pour une startup. Cette situation commence du reste déjà se manifester : selon Olivier Ezratty, « comme les briques de l’IA sont devenues des commodités, il est de plus en plus difficile de jauger une startup par rapport à ses concurrents. La différence pourra venir de l’IA, mais le plus souvent, elle viendra de la capacité à toucher les bons clients et à déployer rapidement. »

Mythe n°4 : croire que les GAFA deviendront puissants dans tous les domaines grâce aux multiples données dont ils disposent


Pour faire fonctionner une IA de façon performante, les données à exploiter doivent être spécifiques au problème à résoudre ; dès lors, collecter des données n’a d’intérêt que si celles-ci ont bien un lien avec le problème visé.

C’est ce qu’explique Benedict Evans, qui l’illustre par un exemple simple : « D’un côté, General Electric dispose de nombreuses données télémétriques venant de turbines à gaz. De l’autre, Google dispose de nombreuses données de recherche. Or on ne peut pas utiliser des données de turbines pour améliorer des résultats de recherche. On ne peut pas non plus utiliser les données de recherche pour détecter des turbines défectueuses ».

Autrement dit, « le machine learning est une technologie généraliste – elle peut être utilisée aussi bien pour détecter des fraudes que reconnaître des visages – mais les applications qu’elle permet de construire ne sont pas généralistes : elles sont spécifiques à une tâche ».

C’est du reste ce que l’on avait connu lors des précédentes vagues d’automatisation, juge-t-il : « tout comme une machine à laver peut seulement laver des vêtements, et non laver des plats ou cuisiner un repas, et tout comme un programme pour jouer aux échecs ne peut pas remplir votre fiche d’imposition, un système de traduction à base de machine learning ne peut pas reconnaître des chats. »

De ce constat, Benedict Evans tire une conclusion : l’utilisation du machine learning se répartira de façon large. « Google n’aura pas « toutes les données » : Google aura toutes les données obtenues via les services Google. Google aura des résultats de recherche plus fins, General Electric aura des machines plus performantes, Vodafone aura une meilleure vue sur la gestion de son réseau, etc. »

En définitive, « Google sera meilleur à être Google, mais cela ne veut pas dire que Google deviendra meilleur à autre chose. »

Mythe n°5 : croire que l’IA est aujourd’hui souvent intelligente


Qui n’a pas déjà vécu des échanges particulièrement laborieux (pour ne pas dire pénibles) avec des chatbots ou des agents conversationnels ?

Chacun aura noté que ces outils disposent encore d’une (très) large marge de progression avant de pouvoir soutenir une conversation décente. L’échange ci-dessous en est un exemple criant :

https://www.frenchweb.fr/wp-content/uploads/2017/10/capture.png
Exemple de chatbot testé par le consultant Thomas Gouritin

Les chatbots ne sont certes pas représentatifs des avancées de l’IA aujourd’hui. Mais s’il est évident que l’IA est d’ores et déjà capable de performances impressionnantes (cf ses victoires au jeu de go, aux échecs, ou encore au jeu Starcraft), soyons clairs : une IA brillante dans un contexte donné ne l’est pas forcément dans d’autres contextes – et ne l’est même souvent pas.

Il y a quelques semaines, on apprenait ainsi que l’IA de DeepMind (appartenant à Google), célèbre pour ses prouesses au jeu de go, avait largement raté un contrôle de mathématiques destiné à des adolescents de 16 ans dans le cursus scolaire britannique. Son score : 14 sur 40, soit la note E dans le système britannique. Elle n’a pas réussi à transformer les mots en calcul et en équation, alors qu’elle avait pourtant été entraînée sur le sujet.

Au-delà de cette anecdote, les exemples de « déraillement » d’IA sont multiples. On se souvient notamment du robot conversationnel mis en ligne par Microsoft en 2016 qui s’était transformé en quelques heures en personnage machiste, raciste et néo-nazi, sous l’influence d’internautes.

Un an auparavant, la reconnaissance faciale de l’application Photos de Google avait assimilé un couple afro-américain à des gorilles. Le site Wired a révélé fin 2018 que Google, après s’être déclaré « consterné » et après avoir promis de remédier au problème, avait en réalité choisi ensuite de…supprimer les gorilles et d’autres primates (chimpanzés, singes…) du lexique de son service. Comme l’écrit Wired, « cette solution de contournement illustre les difficultés rencontrées par Google et d’autres entreprises technologiques pour faire progresser la reconnaissance d’image ».

Le cas emblématique de Watson

Le système Watson d’IBM était annoncé à ses débuts comme capable de révolutionner la médecine : son IA allait être capable de détecter des maladies plus rapidement, de proposer des traitements plus adaptés, etc. En 2018, le couperet tombe : selon des documents internes révélés par le site StatNews, des spécialistes ont identifié de « multiples exemples de recommandations de traitements de cancers dangereux et incorrects » effectuées par Watson. Malgré des milliards investis, Watson reste très peu performant par rapport aux ambitions affichées.

Par exemple, comme nous l’apprend une grande enquête récente intitulée « How IBM overpromised and underdelivered with Watson Health », « il s’est avéré impossible d’enseigner à Watson comment lire des articles scientifiques comme un médecin le ferait. Le fonctionnement de Watson est fondé sur les statistiques : tout ce qu’il peut faire est de rassembler des statistiques sur les principaux résultats. Mais ce n’est pas comme ça que les médecins travaillent. »

Les chercheurs ont ainsi découvert que Watson peinait à exploiter de façon autonome des informations publiées très récemment dans la littérature médicale. De même, Watson s’est avéré avoir plus de mal que prévu à récupérer des informations contenues dans les dossiers médicaux électroniques.

In fine, « il ne suffit pas de prouver que vous disposez d’une technologie puissante » déclare Martin Kohn, un ancien scientifique médical d’IBM. « Il faut prouver qu’elle va réellement faire quelque chose d’utile – que ça va améliorer ma vie, et celle de mes patients. » Or selon lui, « à date il existe très peu de publications » scientifiques qui prouvent le bénéfice de l’IA pour les médecins. « Et aucune s’agissant de Watson ».

***

« L’intelligence artificielle est devenue un gros business et il est très probable qu’il y ait un retour de bâton quand les promesses les plus extravagantes ne seront pas remplies » Yann Le Cun, directeur du laboratoire IA de Facebook, en 2017

Face à cette réalité crue, qui ne correspond pas toujours aux promesses (sur)vendues, certaines entreprises s’adaptent…et innovent dans leur manière de communiquer ! En la matière, la palme revient sans aucun doute à l’organisation OpenAI (notamment soutenue par Elon Musk) : OpenAI a laissé diffuser l’idée selon laquelle elle aurait préféré ne pas sortir son IA publiquement car celle-ci serait trop…dangereuse ! Le sociologue Antonio Casilli résume bien ci-dessous avec humour ce qui semble plus probable…

De fait, après vérification, les résultats d’OpenAI se révèlent effectivement « moins bons que ceux des IA spécialisées obtenues par apprentissage supervisé », selon Laurent Besacier, professeur au laboratoire d’informatique de Grenoble…

Mythe n°6 : croire que l’IA peut fonctionner sans intervention humaine


Dans son récent ouvrage « En attendant les robots : enquête sur le travail du clic », Antonio Casilli montre que le grand remplacement des hommes par les robots est un fantasme, en mettant en lumière une face cachée de l’IA : l’existence de millions de « travailleurs du clic » invisibilisés, précarisés, payés à la micro-tâche pour éduquer des algorithmes.

Antonio Casilli cite par exemple le scandale ayant touché fin 2017 l’entreprise américaine Expensify, spécialisée dans la gestion par l’IA de la comptabilité d’autres entreprises. En apparence, « les salariés de ces entreprises n’avaient qu’à photographier leurs factures et leurs reçus, et l’application les organisait en notes de frais. On a découvert que des personnes recrutées sur la plateforme de micro-travail Amazon Mechanical Turk transcrivaient et labellisaient en temps réel une partie de ces factures. »

Cet exemple n’est pas isolé. En réalité, « il y a toujours une part d’algorithmes et une part de travail humain ». Pour concevoir son programme Watson, IBM a ainsi recouru à 200 000 micro-travailleurs qui devaient notamment ordonner les différents éléments de l’image d’un paysage (nuages, montagnes, etc.).

Casilli souligne une hypocrisie du milieu technologique, où il perçoit « une attitude double. Tout le monde connaît l’existence des plateformes de micro-travail et comprend l’exigence d’impliquer des humains dans l’étiquetage et le nettoyage de l’information. En même temps, il y a une espèce d’effort cognitif pour ne pas voir ce qu’on sait pertinemment. »

Lorsqu’il est reconnu, ce travail humain est fréquemment minoré, à tort : « cette partie du processus est décrédibilisée en tant que travail : on imagine que les micro-tâches qu’accomplissent les travailleurs du clic ont une faible valeur ajoutée, qu’elles ne sont pas centrales ; or leur contribution est cruciale. »

Une équipe de recherche du CNRS, Télécom ParisTech et MSH Paris-Saclay, dans laquelle fait partie Antonio Casilli, a du reste montré que les plateformes paient en France métropolitaine 266 000 personnes pour micro-travailler (avec une rémunération par micro-tâche de quelques dizaines de centimes d’euro). Dans le monde, ces « poinçonneurs de l’IA » comme les appelle Casilli, seraient entre 40 millions et…des centaines de millions, constituant ainsi une nouvelle division du travail au niveau mondial. Leur rémunération peut descendre jusqu’à 0,000001 centime la tâche, sans accès aux droits de protection des travailleurs salariés.

Casilli est formel : l’IA ne pourra pas devenir assez développée pour se passer des micro-tâches. « Il n’y aura pas d’automatisation complète. Les machines que les ingénieurs de l’IA sont en train de développer n’ont pas vocation à travailler toute seule : [elles] prévoient toujours la réalisation de tâches par les humains. »

Mythe n°7 : croire que le « machine learning » et le « deep learning » ont plié le match en matière d’IA


Début 2019, la chercheuse en statistique Genevera Allen jetait un froid lors du congrès annuel de l’Association américaine pour l’avancement de la science : « Je ne ferais pas confiance à une très grande partie des découvertes [médicales] en cours ayant recours à du machine learning appliqué à de grands ensembles de données ».

« Ces algorithmes sont entrainés pour détecter des « patterns » quoi qu’il arrive », explique-t-elle. « Ils ne reviennent jamais avec « je ne sais pas « ou « je n’ai rien découvert » : ils ne sont pas conçus pour cela. »

Le machine learning entraîne de ce fait une crise de reproductibilité des découvertes, estime-t-elle. Quand le machine learning établit un lien entre les gènes de certains patients et leur maladie, les chercheurs peuvent ensuite rationaliser scientifiquement leur découverte sans que cette rationalisation soit correcte. « On peut toujours construire une histoire [a posteriori] pour montrer pourquoi des gènes donnés sont regroupés ensemble » explique Dr Allen.

Ce problème de reproductibilité risque de mener les scientifiques vers de fausses pistes (voire des résultats incorrects) et gaspiller des ressources (en essayant de confirmer des résultats impossibles à reproduire). La mise en garde de Genevera Allen a permis de (re)mettre en lumière ce problème. Pour le surmonter, en attendant l’émergence d’une nouvelle génération d’algorithmes à même d’évaluer la fiabilité de leurs résultats, les chercheurs doivent s’assurer eux-mêmes de la reproductibilité de leurs expériences.

***

Cette invitation à la prudence autour du machine learning n’est pas isolée.

Les exemples ne manquent pas pour souligner les problèmes liés plus particulièrement au deep learning. En 2016, une étude s’est penchée sur le succès – proche de 100% – d’une IA qui avait été entraînée pour distinguer les chiens et les loups sur des images données. Il s’est avéré que l’algorithme se fondait avant tout sur…la couleur de fond des images : il y cherchait de la neige car les images de loups sur lesquelles il avait été entraîné comportait souvent de la neige en fond.

Dans le même ordre d’idées, des chercheurs nord-américains se sont rendus compte en 2018 qu’en ajoutant un éléphant dans certaines images, en fonction de son emplacement, le système ne le voyait pas…ou bien le prenait pour une chaise !

Bien d’autres exemples pourraient être cités (en 2017, des chercheurs japonais ont montré qu’en changeant un seul pixel d’une image de chien blanc, l’IA se mettait à y voir une autruche). Tous soulignent la même chose : ces algorithmes parviennent à des résultats sans comprendre ce qu’ils font. Ils peuvent être performants pour certaines tâches de perception (encore qu’il suffit donc parfois d’un changement de pixel pour les tromper), mais butent sur les tâches de raisonnement.

Le succès de l’IA d’AlphaGo (appartenant à Google), premier programme informatique à avoir battu l’humain au go, semble d’ailleurs être à l’origine d’un malentendu. AlphaGo a brillé en s’appuyant sur une IA non-supervisée, reposant sur du deep learning, pouvant donner l’impression que cette approche était intrinsèquement supérieure aux autres. En réalité, cette approche était plus simplement la plus pertinente pour le jeu de go, dont les règles sont particulièrement structurées et logiques. Or ce contexte très spécifique est loin de se retrouver souvent ailleurs, en particulier lorsqu’il s’agit d’activités humaines.

« Un énorme problème à l’horizon est de doter les programmes d’IA de bon sens : même les petits enfants en ont, mais aucun programme de deep learning n’en a », estime le spécialiste américain Oren Etzioni.

In fine, les algorithmes de deep learning « n’apprennent que des indices superficiels, et non des concepts », diagnostique le chercheur Yoshua Bengio, justement l’un des pères fondateurs du deep learning.

Or ces problèmes relèvent de traits inhérents à ces systèmes, et non de bugs…

***

Dans ce contexte de (re)questionnement autour du deep learning, de plus en plus de voix plaident pour élargir les méthodes de recherche utilisées en IA. Ironie de l’Histoire : les regards se tournent vers l’IA dite symbolique (l’enchaînement de règles explicites pour construire un raisonnement), approche historique autrefois reine mais qui était tombée en désuétude avec l’émergence du machine learning.

L’enjeu est aujourd’hui de réussir à exploiter l’apprentissage statistique (ce dont le machine learning relève) et les méthodes symboliques de façon combinée. Les questionnements restent entiers sur les façons de procéder, mais des expérimentations ont commencé.

Antoine Bordes, directeur du laboratoire d’IA de Facebook, entend ainsi dépasser les limites du machine learning dans le langage (en particulier en compréhension de texte, où le machine learning est très peu performant) en « créant des architectures qui peuvent être entraînées sur des données mais qui s’appuient sur le symbolique ».

« La prochaine génération d’IA aura une architecture hybride » confirme la chercheuse Véronique Ventos, qui a cofondé le laboratoire privé NukkAI avec un (premier) objectif : créer une IA capable de briller au Bridge (jeu qui y résiste encore)…

Une opportunité pour l’Europe ?

Dans une tribune parue en mars 2019, Virginia Dignum, professeur d’informatique à l’université d’Umeå en Suède, appelle l’Europe à « explorer des alternatives » au machine learning :

« Il y a peu, une étude ayant analysé 25 ans de recherche en IA a conclu que l’ère du deep learning touche à sa fin. L’Europe a traditionnellement été forte sur les approches symboliques de l’IA. Dès lors, ce serait une erreur de suivre aveuglement les US et la Chine dans leur « course » au machine learning alors que nous avons l’opportunité de montrer la valeur d’approches alternatives, dans lesquelles nous Européens pourrions avoir un avantage. »

Ces réflexions mériteraient d’être plus écoutées en France. Comme l’écrit Olivier Ezratty, « le rapport de la Mission Villani fait la part belle au deep learning. L’approche symbolique semble y être mise en sourdine. (…) De même, l’IA symbolique est assez maigrement représentée dans la feuille de route de l’INRIA de 2016. (…) Pourtant, en prenant du recul, on peut se demander si l’enjeu n’est que dans le deep learning »…

Mythe n°8 : croire que l’IA peut dépasser l’intelligence humaine de façon générale


La thèse de la singularité, selon laquelle l’IA sera capable de dépasser l’intelligence humaine au cours des toutes prochaines décennies, continue étonnamment d’être considérée par certains comme une hypothèse crédible, malgré de multiples remises en cause de la part de spécialistes :

-Jean Ponce, chercheur en vision artificielle à l’ENS, en avril 2017 : « La Singularité, ça m’énerve. Je ne vois personnellement aucun indice que la machine intelligente soit plus proche de nous aujourd’hui qu’avant ».

Jean-Louis Dessalles, chercheur en intelligence artificielle et en sciences cognitives, auteur de l’ouvrage « Des intelligences très artificielles », en février 2019 : « La question de la Singularité technologique ressemble à celle de la surpopulation sur Mars : on ne peut exclure que le problème se pose un jour, mais ce n’est pas demain ».

-Luc Julia, vice-président de l’innovation chez Samsung, inventeur de l’assistant vocal d’Apple, en mars 2019 : « Notre vision menaçante de l’intelligence des machines découle en partie de notre anthropomorphisme. Ces assistants ne sont que des mathématiques et des statistiques, ils répondent à des règles édictées en amont. Jamais une IA ne sera aussi intelligente qu’un humain ».


Comment comprendre, dès lors, la permanence de la thèse de la Singularité ? Dans son ouvrage « Le mythe de la Singularité – faut-il craindre l’intelligence artificielle ? » paru en 2017, l’informaticien et philosophe Jean-Gabriel Ganascia tente d’apporter une explication. Selon lui, cette thèse est avant tout défendue par des ingénieurs travaillant, en large partie, pour des géants technologiques et ayant l’impression, réelle ou exagérée, de changer le monde. Il parle d’un « sentiment de vertige » et de puissance chez ces ingénieurs qui en viennent à surestimer la capacité des géants du numérique à bouleverser les réalités existantes et l’humanité. Ce sentiment est accentué par le fait que ces entreprises ont réussi en très peu de temps – quelques années, contre plusieurs décennies pour les entreprises traditionnelles – à devenir des géants économiques. Il estime qu’il existe donc des prédispositions chez ces ingénieurs à croire les thèses de la Singularité.

A cette prédisposition se rajoute une forme de complaisance liée à l’envie de « se faire peur face à la technologie » : cette complaisance, juge-t-il, est véhiculée par certains médias qui préfèrent le spectaculaire à la réalité plus prosaïque et…scientifique. Il prend ainsi l’exemple de l’idée selon laquelle il deviendra un jour possible de télécharger son propre esprit sur une machine afin de rendre son esprit immortel. Cette idée, portée notamment par un milliardaire russe ayant initié le projet 2045.com (qui, à son lancement, invitait l’internaute à appuyer sur un “bouton d’immortalité”), ne repose sur aucun fondement scientifique, et a pourtant été amplement médiatisée, contribuant ainsi à véhiculer les peurs et inquiétudes liées à l’IA.

Enfin, Ganascia relève le fait que ces craintes remontent bien avant l’invention d’Internet et avant même l’arrivée des ordinateurs. Il prend ainsi l’exemple d’une scène du film Fantasia, sorti en 1940, où plusieurs balais commencent à s’animer et à porter des seaux d’eau à la place du personnage principal. “Cette inquiétude-là, d’être dépassé un jour, me semble ancrée dans le cœur de l’homme. C’est pour cela que l’idée de Singularité est assez populairejuge-t-il.

***

Pour autant, si de nombreuses voix ont remis en cause la Singularité, peu d’entre elles se sont attelées à déconstruire cette thèse méthodiquement.

C’est en cela que le long article intitulé « Le mythe de l’intelligence artificielle super-humaine », écrit par l’auteur américain Kevin Kelly en 2017, est particulièrement précieux.

Dans cet article, il montre que croire que l’IA peut être plus intelligente que l’homme relève d’une mauvaise compréhension de ce qu’est l’intelligence.

Selon les défenseurs de la Singularité, comme Nick Bostrom, il existerait une échelle de l’intelligence, comme il existe une échelle des niveaux sonores en décibels. Dans ce paradigme, il est envisageable de penser une extension de l’intelligence qui ne ferait que croître, étape par étape, et in fine dépasserait notre propre intelligence.

Or la réalité scientifique s’oppose à la vision simpliste d’une intelligence à une seule dimension qui augmenterait de façon linéaire.

L’idée d’une échelle de l’intelligence n’est pas valable scientifiquement, montre Kevin Kelly, de la même façon qu’il n’existe pas d’échelle de l’évolution contrairement à une croyance tenace. “Chacune des espèces présentes aujourd’hui sur Terre a survécu à une chaîne de trois milliards d’années de reproductions successives, ce qui signifie que les bactéries et les cafards sont aujourd’hui aussi évolués que les humains : il n’y a pas d’échelle”, écrit-il. C’est la même chose pour l’intelligence : loin de pouvoir être réduite à une seule dimension, elle est constituée de différents modes cognitifs, composés de multiples nœuds, chacun suivant son propre continuum. “Certaines intelligences peuvent être très complexes, avec de nombreux sous-nœuds de pensée ; d’autres peuvent être plus simples mais plus extrêmes, plus pointues sur certains aspects”.

Il appelle à voir l’intelligence comme une symphonie où co-existent plusieurs types d’instruments : ceux-ci n’ont pas seulement des différences en termes de volume, mais aussi en tempo, en mélodie, etc. Dans cette perspective, il convient selon lui de penser les intelligences dans une logique d’écosystème, où les différents noeuds de pensée sont co-dépendants. “L’intelligence humaine fait appel à de multiples raisonnements cognitifs : la déduction, l’induction, le raisonnement par symboles, l’intelligence émotionnelle, la logique spatiale, la mémoire de court terme, de long terme” énumère-t-il. Du reste, il rappelle que notre intestin, et son système nerveux, présente des caractéristiques similaires à celles du cerveau et a développé sa propre logique cognitive. L’homme, loin de penser seulement avec son cerveau, pense avec tous les éléments de son corps.

Cette analyse permet d’éclairer avec un autre regard les questions d’intelligence artificielle. L’IA surpasse déjà l’homme dans certaines compétences, comme le calcul arithmétique, ou la mémoire (sous certains aspects). L’homme conçoit des IA pour qu’elles l’aident à atteindre l’excellence sur des compétences précises. Il s’agit d’éléments que l’homme est capable de réaliser, mais que l’IA peut mieux faire.

Il existe également des modes cognitifs auxquels l’homme n’a pas accès, au contraire de l’IA : par exemple, retenir (et indexer) tous les mots et expressions présents sur des milliards de sites internet. Pour Kevin Kelly, il est probable qu’à l’avenir l’homme concevra spécialement pour l’IA de nouveaux modes cognitifs inexistants chez lui ou dans la nature, en particulier pour des tâches précises.

Certains problèmes nécessiteront une solution en deux étapes : d’abord, inventer un nouveau mode de pensée pour travailler avec les nôtres ; puis les combiner pour trouver la solution au problème donné. Dès lors, comme nous pourrons résoudre des problèmes que nous ne pouvions pas résoudre jusqu’alors, nous voudrons qualifier ce mode comme “plus intelligent” que nous, alors qu’il sera en réalité simplement différent.

En définitive, le grand avantage de l’IA réside pour lui dans les différences de façons de penser qu’elle permettra d’atteindre. “Je pense qu’un modèle utile est de penser l’IA comme étant une intelligence étrangère ; c’est sa différence qui sera son actif clef”.

Il est donc faux d’affirmer que l’intelligence artificielle peut dépasser l’intelligence humaine de façon générale. Certes, certains modes cognitifs permis par l’IA pourront régler des problèmes que l’homme ne pouvait pas régler, et il sera alors tentant de parler d’IA “superhumaine”, mais cela serait erroné : “nous ne qualifions pas aujourd’hui Google d’IA superhumaine même si sa capacité de mémorisation est plus forte que la nôtre !”. Google, malgré sa puissance de mémorisation, reste impuissant pour réaliser de nombreuses tâches que l’homme peut (mieux) faire que lui. En somme, pour des tâches spécifiques très complexes, l’IA pourra dépasser l’homme, mais “aucune entité ne fera mieux tout ce que fait l’homme”. Kevin Kelly dresse le parallèle avec la force physique des humains : “la révolution industrielle a 200 ans ; même si les machines battent les hommes sur des aspects précis (rapidité à se déplacer, précision, etc.), il n’existe aucune machine capable de battre un humain moyen sur tout ce qu’il ou elle fait”.

Pour compléter le propos, Kevin Kelly montre qu’il est extrêmement difficile, si ce n’est impossible, de mesurer la complexité d’une intelligence de façon scientifique. “Nous n’avons pas de bons outils de mesure de la complexité qui pourraient déterminer si un concombre est plus complexe qu’un Boeing 747, ou les façons dont leur complexité diffèrent”. Dès lors il juge que cela n’a aujourd’hui pas de sens de dire qu’un esprit A est plus intelligent qu’un esprit B. Ce qui compte avant tout n’est pas de se préoccuper d’une IA potentiellement plus avancée que nous à l’avenir, mais de la complémentarité de l’IA avec l’humain, et des défis que cela pose.

La crainte d’une IA globalement supérieure à l’humain est d’autant moins fondée, estime-t-il, que l’IA suivra très probablement la même règle qui s’applique à toute création : il n’est pas possible d’optimiser l’ensemble de ses caractéristiques. Des compromis sont nécessaires. Autrement dit, il n’est pas envisageable de voir naître une IA qui soit capable à la fois de tout faire et de le faire mieux que des humains ou des IA spécialisées. Il souligne d’ailleurs que cette même règle est également valable pour l’homme. “L’intelligence humaine n’est pas en position centrale, avec les autres intelligences spécialisées qui tourneraient autour d’elle. Elle représente en réalité un type très, très spécifique d’intelligence qui a évolué durant des millions d’années pour permettre à l’homme de survivre sur cette planète.” Il explique que si l’on établissait une carte de toutes les formes possibles d’intelligences, celle humaine serait située “quelque part dans un coin, de la même façon que notre monde est situé quelque part dans un coin d’une vaste galaxie”.

Enfin, il estime que la peur d’une IA capable de battre l’homme sur son propre terrain, c’est-à-dire sur des modes cognitifs similaires, est infondée car cela nécessiterait de concevoir une IA fonctionnant sur les mêmes substrats que le cerveau humain. “La seule manière d’atteindre un processus de pensée très proche de celui de l’humain est de faire fonctionner le mécanisme avec une matière très proche de la matière humaine. La matière physique influence en effet très fortement le mode cognitif”. Or les coûts de création d’une telle matière seraient immenses ; plus le tissu à créer serait similaire au tissu d’un cerveau humain (à supposer bien sûr que cela soit faisable), plus les coûts seraient élevés, ce qui rendrait in fine l’opération extrêmement peu efficiente. “Après tout, concevoir un humain est quelque chose qu’on peut faire en neuf mois” rappelle-t-il…Et ce d’autant plus que l’intelligence humaine, comme déjà montré précédemment, n’est pas seulement présente dans le cerveau de l’homme, mais bien dans tout son corps. “Un nombre important de données montre que le système nerveux de nos intestins guide nos processus de prise de décisions rationnels, et peuvent aussi bien prédire qu’apprendre. Une intelligence qui fonctionnerait sur une matière très différente penserait différemment.”

Pour toutes ces raisons, Kevin Kelly appelle à inventer de nouveaux termes, un nouveau vocabulaire, pour décrire les différentes formes d’intelligence, avec lesquelles l’homme agira de plus en plus à l’avenir. Il cite les travaux de Murray Shanahan, professeur de robotique cognitive à l’Imperial College de Londres pour évoquer le fait qu’il existe des millions de types d’intelligences possibles. Pour l’illustrer, il donne plusieurs exemples : un esprit similaire à celui humain, mais plus rapide dans ses réponses ; un esprit très lent, mais disposant d’une très grande capacité de stockage et de mémorisation ; un esprit capable d’imaginer un esprit plus intelligent mais incapable de le concevoir ; un esprit capable de concevoir un esprit plus intelligent ; un esprit très logique mais dépourvu d’émotions ; etc.

In fine, tout porte à croire selon lui qu’il n’y aura pas des IA “superhumaines” mais plutôt plusieurs centaines d’IA qui dépasseront chacune les capacités cognitives humaines sur des compétences précises, mais dont aucune ne pourra couvrir aussi bien que l’homme tous les champs cognitifs. “Je comprends que l’idée d’une IA superhumaine soit très attrayante ; mais si on inspecte les données que nous avons jusqu’à présent sur l’intelligence, aussi bien naturelle qu’artificielle, nous ne pouvons en conclure qu’une chose : c’est un mythe.

Conclusion

En 1956, le chercheur Herbert Simon, qui recevra des années plus tard le « prix Nobel » d’économie et le prix Turing en informatique, prédit que « les machines seront capables, d’ici vingt ans, de faire n’importe quel travail pouvant être fait par l’homme ».

Plus de soixante ans plus tard, la prédiction ne s’est toujours pas réalisée…et semble loin de l’être prochainement.

La vision de l’IA va s’affiner. Une certaine bulle pourrait éclater lorsqu’il deviendra clair que certaines promesses ne seront pas délivrées (de sitôt).

D’ores et déjà, en Chine le temps des « désillusions » s’est ouvert, selon la correspondante « tech » en Asie du Financial Times : « le secteur chinois de l’IA, auparavant très actif, vit une forme de découragement : rejeté par les investisseurs, incapable de délivrer des technologies de pointe et ayant du mal à générer des profits. (…) Les investisseurs sont confrontés à des évaluations démesurées, à des discours exagérés et à des modèles de monétisation usés ».

Le terme IA pourrait lui-même mal vieillir, lui qui est déjà assez décrié.

Comme l’explique Luc Julia : « Tout est parti d’un immense malentendu. En 1956, lors de la conférence de Dartmouth, [l’informaticien] John McCarthy a convaincu ses collègues d’employer l’expression « intelligence artificielle » pour décrire une discipline qui n’avait rien à voir avec l’intelligence. Tous les fantasmes et les fausses idées dont on nous abreuve aujourd’hui découlent, selon moi, de cette appellation malheureuse. »

Pour Luc Julia, il faudrait plutôt parler d’« intelligence augmentée » ; Jean-Louis Dessalles prône quant à lui l’expression d’« informatique avancée ».

Toutes ces remarques ne doivent pas faire oublier les progrès bien réels réalisés dans le domaine, parfois formidables, parfois glaçants (à relier au « capitalisme de surveillance »). Mais une chose est sûre : intelligente ou non, l’IA est encore très loin d’atteindre tout ce que l’Homme peut réaliser, à commencer par notre capacité…d’humour. Les concepteurs d’assistants vocaux se sont ainsi aperçus, au fur et à mesure de l’usage de leurs outils, que la fonction la plus utilisée s’avère être « raconte-moi une blague ». Face à la quantité de demandes de blagues, Amazon (pour Alexa) et Microsoft (pour Cortana) n’ont donc eu d’autres choix que d’embaucher des humoristes – autrement dit, de bons vieux humains…

Clément Jeanneau

01.05.2019 à 16:30

L’émergence d’un nouveau Zeitgeist

signauxfaiblesco

On apprenait récemment que le célèbre Manneken-Pis de Bruxelles, qui sert de fontaine publique depuis des siècles (au moins depuis 1695, voire 1388 selon certaines archives), fonctionnait depuis toutes ces années en pur gaspillage : l’eau, une fois sortie de l’endroit que l’on sait, partait directement dans les égouts. Plus de 1500 à 2500 litres […]
Texte intégral (5414 mots)

On apprenait récemment que le célèbre Manneken-Pis de Bruxelles, qui sert de fontaine publique depuis des siècles (au moins depuis 1695, voire 1388 selon certaines archives), fonctionnait depuis toutes ces années en pur gaspillage : l’eau, une fois sortie de l’endroit que l’on sait, partait directement dans les égouts. Plus de 1500 à 2500 litres d’eau potable s’échappaient ainsi quotidiennement.

C’est l’intervention d’un technicien, fin 2018, qui a permis de prendre conscience du problème. Suite à cette découverte, la municipalité a non seulement décidé d’installer un système de récupération pour éviter ce gaspillage, mais aussi de vérifier toutes les fontaines de la ville.

A quelques jours d’intervalle, on apprenait par ailleurs, dans des sphères tout à fait différentes, que

  • les actionnaires du géant Bayer ont contesté avec force le rachat de Monsanto, refusant de donner leur quitus au directoire de l’entreprise. Comme l’écrit Cécile Boutelet dans Le Monde, ce « bouleversement majeur pour Bayer » montre que « la seule logique industrielle est désormais insuffisante, dans un monde où l’opinion publique, tout comme les investisseurs, est davantage sensibilisée sur les questions environnementales et sanitaires que par le passé ». « La perte de confiance dans la marque Bayer, jusqu’ici synonyme du sérieux et de la moralité de l’industrie chimique allemande de l’après-guerre, est un dégât jugé très grave par les actionnaires ».

  • dans l’univers de la mode, le marché de la friperie (vêtements d’occasion) connaît une telle expansion qu’il est appelé, selon des estimations, à dépasser d’ici moins de dix ans la « fast fashion » (collections renouvelées très rapidement). Les pratiques et les mentalités évoluent rapidement – en 2018, 64% des femmes auraient déjà acheté ou seraient prêtes à acheter des produits d’occasion, contre 52% en 2017 et 45% en 2016 – et ce dans toutes les classes sociales et les tranches d’âge.

Ces trois informations peuvent sembler éloignées, et pour certaines, anecdotiques. On aurait pourtant tort de les sous-estimer en y voyant des phénomènes isolés.

Toutes disent quelque chose de l’époque, chacune à leur échelle et dans leur domaine respectif (gestion d’infrastructures publiques ; stratégie d’entreprises ; pratiques de consommation).

Elles relèvent d’un même mouvement structurel, d’une lame de fond commune, que l’on pourrait désigner par « Zeitgeist » – ce terme allemand que l’on traduit souvent par « l’esprit du temps ».

« Le Zeitgeist constitue un système d’idées, d’images et de valeurs qui, déterminant une certaine ambiance intellectuelle, culturelle, fonde les pratiques, les comportements individuels et collectifs, et inspire les créations, jusqu’à celles qui sont considérées comme les plus personnelles. Il est atmosphère, air du temps, influençant styles et modes de vie individuels, et scandant la respiration sociale » (Philippe Robert-Demontrond).


Comment caractériser ce « Zeitgeist » ? Le meilleur moyen de le cerner, de le décrire, semble être simplement de s’en référer à ses différentes manifestations.

Un exemple parmi d’autres : dans l’univers des cosmétiques, la tendance forte du moment serait « l’écobeauté », à savoir ce qui met en valeur l’aspect naturel de sa peau.

Ici comme ailleurs, le phénomène est évidemment repris si ce n’est tiré par les marques, qui y voient autant le risque de rater le train de ce nouvel « esprit du temps » qu’une nouvelle opportunité de croissance : « l’industrie, des géants aux petites marques indépendantes, a compris le changement de paradigme »,écrit la journaliste Zineb Dryef dans Le Monde. « Après avoir vendu pendant des décennies des produits pour « camoufler » boutons et autres imperfections, les marketeurs de la beauté ont revu leur vocabulaire : on parle désormais de « transparence », d’« authenticité », de « beauté intérieure », de « simplicité », de « retrouver sa vraie nature ».

Les enseignes bio ne sont d’ailleurs pas en reste : il y a quelques mois, Naturalia a ainsi lancé Naturalia Origines, nouveau « concept store » dédié à la médecine douce avec déjà quatre magasins dans Paris, qui se présente comme le « temple du bien-être 100% bio »…

Bien plus qu’une simple tendance

On pourrait voir, dans ce mouvement global, le signe d’une nouvelle mode, par nature éphémère, vouée à laisser place plus tard à d’autres tendances à l’obsolescence programmée.

Ce serait faire là un pari bien risqué. Car ce mouvement repose sur un sous-jacent qui, lui, ne risque pas de se faner de sitôt : la dégradation de l’environnement – et ce qui en est relié, comme la montée de nouveaux problèmes de santé liés aux pesticides, au plastique, aux produits transformés.

A la différence de tendances précédentes, on voit mal comment la situation pourrait s’inverser, au vu de ce qui nous attend en matière environnementale. Tout indique que ce mouvement ne fera que gagner en importance, aussi bien s’agissant du nombre de personnes qui y seront sensibles que de sa profondeur. Des préoccupations auparavant quasi-inexistantes, il y a peu encore secondaires, sont appelées à devenir demain primordiales. Des visions modérées seront amenées à gagner en radicalité. Des logiques de compromis, voire de compromission, jusqu’ici acceptées ou du moins tolérées, sont condamnées à devenir rejetées.

Des implications tentaculaires

Ce nouveau « Zeitgeist », dont les différentes manifestations sont encore souvent considérées comme sympathiques, rigolotes ou agaçantes selon les points de vue, pourrait s’avérer demain décisif dans de nombreux domaines. Prenons ici deux exemples : les marques, et les recruteurs.

Pour les marques

Il appelle les marques à de profonds changements, du moins pour celles dont les valeurs actuelles restent figées dans des logiques anciennes. Le cas récent du magazine Elle, épinglé pour l’article présenté ci-dessous, est à ce titre tout sauf anecdotique.

Pour ses dirigeants, il sera vain, plus tard, de se lamenter face à la baisse de ses ventes. Le problème sera bien plus profond, plus ancien, et donc plus difficile à surmonter. Quand un magazine (se voulant) prescripteur de tendances commence à accumuler du retard en la matière, c’est sa pérennité même qui est mise en danger.

Au-delà de « Elle », cet exemple devrait servir de contre-modèle à toutes les marques ayant l’ambition de devenir ou rester des références dans les années et décennies à venir – voire, plus simplement, de perdurer… : selon une étude récente d’Havas Paris, 87% des marques pourraient disparaître sans aucun regret de la part des Français. Ce chiffre inspire ce diagnostic sans concessions de Valérie Planchez, vice-présidente d’Havas Paris : « nous sommes allés trop loin, avons mal fait notre travail, n’avons pas créé de « fair deals » avec les consommateurs, et payons aujourd’hui la monnaie de notre pièce ».

Pour les recruteurs

« Manifeste étudiant pour un réveil écologique » : ce texte rédigé fin 2018 par des élèves de différentes grandes écoles (HEC, AgroParisTech, CentraleSupélec, Polytechnique, ENS Ulm) en collaboration avec des étudiants de « dizaines d’établissements différents », a eu un certain écho en ce début d’année. Plus de 30 000 étudiants de grandes écoles l’ont signé, avec un message principal : faire savoir aux entreprises qu’ils ne se voient postuler que dans celles « en accord avec les revendications exprimées dans le manifeste », à savoir compatibles avec les logiques écologiques.

Bien sûr, une signature à un manifeste n’engage pas à grand-chose et n’empêchera pas certains de ces étudiants de postuler en temps voulu dans des entreprises dont ils récusent aujourd’hui les pratiques.

Bien sûr, ces étudiants ne sont en rien représentatifs de l’ensemble des étudiants de France (ce qu’ils ont reconnu dès le début de leur initiative).

Mais on aurait tort, pour autant, de minorer ce mouvement, qui dépasse les seules préoccupations environnementales et touche plus globalement à l’impact des entreprises sur la société et à la question du sens.

D’abord parce qu’il est porté par une partie non-négligeable des jeunes talents que recherchent – avec de plus en plus de difficulté – les grands groupes. A Polytechnique, dont une part importante de diplômés se dirigent vers l’industrie et des postes décisionnels, plus de 600 élèves ont signé le manifeste. A Centrale, « de plus en plus de diplômés choisissent des petites structures où ils comprennent ce qu’ils font et pourquoi ils sont là [alors qu’il] y a quinze ans, 50 % d’une promotion s’orientait directement dans les grands groupes », selon le directeur de l’école.

Ensuite parce qu’il est mondial. Le même phénomène se manifeste par exemple aux Etats-Unis. Le New York Times l’a constaté récemment lors d’un événement à la prestigieuse université de Berkeley : les futurs diplômés en informatique sont de plus en plus nombreux à éviter Facebook, en dépit des 140 000 dollars annuels assortis de différents avantages en nature proposés aux ingénieurs en sortie d’école – et ce, non pas parce que le réseau est passé de mode, mais bien pour ses impacts sociétaux.

Les témoignages citées par le New York Times convergent dans le même sens : « un grand nombre de mes amis se disent qu’ils ne veulent plus travailler pour Facebook pour les questions de privacy, fake news, données personnelles, tout cela » ; « je ne crois tout simplement pas au produit parce que tout ce qu’ils font consiste à montrer plus de publicités aux gens » ; « avant, y travailler était vu comme prestigieux voire magique; maintenant, on se dit que ce n’est pas parce qu’ils font ce que les gens souhaitent que c’est positif ».

Même si les jeunes diplômés restent nombreux à y postuler, ceux-ci le font « un peu plus discrètement, expliquant à leurs amis qu’ils vont y travailler pour changer l’entreprise de l’intérieur ou qu’ils ont trouvé un poste plus éthique dans cette entreprise à la réputation devenue toxique », écrit le New York Times, qui ajoute : « le changement d’attitude se produit au-delà de Facebook. Dans la Silicon Valley, les recruteurs disent que les candidats en général posent plus de questions du type « comment puis-je éviter un projet sur lequel je suis en désaccord ? » et « comment puis-je rappeler à mes chefs la mission que s’est fixée l’entreprise ? ».

Au-delà de la Silicon Valley, de nombreux jeunes diplômés, qu’ils soient issues de formation d’ingénieurs ou de commerce, font part d’un sentiment de « dissonance cognitive » et de « perte de sens » dans leur activité professionnelle. Pour la sociologue Cécile Van de Velde, « au niveau individuel, la question posée est : s’ajuster au marché du travail, d’accord, mais jusqu’où ? Par nécessité, la plupart des jeunes diplômés acceptent de renoncer à certaines valeurs pour rester dans la course, mais ils peuvent développer alors un sentiment majeur de désajustement. Je les appelle les « loyaux critiques » : ils jouent le jeu, mais portent une critique radicale du système, depuis l’intérieur ».

Ces considérations sont évidemment en soi déjà un luxe, à l’heure où l’objectif de nombreux jeunes est plus simplement de trouver un emploi, ou un travail qui serait rémunéré de façon correcte. De même, il est évident que le besoin de sens n’a pas émergé en 2018 ou 2019 : il n’est pas nouveau en soi.

Mais sa montée est indéniable et n’en est probablement qu’à ses débuts. Fait inédit : à l’ENA, la dernière promotion a débattu sérieusement de la possibilité de s’appeler « Urgence climatique », même si ce nom a finalement été écarté en « finale » après huit heures de débat (…partie remise ?).

Cécile Van de Velde confirme qu’elle « constate que le sentiment d’urgence face à la catastrophe écologique est de plus en plus prégnant. J’ai pu [le] voir monter et se diffuser, au fil de mes recherches sur la colère sociale. En 2012, la colère des jeunes diplômés était principalement structurée par les thématiques sociales et économiques. Aujourd’hui, le malaise est plus existentiel, plus global. Il porte davantage sur la question de la marche du monde et de l’humanité menacée. » Et si ces questionnements restent en grande partie portés par des classes sociales qui ne sont pas en difficulté, elle note que « chez cette jeunesse bien informée, bien formée et qui a des ressources, il y a un refus de transmission du système ».

Elle confirme également la dimension internationale et générationnelle de ce mouvement : « On voit dans les enquêtes internationales sur les valeurs que la conscience environnementale et la demande d’éthique politique sont deux revendications qui distinguent fortement les jeunes générations montantes. Non pas que ces revendications n’existent pas chez les autres, mais elles sont portées à l’extrême par ces jeunes générations. ».

Elle relie cette situation à « une inversion de la transmission entre générations » que l’anthropologue américaine Margaret Mead avait annoncé dès 1968 dans son ouvrage « Le Fossé des générations » : « au lieu d’être descendante – des parents vers les enfants –, cette transmission pouvait devenir ascendante. C’est cette forme d’inversion générationnelle qui est à l’œuvre aujourd’hui sur les questions climatiques et environnementales. »

Les normes sociales comme moteur du changement

Il y a encore peu, beaucoup voyaient dans la vague « startups » l’émergence d’une tendance lourde : l’arrivée d’une génération entrepreneurs, prêts à « uberiser » des pans entiers d’une économie traditionnelle jugée obsolète, et visant l’hypercroissance à tout prix. On sent pourtant déjà aujourd’hui en France que le vocable « startup nation » a commencé à se faner. La « disruption » sent le sapin : lorsqu’elle n’a pas mauvaise presse pour ses impacts sociaux, elle est tournée en ridicule, vue comme caricature d’un « nouveau monde » qui sonne déjà assez ancien.

Les startups sont évidemment encore (très) vivantes, et l’entrepreneuriat est bien sûr très loin de se résumer aux startups ; le propos est simplement de dire que celles-ci ne sont plus le modèle qu’elles ont pu représenter, il y a encore peu, aux yeux de certains.

Or cette question du modèle est clef.

« L’esprit du temps » dont il est question touche éminemment aux normes sociales, et en particulier à ce qui est valorisé et à ce qui devient à l’inverse mal vu.

A ce titre, l’exemple de la « honte de prendre l’avion » qui se développe en Suède et qui conduit un nombre croissant de voyageurs à préférer le train pour réduire leur empreinte carbone, est tout sauf anecdotique : c’est un vrai signal faible, dont la portée est sans doute encore sous-estimée.

Le phénomène, qui a son propre mot en suédois (« flygskam »), semble sérieux : d’ores et déjà, plusieurs lignes intérieures ont vu leur nombre de passagers diminuer, tandis que les trajets en train – et notamment les trains de nuit – entre les principales villes suédoises battent des records de fréquentation.

Ce type de pratiques est appelé à s’amplifier dans des domaines très divers, non pas uniquement en raison d’un souci accru de l’environnement, mais aussi, plus prosaïquement, en raison de l’image que l’on souhaite renvoyer.

En 2013, le PDG de la société Opower racontait qu’un groupe d’étudiants avait testé les trois messages suivants pour encourager les gens à économiser de l’énergie : « vous pouvez économiser 54 dollars ce mois-ci » ; « vous pouvez sauver la planète » ; « vous pouvez être un bon citoyen ». Aucun n’a fonctionné. Un quatrième message a alors été testé : « vos voisins font mieux que vous ». Le résultat s’est avéré « miraculeux : quand les gens découvraient que ¾ de leurs voisins avaient éteint l’air conditionné, ils l’éteignaient aussi ».

Les changements de comportements ne se feront pas (seulement) par des logiques d’incitation économique ou de contraintes. Ils seront favorisés en large partie par la pression sociale.

Dans le cas du transport en avion (l’un des principaux contributeurs d’émission de CO2), la prise de conscience progressive des ordres de grandeur liés aux émissions de CO2 devrait conduire, par exemple, à remettre en cause progressivement la mode des escapades le week-end en Europe, jusqu’alors tirées par les prix spectaculairement bas des compagnies low-cost.

C’est d’ailleurs ce qu’indique officiellement l’ADEME dans son scénario 2050 pour atteindre les objectifs fixés par le gouvernement en matière écologique : « Dans le domaine des loisirs, les voyages en avion ne seront pas proscrits, mais ils devront être globalement plus rares, en privilégiant les longs séjours plutôt que la fréquence des escapades ».

En se plaçant en 2050, l’ADEME écrit : « la politique climatique a amené à transformer les pratiques touristiques. La nouvelle fiscalité sur le kérosène a contribué à modifier les habitudes: on prend toujours l’avion pour voyager loin, mais moins souvent et plus longtemps. Les entreprises proposent maintenant à leurs salariés la possibilité de cumuler trois mois de congés payés pour faire des grands voyages ».

Autrement dit, « voyager à longue distance en avion est envisageable à condition que cet usage soit réparti dans le temps. » Pour ce faire, il sera nécessaire de « modifier les comportements liés à l’aspiration aux voyages en avion avec le développement du tourisme sur longue distance. L’objectif est de mettre en place des règles collectives qui permettent un tourisme de long séjour ».

Le domaine des loisirs n’est pas le seul concerné par le changement de ces pratiques puisqu’une large partie des trajets en avion sont liés à des déplacements professionnels. Là encore, les normes sociales sont appelées à jouer un rôle important.

Exemple parmi d’autres : aujourd’hui, les formulaires d’évaluation des chercheurs du CNRS demandent le « nombre de conférences internationales » où les chercheurs ont été invités, ce qui encourage en creux le maximum de déplacements à l’étranger. S’il est évidemment compréhensible, et même souhaitable, qu’un chercheur soit amené à présenter ses travaux à l’international, on peut se demander si les déplacements sont à chaque fois justifiés et si des substituts ne seraient pas, parfois, envisageables.

Cet exemple n’est pas le plus représentatif, il faut le reconnaître, et ce d’autant plus que la recherche joue bien sûr un rôle essentiel dans la lutte contre le désastre écologique ; mais il montre, quitte à déplaire, qu’aucun domaine ne serait être tenu à l’écart de ces questionnements.

Quelles conséquences ?

Les implications sont très larges et appelées à se diffuser dans les différents interstices de la société. Comme toujours, elles seront vues comme des évidences a posteriori. Comme toujours, elles sont sous-estimées a priori.

La notion de luxe, par exemple, est déjà en (r)évolution. C’est ce qu’écrit l’essayiste Gaspard Koenig dans un texte récent : « Dans sa célèbre controverse avec Rousseau, Voltaire définissait le luxe comme « tout ce qui est au-delà du nécessaire », s’inscrivant dans « une suite naturelle des progrès de l’espèce humaine ». En cette époque d’abondance matérielle et d’achats grégaires, que trouve-t-on de rare et de superflu « au-delà du nécessaire » ? Le silence et la frugalité. (…)

A l’ère de la massification des transports, le luxe consiste à retrouver une forme de sobriété et de tranquillité dans des environnements à taille humaine.On ne compte plus les sites de voyage  qui promettent « l’authenticité » . En Roumanie justement, aux pieds des Carpates, le prince Charles a rénové des maisons traditionnelles où vient séjourner la gentry londonienne. Le dernier chic est de faire son propre pain.

Le documentaire de Benjamin Carle, « Sandwich », enquêtait sur cette mode du Do It Yourself : un repas de luxe ne consiste plus à manger du caviar mais à partager le sandwich que l’on a fait entièrement soi-même, en faisant pousser les tomates et en récoltant le blé. »

Pour reprendre l’exemple de l’avion, c’est tout l’univers du tourisme qui sera amené à évoluer. Certains acteurs commencent déjà à l’anticiper. Le PDG de Voyageurs du monde, Jean-François Rial, dit aujourd’hui s’interdire de proposer certains voyages « inacceptables » : « Les long-courriers en dessous de cinq nuits, les allers-retours en Europe dans la journée, c’est non ! ».

D’autres acteurs ne souhaitent pas être dans ce type de compromis où l’avion a encore une place centrale. Ils s’inscrivent dans la tendance du tourisme durable, sobre, qui, là encore, n’a rien d’une mode et ne devrait faire que monter en puissance. Pour Guillaume Cromer, directeur du cabinet ID-Tourism, « les premiers touristes de demain seront intrarégionaux », ce qui implique de « construire de nouveaux imaginaires sur l’ailleurs, et de dépayser grâce à des hébergements atypiques ». Du reste, comme l’écrit Gaspard Koenig, « les Millennials branchés ne jurent plus que par le « tourisme expérientiel », préférant vivre chez l’habitant plutôt que d’être parqués dans des suites anonymes et climatisées ».

Evidemment, dans tout ce mouvement, il faut distinguer les modérés et les radicaux ; les militants et les hésitants ; les pionniers et les suiveurs : bref, tout un spectre.

Evidemment, comme dit précédemment, ces questionnements restent aujourd’hui un certain luxe ; il est plus difficile de se préoccuper de la fin du monde lorsqu’on a du mal à finir le mois…

Pour autant, on voit mal l’impact de ce « nouveau paradigme » rester circonscrit.

Dans l’univers du marketing, et donc de la consommation en général, les marques restent par exemple souvent frileuses à l’idée d’investir le terrain politique, au sens vie de la cité. Or les consommateurs attendent de plus en plus des marques qu’elles s’engagent, qu’elles défendent leurs convictions, qu’elles « prennent position sur des sujets de société clivants » pour reprendre les mots de David Nguyen de l’Ifop, et plus encore : qu’elles soient avant-gardistes en la matière.

Les marques les plus fortes ne sont pas consensuelles. Seth Godin, « gourou » du marketing, l’exprime ainsi : « Cela n’a plus de sens de vouloir plaire à tout le monde. Plus aucun produit ou service ne peut avoir cette ambition. Les marques doivent concentrer leurs efforts sur un petit nombre de clients, et susciter leur engagement. Et pour cela, elles ne doivent plus hésiter à être avant-gardistes, à prendre des risques, à oser les extrêmes ! »

Il cite l’exemple de la marque Patagonia : « eux s’engagent pour l’écologie, et n’hésitent pas à aller toujours plus loin. Mais ces choix, parfois radicaux, donnent du sens à leur message et donc à leurs produits. »

C’est l’exemple, aussi, de la marque d’électronique américaine Sonos qui a fermé l’an dernier le temps d’une journée son magasin de New York pour afficher son soutien à la neutralité du net.

La politique ne sera pas laissée de côté

« Les jeunes, à mesure de leur prise de conscience politique, seront beaucoup plus radicaux que leurs parents, tout simplement parce qu’ils n’auront plus d’autre choix » – Phil McDuff dans The Guardian

En matière environnementale, les nouvelles générations sont vouées à être plus radicales. Les notions de développement durable et croissance verte semblent déjà vieillies. La force du nouveau mouvement « Extinction Rebellion » au Royaume-Uni, qui prône la désobéissance civile non-violente contre l’inaction climatique, en est un signe révélateur. « Extinction Rebellion is leading a new, youthful politics that will change Britain » annonçait d’ailleurs fin avril un chroniqueur du Guardian.

Au-delà des seules pratiques de consommation, le terrain politique ne sera donc pas laissé de côté. On sous-estime encore l’arrivée à l’âge de voter de cette nouvelle génération. Il est d’ailleurs permis de s’interroger sur la part d’électeurs de Mélenchon ayant voté pour lui en 2017 non pas (spécialement) pour son positionnement d’extrême gauche mais pour son radicalisme écologique et institutionnel. Dans quelle mesure son score de presque 20% (à 1,7 point de Marine Le Pen et donc du second tour) a-t-il été dû à ces enjeux ?

Ces questions doivent nous interroger sur le potentiel de l’écologie comme force politique – qui n’a jusqu’ici jamais franchement connu le succès en France. Que manque-t-il pour que celle-ci réussisse ? Peut-être avant tout la figure d’un leader capable de rassembler bien au-delà de son camp et de susciter une adhésion forte sur sa personne, à partir d’un terreau d’idées commençant à devenir massivement partagées.

Si tel est le cas, alors nous pourrions être politiquement dans un état métastable, comme on l’appelle en physique – cet état qui se manifeste lorsque de l’eau en-dessous de 0°C reste provisoirement liquide. Il suffit alors d’un micro-évènement pour déclencher brutalement un changement de phase qui aurait pu se produire plus tôt (ou plus tard). L’émergence d’une personnalité représentant l’écologie et capable de rassembler pourrait constituer ce facteur de déclenchement. Y a-t-il aujourd’hui une personnalité en France capable de remplir ce rôle ?

Une chose est sûre : à défaut d’engagements forts, le greenwashing sera de moins en moins acceptés par les individus, que ceux-ci soient considérés comme consommateurs, demandeurs d’emplois ou électeurs. Si cela ne concerne pas (encore ?) l’ensemble des citoyens – il ne s’agit pas de les homogénéiser artificiellement -, il n’est plus à prouver que les mouvements émergents commencent toujours par des « early-adopters ».

Pour les marques à la recherche de nouveaux consommateurs, pour les entreprises à la recherche de nouveaux talents, pour les partis politiques à la recherche d’électeurs, le constat est donc le même : des changements cosmétiques ou de pure communication ne seront non seulement pas suffisants – la ficelle serait trop grosse – mais seront, surtout, dangereux, car porteur de risques de décrédibilisation forte. A charge à chaque acteur d’en tirer les conséquences.

Clément Jeanneau

23.03.2019 à 10:53

Pourquoi les prédictions sont souvent fausses (et quelles leçons en tirer)

signauxfaiblesco

“Internet ? On s’en fout, ça ne marchera jamais” (Pascal Nègre, alors PDG d’Universal Music, en 2001) Illustration ci-dessus : extrait d’une série de cartes postales imaginant en 1910 la France de l’an 2000 Pour les nombreux experts en expertise, chaque début d’année est l’occasion de livrer au monde ce que leur boule de cristal leur […]
Texte intégral (8458 mots)


“Internet ? On s’en fout, ça ne marchera jamais” (Pascal Nègre, alors PDG d’Universal Music, en 2001)


Illustration ci-dessus : extrait d’une série de cartes postales imaginant en 1910 la France de l’an 2000


Pour les nombreux experts en expertise, chaque début d’année est l’occasion de livrer au monde ce que leur boule de cristal leur a révélé entre la bûche et le Nouvel An. Tendez l’oreille…bienvenue en 2030, 2050, voire 2070 pour les plus chanceux d’entre nous !

Ces généreuses confidences sont d’autant plus pratiques pour leurs auteurs qu’il leur arrive rarement de devoir rendre des comptes a posteriori. Il est vrai qu’à l’heure des bilans, il est souvent plus excitant de se tourner vers…l’avenir, encore une fois.

Une fois n’est pas coutume, rembobinons la pellicule. Signaux Faibles vous invite ici à une rétrospective de certaines des plus belles prédictions formulées depuis l’ère industrielle… :

Personne n’est immunisé contre un joli loupé

Ni les économistes, Prix Nobel ou pas

« La croissance d’Internet va ralentir drastiquement, car la plupart des gens n’ont rien à se dire ! D’ici 2005 environ, il deviendra clair que l’impact d’Internet sur l’économie n’est pas plus grand que celui du fax. »

Ce pronostic a été formulé par Paul Krugman en 1998, dans un article intelligemment intitulé « Pourquoi la plupart des prédictions des économistes sont fausses ». Sûr de son fait, il ajoutait ensuite : « avec le ralentissement du taux de changement technologique, le nombre d’offres d’emploi pour spécialistes IT décélèrera, puis se renversera ; dans dix ans, l’expression « économie de l’information » semblera stupide ». 

Dix ans plus tard exactement, en 2008, Paul Krugman remportait le prix Nobel d’économie…pour d’autres analyses fort heureusement.

Ni les plus prestigieux cabinets de conseil en stratégie

Un exemple est resté célèbre en la matière : le cas AT&T et McKinsey.

Au début des années 1980, l’opérateur téléphonique AT&T demanda au (très réputé) cabinet McKinsey d’estimer combien de téléphones portables seraient utilisés dans le monde au tournant du siècle. La conclusion de McKinsey fût sans appel : en raison de défauts rédhibitoires (poids trop important, batteries trop faibles, coût exorbitant …), le téléphone portable ne pouvait pas devenir un succès.

McKinsey estima que seules 900 000 personnes environ utiliseraient en l’an 2000 un téléphone portable ; plus encore, le cabinet pronostiqua que personne n’utiliserait ce type d’appareil si une ligne téléphonique fixe était disponible à proximité. McKinsey recommanda donc à AT&T de se retirer du marché des téléphones portables (coûtant à AT&T, des années plus tard, plusieurs milliards de dollars). Au tournant du siècle, le téléphone portable compta finalement plus de 100 millions d’utilisateurs, soit plus de cent fois le pronostic initial.

Ni les PDG de grandes entreprises

« Le cheval est là pour rester, mais l’automobile est juste une nouveauté, une mode » – le Président de la Michigan Savings Bank conseillant le juriste d’Henry Ford de ne pas investir dans la Ford Motor Company en 1903.

« Il n’y a aucune chance que l’Iphone gagne la moindre part de marché significative » – Steve Ballmer, PDG de Microsoft en 2007

« Netflix, je n’y crois pas. La vidéo à la demande par abonnement, ça ne marchera jamais, il n’y a pas de marché en France » – Bertrand Méheut, PDG de Canal+ en 2013

Ni les dirigeants pourtant pionniers dans leur domaine

« Ce “téléphone” a trop de défauts pour être considéré sérieusement comme un moyen de communication » – William Orton, Président de Western Union [alors leader mondial de la radiocommunication] 1876

«La télévision ne tiendra sur aucun marché plus de six mois. Les gens en auront rapidement assez de regarder tous les soirs une boîte en contreplaqué » – Darryl Zanuck, 20th Century Fox, 1946

« L’idée d’un outil de communication personnel dans la poche de chacun est une chimère, favorisée par la cupidité » – Andy Grove, CEO d’Intel, 1992

« Le modèle de souscription par abonnement pour acheter de la musique est une mauvaise piste. Les gens nous l’ont dit et répété : ils ne veulent pas louer leur musique » – Steve Jobs en 2003

« Je n’ai pas envie de regarder tant de vidéos que cela » – Steve Chen, cofondateur de YouTube exprimant en 2005 ses doutes sur le potentiel de sa plateforme.

Ni même les plus grands scientifiques ou inventeurs

« Le phonographe n’a absolument aucune valeur commerciale » ; « l’engouement pour la radio s’éteindra avec le temps » – Thomas Edison (inventeur de l’ampoule électrique, du phonographe qui deviendra un succès commercial à l’origine de l’industrie du disque, etc.)

« Bien que la télévision soit possible théoriquement et techniquement, elle est pour moi impossible commercialement et financièrement » – Lee DeForest, pionnier des radiocommunications, 1926

« Le cinéma parlant est une invention très intéressante, mais je doute qu’elle reste à la mode bien longtemps » – Louis-Jean Lumière, inventeur du cinématographe, 1929

« Il n’y a pas la moindre indication que nous puissions un jour utiliser l’énergie nucléaire » – Albert Einstein, 1932

« La téléphonie mobile ne remplacera jamais la téléphonie fixe » – Martin Cooper, inventeur du premier téléphone mobile, 1981

« Je prédis qu’Internet sera LA grande nouveauté de 1995 et s’effondrera avec fracas en 1996 » – Robert Metcalfe, co-inventeur d’Ethernet, 1995

***

Si ces prédictions ratées abordent ici surtout l’innovation, en particulier technologique, bien d’autres exemples auraient pu être présentées (finance, politique, etc.) ; pensons par exemple à toutes celles formulées juste avant 2007 qui évacuaient l’hypothèse d’une crise. Mais plutôt que de chercher à rallonger la liste, tentons d’en comprendre les raisons…

Les raisons de ces erreurs

Daniel Jeffries, blogueur américain, a mis en avant dans un article plusieurs facteurs pour expliquer pourquoi les « experts » se trompent ainsi dans leurs prédictions :

1/ Ils consacrent trop peu de temps à un sujet avant de se forger une opinion

…parfois en raison d’excès de confiance en soi. On pense notamment ici à l’effet Dunning-Kruger, dit de la surconfiance, selon lequel les moins qualifiés dans un domaine donné ont tendance à y surestimer leur compétence.

…parfois en raison de paresse intellectuelle. C’est ce qu’explique Nadia Maizi, directrice de recherche aux Mines ParisTech et spécialiste de prospective sur le climat et l’énergie, qui regrette chez de nombreux décideurs une « perte d’effort intellectuel dans les réflexions sur le long terme » (interview sur France Culture dans l’émission Le Grain à Moudre du 3 janvier 2019 : « Peut-on modéliser le futur ? »). Elle insiste sur l’importance, « quand on est dans des réflexions sur le long terme », d’éviter de « capter un chiffre ou un autre parce que c’est celui qui nous intéresse, ou parce que c’est celui qu’on avait au départ », et de bien considérer « l’ensemble des possibles ».

2/ Le futur va à l’encontre de tout ce qu’ils comprennent du monde

Un exemple typique est celui des choix de la France

-de ne pas avoir considéré avec sérieux les travaux du chercheur français Louis Pouzin dans les années 1970, qui préfiguraient pourtant les fondations d’Internet. Poussé par les PTT (ancêtres de France Telecom et La Poste), l’Etat a choisi de couper le financement de ses travaux, qui ont été ensuite en partie repris par le chercheur américain Vinton Cerf pour la mise au point du protocole TCP/IP, fondement d’Internet.

-de s’être obstinée jusque dans les années 1990 à ne pas croire en Internet. Rappelons ici les conclusions du rapport Théry, intitulé « Les autoroutes de l’information », et remis en 1994 au gouvernement (qui voulait se faire un avis sur le potentiel d’Internet) : « il n’existe aucun moyen de facturation sur Internet, si ce n’est l’abonnement à un service. Ce réseau est donc mal adapté à la fourniture de services commerciaux. Le chiffre d’affaires mondial sur les services qu’il engendre ne correspond qu’au douzième de celui du Minitel. Les limites d’Internet démontrent ainsi qu’il ne saurait, dans le long terme, constituer à lui tout seul le réseau d’autoroutes mondial ».

La même année, Jeff Bezos lançait Amazon.

Durant toutes ces années, certaines voix avaient pourtant plaidé pour considérer le potentiel d’Internet. Mais les autorités ont choisi de ne pas en tenir en compte. Pour l’économiste Pierre Sabatier, « entre le Minitel et Internet, ce n’était pas une technologie contre une autre, mais une vision du monde contre une autre. Pour des technocrates français, formés dans une culture centralisatrice et autoritaire, où tout doit venir d’en haut, il était évident que la seule solution viable était la solution centralisatrice et autoritaire du Minitel.

Internet misait au contraire sur l’autonomie des individus, leur esprit d’initiative et d’innovation, hors de tout contrôle, excepté celui qu’ils s’imposent d’eux-mêmes. Un tel système, bordélique et anarchisant, où l’on progresse par essais et erreurs et non selon un plan préétabli, leur était simplement incompréhensible. Logique du contrôle et de la planification contre logique de la liberté individuelle. Dès lors, comment pouvaient-ils prévoir l’explosion de créativité d’Internet, qui est une créativité individualiste ? ».

Il n’est dès lors pas étonnant que le rapport remis en 1994 au premier ministre de l’époque, Edouard Balladur, ait été commandé à trois technocrates français dont l’un était…l’un des inventeurs du minitel ! De l’art de choisir ses experts pour son travail de prospective…

3/ Le futur remet en cause leur position de pouvoir

Un exemple phare est celui de Kodak qui a refusé de voir la puissance du numérique parce que l’entreprise avait tout bâti sur l’argentique. Contrairement à une idée répandue, Kodak n’a pas découvert en retard le numérique : comme l’explique Philippe Silberzahn, professeur d’innovation à l’EM Lyon, « en réalité, Kodak est l’un des tous premiers à avoir activement travaillé à la photo numérique : l’entreprise était très active dans le domaine et est à l’origine de très nombreux brevets. Parfaitement au courant du développement du numérique, puisqu’elle en était l’instigateur, Kodak n’a pas voulu le promouvoir de manière déterminée pour une raison simple : protéger son activité principale de l’époque, la vente de films argentiques ».

Les autres exemples ne manquent pas. Pensons ainsi, de façon plus récente, aux réactions de certains banquiers face aux cryptomonnaies. Jamie Dimon (CEO of JPMorgan Chase, l’un des vétérans de Wall Street) considérait ainsi en 2017 les cryptomonnaies comme une « escroquerie » (avant de « regretter » début 2018 l’emploi du terme quand les cours sont montés, puis de parler de nouveau d’ « arnaque » en août 2018, quand les cours sont redescendus…). Comme l’écrit Daniel Jeffries, « il ne peut pas concevoir un futur avec des cryptomonnaies parce qu’il fait partie des principaux bénéficiaires du système actuel. Il ne veut pas voir, et donc se ment à lui-même. Ce n’est rien d’autre qu’un mécanisme de défense mentale. Interroger ces gens sur les cryptomonnaies, c’est comme demander à un chauffeur de taxi ce qu’il pense d’Uber ou d’un fabricant de calèches ce qu’il pense des voitures. »

Au fond, si l’on en revient au rapport Théry cité plus haut, son raté peut se comprendre aussi sous l’angle de la position de pouvoir menacée : comme l’écrit Philippe Silberzahn, « ce ne serait pas l’histoire d’une erreur, mais d’une tentative désespérée d’empêcher l’avènement d’une technologie pour en défendre une autre » et pour « défendre des intérêts » plutôt que d’autres. Autrement formulé, par Franck Lefevre : « Internet versus Minitel n’est pas un dilemme technique mais un choix politique, idéologique. La position de Thery vise à défendre l’intérêt des systèmes supervisés versus les systèmes auto-organisés, l’intérêt de l’approche interventionniste versus celle misant sur la liberté des acteurs ».

4/ Ils confondent leur opinion avec la réalité

« En France, on n’a pas cru en l’informatique. On a dit que c’était une mode et que ça allait passer. Dans les années 80, dans les grandes écoles, on se demandait si l’informatique était un sujet ou pas. En 1985, à Polytechnique, on se demandait encore s’il fallait l’enseigner » (Gérard Berry, professeur au Collège de France, médaille d’or 2014 du CNRS)

Les biais d’opinions peuvent tordre fortement la capacité à anticiper le futur (ainsi qu’à comprendre le présent…et le passé !). Nadia Maizi (Mines ParisTech) raconte ainsi qu’elle obtient parfois au cours de ses recherches « des résultats pertinents sur le long terme mais qui sont peu audibles », ce qu’elle illustre par un exemple : « en 2011 la Commission Besson a été mise en place juste après Fukushima pour évaluer la politique énergétique française après 2050. Dans les premiers scénarios réalisés avec notre modèle, il était apparu clairement qu’une sortie brutale du nucléaire faisait rentrer des technologies à base de charbon, donc émissives. Mais quand on a montré ça, ça n’a pas plu ».

5/ Ils font preuve d’un grand manque de patience

Dans le domaine de l’innovation, plusieurs décennies sont parfois nécessaires pour qu’une invention prenne toute sa mesure (trouve son usage, rencontre son marché, soit utilisée au mieux). Dans certains cas, ce temps est incompressible en raison de la nature même du processus d’innovation, qui implique de tâtonner dans l’usage d’une invention donnée. Deux exemples, parmi de multiples autres, l’illustrent :

-Le microscope : comme l’explique Philippe Silberzahn, « le microscope a permis de découvrir les microbes et de changer notre vision du monde du vivant, mais il a fallu presque 200 ans entre l’invention du premier microscope et l’émergence de la théorie des microbes ; 200 ans pour adapter notre modèle mental à la nouvelle technologie et ses possibles ! ».

-Le Velcro (scratch) : « L’idée est venue à son inventeur pour la première fois en 1941. Le concept n’a pleinement pris racine dans son esprit que sept ans plus tard. Il a commencé à créer les petits crochets en 1948 et il lui a fallu dix ans pour le faire fonctionner et le produire en masse. Après avoir ouvert son entreprise à la fin des années 1950, il s’attendait à une forte demande immédiate. Ce n’est pas arrivé. Il a fallu cinq autres années avant que le programme spatial dans les années 1960 ne perçoive le Velcro comme un moyen de résoudre un problème : comment faire entrer et sortir les astronautes de combinaisons spatiales encombrantes et peu maniables ? Peu de temps après, l’industrie du ski a remarqué qu’il pouvait fonctionner sur les chaussures. De l’idée initiale à la réussite commerciale il aura fallu 25 ans. » (Daniel Jeffries)

***

Ces facteurs explicatifs ne sont certainement pas exhaustifs. D’autres pourraient être avancés : par exemple, il arrive fréquemment qu’un interlocuteur ait un intérêt particulier à mettre en avant un certain futur plutôt que d’autres – quitte à l’exagérer sciemment, parfois en tordant des chiffres pour en prendre les plus extrêmes. Citons par exemple le fameux chiffre de 47% des emplois qui seraient menacés par l’automatisation. Il est issu d’une étude de deux chercheurs de l’Université d’Oxford, qui a été extrêmement partagée, avec parfois peu de pincettes. Or de nombreuses autres études parviennent à des chiffres bien différents. L’OCDE, en revoyant la méthodologie de cette même étude, est arrivée au chiffre bien moins spectaculaire – qui reste tout de même préoccupant – de 9%. Un chiffre bien moins vendeur pour un certain nombre d’acteurs (cabinets de conseil en transformation digitale, essayiste jouant sur les peurs liées à la technologie…) qui peuvent avoir intérêt à accentuer la réalité.

Les leçons à en tirer

Les facteurs cités ci-dessus conduisent à plusieurs leçons en matière de prospective.

Sans chercher à être exhaustif, citons-en 4 ici.

1. Se méfier des jugements hâtifs

Savoir faire preuve d’humilité et de patience aussi bien dans ses recherches (cf l’excès de confiance) que dans l’observation d’un phénomène (exemple du Velcro) : cette règle, qui semble évidente en théorie, n’est pas toujours appliquée en pratique comme le montrent les multiples prédictions très assertives citées plus haut. Dans bien des cas, le problème ne tient pas tant à l’erreur d’analyse, qui peut tout à fait s’entendre, qu’à l’absence de doutes sur les prédictions exprimées.

En particulier, il convient d’être très prudent avant d’affirmer qu’une innovation donnée ne connaîtra pas la réussite, qu’un changement spécifique ne pourra pas se produire, qu’un événement potentiel ne pourra pas survenir…

Dans le New York Times en 1939, un article expliquait par exemple « pourquoi la télévision ne marchera pas » : « la famille américaine moyenne n’a pas le temps pour ça »


Au fond, il s’agit plus simplement de ne pas rejeter trop vite ce qui peut sembler anecdotique au premier regard…

Ainsi, pour l’investisseur Chris Dixon, « la prochaine “big thing” commence toujours par être vue comme un gadget. C’est l’un des principaux enseignements de la théorie de Clay Christensen sur les « technologies de rupture » [Christensen est l’auteur du « Dilemme de l’innovateur » paru en 1997 et considéré comme une référence sur l’innovation]. Cette théorie part d’une observation : les technologies tendent à s’améliorer à un rythme plus rapide que le développement des besoins des usagers. De ce simple enseignement suivent un ensemble de conclusions intéressantes. (…) Les technologies de ruptures sont vues comme des gadgets car quand elles sont lancées, elles ne répondent pas encore aux besoins des usagers. »

Les grandes innovations sont toujours vues au départ comme des gadgets (Chris Dixon)

Parmi de multiples exemples (l’ordinateur personnel, la téléphonie sur IP, etc.), il cite celui du « premier téléphone », qui « ne pouvait porter des voix que sur deux ou trois kilomètres » : « le leader en télécommunication de l’époque, Western Union, n’a pas voulu s’y lancer parce qu’il ne voyait pas comment le téléphone pouvait être utile aux entreprises et aux chemins de fer – leurs principaux clients. Western Union n’a pas anticipé la rapidité avec laquelle la technologie du téléphone et son infrastructure se sont améliorées ».

2. Arrêter de croire que les évolutions sont forcément linéaires

Ce que Western Union n’a pas saisi à l’époque, écrit Chris Dixon, tient à une caractéristique du secteur technologique : l’adoption des technologies s’effectue souvent de façon non-linéaire, en raison des effets de réseau capable d’accélérer cette adoption.

Or cette non-linéarité se retrouve dans bien d’autres domaines que la technologie.

Prenons par exemple le cas du climat. Contrairement à une idée (parfois) reçue, le dérèglement climatique n’est pas amené à progresser de façon linéaire (« + 1 degré tous les x années », si la trajectoire actuelle reste la même). Deux phénomènes permettent de l’expliquer.

D’une part, le dérèglement franchit des effets de seuil à partir desquels peuvent s’activer brutalement certains phénomènes. Pablo Servigne et Raphaël Stevens citent deux exemples dans leur ouvrage évoqué précédemment sur Signaux Faibles :

  1. « Un lac peut passer rapidement d’un état translucide à totalement opaque à cause d’une pression de pêche constante. La diminution progressive du nombre de grands poissons provoque, à un moment précis, un effet de cascade sur tout le réseau alimentaire, ce qui en bout de course mène à une prolifération très soudaine et généralisée de microalgues. Ce nouvel état, très stable, est ensuite difficile à inverser ».
  2. « Dans les forêts des régions semi-arides, il suffit de dépasser un certain niveau de disparition du couvert végétal pour que les sols s’assèchent un peu trop et provoquent l’apparition brutale d’un désert, qui empêche toute végétation de repousser. C’est ce qui s’est passé pour le Sahara lorsqu’il y a 5000 ans la forêt est soudainement devenue un désert, ou actuellement en Amazonie où une transition similaire est probablement en train de s’amorcer ».

D’autre part, le dérèglement produit des « effets en cascade ». « Une équipe de climatologues a recensé 14 « éléments de basculement climatique » susceptibles de passer ces points de rupture (permafrost de Sibérie, forêt amazonienne, calottes glaciaires…). Chacun d’eux est capable – à lui seul – d’accélérer le changement climatique…et en plus de déclencher les autres. (…) Un système complexe vivant est en effet constitué d’innombrables boucles de rétroaction entrelacées. A l’approche d’un point de rupture, il suffit d’une petite perturbation pour que certaines boucles changent de nature et entraînent l’ensemble du système dans un chaos imprévisible et souvent irréversible ».

Quiconque s’essaie à l’exercice périlleux de la prospective en matière climatique (notamment pour tenter d’anticiper ses impacts sociaux, migratoires, économiques, géopolitique, etc.) ne saurait donc miser sur une progression linéaire du dérèglement en cours.

De façon générale, l’essayiste Nassim Taleb souligne bien dans son ouvrage « Le Cygne Noir » – paru quelques mois avant l’éclatement de la crise de 2007 – l’importance des événements aléatoires, hautement improbables et à ce titre trop souvent exclus des raisonnements d’anticipation, alors qu’ils jouent un rôle considérable dans l’Histoire. Il montre la quasi-impossibilité de calculer avec des méthodes scientifiques la probabilité de ces événements : « c’est le travers des économistes et des scientifiques que de vouloir soumettre leurs observations aux règles mathématiques et prétendre ainsi prévoir les événements avec la certitude des lois de la probabilité. Or le monde n’est pas prévisible. L’histoire est plutôt déterminée par des événements extraordinaires et imprévus, mais dont le caractère surprenant disparaît dès que l’événement est survenu », considère-t-il (extrait d’une note sur l’ouvrage sur cairn.info).

Taleb définit ainsi trois critères définissant un cygne noir : « l’événement est une surprise pour l’observateur (a), a des conséquences majeures (b), et est rationalisé a posteriori comme s’il avait pu être attendu (c). Cette rationalisation rétrospective vient du fait que les informations qui auraient permis de prévoir l’événement étaient déjà présentes, mais pas prises en compte par les programmes d’atténuation du risque ».

La notion de cygne noir n’est finalement rien d’autre que l’illustration d’un biais cognitif, celui qui rend aveugle à l’incertitude, lui-même lié à d’autres biais (surconfiance ; biais de confirmation ; etc.). Taleb va jusqu’à dire que « l’avenir est un pur hasard : on perd son temps à le prédire », car il y aura toujours des variables qui nous échappent. Il recommande tout de même cependant :

  • d’une part d’envisager le maximum de possibilités (par opposition à l’attachement à une seule vision des choses, quand bien même celle-ci apparaîtrait comme la plus probable)
  • d’être le plus conscient possible de notre rationalité limitée et de l’existence d’informations dont nous n’avons pas connaissance.

C’est cette méthode qui permet selon Taleb non pas de « prédire l’avenir » mais d’anticiper au mieux les risques, et en définitive de nous aider à faire de meilleurs choix pour l’avenir – ce qui est, finalement, l’un des objectifs de la prospective.

3. Reconnaître et surmonter ses biais

L’exercice de la prospective implique d’être lucide sur ses a priori, d’avoir conscience de ses biais et d’essayer de les surmonter. Comme l’explique Cécile Wendling, sociologue des risques et directrice de la prospective du groupe Axa : « Il faut très bien connaître l’histoire et le présent pour faire de la prospective. Il faut regarder autant d’années en arrière qu’on regarde en avant, pour éviter le biais de surévaluer l’activité récente. [De façon générale] il est essentiel d’avoir conscience de ses propres biais, par exemple le biais présentiste (surévaluer l’actualité) ou le biais culturel (sa sphère géographique, son secteur d’activité, les médias que l’on suit, etc.), et de les surmonter (s’informer sur d’autres aires géographiques, etc.) » (interview sur France Culture le 3 janvier dernier).

Un biais classique de prospective, dans lequel tombent parfois les acteurs de l’innovation, est ainsi de faire de la technologie le moteur de la plupart des (r)évolutions, ce qui est loin de se vérifier (lire plus bas « Ce qui pèche souvent »).

Un autre biais, courant, consiste à voir le monde de façon statique… :

« Quand les experts se trompent, c’est souvent parce qu’ils sont experts d’une version précédente du monde. (…) Pouvez-vous vous protéger contre des croyances obsolètes ? Dans une certaine mesure, oui. La première étape est de croire au changement. Les personnes qui sont victimes d’une confiance excessive dans leurs propres opinions concluent implicitement que le monde est statique. Si vous vous rappelez consciencieusement qu’il ne l’est pas, vous commencez à chercher le changement ». – Paul Graham


4. Etendre son regard

« Quand on me demande en interview de prédire le futur, j’ai toujours du mal à dire quelque chose de plausible. Mon astuce habituelle est de parler d’aspects du présent que la plupart des gens n’ont pas encore remarqués. Les croyances sur le futur sont si rarement correctes que la meilleure stratégie [pour anticiper ce futur] consiste simplement à être extrêmement ouvert d’esprit. Au lieu d’essayer de vous diriger dans la bonne direction, admettez que vous n’avez aucune idée de la bonne direction et essayez plutôt d’être extrêmement sensible au vent du changement ». – Paul Graham


Etendre son regard, notamment pour tenter de repérer des mouvements émergents, implique ainsi souvent d’observer les marges – qu’il s’agisse de personnes en marge ou de façons de vivre, de lieux ou de temporalités qui ne sont pas (encore) sous le feu des projecteurs.

L’investisseur Chris Dixon estime par exemple que « les hobbys sont ce dans quoi les gens les plus intelligents passent leur temps quand ils ne sont pas contraints par des objectifs financiers de court terme. Leurs hobbys d’aujourd’hui constituent ce qui nourrit les industries de demain. Ce que font les gens les plus intelligents pendant leurs week-ends est ce que tous les autres feront durant leurs semaines dans 10 ans ».

Pensons ainsi à cette phrase écrite en 1991 par Linus Torvalds, créateur du système d’exploitation Linux, au moment d’annoncer son modeste projet personnel afin d’obtenir des premiers avis : « Je suis en train de faire un système d’exploitation (gratuit, c’est juste un hobby, ça ne va pas devenir grand et professionnel) ».

Etendre son regard peut aussi passer par des œuvres fictionnelles, notamment de science-fiction ou d’anticipation. Les exemples d’auteurs de romans ayant prédit ou anticipé des accomplissements futurs (voire contribué à leur émergence ?) sont multiples, de Jules Verne à H.G. Wells. Il est évidemment facile de revenir après coup sur des œuvres passées en y voyant la trace de prédictions avérées justes. La science-fiction ou l’anticipation ne doivent pas être vues comme des boules de cristal mais comme des moyens d’ouvrir son regard et de concevoir, par l’imaginaire, des situations encore impensées.

Dans la littérature contemporaine, un auteur français comme Alain Damasio est reconnu pour son travail autour de futurs possibles et dystopiques liés à l’avènement d’une société de contrôle, tandis que du côté américain, un roman comme « Dans la forêt » de l’auteure Jean Hegland, sorti dans les années 1990 (étonnamment traduit en français seulement en 2017), offre une vue remarquable – inatteignable par des essais, rapports, conférences – de ce que donnerait concrètement, humainement, un effondrement de civilisation, bien loin des représentations spectaculaires véhiculées par Hollywood. 

Au-delà de la fiction, c’est toute la sphère de l’imaginaire qui est actionnable, ce qui peut aussi passer par des voyages, des rencontres, etc. L’imaginaire permet de se représenter des actions ou événements en apparence inconcevables en réalité – comme, par exemple, l’attaque de Pearl Harbor en 1941… :

« Dans ses travaux pionniers sur l’attaque surprise de la base américaine de Pearl Harbor par les japonais le 7 décembre 1941, la chercheuse américaine Roberta Wohlstetter a montré que cet échec ne pouvait pas être mis sur le compte d’un manque d’attention aux signaux faibles. En effet, la marine américaine avait déchiffré les codes de la marine japonaise. Elle disposait donc de signaux massifs sous la forme de conversations des amiraux japonais. Mais elle trouvait l’hypothèse d’une attaque de Pearl Harbor tellement absurde qu’elle a refusé de l’envisager. Un exercice sur ce thème au printemps 1941 a même été refusé. » – Extrait de l’ouvrage « Bienvenue en incertitude ! » de Philippe Silberzahn


Enfin, étendre son regard peut – si ce n’est doit – passer par étudier l’Histoire, en particulier les façons dont les populations ont réagi à certains événements ou périodes donnés.

Cependant, gare, là encore, aux jugements hâtifs…

Ce qui pèche souvent

« La futurologie se trompe presque toujours car elle prend rarement en compte les changements de comportements », selon l’historienne Judith Flanders. Nous ne regarderions pas les bonnes choses : « le transport pour aller au travail, plutôt que la forme du travail ; la technologie, plutôt que les changements de comportement engendrés par la technologie » ; etc.

Dans la première moitié du XXe siècle, les États-Unis encadraient juridiquement les endroits où il était permis de cracher dans les trains, les gares et les quais. Un colloque tenu à Washington en 1917 ordonnait ainsi qu’« un nombre suffisant de crachoirs soit prévu » dans les wagons de train. Aujourd’hui, le terme américain « cuspidor » (« crachoir ») et l’objet ont pratiquement disparu. Sa disparition n’est pas due à l’obsolescence de certaines technologies, mais bien parce que les comportements ont évolué.

Dans l’histoire plus contemporaine, Terry Grim, professeur au sein du programme « Etudes du futur » à l’Université de Houston, se rappelle d’une vidéo des années 1960 sur le « bureau du futur » : « tout était presque juste, avec la vision de l’ordinateur et d’autres outils technologiques à venir. Mais il manquait une chose : il n’y avait pas de femmes dans le bureau ».

En France, les archives de l’INA sont une mine d’or pour se (re)plonger dans l’état d’esprit qui prévalait dans la société de la deuxième moitié du XXe siècle. On y retrouve des vidéos parfois stupéfiantes – en témoigne, par exemple, ce reportage de 1976 qui demande à plusieurs hommes leurs avis les viols de jeunes femmes en autostop, dont ce témoignage du président de la cour d’appel de Paris :

« Il faut tenir compte du fait que la victime a pris un risque en montant dans une voiture avec un garçon qu’elle ne connaissait pas. Pensons à un automobiliste qui voit passer sur la route une jeune fille dont la silhouette lui plaît, qui s’arrête et qui la viole : il est certain que la peine doit être plus forte pour celui qui n’a pas été provoqué. L’attitude de la victime doit entrer en compte. [Parfois] c’est une provocation indirecte. Les hommes sont ce qu’ils sont : il faut éviter d’allumer un garçon et de lui faire espérer une suite favorable. »


La société des années 1970 pouvait-elle s’imaginer que de tels propos, qui manifestement ne semblaient alors pas choquer particulièrement, deviennent inconcevables quarante ans plus tard, a fortiori venant d’un magistrat ?

Pour l’auteur Lawrence Samuel, le progrès social est le « talon d’Achille » de la futurologie. Il estime que l’on oublie trop souvent cette remarque de l’historien britannique Arnold Toynbee : ce sont les idées, et non la technologie, qui ont entraîné les plus grands changements historiques.

Parfois, les éléments déclencheurs de changements culturels semblent d’abord insignifiants. Dans son ouvrage « Le Pouvoir des habitudes », l’auteur Charles Duhigg montre que l’évolution des droits des homosexuels aux États-Unis a été accélérée par un changement en apparence anecdotique : la bibliothèque du Congrès américain (considérée comme la bibliothèque nationale américaine), qui classait jusqu’alors les livres sur le mouvement homosexuel dans la catégorie «Relations sexuelles anormales, dont crimes sexuels », a décidé de les déplacer dans une catégorie intitulée « Homosexualité, lesbianisme, libération gay ». Ce petit changement a créé un effet d’entraînement. Un an plus tard, l’American Psychiatric Association cessa par exemple de définir l’homosexualité comme une maladie mentale.

On le voit bien : envisager le futur ne peut se faire sans étude des mouvements sociaux et des évolutions de mentalités, et plus globalement sans prise en compte des sciences sociales, au-delà du suivi des avancées technologiques. Un exemple est éloquent en la matière : lorsque les premiers ascenseurs automatiques sont apparus, les usagers étaient inquiets à l’idée de les utiliser. Malgré la supposée fiabilité de ces appareils, ils ne pouvaient s’empêcher de craindre de possibles accidents. A l’aune de ces réactions, on devine par exemple qu’à l’avenir, l’usage massif de voitures entièrement autonomes ne démarrera pas seulement le jour où ces véhicules seront prêts et la législation adaptée, mais aussi et surtout lorsque les individus se sentiront sereins à l’idée de les utiliser.

Si l’évolution des comportements est parfois sous-estimée à l’heure d’envisager l’avenir, il arrive donc aussi qu’elle soit tenue pour acquise un peu rapidement.

A cet égard, un exercice intéressant consiste à réfléchir à ce qui reste stable dans le temps…ce qui n’est pas forcément intuitif : « nous faisons plus attention à ce qui change qu’à ce qui joue un plus grand rôle mais ne change pas » écrit ainsi Nassim Taleb dans son ouvrage « Antifragile ».

Jeff Bezos, fondateur d’Amazon, a un jour expliqué qu’il déterminait la stratégie du géant du e-commerce en fonction de ce qu’il appelle les « signaux stables » : « On m’a souvent posé cette question : ‘Qu’est-ce qui changera dans les dix prochaines années ?’. C’est une question très intéressante, mais très commune. En revanche, on ne m’a jamais demandé : ‘Qu’est-ce qui ne va pas changer dans les dix prochaines années ?’. Or pour moi, cette deuxième question est la plus importante puisqu’elle permet de construire une stratégie autour de ce qui reste stable dans le temps. Toute l’énergie et les efforts que nous mettons chez Amazon dans ces signaux stables porteront encore leurs fruits dans dix ans ».

Conclusion

La prospective, qui consiste à investiguer des futurs possibles, n’est pas l’art de la prédiction. Si les prédictions s’avèrent souvent fausses, c’est simplement parce que vouloir prédire l’avenir est vain, comme le souligne Nassim Taleb (et bien d’autres).

La prospective n’est pas non plus la prévision. Prévoir, c’est « modéliser le réel pour en déduire un futur probable » (Bernard Georges), souvent à court ou moyen terme. « A la différence de la prévision, liée à des modèles de continuité, la prospective est liée à des modèles de rupture » explique Cécile Wendling, responsable de la prospective du groupe Axa. « Sur le sujet du travail, par exemple, il est possible d’effectuer des prévisions d’évolution du taux de chômage à horizon deux semaines ou deux mois ; la prospective sur le travail, elle, nécessite de réinterroger les CSP que l’on utilise ».

Les deux exercices sont complémentaires, et la prospective se nourrit d’ailleurs d’une part de « récits, où l’on combine tendances et signaux faibles pour comprendre comment un sujet donné peut évoluer dans le temps », d’autre part de « modèles mathématiques de prévisions sur le court et moyen terme ».

Oser penser le temps long

Aujourd’hui, la prospective, cet exercice qui demande de « détecter dans le présent des […] germes du futur, déjà » comme le formule la spécialiste Édith Heurgon, n’a pas forcément bonne presse. Elle est pourtant vitale pour anticiper au mieux les risques (et opportunités) de moyen et long terme, les mouvements de fond parfois discrets mais structurels, les ruptures à venir.

L’époque est à la croyance – parfois immodérée – dans le pouvoir du Big Data et de l’intelligence artificielle. Leur puissance ne saurait être négligée ; mais ces outils statistiques et technologiques relèvent de la prévision, du domaine de l’estimation probable. Ils butent sur l’incertitude, sur les fameux « cygnes noirs » dont la sous-estimation a conduit à la stupéfaction lors de l’éclatement de la crise de 2007/2008.

La prospective doit être réhabilitée et refaire place à tous les niveaux (l’échelon de l’entreprise, d’un secteur économique, de l’Etat…). Il en va de notre capacité à penser l’incertitude et à anticiper les enjeux qui dépassent le temps politique et les contraintes économiques de court terme.

Certaines puissances, comme la Chine, l’ont bien intégré. En France, l’organisme France Stratégie, placée sous l’autorité du Premier Ministre, est censé remplir ce rôle. Il peine toutefois à s’y consacrer pleinement, ayant également d’autres missions essentielles à remplir, de plus court terme (organisation de concertation, évaluation des politiques publiques…). La France manque d’un centre de pointe entièrement dédié à la prospective. Le coût d’opportunité en est probablement considérable et se paiera sur le long terme.

Ce coût se manifeste d’ailleurs dès aujourd’hui, par exemple dans le numérique, domaine longtemps sous-estimé (et ce depuis ses débuts, puisque dans les années 70 « Internet était considéré en France comme un gadget de chercheur : il n’y avait pas d’argent, pas de reconnaissance » raconte le chercheur Louis Pouzin). Or le fait qu’en 2019 l’innovation de rupture soit, globalement, vue en France sous le seul angle de l’intelligence artificielle n’incite pas à l’optimisme pour la suite…

Diversifier

Le monde de l’entreprise, lui aussi, peine parfois à mener des réflexions prospectives. Le réflexe d’externaliser ce travail à des cabinets de conseil, de façon parfois systématique, en est un signe révélateur. S’appuyer sur des expertises extérieures peut être utile, mais il importe alors

  • d’une part de faire appel à différentes façons de penser et d’anticiper l’avenir.
  • d’autre part de développer en parallèle, en interne, une culture favorable à la diversité de points de vue – ce qui passe souvent par une diversité d’expériences, de cultures, de personnalités.

La transformation d’une entreprise ne peut se faire sans esprits capables de penser différemment. Si cette évidence relève aujourd’hui presque du lieu commun, poussé notamment par une communication corporate se voulant « disruptive », la réalité est souvent différente en pratique, comme l’exprime Philippe Silberzahn avec justesse ici :

« En filtrant les outsiders, les marginaux et ceux qui ne rentrent pas dans le cadre, l’entreprise gagne une fiabilité et une prédictibilité, gage de sa performance. (…) Et puis un jour survient une rupture. La révolution digitale, le big data, l’uberisation, les barbares sont à nos portes! Et quand la bise fut venue, l’entreprise se trouve fort dépourvue. Car tout d’un coup Boum! Crack! Elle veut des innovateurs! Des gens qui sortent du cadre! « Innovez! » comme lançait récemment devant moi un PDG à son assemblée d’employés médusés. (…)
Mais il n’y a pas de miracle en management. Seulement des choix stratégiques. Et rien n’est plus stratégique que de décider qui on recrute, qui on garde et qui on promeut
. »

Dès lors, comme il l’écrit, « le recrutement de profils fonctionnels et conformes au modèle en place est une nécessité, mais le développement d’une diversité est indispensable si l’entreprise veut pouvoir évoluer et se transformer. La création de cette diversité, et non le filtrage des marginaux, telle devrait être la mission stratégique de la RH ».

Terminons sur deux remarques pour ouvrir le débat…

…au niveau de l’entreprise, quel crédit accorder aux cabinets qui conseillent les entreprises sur leur transformation digitale lorsqu’eux-mêmes ne l’ont pas réalisée ?

…au niveau de l’Etat, quel crédit accorder, par exemple, au jury de l’ENA qui déplore publiquement le « conformisme », le « manque d’imagination » et « la pensée stéréotypée » de ses candidats alors même que tout écart de pensée et toute tentative de créativité se voient souvent sévèrement réprimés lors du concours ?

Ces incohérences, parmi d’autres, doivent nous interroger. Pour les décideurs du public comme du privé, si prédire l’avenir est vain, tenter d’anticiper des futurs possibles reste un impératif, dont la bonne exécution est en large partie une question de choix de personnes. Ces choix sont ceux qui permettent – ou non – d’éviter de dire, un jour, qu’« Internet, on s’en fout, ça ne marchera jamais »…

Clément Jeanneau

09.02.2019 à 12:07

L’Age du capitalisme de surveillance

signauxfaiblesco

2019 n’a commencé que depuis quelques semaines mais certains estiment que nous tenons déjà l’un des livres les plus importants de l’année. L’ouvrage en question s’intitule « L’Age du capitalisme de surveillance » et a été écrit par Shoshana Zuboff, professeure émérite à la Harvard Business School. De quel problème s’agit-il ? De l’avènement d’une nouvelle ère […]
Texte intégral (4949 mots)

2019 n’a commencé que depuis quelques semaines mais certains estiment que nous tenons déjà l’un des livres les plus importants de l’année.

L’ouvrage en question s’intitule « L’Age du capitalisme de surveillance » et a été écrit par Shoshana Zuboff, professeure émérite à la Harvard Business School.

De quel problème s’agit-il ? De l’avènement d’une nouvelle ère du capitalisme, celle de la surveillance, d’abord ouverte par le secteur numérique et en passe de s’étendre largement au-delà. Zuboff porte une vision très noire sur ce basculement, qui menace jusqu’à la démocratie, estime-t-elle.

Les éloges pleuvent sur ce pavé de plus de 600 pages paru mi-janvier aux Etats-Unis, fin janvier au Royaume-Uni : The Guardian, qui parle d’un livre « frappant et éclairant », qualifie sa publication « d’événement très important » ; le Financial Times le qualifie de « révolutionnaire, magistral, alarmant…incontournable » ; même le très libéral Wall Street Journal considère qu’il s’agit d’« un ouvrage rare qui met un nom sur un problème devenant critique ».

Si les idées de Zuboff ne sont pas fondamentalement nouvelles, elle met les mots sur une réalité perçue de façon souvent incomplète voire superficielle. Sa thèse, qui suscitera certainement des critiques tant elle est orientée (voire caricaturale dans sa démonstration, jugeront certains), force néanmoins chacun à se poser des questions clefs et pourtant souvent trop vite évacuées. Comme l’écrit le Wall Street Journal : « l’apport majeur de ce livre est de mettre des mots sur le phénomène en cours, de le replacer dans une perspective culturelle et historique, et de nous inviter à prendre le temps de réfléchir au futur ».

Que nous dit Zuboff ? Que la notion de « capitalisme de surveillance » – expression qu’elle a popularisée dans un article en 2014 – est encore mal comprise : bien plus que d’une (r)évolution numérique, il s’agit d’une nouvelle ère du capitalisme qui a trouvé comment exploiter la technologie à ses fins.

« La technologie est juste la marionnette : le capitalisme de surveillance est celui qui tire les ficelles. (…) Il est impossible d’imaginer le capitalisme de surveillance sans numérique, mais il est facile d’imaginer le numérique sans capitalisme de surveillance. Ce capitalisme n’équivaut pas la technologie. Il repose sur les algorithmes, l’intelligence artificielle, etc., mais il n’est pas la même chose que chacune de ces technologies-là ».

Les modèles d’affaires des géants du numérique sont aujourd’hui bien connus mais Zuboff les replace dans un contexte plus large : selon elle, il ne s’agit pas seulement d’algorithmes complexes mais de la dernière phase de la longue évolution du capitalisme. Après la production de masse, le capitalisme managérial, l’économie des services, le capitalisme financier, nous serions entrés dans une nouvelle ère du capitalisme, fondée sur l’exploitation des prédictions comportementales issues de la surveillance des utilisateurs. En ce sens, The Guardian situe son livre dans « la continuation » des analyses sur le capitalisme produites « par Adam Smith, Max Weber, Karl Polanyi et Karl Marx ».

« Le capitalisme de surveillance s’approprie l’expérience humaine comme matière première gratuite et la traduit en données comportementales. Même si certaines de ces données servent à améliorer des services, le reste est utilisé comme surplus comportemental, intégré dans des processus de « machine intelligence » avancés puis transformés en produits prédictifs qui anticipent ce que vous voudrez faire maintenant, bientôt et plus tard. Au bout du compte, ces produits prédictifs sont échangés sur une nouvelle forme de places de marché que j’appelle marchés futurs comportementaux ».

Ainsi, le fameux adage « si c’est gratuit, c’est que vous êtes le produit » est incorrect pour Zuboff.  Au lieu d’être le produit, l’utilisateur est un rouage du véritable produit : les prédictions sur son futur, vendu au plus offrant.

Une nouvelle ère ouverte en 2001

Zuboff situe l’émergence du capitalisme de surveillance aux débuts des années 2000 : selon elle, celui-ci a été inventé et perfectionné par Google de la même façon que la Ford Motor Company avait inventé et perfectionné la production de masse et que General Motors avait inventé et perfectionné le capitalisme managérial.

Elle raconte que ce nouveau capitalisme a été inventé vers 2001 et a d’abord servi de solution d’urgence pour Google, dont la situation financière commençait à se compliquer suite à l’explosion de la bulle Internet. Faisant face à une perte de confiance de leurs investisseurs, et à une pression grandissante de ces derniers, les dirigeants de Google choisirent d’abandonner la position critique qu’ils tenaient publiquement jusqu’alors contre la publicité. A la place, ils décidèrent de booster leurs revenus publicitaires en tirant profit de leur accès exclusif aux données de leurs utilisateurs et en les combinant avec leurs capacités analytiques et leur puissance de calcul déjà existantes. L’idée sous-jacente : générer des prédictions sur le taux de clic des utilisateurs, considéré comme un signal de pertinence d’une publicité.

Dès lors, l’objectif de Google devint le suivant : exploiter au maximum le surplus de données comportementales et développer des méthodes pour trouver de nouvelles sources de ce surplus.

« Google a mis au point de nouvelles méthodes de capture de ce surplus, capables de dévoiler des données que les utilisateurs ont délibérément choisi de garder confidentielles et de déduire des informations personnelles que les utilisateurs ne fournissent pas ou ne souhaitent pas fournir. L’objectif est ensuite d’analyser ce surplus pour rechercher des significations cachées pouvant prédire les futurs clics. Les données liées à ce surplus sont devenues la base des nouveaux marchés prédictifs : la publicité ciblée. »

C’est donc vers 2001, écrit Zuboff, que la recette du capitalisme de surveillance voit le jour : un mélange inédit (et lucratif) de surplus comportemental, sciences de la donnée, infrastructure matérielle, puissance de calcul et plateformes automatisées.

Comme elle le raconte, ce n’est qu’en 2004, quand Google entre en Bourse, que la puissance de ces nouveaux mécanismes prend publiquement toute sa mesure : l’entreprise révèle alors que ses revenus ont augmenté de 3590% depuis 2001.

La publicité n’était que la première étape

Au XXe siècle, l’ère de la production de masse avait démarré avec la fabrication de la Ford Model T avant de s’étendre au reste de l’économie. De la même façon, le capitalisme de surveillance a commencé au début du XXIe siècle avec la publicité en ligne, mais s’étend désormais bien au-delà. Rapidement devenu le modèle par défaut des entreprises de la Silicon Valley, le capitalisme de surveillance n’est aujourd’hui plus limité au secteur numérique, puisqu’il touche, explique Zuboff, de multiples secteurs : assurance, distribution, soins, finance, divertissement, éducation, transports… « Presque chaque produit ou service qui commence par le mot « smart » ou « personnalisé », chaque « assistant digital », est simplement un maillon d’une chaîne logistique où transitent un flux de données comportementales destinées à prédire nos futurs » écrit-elle.

Les acteurs de ce capitalisme se sont peu à peu perfectionnés. « Ils ont d’abord appris que plus ils récoltent de surplus, plus leurs prédictions sont bonnes, ce qui leur permet de générer des économies d’échelle. Ils ont ensuite découvert que plus le surplus est varié, plus les prédictions gagnent en valeur ». De là, selon elle, les efforts de ces acteurs pour passer de l’ordinateur au mobile, qui se retrouve partout : « conduite en voiture, achats, joggings, recherche de place de parking, santé, beauté…et toujours, toujours, la localisation ».

Mais ces acteurs ne se sont pas arrêtés là. Analyser les données pour prédire les comportements n’était qu’une première étape : la frontière ultime, pour Zuboff, repose sur « les systèmes conçus pour modifier les comportements, afin d’orienter ceux-ci vers des résultats commerciaux désirés ». Elle cite notamment deux exemples en ce sens :
-les tests de Facebook pour influencer les émotions de leurs utilisateurs en manipulant leurs fils d’actualité (tests effectués en 2014 sur plus de 600 000 utilisateurs, qui se sont révélés très concluants) ;
-le jeu de réalité augmentée Pokémon Go où des joueurs étaient amenés sans en avoir conscience à devoir se rendre dans des magasins (du monde physique) pour capturer des Pokémon. Les concepteurs du jeu avaient créé un système d’enchères destiné aux marques, permettant de guider les joueurs vers celles prêtes à payer le plus cher.

« Il ne suffit plus d’automatiser les flux d’informations nous concernant ; l’objectif est maintenant de nous automatiser » assène-t-elle, en soulignant les stratégies mises en place pour éviter le consentement des utilisateurs : « ces processus sont méticuleusement conçus pour produire de l’ignorance en contournant la prise de conscience individuelle et en éliminant toute possibilité de libre-arbitre ». Elle cite un data scientist rencontré durant ses travaux : « nous pouvons programmer le contexte qui entoure un comportement particulier afin d’imposer un changement ».

Pourquoi c’est une menace pour la démocratie et la société

Ce pouvoir d’influencer nos comportements « n’a aucun fondement démocratique ni légitimité morale », juge-t-elle, « puisqu’il usurpe nos droits décisionnels et érode notre autonomie individuelle, pourtant essentielle dans une société démocratique ».

Par « droits décisionnels », Zuboff entend notre capacité à défendre nos propres futurs, qui se retrouvent aujourd’hui manipulés par les systèmes prédictifs. Enutilisant les services du capitalisme de surveillance, les individus acceptent bien plus que la seule perte de contrôle sur leurs données : ils placent la trajectoire de leur vie, la détermination de leur voie, sous le contrôle du marché, de la même façon que les joueurs de Pokémon Go, guidés par leurs écrans, franchissent les portes de magasins sans avoir pris conscience de s’être fait quasiment piloter à distance.

Pour Zuboff, le problème fondamental de cette nouvelle ère capitaliste est bien son danger sur la démocratie : « La démocratie s’est endormie pendant que les capitalistes de la surveillance ont accumulé une concentration inédite de connaissances et de pouvoir. (…) Nous entrons dans le XXIe siècle marqués par cette profonde inégalité dans la division des apprentissages : ils en savent plus sur nous que nous en savons sur nous-mêmes ou que nous en savons à leur sujet. Ces nouvelles formes d’inégalité sociale sont par nature antidémocratiques. »

Dans The Guardian, l’éditorialiste John Naughton écrit : « La combinaison de la surveillance par l’Etat et par son équivalent capitaliste signifie que la technologie sépare les citoyens en deux groupes : les observateurs (invisibles, inconnus, non-responsables) et les observés. Les conséquences sur la démocratie sont profondes car l’asymétrie de savoir se traduit en asymétrie de pouvoir. Mais là où la plupart des sociétés démocratiques ont un minimum de contrôle sur la surveillance exercée par l’Etat, nous n’avons aujourd’hui pas de contrôle réglementaire sur la surveillance des entreprises privées. C’est intolérable. »

Selon Zuboff, le capitalisme de surveillance diffère des autres formes de capitalisme à plusieurs égards, mais notamment pour une raison majeure : « il abandonne les réciprocités naturelles qui ont aidé par le passé à ancrer le capitalisme, même imparfaitement, aux intérêts de la société ». Outre la remise en cause du libre-arbitre et de l’autonomie des individus, elle estime que ce nouveau capitalisme pose par exemple aussi un problème en termes d’emploi. Grâce à leurs moyens technologiques, les grands acteurs de ce capitalisme peuvent en effet se permettre d’employer relativement peu de salariés compte tenu de leur puissance, ce qu’elle illustre par un exemple frappant : « General Motors employait plus de personnes au pic de la Grande Dépression que Google ou Facebook n’en employait au plus haut de leur valeur de marché ».

De multiples questions de fond sont ouvertes par cet ouvrage (qui pèche cependant sur la forme par son style ampoulé, son ton hyperbolique à l’excès, et ses nombreuses répétitions). Arrêtons-nous quelques instants pour aborder certains points :

1/ La thèse et les arguments de Zuboff sont évidemment très orientés : le portrait noir qui est dressé des usages des données mériterait de faire valoir un point de vue différent, capable de souligner les aspects plus positifs de ce qui constitue effectivement un changement de paradigme (nb : plutôt que d’essayer de présenter -trop- rapidement ici un autre son de cloche, il sera plus judicieux d’y consacrer un article dédié). A lire Zuboff, les services numériques dominants n’apporteraient que dangers voire apocalypse, ce qui est évidemment très caricatural. En outre, il est permis de relativiser les pouvoirs actuels des mécanismes d’intelligence artificielle, sources de fantasmes et de mythes souvent surjoués – un flou d’ailleurs entretenu par les leaders du numérique.

Soulignons néanmoins un point important : Zuboff n’est pas une critique ordinaire du modèle des géants du numérique. Par le passé, elle a par exemple été éditorialiste pour des revues comme Fast Company et Businessweek, « deux bastions du techno-optimisme pas vraiment connus pour leur sentiment anticapitaliste » comme l’écrit le chercheur Evgeny Morozov dans une longue analyse dédiée à l’ouvrage de Zuboff (où il juge que l’ouvrage met trop l’accent sur la surveillance au détriment du capitalisme lui-même). Morozov, réputé pour sa dénonciation des dangers du numérique, rappelle que Zuboff était auparavant « prudemment optimiste à la fois sur le capitalisme et la technologie » : il y a 10 ans, elle écrivait par exemple qu’un géant comme Apple apportait une « valeur immense » à ses utilisateurs en leur offrant « ce qu’ils veulent, comme ils le veulent, à l’endroit où ils le veulent ».

Le basculement de Zuboff en une décennie est tout sauf anecdotique. Il est le signe, ou plutôt la confirmation, que la contestation des géants du numérique n’est plus l’apanage de sphères réfractaires aux innovations technologiques. Que des médias très pro-business comme le Wall Street Journal ou le Financial Times en viennent aujourd’hui à recommander cet ouvrage en dit long. Au vu de cette agrégation des inquiétudes, voire des contestations, une question se pose : ce modèle est-il aussi puissant qu’il n’y paraît ?

2/ Quelles solutions ? Zuboff rejette l’idée de mesures concrètes et simples capables d’apporter des réponses fortes à court terme. « Il n’y a pas de plan d’action simple, mais on sait une chose : le capitalisme de surveillance a progressé sans entraves pendant deux décennies. Nous avons besoin de nouveaux paradigmes nés d’une compréhension fine des mécanismes économiques de ce modèle ».

Demander aux GAFA de protéger notre privacy serait comme demander à Henry Ford de fabriquer chaque modèle de Ford T à la main

Elle juge que le GDPR [règlement sur les protections des données pour tous les citoyens européens mis en place en 2018] est « un bon début », mais réfute l’idée que des politiques antitrust sévères, qui démantèleraient des géants technologiques, puissent régler les causes profondes du problème : « à lui seul, un démantèlement n’éliminerait pas le capitalisme de surveillance : à la place, il produirait de plus petites entreprises sur ce même modèle et ouvrirait la voie à plus de concurrents opérant sur ces principes ».

Une chose est sûre pour elle : demander aux géants technologiques de protéger notre vie privée serait « comme demander à Henry Ford de fabriquer chaque modèle de Ford T à la main ». Autrement dit, l’autorégulation est un non-sens.

Finalement, « s’extraire de la toxicité du capitalisme de surveillance sera un processus long, lent et difficile », écrit-elle. « Le premier travail à faire doit être de nommer les choses. Ce que j’espère, c’est que mettre des mots sur la situation contribuera à un changement radical de l’opinion publique, surtout parmi les jeunes ».

3/ Cet espoir exprimé par Zuboff est-il vraiment réaliste ? Elle est loin d’être la première à alerter sur les dangers des technologies appliquées à la surveillance. Son ouvrage s’inscrit dans les pas de nombreux intellectuels (comme Alain Damasio en France, auteur notamment de « La Zone du Dehors »), chercheurs, activistes, incluant des acteurs du numérique (comme Tristan Nitot en France, dont le livre Surveillance :// aborde le sujet en quatre chapitres éclairants et accessibles à tous). Or jusqu’ici, malgré la progression ces dernières années de services numériques visant la « privacy by design » (garantir la confidentialité des données dans la conception même des produits) comme le moteur de recherche Qwant, ces idées semblent peiner à trouver un écho massif auprès du grand public et (surtout) à provoquer un basculement des usages. Est-ce seulement une question de temps ? La prévalence de la fameuse réaction « pourquoi m’en préoccuper, je n’ai rien à cacher » reste très importante…

Comment dépasser le « Je n’ai rien à cacher »


« Lorsque les gens disent « je n’ai rien à cacher », ils disent en fait « je me moque de mes droits ». Si vous cessez de défendre vos droits en disant « je n’ai pas besoin de mes droits dans ce contexte », ce ne sont plus des droits. Vous les avez convertis en quelque chose dont vous jouissez comme d’un privilège révocable. Et cela réduit l’étendue de la liberté au sein d’une société. » – Ignacio Ramonet, auteur de L’empire de la surveillance cité par maisouvaleweb.fr


En 2017, une journaliste utilisatrice de Tinder demanda aux propriétaires de l’application de lui envoyer ses données. Elle reçut près de 800 pages, contenant des informations personnelles de toute nature : l’âge moyen des hommes qui l’intéressaient, où et quand chaque conversation en ligne avec ses « matchs » s’était produite, etc. Un sociologue spécialiste du numérique qu’elle interrogea alors à ce sujet lui répondit: « Les applications comme Tinder profitent d’un phénomène émotionnel simple : nous ne pouvons pas ressentir les données. Nous sommes des créatures physiques. Nous avons besoins de matérialité ».

C’est aussi ce qu’explique Zuboff à propos du modèle de surveillance : « Son opacité et son caractère insidieux le rend difficile à appréhender, de la même façon qu’il est difficile d’appréhender le changement climatique ».

Dès lors, comment réussir à lever cet obstacle pour qu’une prise de conscience massive puisse se produire ? Pour beaucoup, c’est surtout la succession des scandales (piratages massifs ou révélations choquantes sur les usages de nos données) qui sera la plus efficace pour provoquer un choc de mentalités capable de se concrétiser dans les usages.

En attendant un scandale d’une ampleur telle qu’il serait à même de provoquer ce choc, les défenseurs de la privacy tentent de répondre au « je n’ai rien à cacher » de plusieurs manières :

  • « Dire que vous ne vous préoccupez pas du droit au respect de la vie privée parce que vous n’avez rien à cacher équivaut à dire que vous ne vous préoccupez pas de la liberté d’expression parce que vous n’avez rien à dire. » – Edward Snowden

  • « Protéger sa vie privée n’équivaut pas à vouloir se cacher pour planifier de renverser le gouvernement : la protection de la vie privée est l’état naturel des choses. Par exemple, lorsque vous allez aux toilettes, en particulier dans des toilettes publiques, vous fermez généralement la porte. La raison pour laquelle vous le faites, ce n’est pas parce que vous prévoyez de renverser le gouvernement. Vous pourriez l’être, mais il y a des chances que ce ne soit pas pour ça. Vous y aller pour utiliser les toilettes » – Riccardo Spagni, développeur principal du projet Monero (monnaie numérique intraçable)

  • « On peut prendre le problème de deux manières », explique de son côté Marc Meillassoux, réalisateur du documentaire « Nothing to hide », interrogé par maisouvaleweb.fr :

« La première approche est de prendre les cas individuels : ça prend au maximum 15 minutes avant que la personne qui pense n’avoir « rien à cacher », se rende compte que c’est faux. Chacun a une histoire et une sensibilité particulière à la surveillance et à la vie privée: certains seront agacés de recevoir des publicités basées sur leur dernière recherche Google, d’autres savent par expérience que certains épisodes médicaux (dépression, cancer) pourraient les mettre en difficulté s’ils venaient à être connus, d’autres seront gênés qu’une banque se base sur leur réseau d’amis pour définir un taux d’intérêt pour un emprunt…

-La seconde approche, la plus importante, est de comprendre qu’une société sans militants écologistes, sans journalistes d’investigation, sans secret médical ou professionnel, sans lanceurs d’alerte, sans juges indépendants est une société qui à terme s’enfoncera inéluctablement dans le totalitarisme. Les utopies communistes peuvent en témoigner. »

« Il y a cette idée dangereuse que transparence et honnêteté seraient synonymes. « Je n’ai rien à cacher » entend-on. Même aux Nazis ? On présuppose que la faute est consubstantielle à celui qui cache et que l’observateur est honnête et de bonne foi. C’est souvent l’inverse ! Pourquoi y-a-t-il des isoloirs ? Pas pour cacher un délit mais parce que le sens du vote n’appartient qu’à soi. » – Pierre Bellanger, fondateur du réseau social Skred (et PDG de Skyrock), cité par PetitWeb


En 2014, le journaliste Glenn Greenwald – le premier à avoir publié les révélations d’Edouard Snowden, dans The Guardian – a donné une conférence sur le sujet, dont la vidéo a été très partagée par la suite. Il y tient une défense de la privacy qui peut être résumée ici en trois points :  

1. Chacun a besoin d’un jardin secret

« Les êtres humains, même ceux qui disent contester l’importance de la privacy, comprennent de façon instinctive son importance fondamentale. Nous sommes certes des animaux sociaux : nous avons besoin de faire savoir aux autres ce que nous faisons, disons, pensons, et c’est la raison pour laquelle il nous arrive de publier des informations personnelles en ligne. Mais il est tout aussi essentiel, pour être libre et épanoui, d’avoir un jardin secret à l’abri du jugement des autres. Il y a une raison à ce besoin : nous tous – pas seulement les terroristes ou les criminels, nous tous – avons des choses à cacher. Il y a plein de choses que nous faisons ou pensons, que nous racontons volontiers à notre médecin, notre avocat, notre psy, notre époux, ou notre meilleur ami mais qui nous rempliraient de honte si le reste du monde les apprenait.  »

En 2009, Eric Schmidt, alors PDG de Google, crut intelligent de dire : « Si vous faites quelque chose que vous ne voulez pas que d’autres apprennent, peut-être devriez-vous commencer par ne pas la faire ». Ironie du sort : quatre ans plus tôt, il avait ordonné aux employés de Google d’arrêter de communiquer avec l’ensemble des journalistes du média CENT, suite à la publication d’un article contenant des informations sur sa vie privée…obtenues exclusivement grâce à des recherches sur Google !

2. Se savoir observé(e) modifie le comportement en tendant vers le conformisme

« Les comportements que nous adoptons quand nous pensons être observés sont soumis à une forte autocensure. C’est un simple fait de la nature humaine reconnu par les sciences sociales. Il existe des dizaines d’études psychologiques qui prouvent que lorsque quelqu’un sait qu’il pourrait être observé, le comportement qu’il adopte est beaucoup plus conformiste et consensuel. Chez les humains, la honte est une motivation très puissante, de même que le désir de l’éviter. C’est pourquoi les individus, lorsqu’ils sont observés, prennent des décisions qui résultent, non pas de leur propre réflexion, mais des attentes qu’on a mises sur eux, ou des règles de la société. »

3. Ce conformisme est destructeur pour l’esprit critique, la créativité et la capacité à s’indigner

« Une société où les gens sont surveillés à chaque instant est une société qui pousse à l’obéissance et à la soumission : voilà pourquoi, tous les tyrans, du plus manifeste au plus subtil, aspirent à ce système. A l’autre bout du spectre, il y a le royaume de la privacy : cette possibilité d’aller dans des lieux où l’on peut penser, interagir et parler sans ressentir le jugement d’autrui, qui sont les seuls endroits possibles où la culture de la créativité, de l’expérimentation et du débat peuvent exister ».

Et Greenwald d’ajouter que seule cette deuxième option permet l’émergence de mouvements citoyens capables de s’opposer à des régimes autoritaires ou anti-démocratique. « Celui qui ne bouge pas ne sent pas ses chaînes » conclut-il en citant Rosa Luxembourg…


En 2010, la France s’enthousiasmait pour un court essai au succès inattendu : « Indignez-vous », de Stéphane Hessel. Presque une décennie plus tard, durant laquelle des trillions de données auront été avalées et exploitées par des géants privés à des fins prédictives, le moment est peut-être venu de le (re)lire, avec un regard différent. La question de fond, elle, reste cependant la même : dans quelle société voulons-nous vivre, et quel avenir souhaitons-nous laisser à nos (petits) enfants ? A l’aune de la surveillance, l’expression « digital natives » prend ainsi un sens tout particulier…

Clément Jeanneau

10 / 10
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Frédéric LORDON
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Emmanuel PONT
Nicos SMYRNAIOS
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓