LePartisan.info À propos Podcasts Fil web Écologie Blogs Revues Médias
Signaux Faibles
Souscrire à ce FLUX

SIGNAUX FAIBLES

Clément JEANNEAU

Mouvements émergents d'aujourd'hui, capables de façonner demain

▸ les 10 dernières parutions

26.12.2020 à 10:12

Regard sur le phénomène Jean-Marc Jancovici

signauxfaiblesco

Il faut qu’on parle de Jean-Marc Jancovici. Ou plus exactement, de l’engouement autour de Jean-Marc Jancovici. Pour ceux qui ne situent pas le personnage, J.M. Jancovici est ingénieur spécialisé sur les sujets d’énergie et de climat et s’est imposé au fil des années comme l’une des personnalités les plus suivies de France sur ces questions. […]
Texte intégral (4993 mots)

Il faut qu’on parle de Jean-Marc Jancovici.

Ou plus exactement, de l’engouement autour de Jean-Marc Jancovici.

Pour ceux qui ne situent pas le personnage, J.M. Jancovici est ingénieur spécialisé sur les sujets d’énergie et de climat et s’est imposé au fil des années comme l’une des personnalités les plus suivies de France sur ces questions. A la tête de son propre cabinet de conseil spécialisé et de son propre think tank sur la transition bas carbone, il intervient en tant qu’expert et vulgarisateur devant de nombreux publics (entreprises, représentants politiques, étudiants, associations, médias…), et fait par ailleurs partie des treize membres du Haut Conseil pour le climat. Beaucoup l’ont découvert via ses conférences disponibles sur YouTube (en voici trois emblématiques), au contenu dense, dont vous pouvez découvrir un aperçu (incomplet) en 10 mn de lecture avec cet article.

Si l’on tente de résumer ses thèses en une phrase (retenez votre respiration) : au vu de l’ampleur du défi en matière de climat et de ressources, JMJ considère qu’une contraction de l’économie est nécessaire et inéluctable, et qu’elle se produira de gré – si nos tentatives pour limiter le changement climatique réussissent – ou de force à cause de la raréfaction des ressources fossiles, puisqu’il estime qu’il n’est physiquement possible ni de respecter l’accord de Paris sans baisse du PIB, ni de continuer à croître avec l’arrivée très prochaine du pic de pétrole – qui aurait été déjà atteint en 2008 s’agissant du pétrole conventionnel. Les connaisseurs auront noté que ce résumé ne cite pas une fois le mot de nucléaire, qui est pourtant ce qui revient le plus souvent lorsque son nom est évoqué (il défend le nucléaire pour son rôle d’« amortisseur du choc de la contraction de l’économie à venir ») alors que le sujet ne constitue pas le cœur de ses démonstrations.

Il peut sembler surprenant d’en parler comme d’un phénomène émergent : l’homme s’exprime dans le débat public sur les questions climatiques depuis bientôt deux décennies (« il écume les plateaux de télévision depuis près de six ans » écrivait Le Monde en…2007), et sa capacité à convaincre et à agglomérer des « fans » au fil de ses interventions n’est en rien une nouveauté.

Et pourtant, il y a bien quelque chose qui se passe depuis quelques années, en particulier deux ans, autour de Jean-Marc Jancovici.

***

Cet article vise à proposer une réflexion sur un phénomène qui me semble encore peu analysé, à la manière de mon article l’an dernier sur le succès de Thinkerview.

La partie 1 sert à planter le décor pour ceux qui auraient peu (ou pas) connaissance du phénomène. Elle intéressera aussi ceux qui connaissaient depuis longtemps JMJ (comme il est souvent appelé par ses suiveurs) et n’avaient pas perçu le changement de dimension à l’œuvre depuis peu.

La partie 2 explore les raisons de ce phénomène, ce qu’elles nous enseignent, et ce que JMJ apporte d’inédit.

La partie 3, la plus nourrie, rentre dans le cœur des controverses qui entourent le phénomène Jancovici, des problèmes qui se posent et de la façon (d’essayer) de les dépasser.

La partie 4 conclura notamment en présentant une tendance à la fois émergente et importante à suivre.

Avant que les pro et les anti-JMJ ne cherchent à déterminer si cet article est à charge ou élogieux : il n’est ni l’un ni l’autre. Ceci n’est ni le procès de Jancovici ni un portrait panégyrique.

***

Partie 1 : Un changement de dimension

« Mon sursaut écologique, je le dois à un cours de Jean-Marc Jancovici ». Ce témoignage récent d’un étudiant aurait pu être prononcé par des dizaines, centaines, milliers d’autres jeunes et moins jeunes. Je dois moi-même une part importante de mon éveil sur le climat aux conférences de JMJ, et participe d’ailleurs depuis ponctuellement à certaines initiatives de Shifters, les bénévoles de son think tank, qui sont nombreux à être très engagés.

Avec le bouche-à-oreille et la viralité des réseaux sociaux, le nombre de personnes touchées – et convaincues – par les idées de JMJ s’est élargi bien au-delà du cercle des seuls ingénieurs et/ou passionnés d’énergie qui constituaient jusqu’ici la grande majorité de ses suiveurs.

Je pense à cet ami de tradition libérale, ayant participé aux campagnes UMP et LR de 2007 à 2017, qui confie avoir été chamboulé dans ses convictions après avoir écouté plusieurs conférences de JMJ, et ne plus savoir depuis où se situer politiquement et économiquement.

Ou à cette connaissance, ayant tracté avec enthousiasme pour En Marche en 2017 avant de découvrir JMJ, et qui partage depuis ses posts critiques sur les choix économiques et écologiques du gouvernement.

Ou bien à cet éditorialiste économique star des Echos qui écrit maintenant, après avoir notamment « rencontré des sonneurs d’alarme comme Jean-Marc Jancovici », que « si nous ne parvenons pas à verdir la croissance, la décroissance deviendra le seul choix possible ».

Ou encore à ces deux proches, tendance respectivement LFI et EELV, qui reconnaissent que les démonstrations de l’intéressé ont radicalement changé leurs opinions sur le nucléaire, les plaçant de fait désormais à rebours de la position de leur parti respectif.

Changer radicalement d’opinion : la chose n’est pas si courante dans une vie. Chez ceux qui ont regardé ou assisté à une conférence de JMJ, un terme revient souvent : « une claque ».

***

Depuis 12 à 18 mois, sa base de suiveurs et de fans ne cesse de croître, à un rythme suffisamment fort pour que le phénomène mérite de s’y intéresser sérieusement.

C’est avant tout une impression, difficilement quantifiable.

Ce sont ces internautes qui racontent avoir profité du confinement pour regarder ses 20h de cours à l’école des Mines. Ce sont ces personnalités qui partagent publiquement et plus fréquemment qu’avant ses démonstrations. Ce sont ces groupes de fans lancés sur Facebook et Twitter qui créent et partagent du contenu autour de JMJ.

Ce qui frappe, ce sont ces références à « Janco », bien plus nombreuses, entendues dans des cercles très différents, lues sur les réseaux sociaux, vues ici et là – jusqu’au cinéma, puisqu’il fait peu doute que c’est JMJ que décrit Fabrice Luchini dans cet extrait du film « Alice et le maire », sorti en octobre 2019. Début décembre, Albert Dupontel, en louant dans l’émission C à vous la possibilité offerte par Internet de découvrir des figures encore méconnues du grand public, citait deux noms : « Gaël Giraud et Jancovici ». « C’est Internet qui m’a porté connaissance de ces gens-là ».

Bien sûr, quantitativement, ses suiveurs représentent peu de choses au niveau de la société entière.

Mais il y a des faits difficilement discutables. Quand il se connecte pour un live Facebook pour répondre aux questions de ses suiveurs, ce sont des dizaines, puis centaines, puis milliers de personnes qui affluent. Leur nombre est ensuite décuplé en replay. Les chiffres n’ont rien de spectaculaires si on les compare à ceux des Youtubeurs populaires ; mais rares sont ceux capables d’attirer autant d’internautes en s’attardant plus d’1h30 sur des questions de fond, parfois pointues, à partir de leur seule page Facebook, et avec une qualité d’image pour le moins négligée.

On utilise souvent le mot « influenceur » à tort et à travers ; ici le terme semble particulièrement adapté. « Est-ce que l’intellectuel le plus influent de France – et je m’en désole un peu – n’est pas devenu Jean-Marc Jancovici ? » allait jusqu’à demander Aurélien Bellanger dans une de ses chroniques sur France Culture l’an dernier.

***

Pourquoi donc le phénomène se produit-il maintenant ?

La « montée » d’une personnalité est souvent liée à un « timing » : événement qui propulse des idées sur le devant de la scène, action ou réalisation très remarquée, publication d’un livre ou d’une œuvre qui raisonne avec l’époque… Pour JMJ, outre le fait que l’explosion de la vidéo en ligne a changé la donne (les 25-49 ans en France passent désormais plus de 30mn par jour sur YouTube, qui a fortement contribué à sa notoriété), la cause est plus simplement à chercher du côté de la montée de l’enjeu climatique : le sujet, qui était encore largement au second plan en 2017, a gagné nettement en considération à partir de 2018, puis a connu une accélération importante en 2019 (lire « Un moment de bascule » publié sur ce site il y a un an).

Un exemple emblématique est le cas des écoles d’ingénieurs, dans lesquelles « les étudiants sont de plus en plus demandeurs de cours sur le changement climatique », écrivait Le Monde il y a quelques mois. « Les élèves polytechniciens, qui se précipitaient aux Mines pour ses cursus en mathématiques, sont désormais plus nombreux à s’orienter vers les questions d’énergie et de climat ». Aux Mines ParisTech, « il y a une prise de conscience sur ces sujets qu’il n’y avait pas il y a trois ans », confirme le directeur des études, Matthieu Mazière. Avoir rendu obligatoire les cours énergie-climat de JMJ en première année depuis 2015 n’y est sans doute pas étranger. Partout ailleurs, la même tendance se confirme.

Depuis plusieurs années, JMJ enchaîne justement les conférences dans les établissements d’enseignement supérieur. Essec, Sciences Po, HEC, Centrale, AgroParisTech, Panthéon Assas, Mines, Telecom Paris, INSTN, ENS, Arts et Métiers, Ecole des Ponts…A la manière d’un politique en campagne, il laboure le terrain (à la différence que lui ne nourrit pas d’ambitions électorales) ; et systématiquement, à en juger par les commentaires sous chacune des vidéos correspondantes, il récolte les mêmes éloges.

***

Si l’on cherche à quantifier le phénomène, l’évolution des recherches Google sur le mot clef « Jancovici » montre le franchissement d’un palier en septembre 2019. Mais la « rupture de tendance », pour citer les mots de Jean-Noël Geist, directeur des affaires publiques du Shift Project (le think tank de JMJ, qui « oeuvre en faveur d’une économie libérée de la contrainte carbone »), est encore plus nette si l’on considère justement les statistiques de son think tank, communiquées en mars dernier.

Entre 2018 et 2019, le « Shift », qui a dix ans d’existence, a vu la fréquentation de son site augmenter de 92% et le nombre de ses abonnés grandir de 106% sur Twitter, de 166% sur Youtube, et de 256% sur Linkedin. Les inscriptions quotidiennes sur leur formulaire ont été multipliées par 11 entre avril 2018 et février 2020. Quant au formulaire de leur association de bénévoles, les Shifters, il a vu son nombre d’inscrits journaliers être multiplié par 33 depuis 2016, avec un premier palier franchi en septembre 2018, et un second, bien plus fort, franchi en septembre 2019.

En 2020 le phénomène ne semble pas s’être ralenti. La chaine Youtube de JMJ, créée en 2013, a dépassé en novembre les 100 000 abonnés, de même que sa page Facebook quelques semaines plus tôt. A la même période, son compte Linkedin, où il s’exprime quasi quotidiennement, a franchi le cap des 200 000 abonnés. JMJ fait aujourd’hui partie du petit cercle de personnalités très suivies sur ces trois réseaux sociaux à la fois, malgré des publics très différents. Son influence sur Linkedin, réseau « professionnel » où les convictions personnelles sur les sujets de société sont traditionnellement plutôt évitées, est particulièrement notable. Récemment, un post faisant l’éloge de l’intéressé a d’ailleurs récolté plus de 3400 « likes » – mais rien que du très banal pour JMJ.

Un test intéressant a eu lieu cette année pour mesurer cette influence, au-delà du nombre de « likes » qui n’est pas toujours une valeur sûre : le Shift Project a lancé un crowdfunding dans la perspective de la campagne de 2022 pour financer la production d’un « plan de transformation de l’économie française » destiné à adapter celle-ci à un monde bas carbone. En l’espace de quelques semaines ce sont près de 500 000 euros qui ont été récoltés – une somme très nettement supérieure aux attentes du Shift lui-même, dont l’objectif initial était de dépasser les 100 000 euros, et considérable pour un think tank spécialisé. Avec ce budget, le Shift a enclenché une série d’embauches qui l’amènent à figurer parmi les think tank les plus importants de France en nombre de salariés.

***

Enfin, comment ne pas mentionner tout la production humoristique amateure qui s’est créée et se développe autour de l’intéressé ? Celle-ci se rassemble notamment sur une page Facebook, « Jancovici memes », elle-même alimentée par un groupe dédié qui dépasse les 15 000 membres, où chacun peut proposer des montages, souvent simples mais assez drôles ou bien vus – pour qui comprend les références – même s’ils ont naturellement tendance à simplifier les messages de JMJ. En voici quelques échantillons parmi un ensemble qui ne cesse de s’étoffer chaque jour.

Ce foisonnement de memes – ces montages qui caractérisent si bien l’humour Internet – peut sembler anecdotique et superficiel, surtout pour ceux qui sont étrangers à cette culture assez particulière ; je crois, au contraire, qu’il dit quelque chose du phénomène entourant Jean-Marc Jancovici.

Par touches successives, c’est en effet tout un culte, certes largement empreint de second degré, qui s’est mis en place – du détournement de films à partir d’interviews de JMJ jusqu’à un « Janco Bingo », en passant par un mix d’ambiance qui, lui, n’a par exemple plus grand chose de parodique. J’y reviendrai ensuite. Pour l’heure, notons simplement que JMJ, sans n’avoir rien initié en la matière, suscite une créativité sans limites issue de communautés formées spontanément et très engagées. Là encore, très peu de personnalités peuvent en dire autant à ce niveau.

Reste encore à comprendre ce que JMJ a de si spécial pour provoquer tant de réactions de cette nature.

–> Lire la partie 2

***

Article de Clément Jeanneau

29.05.2020 à 10:19

Ce que nous dit la figure de Mercier sur le futur de la politique

signauxfaiblesco

*** Pour ceux qui ont raté le début : Mercier, personnage de fiction… Dans sa dernière saison, sortie début 2020, la série politique Baron Noir met en scène l’émergence d’une figure politique nouvelle, Christophe Mercier, un professeur de biologie qui devient une star sur Youtube avec ses idées « anti-système » et se transforme en candidat présidentiel […]
Texte intégral (7271 mots)

***

Pour ceux qui ont raté le début : Mercier, personnage de fiction…

Dans sa dernière saison, sortie début 2020, la série politique Baron Noir met en scène l’émergence d’une figure politique nouvelle, Christophe Mercier, un professeur de biologie qui devient une star sur Youtube avec ses idées « anti-système » et se transforme en candidat présidentiel alternatif, hors parti. Son mantra : le tirage au sort des représentants, qu’il érige en pilier du renouveau démocratique.

Mercier arrive assez tard dans la saison, mais finit par polariser la vie politique et rebattre toutes les cartes de la présidentielle.

Il est apparu très vite que cette saison, malgré les défauts qu’on pouvait lui trouver, allait rester. Yoan Hadadi, membre du Bureau national du PS, y dédiait par exemple une tribune laudative fin février: « Nous sommes tous fans de cette série magistrale. Il suffit de regarder l’emballement des réseaux sociaux pour s’en convaincre. Combien de socialistes ont regardé les huit épisodes d’une traite ? (…) Les commentaires inondent les boucles de messages WhatsApp, tard dans la nuit. »

De fait, dans les semaines qui ont suivi la sortie de la saison, plusieurs journaux ont commencé à l’évoquer au fil de leurs articles politiques, plutôt sur l’angle des jeux de pouvoir à gauche, comme par exemple lors du retour médiatique d’Arnaud Montebourg que « d’aucuns imaginent en Philippe Rickwaert » (personnage central de la série) comme l’écrivait Le Monde fin avril.

qui fait son entrée dans le réel

Mais c’est bien le personnage de Mercier et sa trajectoire éclair qui constituent l’originalité de la saison et ont suscité le plus de réactions – au point que trois mois et une crise plus tard, la peur de l’émergence d’un Mercier dans la véritable vie politique commence désormais à agiter l’Elysée, à en croire un article du Monde du 24 mai :

-« Un Zemmour, un Raoult, un Hanouna, qui incarnent chacun à leur manière cette rupture entre le peuple et les élites, peuvent faire irruption dans le jeu et tenter de poursuivre la vague de dégagisme de 2017 », estime un « poids lourd du gouvernement » cité par le journal ;

Le président redoute notamment qu’un François Ruffin, par exemple, fasse la passerelle entre extrême gauche et extrême droite. Pour lui, c’est un Christophe Mercier potentiel. D’ailleurs, Ruffin fait du Mercier, il se filme dans sa cuisine… », ajoute un « stratège du chef de l’Etat ».

Bigre. La figure de Mercier, apparue il y a à peine quatre mois, se retrouverait donc déjà au cœur des inquiétudes du pouvoir actuel. « Ça fout la trouille » aurait confié au Monde « un puissant conseiller de l’exécutif ». Comme le dirait une expression populaire en ligne : that escalated quickly.

 

Pourquoi Mercier est intéressant

Evidemment, personne n’a attendu Baron Noir pour penser à l’idée d’une candidature d’un outsider, hors parti, propulsé grâce aux réseaux sociaux. La série reprend par exemple le scénario connu en Italie avec Beppe Grillo, passé de clown à blogueur le plus lu du pays avant de s’en servir comme tremplin politique comme on le sait. Outre Grillo, l’exemple le plus emblématique est celui du président actuel de l’Ukraine : ancien humoriste, il incarnait dans une série un professeur d’histoire devenant président à la suite d’un carton inattendu sur Youtube. Le destin de l’acteur suit ensuite celui de son personnage : en 2019, il se lance dans la véritable vie politique et réussit à se faire élire en menant une campagne déconcertante, qualifiée de « non-campagne », refusant par exemple les interviews au profit des réseaux sociaux.

Mais Baron Noir a une particularité qui la rend intéressante : celle de présenter un « persona » du populiste à la française à l’ère numérique, et d’instaurer un nom pour le désigner – Mercier – appelé à servir de référence. Cette figure-type se distingue non seulement des populistes traditionnels, qui préexistent à l’ère numérique, mais aussi des « populistes 2.0 » comme Trump que l’on connaît ailleurs, et qui diffèrent sur certains points, présentés plus bas.

De fait, en France, la comparaison avec Mercier tend déjà à devenir un nouveau réflexe lorsqu’émerge sur Internet une personnalité hors du champ politique traditionnel qui se place en « anti-système » et dont les ambitions restent floues et potentiellement élevées.

Ce « persona » présente l’intérêt d’offrir dès à présent un point de repère utile pour analyser le réel et percevoir ce que pourrait être un futur possible de la politique française. Cet article fait l’hypothèse que la montée d’un Mercier, loin d’être un fantasme comme l’estiment certains commentateurs, est un scénario qui doit être pris au sérieux dès à présent, et que les acteurs de la vie politique – au sens large – sont aujourd’hui pour la plupart insuffisamment armés pour être capables de (ré)agir correctement en temps voulu, comme nous le verrons plus loin.

***

Comprendre Mercier grâce à Raoult

Le meilleur exemple permettant de comprendre ce que serait un Mercier à la française est aujourd’hui le Pr Raoult. Les comparaisons entre les deux hommes ont émergé dès le mois de mars et n’ont cessé de se vérifier depuis.

citation1

Les caractéristiques du « phénomène Raoult » correspondent à de nombreux égards à ce qui a été annoncé dans la série via le personnage de Mercier. Il n’est donc pas inutile de résumer ici ces traits communs, en dix points, ce qui permettra également à ceux qui n’ont pas vu la série de mieux se représenter le personnage.

1. Tous deux sont devenus le symbole phare des « anti-élites » au fil de leur montée en puissance. Comme l’écrit Le Monde dans un récent article dédié, Raoult « est devenu une icône. Il est désormais vu par une partie des Français, notamment hors de Paris, comme l’arme antisystème par excellence. Un peu comme s’il était devenu le porte-parole de « ceux d’en bas » ». Ce faisant, les personnalités politiques qui captaient la colère paraissent ringardisées. Comme l’explique l’historien Thomas Branthôme, « les politiques comme Marine Le Pen ou Jean-Luc Mélenchon ont un pied dans le système : ils ne peuvent donc pas incarner seuls l’opposition à la “caste” ». C’est ainsi que dans Baron Noir, les partis populistes traditionnels commencent par tenter de tirer profit de la montée de Mercier, lui servant en réalité de marchepied, jusqu’à ce que la situation leur échappe…

2. Ce sont les réseaux sociaux qui ont servi de réceptacle et de boost pour en faire des personnalités de tout premier plan, à la différence des figures politiques contestataires traditionnelles. Deux outils en particulier leur sont précieux : YouTube où ils se mettent en scène avec des scores de vues stupéfiants, et Facebook où une multitude de groupes les soutiennent mordicus.

raoult

3. Leur montée en puissance s’est faite en un temps record, quelques semaines seulement.

4. Leur goût pour attiser des polémiques leur sert aussi de tactique pour dicter leur tempo. « C’est devenu un rituel attendu ou craint : chaque semaine le professeur Didier Raoult poste une nouvelle vidéo en ligne, avec le plus souvent à la clé une polémique» expliquait récemment BFM TV.

5. Ils sont adeptes de formules chocs, ce qui entretient le buzz et leur permettent ainsi de rester au centre de l’attention. Exemples ici pour Raoult : « cette histoire va finir comme le sang contaminé» ; « le consensus, c’est Pétain » ; « trouver un vaccin est un défi idiot » ; etc.

6. Ils rejettent en bloc les acteurs politiques dominants, qu’ils soient de droite ou de gauche, avec un discours proche du « tous pourris ». Exemple ici pour Raoult dans L’Express :« Depuis trois quinquennats, je trouve que le casting, c’est des hologrammes. Il faut tant de femmes, tant de couleurs…Alors vous avez des hologrammes dotés de cabinets d’énarques qui bidouillent un peu ce qu’ils veulent. J’ai assisté à au moins deux épisodes de ces castings, j’en suis resté sidéré. Ce n’est pas nouveau : Berlusconi faisait ça, mais c’était beaucoup plus franc ! ».

De façon générale, ils rejettent tout ce qui est lié aux élites, y compris médiatiques (Raoult : « La seule force qu’avaient les médias, c’était la crédibilité, mais ils l’ont abandonnée (…) Il n’y a plus d’accès à la vérité parce que les journalistes ne travaillent pas assez »).

7. Ils prétendent être ceux qui représentent véritablement le peuple:

raoult2
Ainsi Clément Viktorovitch, spécialiste de rhétorique en politique, qui analyse l’interview de Raoult avec David Pujadas, estime que « tout au long de cette interview il met en scène un affrontement entre un homme soutenu et aimé par le peuple, et de l’autre des élites présentées comme corrompues et même décadentes. Ce schéma, c’est la définition même du populisme. »

8. Ils se positionnent chacun comme l’homme du bon sens, avec une solution défendue bec et ongle qu’ils veulent faire bénéficier à tous dans une démarche présentée comme altruiste. En ce sens, la chloroquine est à Raoult ce que le tirage au sort est à Mercier: dans les deux cas, il s’agit de leur proposition phare, différenciante, clivante, dont ils font à la fois leur combat et leur remède quasi-« magique » au mal auquel ils cherchent chacun à répondre (le covid-19 pour Raoult, les failles du système politique pour Mercier).

9. Ils se positionnent en érudits et en hommes de culture : Raoult évoque ainsi son « admiration» pour « Rimbaud, Nietzsche, Céline », cite un passage de L’Etranger de Camus, vante le « très grand philosophe Edmund Husserl »… En cela, ils se distinguent fondamentalement d’un populiste moderne comme Trump, ou d’une personnalité comme Bigard (cité ici car se disant « intéressé » par l’idée d’une candidature à la présidentielle) ou autres Hanouna, qui sont en réalité assez différents d’un Mercier.

10. Enfin, ils tiennent à se présenter, malgré leur immodestie, comme des hommes épris de sagesse, ayant du recul sur les vanités du monde, comme dans ce propos de Raoult : « Ma bague n’est pas une bague de rockeur, mais un “Memento mori”, le “Souviens-toi que tu vas mourir” des Romains. Je suis très influencé par leur culture qui souvent incite à se méfier du triomphe. Les querelles, on en sort. Le succès est bien plus dangereux… ». Il cite d’ailleurs volontiers des philosophes dès qu’il en a l’occasion. Là encore, c’est une différence importante avec des figures comme Trump qui n’ont cure de paraître excités voire déchaînés, et grossiers.

Jusqu’où ira le parallèle ?

Tous ces traits communs entre le « phénomène Raoult » et Mercier incitent évidemment aujourd’hui à se demander si le premier ne finira pas par se lancer dans l’arène et bousculer le jeu politique comme le second dans la série.

Raoult n’est pourtant pas le strict équivalent de Mercier. D’abord parce qu’avant de se faire connaître massivement, il était déjà loin d’être un citoyen « lambda », comme l’était Mercier. Ensuite parce qu’il ne cesse de dire que la politique ne l’intéresse pas, qu’il « n’aime pas les mouvements » et qu’il « file à l’opposé ».

En pratique cependant, toute son attitude témoigne d’un attrait évident pour le combat dans l’arène publique, et toutes ses initiatives ne font que renforcer le mouvement autour de sa personne, ce qu’il ne cherche absolument pas à freiner…au contraire.

Sa stratégie de communication, très efficace, est particulièrement éloquente en ce sens, comme le montre le communicant Philippe Moreau Chevrolet. Celui-ci explique ici que si Raoult intervient autant dans les médias alors même qu’il ne cesse de les critiquer, c’est parce qu’ils lui sont très utiles, pour une raison précise : « Il n’y a pas de brevet plus simple d’« anti-establishment » que d’attaquer la presse, comme Bayrou l’a démontré en 2007, ou Mélenchon ».

Philippe moreau

Du reste, si l’on considère spécifiquement cette interview face à Pujadas, il faut noter que Raoult sort d’ores et déjà de sa position de scientifique pour aller sur le terrain politique, d’après l’analyse qu’en fait Clément Viktorovitch : « Raoult y explique que les études scientifiques qu’il cite sont crédibles pour la simple et bonne raison qu’elles sont populaires. C’est un argument dit « ad populum » : affirmer qu’un énoncé est vrai parce qu’il est accepté par un grand nombre d’individus. C’est profondément problématique car cet argument est exactement l’inverse de la science. Si on a besoin de mener des études scientifiques, c’est justement parce que le sens commun ne suffit pas à expliquer le monde qui nous entoure. Au moment même où Raoult prononce cette phrase, sa parole cesse d’être scientifique. Elle bascule dans autre chose, qui porte un nom : le discours politique ».

Dès lors, quand bien même lui se défend de toute ambition en la matière, il y a donc bien des raisons objectives pour le pouvoir existant de le considérer comme un potentiel danger politique. A ceux qui ne seraient pas encore convaincus, on ne peut que recommander l’exercice, très instructif, d’aller lire les commentaires sous les multiples publications le concernant : de quoi prendre conscience de l’ampleur du clivage – éminemment politique – entre pro et anti, qui a pris des proportions ahurissantes. A l’heure actuelle, 45% des Français en auraient d’ailleurs une bonne image, contre 35% émettant l’avis inverse.

Et les supporters prêts à le soutenir dans une éventuelle aventure électorale sont déjà là. « Pour moi, les choses sont simples, un homme qui sauve des vies est celui le plus à même de sauver son pays » explique le fondateur d’une page Facebook appelant à sa candidature. L’essayiste conservateur Ivan Rioufol, qui fait partie de ses défenseurs dans la presse, ne cache pas qu’il voit en lui les qualités d’un bon leader politique : « Raoult pourrait être un bon modèle, dans ce monde politique trop craintif, conformiste, indécis, aseptisé. Sa soudaine notoriété marque sans doute l’attente d’un tel chef. Un chef qui ne jouerait pas le jeu ».

Le meilleur scénario pour ceux qui le craignent serait que le Pr Raoult reste l’homme d’une séquence, celle du covid-19, qui l’a fait monter médiatiquement et qui le ferait redescendre ensuite. Tout l’enjeu sera de voir, à la fin de cette séquence, s’il tentera ou non d’exploiter sa nouvelle popularité, et si oui comment. C’est cela qui sera déterminant.

raoult3

Quelle que soit la suite, le simple fait de se poser la question du potentiel politique d’un outsider largement méconnu du public il y a encore trois mois est déjà significatif en tant quel. Un tel questionnement aurait été bien moins imaginable il y a quelques années encore. Chacun sent bien que nous avons changé d’époque. Et que les règles d’une présidentielle hier ne sont plus forcément celles de demain.

***

Au-delà de Raoult, les questions qui comptent

 

La France aura-t-elle un jour son Mercier ?

C’est une cause entendue : il n’y a pas de raison que la France soit immunisée contre l’arrivée au pouvoir d’un populiste comme cela s’est produit ailleurs. Mais très peu de populistes élus jusqu’à présent correspondent au personnage présenté dans Baron Noir. Or Mercier est justement intéressant en tant que populiste nativement numérique – c’est-à-dire devenu une personnalité publique grâce à Internet.

C’est toute la différence avec Michel Onfray. Lui aussi est décrit par beaucoup comme un potentiel Mercier actuellement. Il semble effectivement tout faire en ce sens ; avec sa dernière initiative, le lancement de sa revue « Front populaire », il tente par exemple d’agglomérer les « anti-élites » de tout bord, jusqu’au Pr Raoult, pour capitaliser sur l’immense défiance existante.

Mercier3

Mais Onfray est un faux Mercier, ou plutôt un ersatz. Cela ne signifie pas que sa démarche – à laquelle il n’est pas absurde de prêter des ambitions politiques – ne fonctionnera pas. Mais elle n’aurait alors rien d’une montée en puissance à la Mercier, car Onfray est une personnalité déjà largement implantée dans le paysage, ayant par exemple fait l’objet d’un grand nombre de couvertures de magazines (L’Express, Le Point, Le Figaro Magazine, L’Obs, Libération…). En passant, puisque son nom est parfois évoqué aussi, la même remarque vaut pour Zemmour.

Le cas de Ruffin, qui selon Le Monde serait vu comme un véritable « Mercier potentiel » par l’Elysée, est différent. Il ne peut pas revendiquer l’étiquette « hors du système » puisqu’il a choisi de rentrer dedans de plein pied en se faisant élire député en 2017. Mais il sait jouer habilement sur les mécanismes des réseaux sociaux – en particulier Facebook et Youtube où il est très actif – pour parler à des cibles que bon nombre de figures politiques ont du mal à atteindre. Il semble par ailleurs la seule personnalité politique « traditionnelle » à avoir su profiter du mouvement des gilets jaunes.

Ruffin est un électron libre vis-à-vis duquel on aurait tort d’appliquer le même raisonnement qui avait déjà été appliqué à Macron en 2015-2016 pour « démontrer » pourquoi sa candidature ne pouvait pas fonctionner (trop isolé, indépendant, manquant de réseaux, d’ancrage local, etc.). Il n’est pas un Mercier, mais il a un certain nombre d’atouts dans sa manche, à commencer par sa capacité à « sentir » fréquemment les mouvements avant les autres et à penser en coups politiques, en sachant s’appuyer sur la puissance du numérique dont il a compris les codes. En ce sens, Ruffin est peut-être l’archétype de l’étape intermédiaire entre la figure politique traditionnelle – ayant progressé de façon classique et souvent peu à l’aise avec les « outils numériques » – et un Mercier – nativement numérique et qui doit son succès aux réseaux sociaux.

A terme, le véritable tour de force, qui correspondrait à la véritable trajectoire de Mercier, serait l’émergence d’un relatif inconnu (au niveau national) propulsé en potentiel présidentiable par la puissance des réseaux sociaux. Est-ce une hypothèse irréaliste ? Elle semble improbable à l’heure actuelle, bien que le phénomène Raoult force déjà à revoir certains a priori. Mais les dernières années nous ont appris à nous méfier de ce qui semblait improbable politiquement. L’époque est à l’inédit. Et le web social est une nouvelle donne capable de provoquer cet inédit.

Un tel phénomène serait capable de stupéfier le pouvoir en place et tous ceux habitués à raisonner avec les codes habituels, inadaptés à l’ère numérique. Pour ne pas se retrouver paralysée, l’élite politique tant conspuée par les « anti-systèmes » serait bien avisée de s’outiller dès à présent pour savoir faire face à un tel scénario.

Comment s’y préparer ?

La réponse nécessiterait une analyse approfondie, qui mériterait un article dédié. Contentons-nous de souligner ici un point en particulier : puisque l’originalité d’une figure comme Mercier tient à sa capacité à naître et grandir sur les réseaux sociaux, il devient impératif pour une personnalité politique de s’entourer de conseillers politiques capables de comprendre finement le web social, ce qui semble être rarement le cas aujourd’hui.

La même remarque s’applique aux médias et acteurs de la vie publique s’ils souhaitent pouvoir décrypter les mouvements sociaux de demain sans un train de retard.

L’article « Neuf leçons sur le mouvement des gilets jaunes » paru sur ce site en janvier 2019 indiquait plusieurs pistes en ce sens. Ce mouvement avait marqué « une première en France : l’avènement du numérique comme outil principal d’organisation d’action collective à l’échelle nationale ». De façon inédite, un mouvement social s’était développé de manière simultanée sur tout le territoire, grâce à Internet.

L’une des leçons était que « comprendre les prochains mouvements sociaux nécessitera de s’appuyer sur de nouvelles façons de les étudier : nouvelles méthodes, mais aussi nouveaux regards. En particulier, l’étude des groupes Facebook deviendra une nécessité pour prendre le pouls de la société ».

Ces enseignements ont-ils véritablement été suivis ? Il semble que non, à en juger par le temps qu’il a fallu aux autorités (et pas seulement) pour saisir l’ampleur du mouvement autour du Pr Raoult. De la même façon, dans Baron Noir la classe politique tarde non seulement à prendre au sérieux Mercier, mais aussi et surtout d’abord à prendre conscience de la simple existence du phénomène. Quand vient le temps de réagir, il est déjà très tard…

Rappelons pourtant ici ce que le journaliste Roman Bornstein écrivait en janvier 2019 dans son étude pour la Fondation Jean Jaurès : « La moitié des Français s’informent désormais uniquement sur Facebook. Si des bataillons numériques de journalistes, de scientifiques, d’experts et de politiques n’investissent pas en masse cette plateforme, (…) la vie démocratique française connaîtra le même problème qui s’est produit aux Etats-Unis lors de la campagne présidentielle de 2016 : un pan entier de l’électorat, accessible à toutes les manipulations, vivra sincèrement dans une réalité parallèle sur laquelle aucun fait établi, aucun chiffre contradictoire, aucun argument rationnel n’aura prise ».

 

Ceux qui sentiront le futur Mercier avant les autres

Pour ne prendre que le cas des médias, les jeunes journalistes ont souvent plus l’habitude de ce web social que leurs aînés. Mais pour pouvoir l’explorer, encore faut-il que la possibilité leur en soit donnée. Il s’agit d’un travail d’enquête, de réseautage en ligne, d’infiltration de groupes, de suivi patient et régulier, de visionnage de vidéos – autant de tâches de fond qui prennent du temps et qui constituent une nouvelle forme de journalisme d’investigation, adaptée à l’ère numérique.

Cette remarque était déjà celle formulée dans l’article sur les enseignements des gilets jaunes : « C’est d’un spécialiste du…numérique que sont venues les meilleures analyses sur ce mouvement social : tout sauf anecdotique. Nombre d’analystes politiques se sont contentés au mieux d’enfoncer des portes ouvertes, voire d’être en décalage avec la réalité du mouvement. Mais un commentateur en particulier a émergé comme l’un de ses « décrypteurs » les plus intéressants : le journaliste Vincent Glad, « spécialiste de la culture Internet » ».

Or il se trouve que plus d’un an plus tard, Vincent Glad est justement l’un des premiers comptes « influents » sur Twitter à avoir alerté sur le phénomène Raoult. C’est ce qu’il fait d’abord le 18 mars où il pressent qu’un sérieux problème va se poser pour le gouvernement…

glad1glad

…puis, une semaine plus tard, où il enfonce le clou, quand peu ont alors perçu ce qui se jouait :

glad3

glad4


Que Vincent Glad ait fait partie des premiers journalistes à prendre conscience de la portée du phénomène Raoult n’est pas un hasard. Il n’est sans doute pas le seul, ni le premier, mais le sujet n’est pas là. L’important est ici : on ne peut pas réussir à repérer des signaux faibles – en politique comme ailleurs – si on ne choisit pas de prendre au sérieux et d’explorer pour de bon l’espace numérique – ou de s’entourer de talents qui en sont capables.

Cet impératif implique notamment une chose : en finir avec une forme de condescendance vis-à-vis des réseaux sociaux et savoir dépasser ses a priori à leur égard (« c’est une poubelle », etc.) – et ce d’autant plus que cette condescendance est fréquemment corrélée à un certain mépris social, qui a été à la fois une cause et un moteur du mouvement des gilets jaunes (voir leçon n°7) et de la montée du Pr Raoult (l’impression de mépris contre Raoult a été ressenti par beaucoup comme un mépris contre eux-mêmes qui ne viennent pas du « sérail parisien »).

Mercier4

Il est évident que les réseaux sociaux ont aussi des revers détestables. L’idée n’est pas là de dresser les pour et les contre, mais de faire comprendre que nous avons changé d’époque, qu’ils jouent et joueront une place sans cesse croissante dans la vie politique (entre autres), et que nous ne reviendrons pas en arrière (si besoin de s’en convaincre, voir la fin de l’article précédent à partir du passage « les leçons de l’imprimerie »).

Ce n’est d’ailleurs pas un hasard que Raoult ait « théorisé » ainsi son usage du web social : « Ce ‘droit de dire’ dont vous jouissez – notamment vous, les médias -, on vous le dispute, on vous le vole. On s’en fout de vous. Maintenant, on dit les choses nous-mêmes. Il faut regarder la réalité en face. Une partie de l’agressivité des médias traditionnels est liée au fait qu’on lui vole actuellement son rôle » (entretien dans L’Express).

Ces idées rejoignent celles déjà développées dans l’article précédent ainsi que dans celui analysant le succès de la chaîne Thinkerview. Notons que ce constat – auquel s’adaptent déjà certaines personnalités politiques comme Mélenchon – semble désormais se propager auprès de certains chefs d’entreprise, comme le souligne ici le CEO de la startup Coinbase :brian armstrongL’infrastructure pré-existante comme levier du Mercier de demain

Dernier point important : la rapidité de la montée en puissance de Raoult a tenu directement à une multitude de groupes Facebook contestataires qui préexistaient à la crise du covid. Ces groupes, dont une large partie provient du mouvement des gilets jaunes, se sont avérés extrêmement utiles pour lui en tant qu’accélérateurs de diffusion de ses idées. Ils ont servi d’infrastructure et de propulseurs sans lesquels le phénomène Raoult n’aurait absolument pas eu la même ampleur.

Cette infrastructure était d’autant plus large qu’elle émanait aussi d’autres sphères en ligne :

  • d’une part, les forums du site jeuxvideo.com, l’un des plus actifs de France, au pouvoir d’action non-négligeable, dont il est devenu une mascotte dès janvier bien avant son explosion médiatique (« c’est nous qui l’avons fait percer » se targue du reste un membre du forum) ;
  • d’autre part, des groupes d’internautes particulièrement sensibles aux théories du complot, souvent très défiants vis-à-vis de toute parole « dominante », qui n’accordent dès lors pas de crédit à ce que Facebook, les grands médias ou les autorités publiques peuvent décrire comme « sources d’information fiables » dans leur lutte contre les fake news.

Ces différentes sphères, qui grandissent progressivement et silencieusement, ne disparaîtront évidemment pas lorsque la crise du covid se calmera. Elles constitueront l’infrastructure des mouvements populistes de demain. Et sauront se rappeler à notre bon souvenir en temps voulu.

***

Pour conclure, rappelons une évidence : les réseaux sociaux viennent surtout parachever un cheminement économique, social, culturel et politique préexistant. C’est tout l’ensemble, et non la seule force de frappe du numérique, qui pourrait amener, un jour, un Mercier au pouvoir. La connaissance de l’espace numérique, si elle est essentielle, n’enlève rien au besoin de traiter les racines du phénomène.

En réalité, si ceux qui s’intéressent au web social sont aussi ceux qui perçoivent en premiers les phénomènes Raoult/Mercier, c’est aussi et surtout parce que le temps qu’ils y consacrent leur permet de comprendre ce que disent les Français qu’on entend encore trop peu dans les médias traditionnels, et qui se retrouvent autour d’un dénominateur commun, quelle que soit la diversité de leurs opinions par ailleurs : l’émotion contre le mépris de classe. On retrouve ici là encore les leçons du mouvement des gilets jaunes.

Dès lors, une stratégie qui consisterait à s’afficher avec chaque « outsider » détecté comme menaçant pour tenter de « désactiver » leur potentiel ne ferait que traiter les symptômes sans s’attaquer aux causes, et serait donc extrêmement limitée…voire contre-productive.

Clément Jeanneau

16.02.2020 à 12:48

Ce qui menace nos libertés

signauxfaiblesco

L’affaire Griveaux, loin d’être anecdotique, est importante à bien des égards, et notamment de par les réactions qu’elle suscite. Entre autres choses, ces réactions révèlent – ou plutôt réveillent – des lignes de fracture pré-existantes, qui n’attendaient qu’un déclic pour refaire surface. Parmi ces fractures, l’une des plus fortes concerne l’espace numérique. Elle met en […]
Texte intégral (5855 mots)

L’affaire Griveaux, loin d’être anecdotique, est importante à bien des égards, et notamment de par les réactions qu’elle suscite. Entre autres choses, ces réactions révèlent – ou plutôt réveillent – des lignes de fracture pré-existantes, qui n’attendaient qu’un déclic pour refaire surface.

Parmi ces fractures, l’une des plus fortes concerne l’espace numérique. Elle met en lumière des écarts, voire des antagonismes, sur différentes conceptions de la liberté au sein de cet espace, mais aussi au-delà de celui-ci. Ces divergences de points de vue méritent un débat public sérieux.

Evidemment, l’air étant encore chargé d’émotions (à coup d’élans lyriques sur les « attaques contre la démocratie » et la « montée du fascisme » liées à la « dictature de la transparence »), le moment paraît mal venu pour un débat apaisé sur des questions aussi polémiques.

Et pourtant, c’est bien dès maintenant qu’il faut en discuter.

Il faut profiter de cet épisode qui suscite autant d’indignation car l’expérience montre que, passée une courte fenêtre de tir, l’attention saute sur d’autres « buzz » qui éclipsent aussitôt les précédents.

Il faut en discuter maintenant, aussi, parce que des appels émergent de toute façon déjà pour agir, et agir vite. « L’onde de choc est telle que des députés veulent « une initiative législative » dès la semaine prochaine » apprend-on. Comme souvent, on risque donc de se retrouver dans une course à la précipitation, sous le coup de l’émotion, qui fera la part belle à celui qui légiférera le plus vite, proposera les mesures les plus fortes, montrera la plus grande fermeté.

Il faut en parler, enfin et surtout, parce que les réactions à cette affaire s’inscrivent dans un phénomène plus large et plus profond : le mouvement continu, presque insidieux, tendant à la restriction des libertés, sous divers prétextes. Ce n’est plus un signal faible depuis longtemps déjà, bien plutôt une tendance lourde. Mais celle-ci semblerait presque insignifiante à en juger par la faible attention, considération, vigilance portée à son égard.

Le contraste est cruel, par exemple, entre la vague spontanée, indignée, en colère, qui s’est levée comme un seul homme pour défendre le droit à la vie privée de Benjamin Griveaux (à raison, puisque chacun devrait évidemment avoir droit au respect de sa vie privée, personnalité politique ou non) et la vaguelette esseulée, luttant dans le brouhaha ambiant, qui peine à se faire entendre pour défendre le droit à la vie privée des « Français moyens » quand celle-ci est menacée – c’est-à-dire bien trop souvent ces derniers temps.

Chemla

Cette tendance forte qui préoccupe si faiblement

N’est-ce pas curieux, en effet ? En matière de surveillance, les nouvelles se succèdent et peu s’en émeuvent – ou plutôt toujours les mêmes, les rabougris de la technologie, les critiques de la « marche vers le progrès », les rabat-joie qui voient le mal partout…

Rien que depuis le début de l’année, on a ainsi appris, entre autres, que :

  • La police londonienne utilise désormais la reconnaissance faciale en direct « pour assurer la sécurité des Londoniens ».
  • En Suisse, le Canton de Vaud pourra avoir recours à des balises GPS d’ordinaire réservées à l’antiterrorisme ou au grand banditisme pour traquer les fraudeurs à l’aide sociale.
  • Le stade de football de Metz utilise un dispositif de reconnaissance faciale pour renforcer la sécurité de ses accès, sans en avoir informé au préalable les supporters (et sans, bien sûr, leur avoir demandé leur consentement). Qu’à cela ne tienne : ce dispositif a vocation à être « valorisé sur les grands événements sportifs » a fait savoir notre ministre des Sports.

Rien ne semble pouvoir arrêter ce mouvement. Il n’est pas surprenant, dès lors, de lire que l’Union Européenne semble « avoir accepté qu’il n’y a pas d’échappatoire à la reconnaissance faciale » (Bloomberg) : l’enjeu n’est déjà plus de savoir si le procédé doit être utilisé ou non, mais selon quelles modalités…

Et tant pis si :

  • les risques liés à la vie privée sont d’une ampleur inédite (« l’anonymat dans l’espace public va cesser d’exister » prévient par exemple Stefan Heumann, codirecteur d’un think tank sur la technologie basé à Berlin) ;
  • certains systèmes de surveillance automatisés violent les droits de l’homme, d’après un jugement que vient de rendre un tribunal néerlandais ;
  • l’efficacité de ces méthodes laisse fortement à désirer. Le taux d’erreur des systèmes de reconnaissance faciale en direct atteindrait même les 30% ! A San Diego, le système de reconnaissance faciale, qui a analysé plus de 65 000 visages depuis sa mise en place depuis 2012, n’aurait d’ailleurs mené à aucune arrestation…

Et chez nous ? Tout se passe comme si nous nous rapprochions peu à peu de ces logiques de surveillance, à notre rythme certes, avec retard certes, mais sans grandes entraves, et sans grand bruit.

La Chine, une avant-garde

Qu’on se rassure tout de suite : à ce petit jeu, nous resterons toujours à la traîne. La Chine n’est pas prête de perdre son leadership en la matière, et l’épisode du coronavirus en a fourni un nouvel exemple éclatant.

« L’urgence du coronavirus a sorti de l’ombre une partie des technologies de surveillance », écrit ainsi Reuters. « Les entreprises d’intelligence artificielle et de caméras de sécurité vantent la précision de leurs systèmes qui peuvent identifier dans la rue des citoyens atteints de fièvre même faible, reconnaître leur visage même s’ils portent des masques, et les dénoncer aux autorités ». Et Reuters de détailler un certain nombre d’exemples faisant froid dans le dos.

Avec l’essor du numérique, la surveillance en Chine a franchi une nouvelle étape. Pour les lecteurs friands de signaux faibles technologiques, en voici deux :

a/ L’apparition de la mise sous quarantaine numérique : un certain nombre d’individus ayant fui la ville de Wuhan ont été mis en quarantaine numériquement, manifestement via WeChat. Leurs applications ont cessé de fonctionner en dehors de la zone de quarantaine. Le même phénomène s’est produit au Mexique où Uber a bloqué l’usage de son application pour des dizaines de chauffeurs qui auraient possiblement été exposés à des personnes contaminées.

« Le potentiel d’abus à long terme ici est évident », explique l’entrepreneur Balaji S. Srinivasan, si besoin il y avait. « Si le coronavirus devient pandémique, le cas extrême deviendra la nouvelle norme. Une pandémie fera adopter à l’Etat des pouvoirs d’urgence. (…) Une fois la situation sous contrôle, les Etats ne cèderont pas ces nouveaux pouvoirs ».

b/ La traçabilité numérique de l’épidémie : le gouvernement chinois peut en effet consulter l’historique de localisation de chaque citoyen contaminé, et retrouver chaque téléphone localisé à proximité d’un « contaminé ».

On atteint ici un degré inédit de surveillance numérique, qui présente une spécificité : « c’est l’une des rares situations où un grand nombre de gens pourraient accepter d’eux-mêmes d’être tracés », écrit Balaji S. Srinivasan. Une traçabilité fine pourrait en effet « aider à déterminer les personnes et les comportements qui propagent le coronavirus. Soit littéralement une question de vie et de mort. [L’incitation à accepter est bien] plus immédiate que pour des cas de terrorisme ou de crime. »

Là encore, le danger est évident : « les gouvernements demandent des pouvoirs en temps de crise. Ils leur seront accordés. Ils peuvent les utiliser pour résoudre la crise. Mais ils finissent ensuite souvent par en abuser. »

Une pente glissante

inde

Est-ce cette dynamique qui nous anime ? Vers laquelle nous souhaitons nous diriger ? Chacun répondra évidemment en cœur que non. Alors pourquoi tendons-nous tout de même dans cette direction ? Peut-être pensons-nous que nous saurons nous arrêter au bon moment, trouver le « juste milieu », mettre le holà quand il le faudra. Ou bien accepter provisoirement des mesures d’exception avant de pouvoir y revenir ensuite.

Sommes-nous vraiment aussi naïfs ? Dans son brillant essai « Sans la liberté » (2019), l’avocat François Sureau n’y va pas par quatre chemins : « J’ai vu se vérifier une règle simple : les exceptions consenties aux usages, motifs pris de circonstances dramatiques – [par exemple] le terrorisme islamiste – finissent toujours par se retrouver étendues aux circonstances ordinaires, celles de la vie courante.

(…) C’est une caractéristique des systèmes liberticides. On les crée pour parer à une menace indiscutable, dans l’esprit du moins de leurs auteurs. Puis, dès lors qu’ils existent, on s’en sert pour autre chose ». Et Sureau de souligner, par exemple, que « la législation « antiterroriste » de Vichy a d’abord servi à réprimer des femmes coupables d’avortement ».

Au nom de la sécurité…

sureau1

A chaque fois, le même argument est brandi, comme un laissez-passer : la sacro-sainte sécurité publique.

François Sureau le formule ainsi : « Que les gouvernements, celui d’aujourd’hui comme les autres, n’aiment pas la liberté, n’est pas nouveau. Les gouvernements tendent à l’efficacité. Que des populations inquiètes du terrorisme ou d’une insécurité diffuse, après un demi-siècle passé sans grandes épreuves et d’abord sans guerre, ne soient pas portées à faire le détail n’est pas davantage surprenant. Mais il ne s’agit pas de détails. L’Etat de droit a été conçu pour que ni les désirs du gouvernement ni les craintes des peuples n’emportent sur leur passage les fondements de l’ordre politique, et d’abord la liberté. C’est cette conception même que, de propagande sécuritaire en renoncements parlementaires, nous voyons depuis vingt ans s’effacer de nos mémoires sans que personne ou presque ne semble s’en affliger. »

François Sureau l’illustre dans son essai par plusieurs exemples, dont voici un échantillon parmi d’autres : « Ce qui est sûr, c’est qu’on ne peut considérer le citoyen libre comme un délinquant en puissance. C’est pourtant ce que la loi du 10 avril 2019, dite « loi anticasseurs », a prévu. Je ne reviens pas sur la forme, sur cette manie fâcheuse de légiférer à chaque incident, qui ne date pas d’hier et qui paraît avoir installé l’hémicycle au milieu du café du commerce. Le fond est plus surprenant encore. Le droit administratif offrait depuis plus d’un siècle tous les moyens d’interdire, sous le contrôle du juge, une manifestation susceptible de tourner à l’échauffourée. Le législateur a préféré doter l’Etat du moyen de contrôler la participation individuelle de chacun à une manifestation, c’est-à-dire d’intimider, non le délinquant, mais bien le citoyen lui-même. Il ne reste rien de la liberté de manifester si le gouvernement peut choisir ses opposants. »

In fine, écrit-il, « tout se passe comme si, depuis vingt ans, des gouvernements incapables de doter, de commander, d’organiser leurs polices ne trouvaient d’autre issue que celle consistant à restreindre drastiquement les libertés pour conserver les faveurs du public et s’assurer de leur vote, dans une surprenante course à l’échalote. »

Sureau citation 1

Ce qui menace vraiment notre liberté

sureau3

Ce qui menace vraiment notre liberté, ce n’est pas tant la montée des demandes écologiques, contrairement à ce que nombre de conservateurs s’évertuent à dire – la non-prise en compte de ces préoccupations conduirait plutôt à subir des restrictions de liberté d’une ampleur bien supérieure à l’avenir – mais bien plutôt un ensemble de phénomènes qui touche à cette volonté insatiable d’ordre public et/ou à la puissance du numérique. Distinguons ici quatre grands phénomènes à l’œuvre :

-La doctrine sécuritaire, qui conduit à faire passer des lois liberticides sous prétexte de lutter contre les individus « radicalisés », comme expliqué ci-dessus par François Sureau. Or ce ne sont plus seulement les « terroristes en puissance » (notion juridique déjà très polémique…) mais également certains manifestants vus comme « hostiles » et certains militants écologistes qui sont de plus en plus visés par ces initiatives…

-La surveillance des pouvoirs publics sur les citoyens, en s’appuyant sur diverses technologies. Certains en reviennent (on apprenait récemment que « 8 ans après l’avoir lancé, Chicago a démantelé son système de police prédictive : en assignant un « score de dangerosité » aux personnes arrêtées, le dispositif encourageait le profilage racial »), mais beaucoup s’y lancent ou s’y préparent…

-Le capitalisme de surveillance des grands acteurs numériques privés, alimentée par des milliards de données et des IA sans cesse plus perfectionnées. Cet article paru ici l’an dernier expliquait pourquoi cette menace non-palpable, abstraite, est un danger pour notre libre arbitre et la démocratie.

-Les restrictions de libertés unilatérales et parfois arbitraires dans l’espace numérique. Exemple récent, qui montre que les militants écologistes devraient eux aussi se méfier de ces questions : début février, « la quasi-totalité des comptes Facebook gérant la page d’Extinction Rebellion France ont été supprimés sans aucun motif ni avertissement, rendant sa gestion impossible ». Les 15 éditeurs de la page de l’association ont ainsi vu leur compte bloqué, durant plusieurs jours, avant d’être réactivé, sans aucun message d’explication de la part de Facebook.

XR


Quel rapport avec l’affaire Griveaux ?

Le rapport avec l’affaire Griveaux est simple : les réactions tendent là encore vers ce même penchant pernicieux, celui de restreindre les libertés.

« Les réseaux sociaux sont en train petit à petit de nous faire perdre notre liberté » a proclamé l’avocat Dupond-Moretti en réaction à l’affaire Griveaux ; « l’anonymat est une entrave à notre liberté » a renchéri l’éditorialiste Nathalie Saint-Cricq, tous deux emboitant le pas de nombreux autres commentateurs depuis 48h.

Voilà donc des militants autoproclamés de la « liberté » (!) qui appellent à réguler plus drastiquement les réseaux sociaux et à restreindre, voire interdire, l’anonymat en ligne – bref, à instaurer une bonne dose d’ordre sur Internet.

roy

On pourrait penser que ces prises de position sont lancées sous le coup de l’émotion, mais il ne faut pas être dupes : l’affaire Griveaux n’est ici qu’un prétexte, un alibi fort commode pour reprendre le contrôle sur un espace trop libre, trop peu contrôlable, qui a toujours dérangé. Au fond, ces mêmes qui en appellent à un plus grand contrôle de l’espace numérique n’ont jamais accepté la liberté inédite qu’offre Internet à tout un chacun, et qui, de facto, prive une élite restreinte du privilège d’être les seuls à jouir d’une audience (avec la puissance qui va avec). Pour tous ceux-là, l’occasion est ici trop belle pour la laisser passer.

versac

Si nous n’y prenons pas garde, c’est donc encore un nouveau pan de nos libertés, déjà bien détricotées, qui pourrait sauter – et qui-plus-est sur un malentendu, puisque :

  • La vidéo en question a d’abord été partagée via une messagerie privée, puis publiée sur un site (étranger) et non un réseau social ;
  • Il n’y a pas de question d’anonymat dans cette affaire (celui qui a publié la vidéo ne se cache pas ; son avocat non plus ; les personnalités qui l’ont relayé non plus…).

libertes2

libertes

Que Benjamin Griveaux ou toute personnalité politique puisse compter sur le respect de sa vie privée n’est pas en débat ici.

L’enjeu est celui de la bonne réaction à cette affaire. Plutôt que d’ajouter des lois aux lois, veillons déjà à ce que l’arsenal existant soit bien appliqué et à ce que la justice ait les moyens de travailler correctement. Comme rappelé ici, « le droit à l’anonymat sur les réseaux sociaux, ce n’est pas l’impunité. Les moyens juridiques existent d’identifier et de poursuivre. L’article 6.1.II de la LCEN impose aux réseaux sociaux de conserver « les données de nature à permettre l’identification ». Ces données peuvent être obtenues sur requête en quelques heures et permettre la conduite des enquêtes et des poursuites. »

Soyons donc vigilants à ce que cette affaire ne serve pas de prétexte à tous ceux – et ils sont nombreux ! –  qui n’ont jamais digéré la liberté propre à l’espace numérique, et en particulier aux réseaux sociaux. Le journaliste Vincent Glad souligne d’ailleurs, en s’appuyant sur le cas Manaudou, qu’il n’y a nul besoin des réseaux sociaux pour que des contenus de « revenge porn » se propagent en masse sur Internet.

Les leçons de l’imprimerie

A bien y regarder, la situation actuelle a de nombreux points communs avec l’émergence, il y a quelques siècles, d’un bouleversement majeur dans l’histoire de l’humanité : l’invention de l’imprimerie.

L’historienne américaine Elizabeth Eisenstein le montre bien dans son ouvrage monumental « The printing press as an agent of change », comme le résume ici un article de The Atlantic :

« L’imprimerie a pris presque tout le monde par surprise. Ses ramifications furent gigantesques. Plus de livres ont été imprimés au cours des cinq décennies qui ont suivi l’invention de Gutenberg que ceux produits par les scribes au cours des 1 000 années précédentes.

(…) L’imprimerie a décentralisé le rôle de « gardien du temple ». Dans une culture scribale, maintenir un certain contrôle sur les idées et leur diffusion était simple. Avec l’imprimerie, ce contrôle est devenu plus difficile.

Les différents dirigeants ont tout de même essayé de garder ce contrôle, tout comme l’Église. Le mot imprimatur désignait ainsi l’autorisation officielle de publier, donnée par une autorité de l’Église.

(…) Mais le nombre considérable de livres produits par les imprimeurs rendait la suppression problématique. Avoir votre livre sur la liste de surveillance de quelqu’un pouvait même en faire un best-seller : « interdit à Bologne ! ».

(…) Les mots n’étaient d’ailleurs pas les seules choses à être imprimés ; des images aussi étaient diffusées en masse. (…) Quand les gens peuvent publier ce qu’ils veulent, ils le font.

 (…) Contrairement aux scribes monastiques, les imprimeurs étaient des entrepreneurs à but lucratif. Ils publiaient tout ce qui se vendait. On pouvait alors trouver tout et n’importe quoi dans un livre – théories du complot, sorts magiques, satire, érotisme – ainsi que n’importe quel point de vue. Il suffisait d’inventer quelque chose, de l’écrire et de l’imprimer, pour que les gens disent « je l’ai lu dans un livre ». 

(…) Le monde n’a plus jamais été le même. L’imprimerie a transformé la religion, la science, la politique ; elle a mis l’information, la désinformation et le pouvoir entre les mains d’un nombre inédit d’individus. Elle a créé une culture de la célébrité où les poètes et les polémistes rivalisaient pour la gloire ; et elle a assoupli les contraintes de l’autorité et de la hiérarchie, en montant des groupes les uns contre les autres.

Ce phénomène a brisé le statu quo d’une manière qui s’est avérée libératrice (émergence de la démocratie et des Lumières) mais aussi mortelle (elle porte une responsabilité dans des chaos et massacres). Comme Edward Snowden l’observe dans son nouveau livre : «La technologie n’a pas de serment d’Hippocrate.» »

Les nombreux parallèles à dresser avec l’ère numérique devraient inciter chacun à prendre conscience que le web social, avec ses bons et ses mauvais côtés, constitue une nouvelle donne à laquelle il va falloir s’adapter, quoi qu’on en pense. Cela ne signifie pas, évidemment, que cet espace peut être un far-west et que la loi ne doit pas s’y appliquer. Mais chacun doit comprendre que l’on ne reviendra pas en arrière.

Au passage, il serait grand temps que les grands contempteurs des réseaux sociaux daignent se pencher sérieusement sur ce qui fait l’originalité historique et l’intérêt de ces espaces, et en particulier de Twitter, comme l’a bien expliqué ici le communiquant Romain Pigenel ; ainsi que sur les raisons pour lesquelles l’anonymat sur Internet mérite d’être protégé (lire ce fil ou cet article).

Une chose est sûre : qu’on le regrette ou non, la politique ne pourra plus jamais être la même et devra composer avec une part accrue de transparence. Les lamentations sur la fin d’une époque n’y changeront rien, de la même façon que les réactions plaintives de certains suite à #metoo (« il nous faudra maintenant faire très attention – c’est peut-être la fin de la drague… ») – ne feront en rien revenir à la situation précédente.

Tout comme #Metoo n’a pas entraîné la fin de la drague, le web et les réseaux sociaux ne vont pas entraîner la fin de la politique ni l’avènement d’une « dictature de la transparence ». Ils inciteront chacun à se préparer et se prémunir contre une exposition potentiellement plus forte qu’auparavant.

En parallèle, il faudra nous battre pour protéger la vie privée de chacun, puissant ou non, et lutter contre toute impunité pour ceux qui transgresseront les règles, en donnant à la justice les moyens de faire son travail.

Enfin, attendons-nous à des transformations sur la façon d’être en politique. A cet égard, le pronostic de Nicolas Vanbremeersch, CEO de l’agence Spintank, qui dénonce l’insincérité en politique, est à considérer : « On a trop parlé de fake news depuis quelques années. Le problème n’est pas tant dans la vérité produite par des professionnels, ou le mensonge, mais dans un décalage relationnel. (…) Le problème se niche dans la relation, qu’il faut recréer » analyse-t-il dans un billet intéressant, où il revient sur les vœux de début d’année du dirigeant du parti majoritaire, Stanislas Guerini :

« Tout semble avoir été produit par une machine pour produire quelque chose de faux. Décor homestagé rapidement, fausses briquettes, fausses plantes vertes, faux cadres portant de fausses affiches, où l’on n’essaie même pas de s’embarrasser de réussir à créer du vrai. On est dans le fake, dans une brooklynisation tardive et ratée, où l’on ne s’embarrasse même plus de chercher à être cohérent dans la fabrique d’authenticité. C’est attristant, car on sent qu’aucun effort n’est fait. (…) Le fake irrite, énerve, quand il ne cache plus qu’il ne cherche même pas à jouer le jeu. L’élite nous dit qu’elle démissionne de sa relation avec nous. »

Il note au passage que « les figures qui ont émergé en 2019 ont été des modèles de sincérité » (Greta Thunberg, Alexandria Ocasio-Cortez…). Le futur de la politique à l’ère numérique est peut-être bien à chercher de ce côté-là.

– Clément Jeanneau

02.11.2019 à 17:34

Un moment de bascule

signauxfaiblesco

Image ci-dessus : bandes représentant les températures dans le monde de 1850 à 2018 La scène s’est passée mi-octobre, lors d’un séminaire d’une entreprise du CAC40. Tandis que les cadres réunis pour l’occasion commencent, présentation après présentation, à perdre en attention, l’arrivée d’un nouvel intervenant les sort soudainement de leur torpeur. « Je vais vous parler […]
Texte intégral (11094 mots)


Image ci-dessus : bandes représentant les températures dans le monde de 1850 à 2018

La scène s’est passée mi-octobre, lors d’un séminaire d’une entreprise du CAC40. Tandis que les cadres réunis pour l’occasion commencent, présentation après présentation, à perdre en attention, l’arrivée d’un nouvel intervenant les sort soudainement de leur torpeur. « Je vais vous parler franchement, mais je préfère vous prévenir : cela risque de ne pas être très agréable ».

L’homme travaille à la direction des relations publiques. Ce qu’il se met alors à raconter s’apprête à marquer les esprits pour le reste du séminaire. Les études menées par son équipe ces derniers mois font état d’un basculement inédit de l’opinion publique sur les thématiques environnementales, qui bousculent l’entreprise bien plus sévèrement qu’elle ne l’avait anticipé. Ce qu’elle considérait jusqu’alors comme un sujet parmi d’autres a désormais changé d’ampleur.

Entre autres implications, les ressources humaines de l’entreprise témoignent de difficultés inédites pour recruter des jeunes qualifiés. Que le groupe attire moins qu’avant n’est pas une nouveauté mais c’est aujourd’hui la force du phénomène qui frappe, et surtout inquiète, la direction. Et ce d’autant plus que les jeunes diplômés ne sont pas les seuls concernés : la confiance des 25-45 ans sur l’impact positif de l’entreprise, qui « tenait » encore relativement jusque-là, montre elle aussi de sérieux signes d’effritement, justement sur le sujet environnemental.

Le discours, sans langue de bois, laisse entendre que l’entreprise est comme pétrifiée face à cette mutation des mentalités, qui n’avait absolument pas été prévue dans son ampleur et sa rapidité. Il alimentera en interne de nombreuses discussions les jours suivants.

Prendre la mesure du phénomène

Cette scène est symptomatique de ce phénomène décrit ici au printemps comme « l’émergence d’un nouveau Zeitgeist » – un nouvel esprit du temps dans lequel la prise de conscience écologique constitue une lame de fond bousculant comme jamais marques, recruteurs, partis politiques…

Depuis le printemps, les mentalités ont continué à évoluer de telle façon que l’idée semble désormais presque évidente, comme un lieu commun. Sont passés par là, entre temps, en mai les élections européennes qui ont vu la classe politique française faire plus que jamais la course à l’électorat « écolo » ; en juin et juillet, la canicule qui a fait ressentir physiquement à chaque Français ce que nous attendra de façon récurrente dans les années et décennies à venir (pour reprendre les mots de Nicole d’Almeida, chercheuse au Celsa, « la logique du « je sais » a été bousculée par la logique du « je sens » ») ; en août, les feux de forêts en Amazonie qui ont marqué l’opinion…

Et pourtant.

Si le phénomène se produit sous nos yeux, tout se passe comme si nous n’en prenions pas toute la mesure – plus précisément, comme si ses conséquences possibles voire probables sur l’opinion publique (et ses corollaires, sur les préférences politiques, les comportements individuels, les habitudes de consommation, etc.) n’étaient pas suffisamment explorées et anticipées.

L’erreur typique n’est pas tant de nier l’existence de ces tendances de fond – cela devient difficile – mais plutôt de les considérer de façon rigide dans le temps, et non dynamique. Or les boucles de rétroaction n’agiront pas que sur le climat lui-même, mais aussi sur l’opinion publique. La situation environnementale générale ne fera vraisemblablement qu’empirer au fil des années (ce qui n’empêche pas des points d’amélioration très spécifiques, sur certaines espèces, certaines zones…), aggravant ses effets collatéraux, ce qui ne pourra en retour qu’accentuer toujours plus fortement les conséquences sur l’opinion publique qui pointent déjà aujourd’hui : défiance vis-à-vis des entreprises jugées responsables de l’aggravation du problème et des acteurs qui les soutiennent, rejet des partis politiques n’ayant pas placé ces enjeux au cœur de leurs idées, montée en puissance d’un militantisme de plus en plus organisé et de moins en moins inoffensif, etc.

En conséquence, le phénomène n’est pas une nouvelle donne statique à intégrer : c’est un nouveau paradigme en émergence, qui pointe tout juste le bout de son nez.

Cet article cherche à mettre en lumière plusieurs tendances qui en découlent, appelées à prendre de l’ampleur au fil du temps.

I – Le fait majeur de l’année 2019

Pour mieux percevoir ce qui émerge et comprendre en quoi ces tendances sont sérieuses, il est nécessaire, dans un premier temps, d’être au clair sur le basculement dont il est question ici.

2019 n’est pas tant « l’année du climat », comme le titreront peut-être certaines rétrospectives de fin d’année, mais l’année du tournant dans l’opinion publique.

Non pas que l’ensemble de la population se soit convertie aux idées écologistes – quoique la situation a bien plus évolué qu’on ne pourrait le penser (voir plus bas). Mais cette année est la première où l’écologie n’est plus un « sous-sujet » parmi bien d’autres, où il est pris autant au sérieux, où il est craint au point qu’Emmanuel Macron – le candidat le plus pro libre-échange de l’élection de 2017 – ait choisi de retirer la France du traité Mercosur et de se plier dans la foulée à un discours de contrition inédit sur l’écologie (« j’ai changé, très profondément »).

Les européennes n’étaient qu’un début

Politiquement, ce tournant s’est manifesté pour la première fois en France lors des élections européennes, qui ont vu différents partis se livrer à une surenchère inédite de promesses en la matière (Nathalie Loiseau a promis rien de moins que « 1000 milliards d’euros dans la transition écologique en cinq ans ») et où le parti écologiste (EELV) s’est hissé pour la première fois en tête des partis de gauche.

Le score d’EELV ayant déjà été élevé en 2009 à cette même élection sans véritable suite, il était tentant de considérer cette nouvelle percée comme un feu de paille propre aux élections européennes, qui n’aurait rien de représentatif pour les échéances électorales à venir.

Plusieurs signes indiquent aujourd’hui que cette analyse est partiellement erronée (…ce qui ne signifie pas pour autant – c’est important de le souligner – qu’EELV captera toutes ces aspirations).

En septembre, l’enquête 2019 « Fractures françaises » réalisée annuellement depuis 2013 par Ipsos Sopra-Steria indiquait qu’ « au cours des deux dernières années, l’environnement, qui n’avait jamais été la principale préoccupation des Français, a progressé de manière quasi continue pour s’installer à la première place ».

2019 marque bien un tournant dans la mesure où un grand nombre de barrières sont tombées, d’après les résultats de cette même enquête :

-En termes de revenus : « L’environnement n’est plus la préoccupation des gens aisés mais de tout le monde » (seule exception : les individus en extrême difficulté, dont le foyer gagne moins de 1 200 euros).

-En termes de classes sociales : « 55% de ceux qui se considèrent comme appartenant aux milieux populaires citent l’environnement comme priorité, juste devant le pouvoir d’achat (54 %). C’est autant que ceux qui se considèrent comme appartenant aux classes moyennes (53 %). »

-En termes de catégories socio-professionnelles : l’environnement est la deuxième priorité « chez les ouvriers et les employés, loin devant l’avenir du système social ou l’immigration, même si le pouvoir d’achat reste leur premier sujet. »

-En termes d’âge : l’environnement n’est pas seulement la priorité des jeunes mais également « désormais la deuxième priorité des plus de 60 ans, avec 49 % de citations, juste derrière l’avenir du système social ».

La campagne des municipales pourrait confirmer la tendance. Cécile Cornudet, éditorialiste politique des Echos, écrivait récemment : « ni gauche-droite ni progressistes-nationalistes, la précampagne pour les élections municipales met en lumière un nouveau clivage politique : écologie radicale versus écologie « des petits pas » ».

Un sondage récent d’Harris Interactive indiquait justement que « l’écologie se classe en deuxième position des thématiques qui compteront le plus dans le vote des Français » pour les municipales, après les impôts locaux. De fait, des sondages étudiés cet été par Matignon accréditent l’idée d’une dynamique particulièrement importante des idées vertes, en particulier dans les grandes villes. « Le fait nouveau, c’est que l’électorat écologiste a un socle constitué, qui tourne autour de 16 à 22 points », indique au Monde un conseiller d’Edouard Philippe. Dans une douzaine de grandes villes, « à chaque fois, le candidat écolo arrive en deuxième position. »

Plus profondément, au-delà de leur seule manifestation quantitative, les préoccupations écologiques commencent à redéfinir un certain nombre de positions politiques, à gauche comme à droite.

A gauche, les questions de (dé)croissance et de sobriété sont en passe de fracturer ce qui restait du Parti Socialiste : tandis qu’une partie des sympathisants défend, comme EELV, l’incompatibilité entre « productivisme et écologie » (ce qui était la ligne de la liste de Glucksmann, donc du PS, aux européennes), d’autres (souvent plus historiques) comme Stéphane Le Foll affirment « ne pas être pour la sobriété, mais pour une croissance sûre qui porte le progrès ». Ces deux lignes seront très difficiles à réconcilier. En réalité cependant, le créneau de la « croissance verte » étant déjà pris par En Marche, il y a peu de suspens sur le seul choix véritablement envisageable pour un parti de gauche pour se démarquer.

A droite, le phénomène est moins perceptible mais n’est pas inexistant pour autant, bien que plus mesuré pour l’heure. Il ne devrait faire que grandir à mesure du renouvellement des générations :

Bien sûr, les chiffres présentés plus haut doivent être pris avec un certain recul :

  1. Ils n’empêchent pas un décalage entre les opinions affichées et les actes. Le succès massif des SUV (à l’impact écologique important) en France et en Europe (où leur part de marché a plus que quadruplé ces 10 dernières années) en sont un exemple parmi d’autres.

  2. Les sondages sur les « principales préoccupations » ont l’habitude de varier (en fonction du contexte politique et social, des questions posées, etc.). Par ailleurs, ils ne se traduisent pas forcément directement dans les intentions de vote puis dans les votes effectifs (a fortiori pour une élection aussi personnifiée que les présidentielles). Enfin, comme déjà souligné plus haut, « percée du sujet écologie » ne signifie pas nécessairement « percée du vote EELV ».

  3. Ces chiffres peuvent évoluer à la baisse pour des raisons conjoncturelles : on sait à quel point la survenue d’un événement à l’impact émotionnel fort sur l’opinion peut bouger soudainement les lignes. Du reste, il est probable que l’été caniculaire que la France a connu ait joué un rôle important sur les opinions et chiffres cités ci-dessus.


Tout cela mérite d’être souligné mais ne doit pas masquer pour autant la tendance de fond.

Du reste, la « matrice écologique » en émergence – pour reprendre les mots de Jérôme Fourquet de l’IFOP – est loin d’être propre au paysage politique français. Citons ici quelques exemples parmi d’autres :

-En Allemagne, les Verts « sont au cœur du débat et donnent le ton », racontait en septembre Thomas Wieder, correspondant du Monde à Berlin. « En face, la CDU et le SPD sont contraints à des contorsions douloureuses afin de ménager des électeurs aux aspirations contradictoires et qui, pour les plus jeunes, semblent de plus en plus convaincus que leur discours est obsolète. »

-En Suisse, les partis écologistes ont connu en octobre un « résultat électoral historique» : « les écolos de droite et de gauche se sont imposés comme une force politique de premier plan » écrivait en octobre Marie Bourreau dans Le Monde, ajoutant : « à l’échelle de la Suisse – connue pour la stabilité de son paysage politique – c’est un tremblement de terre ».

-Aux Etats-Unis, le climat s’est imposé comme l’un des enjeux majeurs de la campagne démocrate. Signe des temps : début septembre, CNN a tenu pour la première fois une émission de sept heures entières sur le sujet, interrogeant chacun des 10 principaux candidats tour à tour. Arnaud Leparmentier, correspondant du Monde à New York, va même jusqu’à écrire qu’entre les démocrates centristes (comme Joe Biden) et la politique de Donald Trump (au-delà des mots et des postures), « le seul vrai clivage est le climat ».

 “Climate politics has quickly become the next big battle in the culture war—on a global scale” (The New Republic)

-Au Canada, on pouvait lire récemment dans Lapresse.ca que « le climat est la priorité des Canadiens plus que pour n’importe quel scrutin jusqu’ici ».

-Etc.

Tous les domaines sont concernés


Bien au-delà du champ politique, il est frappant de voir les préoccupations écologiques s’immiscer aujourd’hui partout – y compris, parfois, là où on ne les attendait pas :

-Dans l’art et le divertissement : « la musique de 2019 est hantée par l’effondrement climatique » titrait à la rentrée Les Inrocks ; « les jeux vidéo à venir semblent obsédés par la question climatique » écrivait de son côté Le Monde fin août, en précisant que « le plus important salon européen du jeu vidéo [qui s’est tenu en août] témoigne d’une obsession partagée par des créateurs de tous les continents : l’environnement. »

-Dans l’édition jeunesse : aux Etats-Unis, le nombre de livres pour enfants centrés sur la crise climatique et l’environnement aurait plus que doublé au cours de l’année précédente. « Clairement, je dirais qu’il y a eu un effet Greta Thunberg » témoigne une éditrice. « Elle a galvanisé l’appétit des jeunes et celui des éditeurs pour ce type d’histoires ».

-Dans le domaine funéraire : « A Paris, la vague écolo atteint même le domaine de la mort. Dès septembre, un premier espace funéraire écologique sera en principe créé dans un des vingt cimetières qui dépendent de la Ville de Paris pour répondre aux demandes de plus en plus nombreuses de « funérailles écologiques » (Le Monde, 4 juillet).

-Dans l’orientation des jeunes et les débouchés professionnels : « Les études de plasturgie [industrie du plastique] sont bousculées par les aspirations écologiques des étudiants » apprenait-on par exemple en juin. « C’est la première chose que mes professeurs ont affirmée lorsque nous sommes arrivés en classe de seconde professionnelle : il y a si peu de candidats que le travail est assuré à l’issue de notre formation » témoigne une étudiante.

Certaines décisions, encore impensables il y a deux ans, témoignent de ce changement de paradigme. A cet égard, l’annonce d’Intermarché de modifier 900 recettes afin d’être meilleur sur l’application Yuka (qui aurait été téléchargée à ce jour par 18 millions de Français !) restera peut-être comme l’exemple le plus emblématique de 2019 en la matière.

A l’avenir, pour les entreprises, l’erreur typique ne sera pas tant de laisser de côté les préoccupations écologiques (elles n’auront pas vraiment le choix) mais d’agir seulement par à-coups, sans cohérence globale ou constance dans le temps.

Demain, la confiance des consommateurs dans l’impact positif d’une entreprise deviendra plus que jamais pour celle-ci un avantage compétitif, à l’heure où des efforts seront attendus de la part de tous les acteurs de la société (citoyens, entreprises, gouvernements…). Dans ce paradigme, le défi principal pour les marques qui tenteront de faire leur mue sera d’éviter les ruptures de confiance soudaines, amplifiées par les réseaux sociaux (comme le « bad buzz » d’Air France cet été qui s’est pris les pieds dans le tapis avec une publicité maladroite en pleine canicule) : ces ruptures risquent de décrédibiliser toute une stratégie patiemment mise en route, et de conduire à un sentiment de trahison dont il sera ensuite difficile de se défaire.

II – A quoi s’attendre demain ?


Il faut se replonger dans le contexte de 2017 – où le sujet « écologie » était resté presque marginal lors de la campagne présidentielle, notamment dans les différents débats, et où la collapsologie, Extinction Rebellion et Greta Thunberg étaient bien loin de faire les titres – pour mesurer le chemin parcouru en l’espace de deux ans.

Dans une époque marquée par les « buzz » éphémères, il n’est pas forcément évident de percevoir que ce chemin parcouru n’est pas une « mode » (« l’air du moment est à l’écologie » entend-on parfois, comme si le flambeau allait tôt ou tard être repris par une autre tendance) mais bel et bien seulement une première étape.

Un effet de cliquet

2019 a vraisemblablement été l’année d’un effet de cliquet dans la perception du dérèglement écologique. Non seulement il est improbable que nous revenions structurellement en arrière, mais plus encore, les effets du dérèglement ne feront que pousser pour le franchissement des crans suivants, les uns après les autres, conduisant à faire sauter des digues dans nos schémas mentaux.

Ces digues sauteront d’autant plus facilement que les effets du dérèglement nous toucheront directement, sur notre territoire, jusque dans nos habitations et notre chair…

C’est par exemple le cas des feux de forêts, appelés à s’intensifier sur tout le territoire : « le réchauffement climatique avec ses épisodes paroxystiques de sécheresse et de chaleur va soumettre l’ensemble des écosystèmes, méditerranéen, préalpin, pyrénéen, océanique et plus largement national (…) à des feux majeurs et extrêmes » écrit ainsi le spécialiste Jean-Paul Monet, qui cite notamment le Limousin, le Centre, l’Ile de France et les Vosges comme régions qui seront « immanquablement concernées ». De leur côté, les zones déjà en danger risquent de voir leur situation encore se dégrader: l’association Forêt Méditerranéenne alerte par exemple sur la menace d’un « nouveau type de feux » qui « génèrent leurs propres vents, responsables de vitesses de propagation et de puissance exceptionnelles, consommant jusqu’à 5000 hectares à l’heure »…

Dans le même ordre d’idées, 1 million d’habitants en France métropolitaine risquent de subir des inondations annuelles d’ici 2050 d’après une nouvelle étude. Ces manifestations d’une ampleur inédite, ressenties au niveau personnel, ne feront qu’accélérer le changement de regards sur le sujet écologique.

Le phénomène se constate d’ores et déjà par exemple aux Etats-Unis. Fin octobre, l’éditorialiste du New York Times Farhad Manjoo, d’ordinaire plutôt centré sur les sujets technologiques, écrivait ces mots forts suite aux incendies en Californie :

« C’est la fin de la Californie telle qu’on la connait. (…) Notre mode de vie entier est construit sur une série de mythes : le mythe de l’espace infini, du carburant infini, de l’eau infinie, de l’optimisme infini, de l’étalement infini. Un par un, ces mythes s’effondrent, brûlés dans les flammes. Nous manquons d’espace, de maison, d’eau, de route et maintenant d’électricité.

L’apocalypse est désormais ressentie de façon plus élémentaire, au niveau géographique et climatique. (…) La Californie, telle qu’elle fonctionne aujourd’hui, ne pourra pas survivre au climat à venir. Ou bien nous modifions la façon dont nous vivons ici, ou bien nombre d’entre nous ne vivrons plus ici. »

Un décalage des positions

La prise de conscience progressive, inéluctable, de la gravité de la situation (directement liée au développement, lui aussi inarrêtable sur les prochaines décennies, des conséquences concrètes du réchauffement) devrait provoquer un décalage des positions de chacun. Pour schématiser grossièrement :

  • Les acteurs qui avaient eu tendance jusqu’alors à reléguer l’écologie au rang de sujet secondaire seront probablement forcés de faire des concessions dans leur discours, qui prendra alors une tournure plus « verte », que cela soit sincère ou non.

  • Les « modérés » seront amenés à durcir quelque peu leurs positions. Exemple récent : l’économiste Daniel Cohen – pas particulièrement réputé pour être un « ayatollah du climat » – défend aujourd’hui l’idée de donner au Haut conseil pour le climat un « droit de veto » sur « quelque traité commercial que ce soit » avant signature par la France. Une telle décision constituerait un retournement radical et reviendrait à refuser une partie importante des accords commerciaux internationaux. Attendons-nous à d’autres prises de position en ce sens dans les années à venir, de la part d’autres personnalités et au-delà des seuls accords commerciaux. En la matière, le premier rapport annuel du Haut Conseil pour le Climat (instance indépendante composée d’experts scientifiques français reconnus, mise en place par l’Elysée), sorti cet été, n’a pas reçu la lumière qu’il méritait. Ses recommandations – visant « seulement » à faire en sorte que la France atteigne ses objectifs climatiques –étaient pourtant chocs

  • Les acteurs déjà convaincus iront plus loin dans leurs convictions et leur engagement. Ils seront plus nombreux à s’autoriser des idées et actions plus osées qu’aujourd’hui, en rupture avec ce qui se pensait et se faisait jusqu’à présent. « L’écologie touche une génération de moins de 25 ans à un niveau de radicalité inconnu pour nous » confiait récemment un membre du gouvernement en off, à juste titre – bien que les jeunes ne soient pas les seuls concernés.

Sur le plan des idées

Sans même penser au futur, les lignes bougent dès à présent, y compris sur les clivages fondamentaux.

  • Sur la déconsommation. Une étude du cabinet Greenflex parue à la rentrée sur la « consommation durable » montre que l’année « 2019 marque une véritable rupture par rapport à 2017, année de la dernière étude » : « alors qu’il y a deux ans « consommation responsable » rimait surtout avec « consommer autrement », la nécessité de « réduire sa consommation en général » a fait depuis un bond dans la conscience des gens. Elle est désormais citée par 27% des Français interrogés, contre 14% en 2017 » relate La Tribune.
    On s’approche désormais du seuil symbolique d’1 Français sur 2 affirmant désormais limiter ses achats de produits neufs par conviction.
  • Sur la question de la contrainte. Un sondage mené en septembre pour Libération indiquait que « 61 % des sondés aspirent à un rôle «beaucoup plus autoritaire» de l’Etat en matière environnementale, imposant des «règles contraignantes», par opposition à la simple «incitation».

  • Sur la croissance. Début octobre, les citoyens tirés au sort pour la Convention citoyenne pour le climat ont donné une réponse claire au moment de désigner le principal frein à la transition écologique : « l’obsession pour la croissance ». « A leurs yeux, spontanément et très majoritairement, la croissance apparaît comme un problème, pas une solution » écrit l’économiste Eloi Laurent.

Cette opinion semble s’étendre. D’après un sondage Odoxa d’octobre, la majorité de Français – tous bords politiques confondus – considèrent désormais que la réduction drastique de notre consommation serait plus efficace pour l’environnement qu’une croissance « verte » fondée sur des technologies propres.

Les mentalités évoluent jusque dans certains bastions jugés jusqu’ici « imprenables » : fin octobre, on découvrait avec surprise dans le très pro-business Financial Times une chronique intitulée « Le mythe de la croissance verte », qui n’y allait pas par quatre chemins :

« Notre génération doit choisir : nous pouvons être verts ou être en croissance, mais pas les deux à la fois. (…) C’est vrai que nous gagnons en efficacité énergétique. Les bateaux, voitures et avions ont tous réduit leur consommation d’énergie au kilomètre. Mais comme William Jevons l’a souligné en 1865, lorsque les carburants deviennent moins chers et plus efficaces, nous en utilisons davantage [c’est l’effet rebond]. (…) Si la croissance verte n’existe pas, la seule façon d’empêcher la catastrophe climatique est de décroître à partir de maintenant, et non en 2050 ».

Pour le chercheur Luc Semal, « ce qui change, c’est que nous assistons peut-être à une forme de démarginalisation du discours sur les limites de la croissance, autrefois restreint à quelques cercles politiques. Prenons par exemple les récentes prises de position contre l’aviation : cela aurait été inimaginable il y a dix ans. L’idée qu’il faille limiter les transports aériens, voire réduire notre mobilité, gagne du terrain ».

Ces évolutions donneront lieu à de nouvelles polarisations. La croissance en est une, avec en toile de fond le débat sur le fameux « découplage », qui a fait l’objet d’un rapport récent du European Environment Bureau (conclusion du rapport : « Il n’existe nulle part de preuve empirique d’un découplage entre la croissance économique et les pressions sur l’environnement à une échelle suffisante pour faire face à la crise environnementale, et, ce qui est sans doute plus important, un tel découplage a peu de chances de se produire dans le futur »).

La question de la régulation est une autre de ces polarisations. A mesure que les préoccupations environnementales s’accentue(ro)nt, le clivage porte(ra) de moins en moins sur la nécessité d’une plus forte régulation en matière climatique (idée appelée à être de plus en plus consensuelle), mais de plus en plus sur sa forme : pour schématiser, régulation par les prix pour les libéraux, par les quantités pour les plus critiques du « laissez faire ».

L’économiste Christian Gollier (entre autres DG de la Toulouse School of Economics) considère par exemple dans un ouvrage récent que l’instauration d’un prix unique et universel du carbone est notre seul salut face au changement climatique : « L’histoire de l’humanité nous enseigne qu’il n’existe pas de grande mutation sociétale d’ampleur réussie sans modification des comportements par les prix. Nous ne nous désintoxiquerons pas des énergies fossiles sans en augmenter le prix ».

A l’autre bout du spectre, la régulation par les quantités (quotas) serait, d’après ses promoteurs, à la fois plus efficace et plus solidaire qu’une régulation par les prix (taxes). Une piste aujourd’hui en marge du débat public comme la carte carbone pourrait dans quelques années s’immiscer peu à peu dans les discussions.

Sur le plan des actions collectives

Les individus déjà engagés seront de plus en plus nombreux à vouloir s’essayer aux méthodes d’actions de désobéissance civile, non-violentes mais plus radicales que les actions plus classiques qui commencent à lasser. « Après les marches, la désobéissance civile » titrait ainsi une tribune récente. Les témoignages sont nombreux à affluer en ce sens (« J’ai changé mon mode de vie, signé des pétitions, participé au collectif des Citoyens pour le climat qui organise les marches. Mais il n’y a pas de résultat. Je me suis engagée à Extinction Rebellion car les actions sont plus radicales » raconte par exemple une militante au site Reporterre), ce que justifie Jean-François Julliard, directeur de Greenpeace France : « Face à l’urgence, et devant une rehausse des alarmes, il faut en parallèle une rehausse de nos engagements ».

Cet effet de décalage n’empêche pas certains de faire le grand saut directement : « beaucoup de personnes grillent maintenant les étapes classiques du parcours militant – les distributions de tracts, les soirées débats. Ils vont directement vers la désobéissance » note ainsi Jean-François Julliard. Ainsi, sur les 2 000 activistes ayant bloqué au printemps les sièges d’EDF, Total et la Société Générale à la Défense, deux tiers étaient nouveaux et n’avaient jamais participé à une action jusqu’alors.

Il est à parier qu’Extinction Rebellion (ou un mouvement similaire) ne fera que gagner en puissance au fur et à mesure des années, et ce partout dans le monde.

D’ores et déjà ce mouvement commence à être soutenu par des « figures », comme en Suisse où des universitaires – dont le Prix Nobel de Chimie 2017 – ont signé une tribune en ce sens, ce qu’ils justifient ainsi : « lorsqu’un gouvernement renonce sciemment à sa responsabilité de protéger ses citoyens, il a échoué dans son rôle essentiel. Le contrat social a donc été brisé et il est dès lors fondé de se rebeller ».

De même, le chroniqueur environnement du Guardian, George Monbiot, écrivait récemment que « l’Histoire jugera positivement les activistes climatique », ajoutant que « chaque avancée en termes de justice, paix et démocratie a été rendue possible par de la désobéissance ».

De fait, les formations à la désobéissance civile sont aujourd’hui prises d’assaut. L’été dernier, pendant une dizaine de jours, plus d’un millier de personnes (dont la moitié entre 18 et 30 ans) ont participé à un « camp climat » organisé par plusieurs ONG pour transmettre leur expérience en matière d’actions radicales non-violentes. Jamais cet événement n’avait eu autant de demandes d’inscriptions ; 300 demandeurs se sont même retrouvés sur liste d’attente. Depuis septembre, comme le raconte une militante, « à Paris, chaque semaine, entre 120 et 180 personnes se présentent aux réunions d’accueil. Tous les weekends, on organise des formations à la désobéissance civile et elles sont pleines. »

Au-delà de leur croissance quantitative (nombre d’actions, nombre d’individus engagés), ces actions de désobéissance civile seront amenées à se diversifier dans leur nature : encore relativement inoffensives aujourd’hui, elles chercheront probablement à être moins symboliques à l’avenir (…ce qui leur fera à la fois prendre plus de poids et subir plus de critiques). L’exemple des militants britanniques voulant perturber le fonctionnement d’aéroports au moyen de drones en est un signe avant-coureur.

Le mouvement politique de demain ?

Dans un billet publié sur Mediapart, le blogueur Olivier Tonneau souligne que l’action d’Extinction Rebellion (dit XR) devrait influer sur l’opinion publique et, par voie de conséquence, sur ce que les partis seront amenés à proposer pour les échéances électorales à venir : « XR va plus loin que les partis politiques : aucun d’entre eux n’ose évoquer la nécessité de mesures extrêmes, même temporaires. C’est que les partis ont peur, ce faisant, de se rendre impopulaires et de se barrer la route du pouvoir. En répandant la conscience de l’urgence et en promouvant un idéal de sobriété, XR fait en quelque sorte un travail d’éducation populaire qui prépare le terrain à des programmes politiques plus ambitieux ».

En allant plus loin : plutôt que « seulement » ouvrir la voie pour les partis, Extinction Rebellion n’est-il pas directement l’un des mouvements politiques de demain ? La question mérite d’être posée à l’heure où la gauche (et pas que !) semble avoir bien du mal à faire renaître une formation puissante. En pratique, XR constitue bien un mouvement dont le but est éminemment politique, qui dit « partager une vision du changement », prôner dans ses valeurs l’inclusion (« Tout le monde est le bienvenu. Même les policiers. On les a invités à venir discuter mais sans gaz lacrimo ou LBD. Les politiques c’est pareil » témoigne un militant), et refuser les « discours moralisateurs et culpabilisants » au niveau individuel.

Une tribune écrite par plusieurs membres du mouvement semble aller dans ce sens : « Nous ne sommes pas un mouvement politique au sens classique. (…) Notre approche dépasse le cadre politique habituel. (…) Notre message politique est dans l’action même » – les actes plutôt que les seules paroles, en somme, ce qui n’est pas antinomique avec la « réflexion » que le mouvement dit « valoriser ». Les ingrédients d’un mouvement politique alternatif semblent donc en germe (ce qui ne veut pas dire, évidemment, que le mouvement ait forcément vocation à participer directement à des élections) ; son évolution sera à suivre de près ces prochaines années.

Quelques projections…


Face au constat développé jusqu’ici, citons ici pêle-mêle quelques-unes des évolutions qui pourraient survenir dans différentes sphères et horizons de temps :

Au niveau des organisations

Les annonces de « compensation », devenue la pierre angulaire des plans (de communication) environnementaux de différents acteurs privés comme publics, pourraient faire de moins en moins effet à mesure que leurs limites – parfois leurs incohérences – seront mieux mises en lumière.

Les études ne manquent pas sur le sujet. Celle réalisée récemment par des scientifiques du Muséum national d’Histoire naturelle révèle ainsi la part d’esbroufe de nombreux projets de ce type en matière de biodiversité. « Les campagnes de reforestation, nouveau greenwashing des entreprises ? » interrogeait, là aussi, la revue Socialter il y a peu, en s’appuyant sur le travail des Amis de la Terre (« Planter des arbres pour polluer tranquille ? »).

En particulier, lorsque les actions de compensation reviennent à acheter des crédits carbone, une certaine vigilance s’impose : comme l’explique le cabinet spécialisé Carbone4, « il y a autant de type de crédits carbone qu’il y a d’activités émettrices de CO2 » : dès lors, c’est « la nature des crédits carbone achetés » qui « conditionne la solidité d’un engagement au regard de la lutte contre le changement climatique ».

Surtout, « cette démarche ne doit pas constituer un cache-sexe bien commode pour s’acheter une bonne conscience écologique. Une stratégie robuste (…) doit chercher à réduire coûte que coûte ses émissions en absolu ». Pour cette raison Carbone4 propose de changer de sémantique : passer d’une logique de « compensation » à une logique de « contribution » aux réductions, ce qui doit conduire à des résultats plus efficaces. Demain, la mode des annonces de « compensation », qui pourrait voir leur crédibilité de plus en plus écornée, pourrait donc être dépassée au profit d’actions plus engageantes.

Au niveau individuel

La très large insuffisance des « gestes individuels » – malgré leur impact réel et leur nécessité – pour répondre à l’urgence climatique sera de plus en plus mise en lumière à mesure que des travaux en montrent les limites, comme celui récemment effectué par Carbone4 : « Nous avons établi une liste d’une douzaine d’actions relevant de la seule volonté d’un individu [puis] regardé ce qu’il était possible d’espérer en termes de baisse de l’empreinte carbone. (…) Au total, la combinaison d’une posture « réaliste » en termes de gestes individuels (environ -10%) et d’investissements au niveau individuel (environ -10%), induirait une baisse d’environ -20% de l’empreinte carbone personnelle, soit le quart des efforts nécessaires pour parvenir à l’objectif 2°C. La part restante de la baisse des émissions relève d’investissements et de règles collectives qui sont du ressort de l’État et des entreprises ».

Par ailleurs, sur un tout autre plan (quoique…), le thème de l’éco-anxiété – que certains psychothérapeutes considèrent aujourd’hui surtout comme un « fantasme de journalistes »… – continuera probablement de « monter ». Si les scientifiques de l’environnement sont aujourd’hui parmi les premiers concernés (cf ces travaux récents publiés dans la revue Nature), on voit mal comment le phénomène ne pourrait pas toucher de plus en plus le grand public. A l’extrême, l’éco-anxiété pourrait provoquer des réactions malheureuses voire dangereuses sur des individus instables et/ou facilement manipulables.

Au niveau politique

Chaque parti va devoir trouver sa propre ligne (qu’il présentera comme) écologique. Il est peu probable qu’un parti (important) puisse désormais se permettre de se présenter en opposition à la tendance de fond de l’opinion : la position « l’écologie, ça commence à bien faire » (2011, N.Sarkozy) n’est aujourd’hui stratégiquement plus tenable pour une formation visant l’arrivée au pouvoir.

Certaines de ces nouvelles lignes sont déjà identifiables (l’écologie qui assume l’horizon de la décroissance pour une partie de la gauche côté FI et EELV ; « l’écologie sociale » pour la sphère PS, pour laquelle l’écologie doit s’imbriquer dans le social et non l’inverse ; « l’écologie pragmatique » et « positive » côté LREM et une partie de la droite ; « l’écologie des territoires » façon Xavier Bertrand, assez floue en pratique mais pouvant s’avérer efficace électoralement ; l’écologie identitaire côté Marine Le Pen ; etc.).

Dans bien des cas, il s’agira surtout dans un premier temps de marketing politique dans lequel des lignes existantes seront « verdies » sans que le reste ne soit bouleversé. Rien n’indique l’émergence à court terme d’une reconfiguration du paysage politique autour de l’écologie : on peut plutôt parier dans un premier temps sur un « verdissement » général, qui n’en aura pas moins des impacts réels sur certains choix de propositions et mesures. Ainsi, le fait que le complexe géant EuropaCity au nord-est de Paris soit aujourd’hui sérieusement sur la sellette est directement lié à la montée de l’écologie dans l’opinion publique, qui est désormais surveillée comme lait sur le feu par le gouvernement au même titre que les préoccupations sociales plus classiques – à ce point, c’est inédit.

Mais au-delà de ce « simple verdissement », de nouvelles fractures, plus profondes, émergeront sans doute. Début septembre, à Orange, le candidat LR déclaré pour les municipales, Gilles Laroyenne, a annoncé par surprise sa démission du parti en dénonçant « les dernières prises de position au plus haut niveau [du parti] sur les questions environnementales ». Ses propos sont inhabituels pour un membre de LR : « Je n’ai plus ma place dans un parti qui ne déclare pas comme priorité numéro 1 la lutte contre le réchauffement climatique. Il nous faut sortir d’une logique de croissance productiviste, qu’elle soit de droite ou de gauche. La tâche est immense et urgente. Je n’entends aucun écho par les responsables de notre parti à ces faits scientifiques avérés qui menacent notre survie collective ».

Cet épisode restera-t-il comme un épiphénomène marginal, anecdotique, ou constitue-t-il le début d’un frémissement à prendre au sérieux ? Les prochaines années nous le diront.

Au niveau de l’analyse économique

Les analyses économiques ne pourront que s’améliorer dans leur prise en compte des enjeux écologiques, et en particulier de la biodiversité, tant elles partent de loin. « Sur la question environnementale, la biodiversité est le sujet le moins bien compris des économistes, eux qui ont déjà beaucoup de mal à intégrer la question climatique » considère ainsi Gaël Giraud, économiste spécialiste des enjeux environnementaux.

Par ailleurs, parmi la multitude de problématiques ouvertes par la question écologique, celle de la comptabilité écologique est l’exemple typique de signal faible appelé à gagner en importance. Une chaire dédiée vient d’ailleurs d’être lancée début septembre, reliée notamment à AgroParisTech et à Dauphine. Attendons-nous à voir le sujet faire (plus nettement) son émergence dans le débat public.

Sur le choix des mots

L’évolution de la sémantique sur le sujet n’est pas anodine. Citons ici deux exemples :

-L’expression « développement durable » a nettement perdu de sa superbe par rapport à la décennie 2000 et au tout début de la décennie 2010, quand elle était reine. Comme le formule Luc Semal, maître de conférences en science politique au Muséum national d’Histoire naturelle, « nous vivons une période d’assèchement des espoirs placés dans le développement durable. Il y a une forme de désillusion : on commence à comprendre que maîtriser le réchauffement climatique en deçà de 1,5 °C ne se fera pas. Et que même en deçà de 2 °C, c’est très improbable. »

-Le journal The Guardian a annoncé en mai 2019 utiliser désormais les termes « urgence, crise ou rupture climatique » plutôt que « changement climatique ». On peut envisager que d’autres médias le suivent dans cette initiative, enclenchant un mouvement qui marquerait un effet de cliquet.

Sur notre vision collective de la question écologique

Les voix critiquant la focalisation sur le seul problème du climat parmi l’ensemble des problèmes environnementaux devraient gagner en audience à mesure que des solutions très contestées de géo-ingénierie (consistant à manipuler le climat et l’environnement) seront mises en avant par certains acteurs comme tentatives de dernières chances pour résorber les effets du dérèglement.

C’est par exemple ce que dénonce Aurélien Barrau : « Il existe une tendance très marquée à considérer le climat en priorité, pour l’importance qu’il joue dans la continuité des activités humaines. C’est gravissime, parce qu’à cette aune, le jour venu, la géo-ingénierie s’imposera, quitte à pourrir ce qui reste de vie dans les océans, par exemple. On n’aura rien appris et tout perdu. Seule la priorité à la protection du vivant peut inverser le processus de destruction (climat inclus, bien entendu). »

Le chercheur Luc Semal abonde dans le même sens : « Les scénarios de transition énergétique qui veulent nous faire passer à 100 % de renouvelables sans réduire le niveau de confort énergétique impliqueraient des conséquences dramatiques pour la biodiversité ».

En somme, si la distinction entre objectif purement climatique d’une part, et protection du vivant d’autre part – malgré les liens forts et certains qu’ils entretiennent – fait encore peu parler à l’heure où le sujet environnemental est souvent vu comme un « tout » uni par le grand public, elle est appelée à être (plus) considérée à l’avenir.

Et aussi

Nous pourrions aussi évoquer les questions de…

transports et mobilité, avec (entre autres) le début d’une renaissance des trains de nuit. Leur marché est en plein développement notamment en Autriche, où la compagnie ÖBB note depuis plus de six mois une croissance inhabituellement forte de la fréquentation de ses lignes nocturnes, qu’elle explique par les préoccupations environnementales. « Quand on observe les discussions politiques sur l’environnement en Europe, on se dit que les jalons sont posés, expliquait au début de l’année l’un des cadres d’ÖBB. Mais, à mon avis, il faudra attendre encore deux à trois ans pour qu’il y ait une vraie bascule. A ce moment-là, nous serons les mieux préparés. »

Dans le même ordre d’idées, un sondage récent indiquait que « 60% des Suisses voyageraient volontiers en Europe en utilisant les trains de nuit ». En France, le gouvernement a annoncé récemment vouloir « réinvestir » dans la rénovation des trains de nuit (rénovation des couchettes, installation du wifi et de prises, amélioration de l’éclairage…) et « prolonger le contrat pour les lignes actuelles ». Dépoussiérage complet de « l’expérience client » et nouveau modèle (l’association « Objectif train de nuit » suggère par exemple de proposer des trains mixtes fret + voyageurs) pourraient être les catalyseurs de ce phénomène à suivre.

tourisme, dont l’avenir est intimement lié à la montée des questionnements écologiques. Un article dédié y sera consacré sur ce site.

…et tant d’autres domaines qui seront affectés par la croissance des préoccupation écologiques de la même façon que la révolution numérique provoque des « disruptions » sur un grand nombre de secteurs, avec des gagnants et des perdants, et des acteurs capables d’anticiper des basculements tandis que d’autres tardent à en saisir la puissance et les implications.

Ce qui va accélérer le basculement

Les changements de points de vue passeront en large partie par les normes sociales (souvent l’angle mort des futurologues, dont le prisme technologique les conduit à d’importants biais dans leurs prédictions).

Tout l’imaginaire social est à réinventer. Les mentalités ont cependant déjà commencé à évoluer bien au-delà des cercles militants. Il n’est pas anodin que la revue Glamour Paris vienne par exemple d’organiser son premier concours sur « 20 espoirs de l’écologie » – un signe parmi d’autres que s’engager pour le sujet est devenu « hype ».

Le phénomène se retrouve au niveau des modes adolescentes (qui constituent parfois des signes avant-coureurs intéressants) avec la tendance dite de la « VSCO Girl », manifestement très récente et pourtant déjà suivie par un certain nombre de (pré)ados de la tranche 12-18. Selon le site Madmoizelle, la « VSCO Girl » typique « se déplace en vélo, une gourde réutilisable dans son panier », se prend en photo « dans des environnements naturels comme les champs, la montagne, la plage, mais surtout le parc ou un jardin : dès qu’il y a du vert, ça lui va ». Ce qui peut sembler ici anecdotique dit cependant quelque chose de ce « nouvel esprit du temps » dont il est ici question.

Le prochain palier sera franchi lorsque la pop culture s’emparera pleinement de l’urgence écologique. A cet égard, l’évolution des regards sur les combats féministes est une boussole intéressante. Le tube emblématique de 2013 était « Blurred Lines » ; celui de 2019 est « Balance ton quoi ». Qui connait les paroles de ces titres mesure le chemin parcouru sur le sujet. Blurred Lines, malgré les polémiques déjà existantes à sa sortie, ne ferait certainement pas parler de la même façon s’il était sorti à l’époque post-me too – du reste, même son interprète a récemment dû effectuer son mea culpa. De la même façon que la pop culture s’est emparée du sujet du féminisme sans en édulcorer le propos (ce qui n’était pas gagné ! « Je ne passerai pas à la radio parce que mes mots ne sont pas très beaux » chantait Angèle…), on pourrait la voir demain s’emparer de la crise écologique, sujet jusqu’ici considéré comme anxiogène et peu vendeur. Que le DJ Fatboy Slim ait récemment remixé l’un de ses tubes en y intégrant des paroles du discours de Greta Thunberg à l’ONU est un premier signe en ce sens. Bien d’autres pourraient suivre.

Entre autres facteurs d’accélération du basculement en cours, mentionnons-en trois autres qui devraient jouer un rôle non-négligeable :

-Les prises de position de célébrités qui non seulement souligneront la gravité des problèmes mais, plus encore, feront état de leurs craintes auront une influence à ne pas sous-estimer. Pensons au message spectaculaire récemment posté (puis vite supprimé) sur les réseaux sociaux par Lewis Hamilton, quintuple champion du monde de Formule 1 : « L’extinction de notre race devient de plus en plus probable si nous utilisons nos ressources de façon excessive. Le monde est un désastre, les dirigeants mondiaux ne se soucient pas de l’environnement. (…) Sincèrement, ma vie n’a aucun sens. (…) Honnêtement, j’ai envie de tout abandonner. De tout couper. »

-Le numérique, en parallèle des études démontrant son impact environnemental non-négligeable (même s’il faut aussi le remettre en perspective), fera apparaître de nouveaux outils capables de faire évoluer comportements et opinions. Une app comme Ma Petite Planète (compétition de défis écologiques entre amis, inspirée du fameux Mon Petit Gazon sur le football) est un exemple intéressant de gamification pour favoriser des actes individuels plus responsables, dans la veine de l’app 90jours. Le cabinet Haigo en a imaginé plusieurs autres dans un article dédié, comme cette idée de plug-in qui serait capable, en cas de recherche d’un internaute sur un comparateur de vols, de lui proposer un trajet alternatif en train.

-Enfin, le changement de regard sur les questions écologiques passe aussi par l’influence des jeunes (lorsqu’ils sont convaincus) sur leurs parents. Une étude parue en mai dans la revue Nature Climate Change montre que « les enfants peuvent accroître le niveau de préoccupation de leurs parents sur le changement climatique », non seulement parce que « les parents accordent une réelle importance à ce que leurs enfants pensent » mais aussi parce que contrairement aux adultes, « les point de vue des enfants sur la question n’est généralement pas relié à une idéologie politique enracinée »…

Ne pas sous-estimer l’impact des ruptures

Le cas du tabac le montre bien : si les restrictions imposées au fil des ans par les pouvoirs publics ont pu faire grincer des dents, il n’y a aujourd’hui plus de débat sur la légitimité de ces mesures. Jean-Marc Jancovici et Matthieu Auzanneau, du think tank « The Shift Project », dressent dès lors ce parallèle :« qui dira aujourd’hui que le changement climatique et l’air pollué de nos villes sont moins dangereux que le tabac ou l’alcool ? ». Ils interpellent notamment sur une question en passe de devenir un symbole :combien de temps encore les publicités pour les véhicules particulièrement voraces en énergie resteront-elles en l’état ?

De manière générale, certaines pistes pour limiter les émissions de CO2 ou protéger la biodiversité sont quasi exclues du débat public dominant à l’heure actuelle, car jugées trop radicales. Or l’Histoire montre que la survenue d’événements puissants et inattendus peut amener l’opinion publique et l’élite dirigeante à prendre parti pour des points de vue considérés jusque-là comme impensables.

Certains épisodes historiques comme la Grande Dépression dans les années 1930 ont ainsi fait basculer soudainement des opinions dominantes. Aux Etats-Unis par exemple, les tentatives d’instaurer une assurance vieillesse financée par les contribuables sont restées au point mort durant des décennies (avec même des arrestations de certains militants après la première guerre mondiale) jusqu’à ce que la crise des années 1930 conduise à un renversement soudain de tendance, avec l’adoption massive de la loi sur la sécurité sociale en 1935 (372 votes contre 33 à la Chambre des représentants, 77 contre 6 au Sénat).

Nul ne peut prédire l’ampleur des conséquences sur l’opinion qu’auront les manifestations extrêmes dues au dérèglement climatique – mais il serait bien périlleux de croire qu’elles resteront aussi limitées et sages que certains l’imaginent aujourd’hui.

Quand nous nous repencherons dans vingt ans sur la période actuelle, nous serons surpris de la timidité de certaines décisions, de la superficialité de certains argumentaires déployés pour freiner les changements, de la médiatisation apportée à certains discours rétrogrades. Nous les regarderons de la même façon que nous considérons aujourd’hui les thèses climatosceptiques d’un Claude Allègre qui ont pourtant été développées, médiatisées et soutenues (par des personnalités comme Luc Ferry) il y a moins d’une décennie… Demain, les positions aujourd’hui considérées comme radicales paraîtront plutôt banales. La radicalité de demain ne sera pas celle que l’on croit. Nous n’avons encore rien vu.

Clément Jeanneau

28.08.2019 à 09:24

Thinkerview préfigure l’avenir des médias

signauxfaiblesco

C’est l’une des vidéos du moment, de celles dont on se passe le mot, qui récolte éloges et superlatifs sur les réseaux sociaux. « Alstom : la France vendue à la découpe ? » : depuis sa mise en ligne début juillet, cette interview de Frédéric Pierucci, ex-cadre d’Alstom, a dépassé les 700 000 vues, une prouesse pour une […]
Texte intégral (9611 mots)

C’est l’une des vidéos du moment, de celles dont on se passe le mot, qui récolte éloges et superlatifs sur les réseaux sociaux. « Alstom : la France vendue à la découpe ? » : depuis sa mise en ligne début juillet, cette interview de Frédéric Pierucci, ex-cadre d’Alstom, a dépassé les 700 000 vues, une prouesse pour une interview géopolitique de plus de 2 heures.

Son succès – qui continuera certainement de grandir ces prochaines semaines – tient bien sûr en large partie à son sujet. L’affaire de la vente d’Alstom à l’américain General Electric (qui avait déjà été relatée bien avant cette vidéo, et fait l’objet d’un documentaire) a tout du thriller fascinant, mêlant espionnage, affaire d’Etat, intelligence économique…tout en abordant des sujets capitaux (souveraineté, Europe, relation avec les Etats-Unis, etc.).

Mais il y a autre chose. Le succès de cet entretien est directement lié, aussi, au média qui en est à l’origine : Thinkerview.

Thinkerview n’est pas une nouveauté dans le paysage des nouveaux médias en ligne. Lancée en 2013, cette chaîne YouTube, qui s’est fait une spécialité de diffuser de longs entretiens (1h30, parfois même 2h) en direct, puis en streaming, de personnalités aux points de vue souvent « alternatifs » sur des sujets variés (géopolitique, numérique, écologie, finance, journalisme…), a cependant mis plusieurs années avant de percer au-delà de son cercle d’habitués.

Depuis l’an dernier, et surtout depuis ces derniers mois, la chaîne décolle : de 150 000 abonnés sur Youtube en juin 2018, elle passe à 200 000 en octobre puis double ce chiffre en neuf mois avec 400 000 abonnés en juillet 2019. A titre de comparaison, Cash Investigation en est à 270 000, C à vous 300 000, Quotidien 400 000, On n’est pas couché 500 000. Thinkerview devrait dépasser la barre des 500 000 d’ici cet automne.

Depuis janvier 2019, les chiffres indiquent entre 2 et 3 millions de vidéos vues par mois.

La popularité de Thinkerview, encore limitée il y a quelques temps, ne peut plus être considérée comme anecdotique, ni comme un feu de paille comme Internet a l’habitude d’en produire.

Alain Juillet, ancien directeur du renseignement à la DGSE, interviewé par la chaîne l’an dernier, raconte ainsi avoir « découvert un monde à l’impact effarant. J’avais déjà fait des passages télé, mais jamais connu ça. Des gens m’arrêtent depuis dans la rue parce qu’ils m’ont vu sur ThinkerView. »

Tout indique que la chaîne est partie pour s’installer durablement et, plus encore, qu’elle continuera à gagner en importance au fil du temps.


Thinkerview suscite pourtant un certain nombre d’agacements et de critiques, qui tiennent en large partie à son intervieweur. Celui qui se fait appeler Sky et qui tient à rester anonyme (même si quelques recherches suffisent à retrouver nom, mail personnel, etc.) fait grincer quelques dents : sa façon tantôt nonchalante tantôt agressive de mener ses entretiens, son prisme complotiste ou son choix d’accueillir certaines personnalités controversées sont des critiques récurrentes à son égard, pas dénuées de vérité.   


Mais plutôt qu’un simple questionnement binaire « pour ou contre Thinkerview » (à l’évidence, il y a du bon et du moins bon, et rejeter le tout serait passer à côté de certains entretiens passionnants, comme, outre celui sur Alstom, celui de l’économiste Gaël Giraud sur l’écologie), il est plus important de se demander pourquoi la chaîne prospère autant. En la matière, le plus simple est d’abord d’écouter ceux qui la suivent :


…ainsi que ceux qui y sont invités :


Si Thinkerview est populaire, c’est parce que la chaîne répond à un besoin – celui exprimé ci-dessus.

Comprendre le succès de Thinkerview implique de comprendre ce besoin initial. Il y avait plusieurs manières d’y répondre. Thinkerview en a proposé une ; force est de reconnaître qu’il l’a très bien exécuté, que l’on partage ou non les opinions qui y sont véhiculées.

Le manque initial est bien sûr loin d’être comblé par cette seule chaîne, ce qui signifie qu’il y a de place pour d’autres initiatives, avec leur propre ton, leur propre style, leur propre ligne éditoriale…Tenter de répliquer le modèle de Thinkerview tel quel n’aurait pas grand sens, mais chercher à répondre (différemment) au même besoin garde toute sa pertinence.

Un média atypique…et pourtant typique de l’ère numérique


Le succès de Thinkerview est intéressant parce qu’il vient affronter directement la représentation commune d’un « média Internet » aujourd’hui. A l’ère des vidéos courtes façon Brut et Konbini, de la course à l’audience d’un Melty, et de la « production de contenus » orientée « junk news (pratiquée par toujours plus de magazines en ligne), nous voici en présence d’un média gratuit qui a fait le choix du très long format, dédié à l’analyse, sur des sujets parfois arides…et qui cartonne.

Diantre ! Nous aurait-on menti ? Le web ne serait donc pas forcément synonyme de buzz, formats courts, instantanéité ? Les sujets de fond, la réflexion, le temps long ne serait donc pas la chasse gardée des médias traditionnels (et/ou payants) ? Thinkerview force à revoir certaines représentations parfois solidement ancrées. Oui, les internautes – ou du moins certains – sont bel et bien capables de rester attentifs, et même captivés, sur un même contenu pendant 1h, 2h, et même plus… :


Bien qu’en décalage avec l’idée que l’on se fait généralement d’un média gratuit sur Internet, Thinkerview correspond en réalité parfaitement à l’ère numérique :

1 – Il se nourrit de la défiance vis-à-vis des médias et plus généralement des institutions – conjuguée à un intérêt porté à l’actualité qui ne faiblit pas – en donnant la parole, via à des outils numériques classiques (YouTube, Facebook, Twitter…) et moins classiques (PeerTube, Mastodon), à des personnalités souvent critiques et peu entendues dans le paysage médiatique traditionnel. Ce faisant, il propose un discours alternatif, qui plait.

Il est donc le produit de ce contexte particulier, cette société de la défiance qui est encore plus forte en France qu’ailleurs, le numérique étant ici un levier.

A cet égard, notons que l’une des propositions de valeur phares de la chaîne réside dans l’absence de tout montage post-interviews : après leur diffusion en direct, les vidéos ne sont pas coupées lorsqu’elles deviennent ensuite accessibles en streaming. Cette transparence, qui empêche toute manipulation, s’inscrit entièrement dans le besoin issu de la société de défiance.

2 – Il s’appuie sur le désir, puissant, d’entendre des idées non-politiquement correctes, parfois dérangeantes, par opposition aux idées jugées trop convenues, plates, répétitives, de nombreuses émissions habituelles abordant des sujets de fond.


Le numérique est ici exploité comme terrain d’expression et de création libre (via le format vidéo) – à l’instar de la vague des blogs dans les années 2005-2010 (format écrit) et de la progression plus récente des podcasts (format audio) – pour combler un manque insuffisamment adressé par les émissions habituelles, qui s’essoufflent.

En la matière, l’arrêt de l’émission « Ce soir (ou jamais !) » sur France TV en 2016 a marqué une nouvelle étape, étant considérée comme la dernière à proposer des débats de fond, en direct, où des invités aux idées parfois non-conventionnelles disposaient d’un temps rare à la télévision pour s’exprimer. Notons d’ailleurs que « Ce soir (ou jamais !) » recevait des critiques similaires à celles reçues par Thinkerview aujourd’hui (invités jugés trop « limites » ou extrêmes, propos parfois trop peu recadrés, etc.). Le fait que Frédéric Taddeï, l’animateur de l’émission, n’ait trouvé aucun autre point de chute que la controversée chaîne russe RT pour proposer une émission dans le même esprit n’est d’ailleurs pas anodin.


3 – Plus qu’un média réalisant des vidéos en ligne, Thinkerview est une communauté de milliers d’internautes, fidèles à la chaîne, et pour une partie d’entre eux soutiens actifs. C’est avant tout en cela, et non simplement par son usage intelligent des outils numériques, qu’il s’agit d’un média typique de l’ère numérique, et ainsi qu’il préfigure un certain avenir des médias.

Thinkerview est le média typique de « L’Age de la Multitude », du nom de l’ouvrage passionnant de Nicolas Colin et d’Henri Verdier publié en 2012 qui développe l’idée que le fait majeur de la révolution numérique, bien au-delà de la simple technologie, est la libération d’un potentiel nouveau, celui de la « multitude » d’internautes, à considérer comme un actif d’une puissance inédite. Dès lors, l’enjeu stratégique est de parvenir à susciter et exploiter le potentiel de cette multitude (ce qui amène les auteurs à parler du concept de « sur-traitance »).

Thinkerview est loin d’être le premier média à avoir tenté d’exploiter cette multitude. La vague des « médias participatifs » dans les années 2005-2010 (LePost, Agoravox, Rue89) suivait ce chemin. Mais le modèle s’est essoufflé au bout de quelques années et cette vague s’est éteinte au début des années 2010.

Là où les sites comme LePost et Agoravox faisaient produire du contenu aux internautes, Thinkerview garde la main sur le contenu et bénéficie autrement de la multitude qui l’entoure.  

L’actif principal et différenciant de Thinkerview : sa communauté

La communauté entourant Thinkerview entre bien dans le paradigme présenté par N. Colin et H. Verdier. Concrètement, elle se manifeste par :

* Des actions simples et spontanées de communication sur les réseaux sociaux (et via du bouche-à-oreille classique) pour partager les vidéos et recommander la chaîne, permettant ainsi de la faire connaître à toujours plus de nouvelles personnes.

* Du fact-checking collaboratif en direct, via la plateforme CaptainFact, pour vérifier pendant les interviews que les invités appuient leurs propos sur des faits réels.

* De l’aide apportée à l’animateur pour proposer et parfois contacter des invités potentiels. La force de la communauté est ici celle du réseau personnel de chacun de ses membres.

Et de fait, cela fonctionne. La chaîne est aujourd’hui capable de faire venir des invités de marque. Elle n’est plus réduite à un panel restreint d’invités boudés par les grands médias et en recherche de lumière. Edgar Morin, Jean-Luc Mélenchon, Elise Lucet, Lilian Thuram, Arnaud Montebourg, Mounir Mahjoubi (lorsqu’il était au gouvernement) ou encore Yanis Varoufakis se sont ainsi pliés aux règles du jeu de la chaîne.


* Un soutien financier, qui permet à la chaîne de récolter plus de 20 000 euros par mois de la part de 2631 internautes (soit une moyenne de 7.6 euros mensuel par contributeur). Ce montant, qui ne fait qu’augmenter (il était de 17 000 euros il y a trois mois), permet depuis peu de rémunérer l’animateur (environ 2200 euros par mois, indique-t-il) et l’équipe technique, et de rendre le média rentable (« on a besoin de 14 700 euros pour ne pas être dans le rouge »).

Les dons sont apportés via la plateforme Tipeee, d’où le terme « tipper » :

Un cas d’école en marketing

La construction de cette communauté très engagée rejoint les analyses du « gourou du marketing » Seth Godin, que l’on peut appliquer ici à l’univers médiatique.

Celui-ci considère (comme déjà écrit dans un précédent article) que « cela n’a plus de sens de vouloir plaire à tout le monde. Plus aucun produit ou service ne peut avoir cette ambition. Les marques doivent concentrer leurs efforts sur un petit nombre de clients, et susciter leur engagement. Et pour cela, elles ne doivent plus hésiter à être avant-gardistes, à prendre des risques, à oser les extrêmes ».

Thinkerview n’a pas été construit comme un business mais ce propos reste applicable. La chaîne gagne de l’argent grâce à ceux qui la « consomment » et suscite leur engagement grâce une marque forte : valeurs non consensuelles (défiance vis-à-vis de l’Etat, des médias, culture de la remise en question…), mise en avant de personnalités et idées en marge (parfois controversées), forme de théâtralité avec son fond noir et son générique hypnotisant, récurrence de la même question d’introduction (« bonjour, nous vous recevons pour une chaine Youtube qui s’appelle Thinkerview, pouvez-vous vous présenter su-ccin-te-ment » qui relève d’ailleurs plus de l’injonction que de la demande), tous ces éléments créant une adhésion très nette chez certains et des rejets marqués chez d’autres.

Seth Godin considère d’ailleurs que « la plupart des marketeurs ne prennent pas la peine de mesurer ce qui compte vraiment: la confiance; les attentes; être manqué lorsqu’on s’absente. » Là encore, l’analyse peut s’appliquer à Thinkerview. Chaque nouvelle émission, annoncée peu avant, constitue ainsi un petit événement pour les suiveurs assidus :

Combien d’émissions peuvent-elles en dire autant ? Combien suscitent-elles une adhésion telle que certains spectateurs non-rassasiés cherchent à savoir s’il existe des équivalents hors de France ?


Thinkerview valide ainsi la théorie des « 1000 vrais fans » de l’auteur américain Kevin Kelly : pour vivre en tant que créateur indépendant, il n’est pas nécessaire d’avoir des millions de suiveurs mais de pouvoir compter sur 1 000 fans capables de s’engager fortement, en particulier en mettant la main au portefeuille. Dès lors, plutôt que de chercher à créer le consensus pour intéresser le plus grand nombre, mieux vaut essayer de d’abord de plaire fortement à un nombre limité d’individus, sans s’inquiéter de déplaire à beaucoup d’autres. Le mot se répandra ensuite, conduisant naturellement à croître. « Vouloir parler à tout le monde revient à ne parler à personne » tranche Seth Godin, pour qui chercher à plaire à tous conduit à « faire des choses moyennes pour des gens moyens ».

Un aperçu du futur des médias

Comme l’explique Nicolas Colin, au XXe siècle l’industrie des médias s’est convertie, comme les autres industries, au paradigme dominant de la production de masse. « La télévision, la radio et la presse écrite se sont massifiées. Tous ces secteurs se sont concentrés autour d’un oligopole de quelques acteurs dominants. »

Cette massification des médias s’est produite par nécessité, pour absorber le coût élevé de la distribution. « Être un média au XXe siècle, ça voulait dire acheter ou louer des fréquences hertziennes ou immobiliser une énorme infrastructure logistique pour l’impression et la distribution de journaux et magazines.

Pour couvrir ce coût fixe élevé de la distribution, il fallait avoir une audience massive. Et comment fait-on ça ? En étant le plus consensuel possible. Pas de place pour l’outrance et la polarisation quand l’objectif est d’être regardé, écouté ou lu par la masse. »

Internet est venu percuter cette donne de plein fouet, en faisant chuter le coût de distribution des contenus. Les barrières à l’entrée se sont effondrées, ouvrant la voie à l’éclosion possible de multiples nouveaux médias n’ayant plus besoin d’être consensuels, pouvant s’adresser à des niches et pouvant être créés par des non-professionnels.

Dès lors, les médias traditionnels se sont retrouvés affaiblis sur leurs deux principales missions, comme l’explique l’Institut Montaigne dans une étude récente : d’une part, sur leur capacité à agir en « gardiens de l’information » (le fait qu’un nombre limité de professionnels informent la majorité des citoyens et décident des informations à présenter), d’autre part, sur leur capacité à organiser le débat public (décider des sujets à débattre).

Le nouveau paradigme qui s’est ouvert rebat (en partie) les cartes. Nicolas Colin met en avant trois traits communs aux médias de demain :

  1. Des formats innovants qui exploitent les avantages permis par Internet. C’est le cas de Thinkerview qui se permet de « casser » la contrainte d’une durée d’interviews resserrée et minutée, diffuse ses interviews sur plusieurs canaux, se sert largement de la force des réseaux sociaux, utilise un outil innovant pour le fact-checking collaboratif en direct, etc.

  2. « Une relation directe et privilégiée avec une communauté engagée ». C’est là aussi le cas de Thinkerview : l’animateur interagit lui-même avec sa communauté (relation directe) ; cette communauté peut notamment poser des questions en direct aux invités, agissant ainsi sur le contenu (relation privilégiée), et est bel et bien engagée comme expliqué plus haut (soutien financier et non-financier).

  3. « Une ligne éditoriale subjective, clivante et sans concession. Le journalisme consensuel et “objectif” du XXe siècle était le produit d’une nécessité : le coût élevé de la distribution. Il est aujourd’hui devenu ennuyeux et non-rentable ». Même si Thinkerview se revendique « apolitique » (comprendre : ne prend pas position pour tel ou tel parti), la chaîne s’empare de sujets éminemment politiques, et est bel et bien clivante dans ses choix d’invités, d’angles, de questions. Pour Nicolas Colin, « nous assistons à une révolution copernicienne. L’avenir de l’industrie des médias réside dans la couverture subjective et la polarisation idéologique – comme c’était le cas au XIXe siècle, juste avant l’avènement des médias de masse. »


On voit donc ici pourquoi Thinkerview préfigure l’avenir des médias : il constitue l’archétype d’un des modèles appelés à se développer à l’avenir.

L’idée n’est pas de dire que ce modèle est l’unique voie à suivre. En France, les quelques réussites de nouveaux médias, qu’ils soient numériques comme Contexte (spécialisé dans les politiques publiques) ou papiers comme Le 1, montrent par exemple qu’il est possible de trouver un lectorat prêt à payer sans pour autant devoir polariser idéologiquement – à condition d’avoir une proposition de valeur claire et différenciante…et de ne pas négliger les formats innovants (cf la grande feuille dépliable du 1, ou les innovations web de Contexte).

Mais plusieurs signes indiquent tout de même que le secteur se dirige dans la direction de ci-dessus. Il n’est pas anodin, par exemple, que depuis l’élection de Trump le Washington Post se soit doté pour la première fois de son histoire d’une devise engagée et percutante (« Democracy dies in darkness »). Tout comme la forte hausse des abonnements au New York Times suite à cette même élection souligne en creux qu’un de ses atouts clefs réside bien dans sa ligne éditoriale subjective et clivante (…pour un pays comme les Etats-Unis). Dans le cas français, on peut penser à l’évolution d’un journal comme Le Monde sur les questions écologiques, qui est, là aussi, significative : en l’espace d’un an, son ton s’est fait nettement plus engagé, notamment via ses choix de Une et de sujets. Sans parler, bien sûr, des médias numériques clivants dont Mediapart est la tête de proue mais n’est pas le seul (Reporterre engagé sur les enjeux écologiques, Next INpact sur les enjeux politiques et juridiques du numérique, etc.).

De même, la renaissance du Washington Post n’est pas étranger à l’accent qu’il met sur les formats innovants, à commencer par la newsletter (format redevenu très à la mode) – dont il en publie près de 60, en s’appuyant sur une équipe à temps plein de 14 salariés – mais aussi, au-delà, avec la multitude d’initiatives conçues par des centaines d’ingénieurs, aussi bien sur l’aspect éditorial que publicitaire. Sans parler de sa stratégie d’ « hyperdistribution » des contenus bien adaptée au monde numérique. Autant d’innovations qui ne remplacent évidemment pas la qualité du contenu mais qui permettent d’exploiter au mieux le tournant numérique plutôt que le subir. Sur le plan éditorial, l’exemple de la relance récente du format des blogs (qui était tombé en désuétude) par le site du journal Le Temps est lui aussi intéressant : ces blogs – présélectionnés et bénéficiant ensuite d’une grande visibilité – sont en effet appelés à couvrir des « thématiques de niches, peu traitées par les médias généralistes alors qu’elles intéressent pourtant un grand nombre de lecteurs ».

Enfin, s’agissant de la construction d’une « relation directe et privilégiée avec une communauté engagée », les grands titres de presse ont été nombreux à lancer des initiatives en ce sens ces dernières années, notamment autour de la notion de « club ». Entre autres exemples, pensons au membership program du Guardian, qui propose notamment l’accès à des débats avec des « plumes » du quotidien, ou encore, dans le cas d’un nouveau média comme Contexte, aux rencontres privées régulières avec des décideurs clefs. Néanmoins en la matière, la marge de manœuvre est probablement encore importante ; l’engagement des communautés reste par exemple peu développé. Beaucoup reste encore à faire, même si cela doit parfois passer par une diversification au-delà du journalisme. Ainsi, l’exemple des événements extrêmement divers (mais en cohérence avec la ligne éditoriale) organisés avec succès par Le Temps témoigne du champ des possibles : visite d’un laboratoire de parfumerie suite à un dossier paru dans le journal, soirée zéro déchet, cours de philosophie pour enfants…Le journal rappelle que « depuis le XVIIIe siècle, la presse a toujours joué un rôle d’animateur de la vie sociale » – une proposition de valeur qui semble avoir plus-que-jamais du sens à l’ère du numérique et de la recherche de lien social.

En pratique, ces initiatives s’appuient toutefois en large partie sur l’existence d’une marque déjà forte. La donne risque donc d’être différente pour les titres moins prestigieux, pris en étau entre les grandes marques historiques et les nouveaux médias de l’ère numérique. Pour eux, le besoin de se réinventer fortement, de se transformer radicalement, risque d’être une question de survie.

Les défis que pose le succès d’un média comme Thinkerview

La popularité d’une chaîne comme Thinkerview n’est pas sans présenter certains risques. Ceux-ci peuvent être reliés, pour une partie d’entre eux, à cette réflexion du blogueur Guillaume Champeau postée récemment sur Twitter :

« Quand il n’y avait pas Internet, tout le monde s’informait avec le 20h de TF1 et/ou quelques journaux, radios et magazines. L’info était biaisée mais on le ressentait peu. Il y avait des référentiels communs de discussion.

C’était une société au mieux de sous-information, au pire de facile manipulation, où discuter d’un sujet entre nous était possible parce qu’on avait tous à peu près les mêmes bases factuelles (biaisées, mais les mêmes). Ce n’est plus le cas. Aujourd’hui, ce qui passe à 15h23 sur BFMTV est contredit à 15h24 sur Facebook, l’édito de RTL de 8h01 est en décalage avec ce qui se dit sur Twitter depuis 7h43, la dépêche AFP de 9h12 est nuancée par un Checknews de 17h35…

On nage dans un océan de points de vue différents, de faits différents, il n’y a plus de référentiel commun dans la réception de l’actualité. Et donc, on n’arrive plus à discuter entre nous. On ne comprend pas le commentaire de celui qui n’a pas les mêmes faits que nous, on s’énerve contre celui qui a un point de vue qu’on ne peut pas admettre sachant ce qu’on sait, croyant ce qu’on croit savoir.

C’est un vrai défi de vie en société. La communication politique reste encore largement ancrée dans les réflexes de quand j’étais petit, de quand l’info était uniforme. On matraque très vite qu’il s’est passé telle chose innommable sans y apporter la moindre nuance, en se disant que ça sera ça l’info, en négligeant que la nuance est déjà là, qu’elle circule, qu’elle circulera, et donc qu’on ne fait que renforcer des colères, là où avant, sans doute, le politique pouvait vouloir mentir ou exagérer pour apaiser, pour contrôler. Ce n’est plus possible.

D’un certain sens, tant mieux. Mais quelle est la bonne réponse à ça ? Comment fait-on société, dans un monde d’information personnalisée ?

Je suis convaincu qu’on n’est qu’aux tous débuts d’une crise planétaire parce qu’Internet, on l’oublie trop souvent, révolutionne la médiatisation comme l’imprimerie l’a fait en son temps. Et qu’il y a, ou y aura, une sorte de convergence des crises, économiques et démocratiques, favorisée par Internet, qui provoque(ra) une envie d’autre chose à tous les niveaux. C’est à la fois inquiétant parce que c’est l’inconnu et passionnant parce que c’est l’inconnu. What a time to be alive. »


Les ilots informationnels et les bulles de pensée ne sont certes pas des nouveautés – comme le dit un internaute, par le passé « celui qui lisait l’Huma n’avait [déjà] pas la même lecture de l’actualité que le lecteur du Figaro » – mais « c’est la vitesse et la capacité à trouver en ligne des clubs d’opinions semblables » qui changent aujourd’hui la donne.

D’ores et déjà, un certain nombre – manifestement croissant – d’internautes semblent privilégier les médias en ligne « alternatifs » comme Thinkerview comme sources d’information quasi-exclusives, considérant qu’ils s’approchent le plus fidèlement d’une « vérité » omise dans les médias traditionnels. Or la pensée véhiculée par ces nouveaux médias est, évidemment, parfois, si ce n’est souvent, aussi biaisée et déformée qu’ailleurs.

Qui-plus-est, la liberté d’expression que les « médias alternatifs » chérissent a parfois des pendants controversés. Citons ici cet extrait d’un article récent des Inrocks : « Thinkerview prend le risque de colporter des contre-vérités. On a récemment reproché à Sky d’avoir laissé un boulevard à l’essayiste d’extrême droite Laurent Obertone ou à l’ancien leader du groupuscule extrémiste noir la “Tribu Ka”, Kemi Seba. “Il a une conception non journalistique de l’interview, critique un participant. Il déroule le tapis rouge, alors qu’à mon sens, couper la parole est une qualité.” »

S’il est assez malhonnête de parler de « boulevard » laissé à Laurent Obertone (il n’y a qu’à lire les commentaires sous son entretien pour s’en rendre compte), il est clair qu’inviter des personnalités avec des idées comme les siennes, nauséabondes, est un choix, certes assumé, mais qui prête le flanc à la critique – cf, entre autres exemples, ce coup de gueule récent du journaliste Olivier Cyran à propos des choix de la chaîne :


Au-delà du débat sur les limites à apporter à la liberté d’expression, chacun se retrouvera en tout cas sur la nécessité d’une (plus grande) éducation à l’esprit critique, et sur la pertinence des médias qui conservent un travail journalistique solide et rigoureux (même si jamais infaillible ni neutre) pour trier, sélectionner, remettre en perspective. A condition – et c’est là que le bât blesse parfois – de ne pas s’enfermer dans une même bulle de pensée (sauf si c’est assumé)…

Pour autant, attention tout de même :

  • La parole des grands médias est considérée avec moins de crédulité qu’auparavant, à l’heure où il devient possible d’aller vérifier leurs dires – ou leurs oublis – en un clic, et où leur parole est concurrencée par de multiples autres sources d’information. Plus encore : en cas d’erreur, les faux pas se paient plus cher, précisément parce que la promesse des grands médias historiques est justement de servir de rempart aux fake news et aux manipulations de l’information – promesse en réalité difficilement tenable en permanence. Il y a (pour le moment) plus d’indulgence envers les nouveaux médias sur ces questions car ceux-ci ne se placent pas sur le même créneau, n’ont pas la même proposition de valeur. Dès lors, pour les médias traditionnels, l’honnêteté (dont la capacité à reconnaître ses erreurs, ce qui implique de l’humilité) devient plus cruciale que jamais.
  • Les fake news peuvent devenir un piège pour les médias historiques qui courent le risque, en faisant de celles-ci leur combat prioritaire, de s’enfermer dans un rôle de « vérificateurs » – qui s’avère en outre parfois bancal, puisqu’en pratique on constate que certains services de fact-checking ne vérifient pas que des faits mais aussi des opinions, et ouvrent ainsi la voie à des critiques en raison d’une confusion sur leur rôle (Checknews de Libération se définit d’ailleurs aujourd’hui comme un « service de questions/réponses qui amène à faire parfois autre chose que du factchecking »)

  • Dès lors, comment se positionner pour les médias historiques ? Outre le besoin évident de contextualisation et d’analyse, il est impératif de ne pas laisser la sérendipité aux seuls nouveaux médias numériques. La sociologue Monique Dagnaud estimait ainsi (il y a dix ans !) qu’« Internet transforme le rapport à l’écrit : nous nous y livrons à ce qu’on appelle «des explorations curieuses». C’est la sérendipité : nous trouvons quelque chose que nous ne cherchions pas au départ, avec un résultat jouissif. Quand vous ouvrez un journal papier, vous savez à quoi vous attendre ; sur Internet, il y a l’exploration curieuse, c’est très important, notamment chez les jeunes. »

    Même si cette sérendipité est favorisée par la nature même d’Internet, via les hyperliens (qui ne s’est pas déjà « perdu » sur Wikipédia en passant de liens en liens, à partir d’une seule recherche initiale ?), les médias historiques peuvent tout à fait y mettre également l’accent – et pas seulement dans le choix des sujets, mais aussi dans celui des invités appelés à s’exprimer. Le succès de Thinkerview est ainsi directement lié à son ouverture à des personnalités, et donc des idées, qui ont parfois du mal à se faire un chemin dans les canaux médiatiques classiques (soit parce que ces personnalités n’y sont pas invitées, soit parce qu’elles n’ontpas le temps d’y développer leur propos). Thinkerview est regardée pour ce côté « pas vu / lu / entendu ailleurs » et pour découvrir de nouvelles personnalités ayant le temps de s’exprimer, par opposition à certaines émissions qui invitent simplement…les invités des autres émissions, dans une logique de vase clos, et qui laissent trop rarement le temps de développer des idées. Dans ce contexte, il n’est pas étonnant de voir certaines émissions, notamment politiques, s’essouffler.

  • Enfin, puisque l’on associe souvent fake news et réseaux sociaux, les médias traditionnels doivent veiller à ce que leur combat contre les fake news ne se transforme pas en combat contre les réseaux sociaux – fréquemment dépeints de façon négative, en particulier à la télévision. On voit mal, en effet, comment le développement de formats innovants et (surtout) la construction de communautés engagées pourraient se passer totalement de ces réseaux sociaux…

Pourquoi Thinkerview est utile

Dans son étude récente sur la polarisation du paysage médiatique français, l’Institut Montaigne écrivait en conclusion que cette « polarisation s’observe sur un axe vertical opposant les institutionnels aux « anti-élites », plutôt que sur une opposition horizontale entre la droite et la gauche » (à l’inverse, par exemple, de l’espace médiatique américain, polarisé sur l’opposition « progressistes » vs conservateurs).

Thinkerview correspond bien à cette analyse puisqu’il se place sur la critique des élites et interroge des personnalités aux idées de gauche (souvent) et de droite (parfois) – il est d’ailleurs parfois dépeint comme pro-extrême gauche, parfois comme pro-extrême droite (affirmation du reste fortement débattue).

Le biais complotiste de certaines questions posées par Thinkerview, et le choix de certains invités, sont un repoussoir pour un certain nombre d’internautes, qui rejettent ce média (…lui-même ne cherchant en rien à les attirer en retour).

L’apport d’un média comme Thinkerview, malgré ses défauts (dont, également, l’intérêt très hétérogène des vidéos), et sans cautionner tous ses choix, est pourtant réel, à au moins deux égards :

1- Pour découvrir des idées (encore) peu entendues ailleurs, et/ou repérer des signaux faibles, puisqu’« étendre son regard, notamment pour repérer des mouvements émergents, implique souvent d’observer les marges » (extrait de l’article « Pourquoi les prédictions sont souvent fausses ») – or Thinkerview s’est fait une spécialité d’interroger ces marges, souvent mieux que des médias grands publics traditionnels. En témoigne ainsi ce commentaire, en réponse à un article de FranceTVInfo sur Thinkerview :


L’ex-cadre d’UBS Stéphanie Gibaud (qui avait dénoncé les pratiques de fraude fiscale du groupe) parle d’ailleurs d’une « chaîne lanceuse d’alerte ».

2- Sans même penser au futur, ce média « alternatif » offre, en complément de médias « classiques », des clefs de lecture intéressantes pour comprendre le présent. A cet égard, l’analyse du traitement médiatique du mouvement des Gilets jaunes réalisé par le Médialab de Sciences Po mérite l’attention. Le Médialab a analysé 70 000 articles de 391 médias sur une période de septembre 2018 à février 2019, et en a tiré cette conclusion : les médias historiques, traditionnels « se sont principalement préoccupés des conséquences du mouvement pour le gouvernement, les partis politiques, et le maintien de l’ordre », alors que « la question des valeurs et des demandes des Gilets jaunes » a été traitée en priorité par les médias alternatifs et/ou nouveaux médias. Or comment comprendre ce mouvement sans se préoccuper en premier lieu (et non en aparté, ou de façon secondaire) de ses demandes et des raisons de son émergence ?

Au fond, une nouvelle étape sera franchie lorsqu’il sera question de Thinkerview dans les médias non plus simplement pour parler de la chaîne en général (ou de la personnalité de son intervieweur), comme cela a été fait ces derniers mois, mais pour apporter des analyses critiques sur le fond de certaines vidéos. Gageons que cela se produira tôt ou tard. Ce sera alors, certes, légitimer la chaîne. Mais au rythme où celle-ci grimpe, est-il vraiment préférable d’essayer de garder une frontière étanche, en faisant comme si ses entretiens n’existaient pas ? La question se posera de plus en plus, à l’heure où une vidéo sur la géopolitique et l’intelligence économique se dirige vers le million de vues sans autre promotion que le bouche-à-oreille. Peut-être verra-t-on ainsi un jour dans un journal comme Le Monde Alain Frachon (éditorialiste international) apporter son éclairage, par exemple, sur l’interview (intéressante) de l’ancien haut fonctionnaire Pierre Conesa sur l’Arabie Saoudite…


In fine, Thinkerview a toute sa place dans un « catalogue » personnel de médias à suivre, en complément de sources plus traditionnelles. Avec recul et esprit critique (comme il le faut partout ailleurs) mais sans condescendance. Suivre la chaîne ne signifie pas que l’on cautionne tous les propos formulés, ou le choix de tous les invités. Mais éviter ce type de médias sous prétexte qu’ils présentent des idées inhabituelles ou dérangeantes conduirait au même risque que s’en contenter exclusivement : celui de conserver un regard biaisé, enfermé dans les mêmes bulles de pensée, parfois de croyances. Et puisque de fait, un nombre croissant d’individus font le choix de suivre cette chaîne, il ne semble pas tout à fait inutile, a fortiori à l’heure actuelle, d’aller écouter des opinions peut-être différentes des siennes – y compris pour éventuellement pouvoir ensuite mieux les réfuter.

– Par Clément Jeanneau

Mise à jour (28/08) : Suite à la publication de l’article, Thinkerview menace d’attaquer pour diffamation, mettant en avant des « petites piques sournoises » pour cause de mentions liées au complotisme. Affaire à suivre.

17.06.2019 à 20:53

Trois erreurs d’analyse à éviter sur la monnaie de Facebook

signauxfaiblesco

L’annonce par Facebook ce mardi du lancement de sa propre monnaie, le Libra, est largement analysée – à raison – sous l’angle du proto-Etat que devient année après année la création de Mark Zuckerberg. Si cette évolution vers un « proto-Etat » n’est pas nouvelle – rappelons qu’en 2018 la France avait annoncé que son système d’alerte […]
Texte intégral (3502 mots)

L’annonce par Facebook ce mardi du lancement de sa propre monnaie, le Libra, est largement analysée – à raison – sous l’angle du proto-Etat que devient année après année la création de Mark Zuckerberg.

Si cette évolution vers un « proto-Etat » n’est pas nouvelle – rappelons qu’en 2018 la France avait annoncé que son système d’alerte attentat auprès des citoyens reposerait désormais en partie sur le Safety Check de Facebook, et que l’année précédente le Danemark avait annoncé la création d’un ambassadeur auprès des GAFA – il est évident que l’initiative de battre monnaie, traditionnelle chasse-gardée des Etats, marque une nouvelle étape, historique, dans la trajectoire de Facebook.

Pour autant, cet événement mérite d’être regardé aussi sous un autre angle.

Une bataille se joue sous nos yeux sans qu’elle fasse (encore) les gros titres. C’est l’éléphant dans la pièce.

Quelle sera la monnaie de référence dans l’espace numérique ?

Internet est né et a grandi sans monnaie native.

Dans les années 1990 et encore au début des années 2000, l’idée d’inscrire ses coordonnées de carte bancaire sur un site Internet était vue comme périlleuse, si ce n’est déconseillée. Au fil du temps, l’acte d’acheter sur Internet s’est banalisé, tout comme la gestion de ses comptes bancaires en ligne, notamment les transferts d’argent.

Pour autant, si ces actions s’effectuent bien sur Internet, elles ne consistent qu’en la numérisation de processus existants : la monnaie utilisée en ligne reste celle de la vie de tous les jours (euro, dollar, etc.). Les monnaies de référence sur Internet sont aujourd’hui les monnaies de référence dans le monde physique.

Trente ans après l’invention du web, la création par Facebook de sa propre monnaie numérique pourrait venir bouleverser cette donne. Mais gare aux raccourcis simplificateurs…

Trois erreurs d’analyse à éviter

Face à l’arrivée du Libra, trois erreurs d’analyse doivent être évitées.

1- La première erreur serait de croire que Facebook crée une nouvelle innovation sur un terrain vierge. Le Libra est peut-être inédit dans sa force de frappe, via les milliards d’utilisateurs de Facebook, Whatsapp et Instagram (trois applications que Facebook souhaite fusionner), mais ne l’est pas dans sa nature.

Certes, le Libra se différencie fondamentalement des services de transferts d’argent comme Paypal, puisque le Libra sera, lui, un nouvel actif à part entière (dont le cours sera indexé sur la moyenne d’un panier de devises).

Mais Facebook arrive sur un terrain déjà existant, qui a largement commencé à être labouré.

Il y a dix ans, soit vingt ans après l’invention du web, une monnaie numérique apparaissait : le bitcoin. Ce n’était pas la première tentative en la matière, mais elle est la seule qui a duré. Sa valeur de marché avoisine aujourd’hui les 160 milliards de dollars.

Ne s’agit-il pourtant pas d’une bulle sans fondement, comme on l’a si souvent entendu ? C’est effectivement la thèse d’une large partie des économistes invités à s’exprimer sur le sujet, jusqu’à Jean Tirole, prix Nobel d’économie (même si certains reconnaissent, comme Jean-Marc Daniel, « ne pas maîtriser » le sujet). Une recherche dans les archives de The Economist révèle d’ailleurs que les articles affirmant que « le bitcoin est une bulle sur le point d’éclater » sont publiés par le magazine sans discontinuer depuis près de huit ans– et ce dès 2011, quand celui-ci ne valait que quelques centimes de dollars.

Dix ans après sa création, une grande partie des experts économiques semblent encore réticents à l’idée de creuser, au-delà des poncifs, ce qui fait la spécificité de Bitcoin – qui n’a jamais été aussi vivant. Résumons (très) rapidement : en s’appuyant sur différents mécanismes ayant notamment trait à la cryptographie et la théorie des jeux, le bitcoin constitue un actif rare, programmable, fongible, divisible, transférable à quiconque dans le monde entier en quelques minutes, à faible coût, de façon sécurisée et transparente.

En outre – et c’est son atout fondamental – Bitcoin est dit permissionless.

Ce même principe était au cœur d’Internet avant qu’il ne se retrouve sous la coupe de quelques géants. Comme l’expliquait en 2017 Henri Verdier, désormais ambassadeur de France pour le numérique, « Internet a permis la « permissionless innovation », l’innovation sans autorisation préalable. Ce réseau a permis, depuis des décennies, aux innovateurs de créer et de bousculer le vieux monde économique sans avoir à lui demander de permission préalable ».

Dans le cas du bitcoin, cela signifie deux choses. D’une part, il n’est nul besoin de demander la permission pour en acquérir, en stocker ou en transférer : le bitcoin est ouvert à tout citoyen, partout dans le monde. D’autre part, le caractère ouvert de son protocole permet à tout un chacun de participer à son mécanisme et de créer des applications sans en demander de permission.

Ce caractère « permissionless » est un retour à l’esprit originel d’Internet avant son ultra-concentration entre les mains des GAFA, et un moteur d’innovation particulièrement puissant sur le long terme. Suite à sa création, le bitcoin a d’ailleurs vu en dix ans le nombre de ses concurrents ou alternatives se multiplier. Si la majorité de ces alternatives ne présente pas d’intérêt particulier, certaines ont le mérite de proposer (ou d’avoir tenté) des modèles différents, fondés sur d’autres propositions de valeur.

En résumé, le bitcoin constitue la première véritable monnaie adaptée à l’espace numérique : nativement numérique, mondiale par nature, ouverte à tous, indépendante de toute entreprise ou Etat.

C’est dans ce contexte qu’arrive le Libra, qui constitue un objet numérique tout à fait différent.

2- La deuxième erreur serait de considérer que le Libra est un nouvel avatar du bitcoin.

Le Libra et le bitcoin sont deux monnaies que tout oppose, si ce n’est qu’elles sont toutes deux numériques. Or la distinction entre monnaies traditionnelles d’une part (euro, dollar…) et monnaies numériques d’autre part est obsolète.

Et ce pour trois raisons :

* D’abord parce qu’on peut tout à fait imaginer qu’une monnaie traditionnelle comme l’euro effectue sa « transformation digitale ». La tendance structurelle actuelle mène déjà à une disparition du cash et une « numérisation » toujours plus importante de la monnaie. L’étape suivante, logique, pourrait être la création d’un e-euro (ou équivalent pour les autres monnaies). Cette hypothèse est déjà explorée par une large partie – si ce n’est déjà la majorité – des banques centrales dans le monde. Christine Lagarde, directrice du FMI, a d’ailleurs livré fin 2018 un véritable plaidoyer pour des monnaies numériques émises par les banques centrales. 

* Ensuite parce que la monnaie de Facebook sera (du moins pour commencer) un « dérivé » de monnaies traditionnelles : sa valeur sera liée à un panier de devises (dollar, euro, livre sterling, yen…). Facebook ne rompt donc pas avec les monnaies traditionnelles : il crée « simplement » un système fondé sur les monnaies traditionnelles et plus adapté à un espace numérique qui est mondial par nature. Mais son modèle est très différent de celui du bitcoin qui, lui, est né avec son propre système monétaire indépendant, nativement numérique.

* Enfin, et surtout, parce que le Libra a été créé et est contrôlé par une entreprise privée – ou un groupement d’entreprises privées – ce qui est exactement l’inverse du bitcoin.

Et c’est là que réside tout l’enjeu. Bitcoin est un commun ; le Libra est tout l’inverse. Le danger du Libra est que les acteurs qui le contrôlent puissent censurer des transactions, bloquer l’accès à des comptes, se plier aux exigences légitimes ou non de certains gouvernements, et, plus simplement, surveiller les usages des utilisateurs – tout ceci parce que ce contrôle restera centralisé, à l’inverse de la décentralisation de Bitcoin construite « by design ».

Or ce danger n’est pas simplement hypothétique. Comme l’explique l’auteur Andreas Antonopoulos, il est bien évident que Facebook ne jouera pas avec le feu et suivra au pied de la lettre, par exemple, les consignes du Trésor américain de ne pas autoriser tel ou tel transfert d’argent vers des pays, entreprises ou individus considérés comme « ennemis » des Etats-Unis. Ce faisant, le Libra aura de facto certaines frontières, et ne sera donc pas « mondial » ni « ouvert à tous ». Et ce d’autant plus que cette logique s’applique partout dans le monde ; or chaque juridiction a ses propres règles, que Facebook devra respecter. « Facebook fonctionne comme une entreprise sans frontières à de nombreux égards, mais ne pourra pas fonctionner ainsi avec la monnaie : [or il lui sera très compliqué de] respecter les régulations financières pour 2 milliards de clients répartis dans 194 pays » pronostique à raison Antonopoulos.

Qu’une entreprise émette sa propre monnaie n’est donc pas le problème fondamental : cela peut être vu positivement, négativement ou ni l’un ni l’autre selon les appréciations de chacun. Ce phénomène, bien que rare aujourd’hui, est en tout cas loin d’être inédit : au XVIIe siècle, la Compagnie néerlandaise des Indes orientales (connue pour avoir été « l’une des entreprises capitalistes les plus puissantes qui aient jamais existé ») avait par exemple battu monnaie.

Le problème fondamental tient au fait qu’Internet est un bien public et doit le rester. C’est d’ailleurs l’avis qu’exprimait il y a un an et demi Henri Verdier.

Or l’émergence du Libra – ou des futures monnaies numériques créées par d’autres géants – constitue une nouvelle menace à l’égard d’Internet comme bien public (comme l’a été la fin de la neutralité du net aux Etats-Unis ou comme l’est le « jardin fermé » constitué par Apple avec l’App Store sur Iphone). Si le Libra venait à s’imposer comme une monnaie de référence sur Internet – ce qui est loin d’être évident mais ce qui est une hypothèse à considérer tout de même sérieusement -, c’est tout un pan de l’économie numérique qui aura été privatisé. Ce faisant, c’est la liberté propre à l’espace numérique qui se trouvera menacée, tout autant que se renforcera un capitalisme de surveillance toujours plus dangereux.

La question clef : quel Internet voulons-nous ?

Internet a permis à tout un chacun – ce qui a initialement suscité scepticisme et oppositions – de créer, publier, conserver et échanger des contenus nativement numériques sans avoir à en demander la permission. Bitcoin permet à tout un chacun – ce qui suscite aujourd’hui scepticisme et oppositions – d’acquérir, recevoir, conserver, échanger de la valeur nativement numérique, et participer à son mécanisme, sans avoir à en demander la permission.

Bitcoin correspond aux valeurs d’Internet ; plus encore, il en constitue le prolongement naturel.

Mais il s’agit désormais plus que de cela : il s’agit de sauver Internet du virage orwellien que le réseau a pris depuis quelques années.

Bitcoin n’est pas parfait. Il a ses revers. Mais Internet avait les siens, et en a encore aujourd’hui (qu’ils soient originels ou plus récents). Son utilité fondamentale est-elle pour autant être remise en cause ?

3- La troisième erreur serait de se focaliser (uniquement) sur la question d’un éventuel démantèlement de Facebook.

Cette question est importante mais n’est pas la question fondamentale.

Se contenter d’appeler au démantèlement de Facebook ne peut pas être une stratégie gagnante sur le moyen – long terme.

* D’abord parce que l’initiative de Facebook en appelle d’autres. D’autres acteurs du numérique suivront probablement (sauf échec du Libra). Amazon semble face à un boulevard : on aurait d’ailleurs pu imaginer qu’il soit le premier géant technologique à se lancer dans cette aventure tant elle semble taillée pour lui (le e-commerce étant le cœur de son modèle). Au passage, il faut souligner une certaine audace de Facebook (ou plus précisément de Mark Zuckerberg puisque des échos indiquent que la n°2 de Facebook, Sheryl Sandberg, et le CTO du groupe, sont sceptiques sur le projet) : ce projet constitue a priori une prise de risques non-négligeable pour un acteur économique aussi important, puisque les velléités de démantèlement, déjà présentes, ne devraient que se renforcer.

Mais avec la création possible, si ce n’est probable, d’autres monnaies numériques par d’autres entreprises que Facebook, vouloir démanteler chaque géant numérique qui participera à son tour à ce phénomène (…qui pourrait peu à peu se banaliser) est-il réellement une stratégie viable ?

* Ensuite, et surtout, parce que se focaliser sur l’éventuel démantèlement de Facebook revient à se focaliser sur l’arbre qui cache la forêt.

Facebook est le premier géant technologique à faire le pont entre l’économie numérique actuelle – dont il est le représentant phare avec les autres GAFA – et la nouvelle économie numérique qui émerge – dans laquelle il n’avait pas encore mis les pieds.

Cette nouvelle économie numérique – qui fera l’objet d’un prochain article plus complet sur ce site – repose sur de nouveaux fondements technologiques (cryptomonnaies et nouveaux types de plateformes comme Ethereum) mais aussi économiques (nouveaux modèles) et sociaux (nouvelles formes d’organisations).

Nous sommes au tout début d’un mouvement de fond : en ce sens, l’initiative de Facebook, bien que sa monnaie ne doive pas être considérée comme une véritable cryptomonnaie (elle n’en présente pas les caractéristiques fondamentales : ouverture à tous, caractère mondial, etc.), est un début (l’entrée dans cette nouvelle économie numérique), et non une fin (comme on pourrait le penser en considérant sa monnaie comme le parachèvement de sa « proto-Etatisation »).

En rester à la question du démantèlement ne permet pas de préparer l’avenir : cela permet seulement de (tenter de) protéger le passé. C’est regarder le numérique uniquement sous un prisme défensif, sous l’angle des risques, sans percevoir les opportunités qu’il peut ouvrir. C’est prendre le risque de se condamner à être une nouvelle fois spectateur, et non acteur majeur, d’une grande vague d’innovations, alors même que celle-ci correspond aux valeurs défendues publiquement par nos représentants : Internet comme bien public, l’ouverture à tous, la volonté de limiter le capitalisme de surveillance, etc.

Conclusion

Internet a besoin d’une monnaie mondiale, ouverte à tous, qui ne soit pas contrôlée par un géant privé (ni par un Etat).


Cette monnaie existe déjà. Le cofondateur et PDG de Twitter le dit lui-même : « Internet aura sa monnaie native. Cela ne viendra d’aucun acteur ou institution spécifique, et cela ne sera empêché par aucun acteur ou institution spécifique (…) Je n’ai vu aucune autre monnaie capable de défier Bitcoin à travers toutes ses dimensions. Bitcoin est construit avec les bons principes, les principes d’Internet, c’est-à-dire un monde connecté dans lequel tout le monde peut participer et où tout le monde a un accès égal. »

Dès lors, plutôt que de chercher à faire comme si les cryptomonnaies n’existaient pas (au mieux), ou essayer de les freiner en tentant de créer une éphémère ligne Maginot (au pire), une stratégie plus intelligente serait d’en tirer le meilleur tout en essayant d’en limiter les revers.

Les cryptomonnaies ouvrent la voie à une nouvelle économie numérique, qui fait émerger de nouveaux modèles d’affaire, de nouvelles verticales, de nouveaux champions. De multiples opportunités s’ouvrent pour les entrepreneurs et les pays qui sauront les exploiter suffisamment tôt. Pensons par exemple à la startup française Ledger, reconnue mondialement, qui conçoit des mini coffre-forts pour cryptomonnaies et qui a fait le choix d’industrialiser sa production en France, créant d’ores et déjà des dizaines d’emplois notamment à Vierzon, en Sologne.

Il serait d’autant plus dommageable de ne pas chercher à entrer de plein pied dans cette nouvelle économie numérique que celle-ci a toutes les chances de sortir renforcée suite à l’initiative de Facebook : le Libra ne devrait en effet pas menacer le bitcoin – dont la proposition de valeur est radicalement différente -, mais au contraire légitimer celui-ci et les cryptomonnaies en général, et, par ricochet, favoriser leur développement…précipitant ainsi la nécessité, pour les pays souhaitant faire émerger des écosystèmes leaders sur ce nouveau terrain, d’investir celui-ci sans attendre.

In fine, l’initiative de Facebook ne doit pas mener à un unique réflexe défensif et anti-GAFA, mais servir d’électrochoc pour nous inciter à investir collectivement (acteurs politiques, entreprises, chercheurs, citoyens, entrepreneurs, intellectuels…) cette nouvelle économie, afin de ne pas reproduire la passivité dont nous avons fait preuve par le passé vis-à-vis des actuels géants du numérique.

Clément Jeanneau

11.05.2019 à 09:45

Mythes et légendes de l’intelligence artificielle

signauxfaiblesco

Que n’a-t-il pas déjà été dit sur l’intelligence artificielle (IA) ? La fascination – ou l’agacement – que suscite l’IA est à la hauteur du buzz médiatique qui a porté le sujet ces dernières années. A coup de punchlines de certaines personnalités désormais bien connues (« sans politique volontariste en matière d’IA, la France pourrait devenir le […]
Texte intégral (8524 mots)

Que n’a-t-il pas déjà été dit sur l’intelligence artificielle (IA) ? La fascination – ou l’agacement – que suscite l’IA est à la hauteur du buzz médiatique qui a porté le sujet ces dernières années.

A coup de punchlines de certaines personnalités désormais bien connues (« sans politique volontariste en matière d’IA, la France pourrait devenir le Zimbabwe de 2080 »), le sujet est sorti des seules sphères technophiles pour se loger au cœur des discours de nombreux dirigeants d’entreprises, personnalités politiques, philosophes, etc.

Ces phrases chocs ont eu du bon. Elles ont réveillé des décideurs pour certains apathiques face à la montée de la technologie, inconscients de la domination américaine et chinoise et des enjeux sous-jacents de souveraineté. Elles ont servi de déclic pour accélérer la prise de conscience.

Reste pourtant, malgré ce tintamarre (qui n’a rien eu d’artificiel, lui), comme un goût d’inachevé. Le sentiment que l’accumulation de prophéties catastrophistes (« les dirigeants européens sont les Gamelin de l’IA ») a parfois empêché de faire entendre un discours plus nuancé, plus distancié. Que le sensationnalisme l’a trop souvent emporté au détriment d’une réalité scientifique plus prosaïque, forcément moins spectaculaire.

De là le besoin de revenir sur terre. C’est l’objet de cet article.

Mythe n°1 : croire qu’il existe UNE intelligence artificielle

L’IA englobe parfois des réalités très différentes. Selon les points de vue et ce que l’on y inclue, elle peut renvoyer aussi bien à des logiques d’automatisation (faire effectuer, par un logiciel, des tâches répétitives et souvent fastidieuses – de là l’essor des « chatbots » par exemple) ou de statistiques. Les statistiques ouvrent la voie au « machine learning » (apprentissage automatique), un sous-domaine de l’IA dont les progrès permettent de réaliser des tâches plus complexes (reconnaissance visuelle et vocale, prévisions, recommandations…). Le machine learning regroupe lui-même plusieurs subdivisions, dont l’apprentissage supervisé et l’apprentissage non-supervisé, et peut mener au fameux « deep learning», qui s’appuie notamment sur les « réseaux de neurones ».

Précisons également que contrairement à certaines idées répandues, l’IA ne se résume pas au machine learning, et que le deep learning n’est pas nécessairement « l’approche ultime » en matière d’IA.

Face à ce jargon, il est facile de s’emmêler les pinceaux ; les différentes notions se retrouvent d’ailleurs parfois mélangées…sciemment. Des outils relativement simples sont parfois présentés comme des solutions d’IA très innovantes, en induisant en erreur sur leur caractère faussement révolutionnaire.

Mythe n°2 : croire que la mention « IA » rime forcément avec innovation


« Il y a cette blague dans Le Bourgeois gentilhomme à propos d’un homme [Monsieur Jourdain] qui apprend que toute parole est soit prose, soit vers, et qui est enchanté de découvrir qu’il a parlé en prose toute sa vie sans en avoir conscience. Les statisticiens pourraient ressentir la même chose aujourd’hui : ils ont travaillé sur « l’intelligence artificielle » toute leur carrière sans en avoir conscience » – Benedict Evans

Certains malins profitent de la méconnaissance entourant ces sujets pour présenter leurs solutions sous un nouveau jour. C’est ainsi que des modèles statistiques utilisés avec un peu d’informatique connaissent parfois un toilettage marketing pour se transformer en outil d’« IA », ce qui sonne plus moderne.

https://www.contrepoints.org/wp-content/uploads/2019/03/berthier.jpg


Comme l’écrit le chercheur Thierry Berthier, « l’emploi du mot IA devient un marqueur séparant le discours marketing grand public du discours d’expert pratiquant ». Cette séparation se retrouve par exemple dans cette blague qui a circulé ces derniers mois sur les réseaux sociaux :

https://i0.wp.com/blockchainpartner.fr/wp-content/uploads/2018/12/blague-IA.png


Une étude récente indiquait même que 40% des « startups IA » en Europe n’utiliseraient en réalité pas d’IA ! Si ce chiffre a été déconstruit ensuite, la vitesse de sa propagation témoigne d’un sentiment largement partagé autour d’un certain niveau de tartufferie en la matière…

Mythe n°3 : croire que l’IA est une technologie de luxe, accessible à quelques happy few


Une distinction est importante à avoir en tête : « faire de l’IA » est très différent d’ « utiliser de l’IA ». « Très peu de startups créent de nouvelles briques de l’IA » explique ainsi le consultant Olivier Ezratty : « les briques de base de l’IA sont un Lego géant essentiellement disponible en open source. Une bonne part du travail d’aujourd’hui consiste à les choisir et à réaliser un travail d’intégration et d’assemblage ».

L’investisseur Benedict Evans va jusqu’à écrire qu’ « il n’y aura bientôt plus aucune startup « IA ». On parlera plutôt d’entreprises d’analyses de processus industriels, d’entreprises d’optimisation de ventes, d’entreprises d’aide à la résolution de litiges, etc. », toutes rendues possibles grâce à l’IA.

Pour lui, « la diffusion du machine learning signifie des startups très diverses peuvent construire des choses bien plus rapidement qu’avant. Le machine learning doit être vu comme un bloc de construction qui ouvre de nouvelles possibilités et qui sera intégré partout. Si vous ne l’utilisez pas alors que vos concurrents l’utilisent, vous vous ferez distancer. »

Il dresse un parallèle entre le machine learning et le langage de programmation SQL (langage phare pour communiquer avec des bases de données) : « Walmart a connu le succès en partie grâce à l’utilisation de bases de données pour gérer ses stocks et sa logistique plus efficacement. Mais aujourd’hui, si vous créez une entreprise de distribution en annonçant que vous utiliserez des bases de données, cela ne vous rendrait ni différent ni intéressant, car SQL a été intégré partout. La même chose se produira avec le machine learning. »

Dès lors, l’IA ne sera plus forcément un élément différenciant pour une startup. Cette situation commence du reste déjà se manifester : selon Olivier Ezratty, « comme les briques de l’IA sont devenues des commodités, il est de plus en plus difficile de jauger une startup par rapport à ses concurrents. La différence pourra venir de l’IA, mais le plus souvent, elle viendra de la capacité à toucher les bons clients et à déployer rapidement. »

Mythe n°4 : croire que les GAFA deviendront puissants dans tous les domaines grâce aux multiples données dont ils disposent


Pour faire fonctionner une IA de façon performante, les données à exploiter doivent être spécifiques au problème à résoudre ; dès lors, collecter des données n’a d’intérêt que si celles-ci ont bien un lien avec le problème visé.

C’est ce qu’explique Benedict Evans, qui l’illustre par un exemple simple : « D’un côté, General Electric dispose de nombreuses données télémétriques venant de turbines à gaz. De l’autre, Google dispose de nombreuses données de recherche. Or on ne peut pas utiliser des données de turbines pour améliorer des résultats de recherche. On ne peut pas non plus utiliser les données de recherche pour détecter des turbines défectueuses ».

Autrement dit, « le machine learning est une technologie généraliste – elle peut être utilisée aussi bien pour détecter des fraudes que reconnaître des visages – mais les applications qu’elle permet de construire ne sont pas généralistes : elles sont spécifiques à une tâche ».

C’est du reste ce que l’on avait connu lors des précédentes vagues d’automatisation, juge-t-il : « tout comme une machine à laver peut seulement laver des vêtements, et non laver des plats ou cuisiner un repas, et tout comme un programme pour jouer aux échecs ne peut pas remplir votre fiche d’imposition, un système de traduction à base de machine learning ne peut pas reconnaître des chats. »

De ce constat, Benedict Evans tire une conclusion : l’utilisation du machine learning se répartira de façon large. « Google n’aura pas « toutes les données » : Google aura toutes les données obtenues via les services Google. Google aura des résultats de recherche plus fins, General Electric aura des machines plus performantes, Vodafone aura une meilleure vue sur la gestion de son réseau, etc. »

En définitive, « Google sera meilleur à être Google, mais cela ne veut pas dire que Google deviendra meilleur à autre chose. »

Mythe n°5 : croire que l’IA est aujourd’hui souvent intelligente


Qui n’a pas déjà vécu des échanges particulièrement laborieux (pour ne pas dire pénibles) avec des chatbots ou des agents conversationnels ?

Chacun aura noté que ces outils disposent encore d’une (très) large marge de progression avant de pouvoir soutenir une conversation décente. L’échange ci-dessous en est un exemple criant :

https://www.frenchweb.fr/wp-content/uploads/2017/10/capture.png
Exemple de chatbot testé par le consultant Thomas Gouritin

Les chatbots ne sont certes pas représentatifs des avancées de l’IA aujourd’hui. Mais s’il est évident que l’IA est d’ores et déjà capable de performances impressionnantes (cf ses victoires au jeu de go, aux échecs, ou encore au jeu Starcraft), soyons clairs : une IA brillante dans un contexte donné ne l’est pas forcément dans d’autres contextes – et ne l’est même souvent pas.

Il y a quelques semaines, on apprenait ainsi que l’IA de DeepMind (appartenant à Google), célèbre pour ses prouesses au jeu de go, avait largement raté un contrôle de mathématiques destiné à des adolescents de 16 ans dans le cursus scolaire britannique. Son score : 14 sur 40, soit la note E dans le système britannique. Elle n’a pas réussi à transformer les mots en calcul et en équation, alors qu’elle avait pourtant été entraînée sur le sujet.

Au-delà de cette anecdote, les exemples de « déraillement » d’IA sont multiples. On se souvient notamment du robot conversationnel mis en ligne par Microsoft en 2016 qui s’était transformé en quelques heures en personnage machiste, raciste et néo-nazi, sous l’influence d’internautes.

Un an auparavant, la reconnaissance faciale de l’application Photos de Google avait assimilé un couple afro-américain à des gorilles. Le site Wired a révélé fin 2018 que Google, après s’être déclaré « consterné » et après avoir promis de remédier au problème, avait en réalité choisi ensuite de…supprimer les gorilles et d’autres primates (chimpanzés, singes…) du lexique de son service. Comme l’écrit Wired, « cette solution de contournement illustre les difficultés rencontrées par Google et d’autres entreprises technologiques pour faire progresser la reconnaissance d’image ».

Le cas emblématique de Watson

Le système Watson d’IBM était annoncé à ses débuts comme capable de révolutionner la médecine : son IA allait être capable de détecter des maladies plus rapidement, de proposer des traitements plus adaptés, etc. En 2018, le couperet tombe : selon des documents internes révélés par le site StatNews, des spécialistes ont identifié de « multiples exemples de recommandations de traitements de cancers dangereux et incorrects » effectuées par Watson. Malgré des milliards investis, Watson reste très peu performant par rapport aux ambitions affichées.

Par exemple, comme nous l’apprend une grande enquête récente intitulée « How IBM overpromised and underdelivered with Watson Health », « il s’est avéré impossible d’enseigner à Watson comment lire des articles scientifiques comme un médecin le ferait. Le fonctionnement de Watson est fondé sur les statistiques : tout ce qu’il peut faire est de rassembler des statistiques sur les principaux résultats. Mais ce n’est pas comme ça que les médecins travaillent. »

Les chercheurs ont ainsi découvert que Watson peinait à exploiter de façon autonome des informations publiées très récemment dans la littérature médicale. De même, Watson s’est avéré avoir plus de mal que prévu à récupérer des informations contenues dans les dossiers médicaux électroniques.

In fine, « il ne suffit pas de prouver que vous disposez d’une technologie puissante » déclare Martin Kohn, un ancien scientifique médical d’IBM. « Il faut prouver qu’elle va réellement faire quelque chose d’utile – que ça va améliorer ma vie, et celle de mes patients. » Or selon lui, « à date il existe très peu de publications » scientifiques qui prouvent le bénéfice de l’IA pour les médecins. « Et aucune s’agissant de Watson ».

***

« L’intelligence artificielle est devenue un gros business et il est très probable qu’il y ait un retour de bâton quand les promesses les plus extravagantes ne seront pas remplies » Yann Le Cun, directeur du laboratoire IA de Facebook, en 2017

Face à cette réalité crue, qui ne correspond pas toujours aux promesses (sur)vendues, certaines entreprises s’adaptent…et innovent dans leur manière de communiquer ! En la matière, la palme revient sans aucun doute à l’organisation OpenAI (notamment soutenue par Elon Musk) : OpenAI a laissé diffuser l’idée selon laquelle elle aurait préféré ne pas sortir son IA publiquement car celle-ci serait trop…dangereuse ! Le sociologue Antonio Casilli résume bien ci-dessous avec humour ce qui semble plus probable…

De fait, après vérification, les résultats d’OpenAI se révèlent effectivement « moins bons que ceux des IA spécialisées obtenues par apprentissage supervisé », selon Laurent Besacier, professeur au laboratoire d’informatique de Grenoble…

Mythe n°6 : croire que l’IA peut fonctionner sans intervention humaine


Dans son récent ouvrage « En attendant les robots : enquête sur le travail du clic », Antonio Casilli montre que le grand remplacement des hommes par les robots est un fantasme, en mettant en lumière une face cachée de l’IA : l’existence de millions de « travailleurs du clic » invisibilisés, précarisés, payés à la micro-tâche pour éduquer des algorithmes.

Antonio Casilli cite par exemple le scandale ayant touché fin 2017 l’entreprise américaine Expensify, spécialisée dans la gestion par l’IA de la comptabilité d’autres entreprises. En apparence, « les salariés de ces entreprises n’avaient qu’à photographier leurs factures et leurs reçus, et l’application les organisait en notes de frais. On a découvert que des personnes recrutées sur la plateforme de micro-travail Amazon Mechanical Turk transcrivaient et labellisaient en temps réel une partie de ces factures. »

Cet exemple n’est pas isolé. En réalité, « il y a toujours une part d’algorithmes et une part de travail humain ». Pour concevoir son programme Watson, IBM a ainsi recouru à 200 000 micro-travailleurs qui devaient notamment ordonner les différents éléments de l’image d’un paysage (nuages, montagnes, etc.).

Casilli souligne une hypocrisie du milieu technologique, où il perçoit « une attitude double. Tout le monde connaît l’existence des plateformes de micro-travail et comprend l’exigence d’impliquer des humains dans l’étiquetage et le nettoyage de l’information. En même temps, il y a une espèce d’effort cognitif pour ne pas voir ce qu’on sait pertinemment. »

Lorsqu’il est reconnu, ce travail humain est fréquemment minoré, à tort : « cette partie du processus est décrédibilisée en tant que travail : on imagine que les micro-tâches qu’accomplissent les travailleurs du clic ont une faible valeur ajoutée, qu’elles ne sont pas centrales ; or leur contribution est cruciale. »

Une équipe de recherche du CNRS, Télécom ParisTech et MSH Paris-Saclay, dans laquelle fait partie Antonio Casilli, a du reste montré que les plateformes paient en France métropolitaine 266 000 personnes pour micro-travailler (avec une rémunération par micro-tâche de quelques dizaines de centimes d’euro). Dans le monde, ces « poinçonneurs de l’IA » comme les appelle Casilli, seraient entre 40 millions et…des centaines de millions, constituant ainsi une nouvelle division du travail au niveau mondial. Leur rémunération peut descendre jusqu’à 0,000001 centime la tâche, sans accès aux droits de protection des travailleurs salariés.

Casilli est formel : l’IA ne pourra pas devenir assez développée pour se passer des micro-tâches. « Il n’y aura pas d’automatisation complète. Les machines que les ingénieurs de l’IA sont en train de développer n’ont pas vocation à travailler toute seule : [elles] prévoient toujours la réalisation de tâches par les humains. »

Mythe n°7 : croire que le « machine learning » et le « deep learning » ont plié le match en matière d’IA


Début 2019, la chercheuse en statistique Genevera Allen jetait un froid lors du congrès annuel de l’Association américaine pour l’avancement de la science : « Je ne ferais pas confiance à une très grande partie des découvertes [médicales] en cours ayant recours à du machine learning appliqué à de grands ensembles de données ».

« Ces algorithmes sont entrainés pour détecter des « patterns » quoi qu’il arrive », explique-t-elle. « Ils ne reviennent jamais avec « je ne sais pas « ou « je n’ai rien découvert » : ils ne sont pas conçus pour cela. »

Le machine learning entraîne de ce fait une crise de reproductibilité des découvertes, estime-t-elle. Quand le machine learning établit un lien entre les gènes de certains patients et leur maladie, les chercheurs peuvent ensuite rationaliser scientifiquement leur découverte sans que cette rationalisation soit correcte. « On peut toujours construire une histoire [a posteriori] pour montrer pourquoi des gènes donnés sont regroupés ensemble » explique Dr Allen.

Ce problème de reproductibilité risque de mener les scientifiques vers de fausses pistes (voire des résultats incorrects) et gaspiller des ressources (en essayant de confirmer des résultats impossibles à reproduire). La mise en garde de Genevera Allen a permis de (re)mettre en lumière ce problème. Pour le surmonter, en attendant l’émergence d’une nouvelle génération d’algorithmes à même d’évaluer la fiabilité de leurs résultats, les chercheurs doivent s’assurer eux-mêmes de la reproductibilité de leurs expériences.

***

Cette invitation à la prudence autour du machine learning n’est pas isolée.

Les exemples ne manquent pas pour souligner les problèmes liés plus particulièrement au deep learning. En 2016, une étude s’est penchée sur le succès – proche de 100% – d’une IA qui avait été entraînée pour distinguer les chiens et les loups sur des images données. Il s’est avéré que l’algorithme se fondait avant tout sur…la couleur de fond des images : il y cherchait de la neige car les images de loups sur lesquelles il avait été entraîné comportait souvent de la neige en fond.

Dans le même ordre d’idées, des chercheurs nord-américains se sont rendus compte en 2018 qu’en ajoutant un éléphant dans certaines images, en fonction de son emplacement, le système ne le voyait pas…ou bien le prenait pour une chaise !

Bien d’autres exemples pourraient être cités (en 2017, des chercheurs japonais ont montré qu’en changeant un seul pixel d’une image de chien blanc, l’IA se mettait à y voir une autruche). Tous soulignent la même chose : ces algorithmes parviennent à des résultats sans comprendre ce qu’ils font. Ils peuvent être performants pour certaines tâches de perception (encore qu’il suffit donc parfois d’un changement de pixel pour les tromper), mais butent sur les tâches de raisonnement.

Le succès de l’IA d’AlphaGo (appartenant à Google), premier programme informatique à avoir battu l’humain au go, semble d’ailleurs être à l’origine d’un malentendu. AlphaGo a brillé en s’appuyant sur une IA non-supervisée, reposant sur du deep learning, pouvant donner l’impression que cette approche était intrinsèquement supérieure aux autres. En réalité, cette approche était plus simplement la plus pertinente pour le jeu de go, dont les règles sont particulièrement structurées et logiques. Or ce contexte très spécifique est loin de se retrouver souvent ailleurs, en particulier lorsqu’il s’agit d’activités humaines.

« Un énorme problème à l’horizon est de doter les programmes d’IA de bon sens : même les petits enfants en ont, mais aucun programme de deep learning n’en a », estime le spécialiste américain Oren Etzioni.

In fine, les algorithmes de deep learning « n’apprennent que des indices superficiels, et non des concepts », diagnostique le chercheur Yoshua Bengio, justement l’un des pères fondateurs du deep learning.

Or ces problèmes relèvent de traits inhérents à ces systèmes, et non de bugs…

***

Dans ce contexte de (re)questionnement autour du deep learning, de plus en plus de voix plaident pour élargir les méthodes de recherche utilisées en IA. Ironie de l’Histoire : les regards se tournent vers l’IA dite symbolique (l’enchaînement de règles explicites pour construire un raisonnement), approche historique autrefois reine mais qui était tombée en désuétude avec l’émergence du machine learning.

L’enjeu est aujourd’hui de réussir à exploiter l’apprentissage statistique (ce dont le machine learning relève) et les méthodes symboliques de façon combinée. Les questionnements restent entiers sur les façons de procéder, mais des expérimentations ont commencé.

Antoine Bordes, directeur du laboratoire d’IA de Facebook, entend ainsi dépasser les limites du machine learning dans le langage (en particulier en compréhension de texte, où le machine learning est très peu performant) en « créant des architectures qui peuvent être entraînées sur des données mais qui s’appuient sur le symbolique ».

« La prochaine génération d’IA aura une architecture hybride » confirme la chercheuse Véronique Ventos, qui a cofondé le laboratoire privé NukkAI avec un (premier) objectif : créer une IA capable de briller au Bridge (jeu qui y résiste encore)…

Une opportunité pour l’Europe ?

Dans une tribune parue en mars 2019, Virginia Dignum, professeur d’informatique à l’université d’Umeå en Suède, appelle l’Europe à « explorer des alternatives » au machine learning :

« Il y a peu, une étude ayant analysé 25 ans de recherche en IA a conclu que l’ère du deep learning touche à sa fin. L’Europe a traditionnellement été forte sur les approches symboliques de l’IA. Dès lors, ce serait une erreur de suivre aveuglement les US et la Chine dans leur « course » au machine learning alors que nous avons l’opportunité de montrer la valeur d’approches alternatives, dans lesquelles nous Européens pourrions avoir un avantage. »

Ces réflexions mériteraient d’être plus écoutées en France. Comme l’écrit Olivier Ezratty, « le rapport de la Mission Villani fait la part belle au deep learning. L’approche symbolique semble y être mise en sourdine. (…) De même, l’IA symbolique est assez maigrement représentée dans la feuille de route de l’INRIA de 2016. (…) Pourtant, en prenant du recul, on peut se demander si l’enjeu n’est que dans le deep learning »…

Mythe n°8 : croire que l’IA peut dépasser l’intelligence humaine de façon générale


La thèse de la singularité, selon laquelle l’IA sera capable de dépasser l’intelligence humaine au cours des toutes prochaines décennies, continue étonnamment d’être considérée par certains comme une hypothèse crédible, malgré de multiples remises en cause de la part de spécialistes :

-Jean Ponce, chercheur en vision artificielle à l’ENS, en avril 2017 : « La Singularité, ça m’énerve. Je ne vois personnellement aucun indice que la machine intelligente soit plus proche de nous aujourd’hui qu’avant ».

Jean-Louis Dessalles, chercheur en intelligence artificielle et en sciences cognitives, auteur de l’ouvrage « Des intelligences très artificielles », en février 2019 : « La question de la Singularité technologique ressemble à celle de la surpopulation sur Mars : on ne peut exclure que le problème se pose un jour, mais ce n’est pas demain ».

-Luc Julia, vice-président de l’innovation chez Samsung, inventeur de l’assistant vocal d’Apple, en mars 2019 : « Notre vision menaçante de l’intelligence des machines découle en partie de notre anthropomorphisme. Ces assistants ne sont que des mathématiques et des statistiques, ils répondent à des règles édictées en amont. Jamais une IA ne sera aussi intelligente qu’un humain ».


Comment comprendre, dès lors, la permanence de la thèse de la Singularité ? Dans son ouvrage « Le mythe de la Singularité – faut-il craindre l’intelligence artificielle ? » paru en 2017, l’informaticien et philosophe Jean-Gabriel Ganascia tente d’apporter une explication. Selon lui, cette thèse est avant tout défendue par des ingénieurs travaillant, en large partie, pour des géants technologiques et ayant l’impression, réelle ou exagérée, de changer le monde. Il parle d’un « sentiment de vertige » et de puissance chez ces ingénieurs qui en viennent à surestimer la capacité des géants du numérique à bouleverser les réalités existantes et l’humanité. Ce sentiment est accentué par le fait que ces entreprises ont réussi en très peu de temps – quelques années, contre plusieurs décennies pour les entreprises traditionnelles – à devenir des géants économiques. Il estime qu’il existe donc des prédispositions chez ces ingénieurs à croire les thèses de la Singularité.

A cette prédisposition se rajoute une forme de complaisance liée à l’envie de « se faire peur face à la technologie » : cette complaisance, juge-t-il, est véhiculée par certains médias qui préfèrent le spectaculaire à la réalité plus prosaïque et…scientifique. Il prend ainsi l’exemple de l’idée selon laquelle il deviendra un jour possible de télécharger son propre esprit sur une machine afin de rendre son esprit immortel. Cette idée, portée notamment par un milliardaire russe ayant initié le projet 2045.com (qui, à son lancement, invitait l’internaute à appuyer sur un “bouton d’immortalité”), ne repose sur aucun fondement scientifique, et a pourtant été amplement médiatisée, contribuant ainsi à véhiculer les peurs et inquiétudes liées à l’IA.

Enfin, Ganascia relève le fait que ces craintes remontent bien avant l’invention d’Internet et avant même l’arrivée des ordinateurs. Il prend ainsi l’exemple d’une scène du film Fantasia, sorti en 1940, où plusieurs balais commencent à s’animer et à porter des seaux d’eau à la place du personnage principal. “Cette inquiétude-là, d’être dépassé un jour, me semble ancrée dans le cœur de l’homme. C’est pour cela que l’idée de Singularité est assez populairejuge-t-il.

***

Pour autant, si de nombreuses voix ont remis en cause la Singularité, peu d’entre elles se sont attelées à déconstruire cette thèse méthodiquement.

C’est en cela que le long article intitulé « Le mythe de l’intelligence artificielle super-humaine », écrit par l’auteur américain Kevin Kelly en 2017, est particulièrement précieux.

Dans cet article, il montre que croire que l’IA peut être plus intelligente que l’homme relève d’une mauvaise compréhension de ce qu’est l’intelligence.

Selon les défenseurs de la Singularité, comme Nick Bostrom, il existerait une échelle de l’intelligence, comme il existe une échelle des niveaux sonores en décibels. Dans ce paradigme, il est envisageable de penser une extension de l’intelligence qui ne ferait que croître, étape par étape, et in fine dépasserait notre propre intelligence.

Or la réalité scientifique s’oppose à la vision simpliste d’une intelligence à une seule dimension qui augmenterait de façon linéaire.

L’idée d’une échelle de l’intelligence n’est pas valable scientifiquement, montre Kevin Kelly, de la même façon qu’il n’existe pas d’échelle de l’évolution contrairement à une croyance tenace. “Chacune des espèces présentes aujourd’hui sur Terre a survécu à une chaîne de trois milliards d’années de reproductions successives, ce qui signifie que les bactéries et les cafards sont aujourd’hui aussi évolués que les humains : il n’y a pas d’échelle”, écrit-il. C’est la même chose pour l’intelligence : loin de pouvoir être réduite à une seule dimension, elle est constituée de différents modes cognitifs, composés de multiples nœuds, chacun suivant son propre continuum. “Certaines intelligences peuvent être très complexes, avec de nombreux sous-nœuds de pensée ; d’autres peuvent être plus simples mais plus extrêmes, plus pointues sur certains aspects”.

Il appelle à voir l’intelligence comme une symphonie où co-existent plusieurs types d’instruments : ceux-ci n’ont pas seulement des différences en termes de volume, mais aussi en tempo, en mélodie, etc. Dans cette perspective, il convient selon lui de penser les intelligences dans une logique d’écosystème, où les différents noeuds de pensée sont co-dépendants. “L’intelligence humaine fait appel à de multiples raisonnements cognitifs : la déduction, l’induction, le raisonnement par symboles, l’intelligence émotionnelle, la logique spatiale, la mémoire de court terme, de long terme” énumère-t-il. Du reste, il rappelle que notre intestin, et son système nerveux, présente des caractéristiques similaires à celles du cerveau et a développé sa propre logique cognitive. L’homme, loin de penser seulement avec son cerveau, pense avec tous les éléments de son corps.

Cette analyse permet d’éclairer avec un autre regard les questions d’intelligence artificielle. L’IA surpasse déjà l’homme dans certaines compétences, comme le calcul arithmétique, ou la mémoire (sous certains aspects). L’homme conçoit des IA pour qu’elles l’aident à atteindre l’excellence sur des compétences précises. Il s’agit d’éléments que l’homme est capable de réaliser, mais que l’IA peut mieux faire.

Il existe également des modes cognitifs auxquels l’homme n’a pas accès, au contraire de l’IA : par exemple, retenir (et indexer) tous les mots et expressions présents sur des milliards de sites internet. Pour Kevin Kelly, il est probable qu’à l’avenir l’homme concevra spécialement pour l’IA de nouveaux modes cognitifs inexistants chez lui ou dans la nature, en particulier pour des tâches précises.

Certains problèmes nécessiteront une solution en deux étapes : d’abord, inventer un nouveau mode de pensée pour travailler avec les nôtres ; puis les combiner pour trouver la solution au problème donné. Dès lors, comme nous pourrons résoudre des problèmes que nous ne pouvions pas résoudre jusqu’alors, nous voudrons qualifier ce mode comme “plus intelligent” que nous, alors qu’il sera en réalité simplement différent.

En définitive, le grand avantage de l’IA réside pour lui dans les différences de façons de penser qu’elle permettra d’atteindre. “Je pense qu’un modèle utile est de penser l’IA comme étant une intelligence étrangère ; c’est sa différence qui sera son actif clef”.

Il est donc faux d’affirmer que l’intelligence artificielle peut dépasser l’intelligence humaine de façon générale. Certes, certains modes cognitifs permis par l’IA pourront régler des problèmes que l’homme ne pouvait pas régler, et il sera alors tentant de parler d’IA “superhumaine”, mais cela serait erroné : “nous ne qualifions pas aujourd’hui Google d’IA superhumaine même si sa capacité de mémorisation est plus forte que la nôtre !”. Google, malgré sa puissance de mémorisation, reste impuissant pour réaliser de nombreuses tâches que l’homme peut (mieux) faire que lui. En somme, pour des tâches spécifiques très complexes, l’IA pourra dépasser l’homme, mais “aucune entité ne fera mieux tout ce que fait l’homme”. Kevin Kelly dresse le parallèle avec la force physique des humains : “la révolution industrielle a 200 ans ; même si les machines battent les hommes sur des aspects précis (rapidité à se déplacer, précision, etc.), il n’existe aucune machine capable de battre un humain moyen sur tout ce qu’il ou elle fait”.

Pour compléter le propos, Kevin Kelly montre qu’il est extrêmement difficile, si ce n’est impossible, de mesurer la complexité d’une intelligence de façon scientifique. “Nous n’avons pas de bons outils de mesure de la complexité qui pourraient déterminer si un concombre est plus complexe qu’un Boeing 747, ou les façons dont leur complexité diffèrent”. Dès lors il juge que cela n’a aujourd’hui pas de sens de dire qu’un esprit A est plus intelligent qu’un esprit B. Ce qui compte avant tout n’est pas de se préoccuper d’une IA potentiellement plus avancée que nous à l’avenir, mais de la complémentarité de l’IA avec l’humain, et des défis que cela pose.

La crainte d’une IA globalement supérieure à l’humain est d’autant moins fondée, estime-t-il, que l’IA suivra très probablement la même règle qui s’applique à toute création : il n’est pas possible d’optimiser l’ensemble de ses caractéristiques. Des compromis sont nécessaires. Autrement dit, il n’est pas envisageable de voir naître une IA qui soit capable à la fois de tout faire et de le faire mieux que des humains ou des IA spécialisées. Il souligne d’ailleurs que cette même règle est également valable pour l’homme. “L’intelligence humaine n’est pas en position centrale, avec les autres intelligences spécialisées qui tourneraient autour d’elle. Elle représente en réalité un type très, très spécifique d’intelligence qui a évolué durant des millions d’années pour permettre à l’homme de survivre sur cette planète.” Il explique que si l’on établissait une carte de toutes les formes possibles d’intelligences, celle humaine serait située “quelque part dans un coin, de la même façon que notre monde est situé quelque part dans un coin d’une vaste galaxie”.

Enfin, il estime que la peur d’une IA capable de battre l’homme sur son propre terrain, c’est-à-dire sur des modes cognitifs similaires, est infondée car cela nécessiterait de concevoir une IA fonctionnant sur les mêmes substrats que le cerveau humain. “La seule manière d’atteindre un processus de pensée très proche de celui de l’humain est de faire fonctionner le mécanisme avec une matière très proche de la matière humaine. La matière physique influence en effet très fortement le mode cognitif”. Or les coûts de création d’une telle matière seraient immenses ; plus le tissu à créer serait similaire au tissu d’un cerveau humain (à supposer bien sûr que cela soit faisable), plus les coûts seraient élevés, ce qui rendrait in fine l’opération extrêmement peu efficiente. “Après tout, concevoir un humain est quelque chose qu’on peut faire en neuf mois” rappelle-t-il…Et ce d’autant plus que l’intelligence humaine, comme déjà montré précédemment, n’est pas seulement présente dans le cerveau de l’homme, mais bien dans tout son corps. “Un nombre important de données montre que le système nerveux de nos intestins guide nos processus de prise de décisions rationnels, et peuvent aussi bien prédire qu’apprendre. Une intelligence qui fonctionnerait sur une matière très différente penserait différemment.”

Pour toutes ces raisons, Kevin Kelly appelle à inventer de nouveaux termes, un nouveau vocabulaire, pour décrire les différentes formes d’intelligence, avec lesquelles l’homme agira de plus en plus à l’avenir. Il cite les travaux de Murray Shanahan, professeur de robotique cognitive à l’Imperial College de Londres pour évoquer le fait qu’il existe des millions de types d’intelligences possibles. Pour l’illustrer, il donne plusieurs exemples : un esprit similaire à celui humain, mais plus rapide dans ses réponses ; un esprit très lent, mais disposant d’une très grande capacité de stockage et de mémorisation ; un esprit capable d’imaginer un esprit plus intelligent mais incapable de le concevoir ; un esprit capable de concevoir un esprit plus intelligent ; un esprit très logique mais dépourvu d’émotions ; etc.

In fine, tout porte à croire selon lui qu’il n’y aura pas des IA “superhumaines” mais plutôt plusieurs centaines d’IA qui dépasseront chacune les capacités cognitives humaines sur des compétences précises, mais dont aucune ne pourra couvrir aussi bien que l’homme tous les champs cognitifs. “Je comprends que l’idée d’une IA superhumaine soit très attrayante ; mais si on inspecte les données que nous avons jusqu’à présent sur l’intelligence, aussi bien naturelle qu’artificielle, nous ne pouvons en conclure qu’une chose : c’est un mythe.

Conclusion

En 1956, le chercheur Herbert Simon, qui recevra des années plus tard le « prix Nobel » d’économie et le prix Turing en informatique, prédit que « les machines seront capables, d’ici vingt ans, de faire n’importe quel travail pouvant être fait par l’homme ».

Plus de soixante ans plus tard, la prédiction ne s’est toujours pas réalisée…et semble loin de l’être prochainement.

La vision de l’IA va s’affiner. Une certaine bulle pourrait éclater lorsqu’il deviendra clair que certaines promesses ne seront pas délivrées (de sitôt).

D’ores et déjà, en Chine le temps des « désillusions » s’est ouvert, selon la correspondante « tech » en Asie du Financial Times : « le secteur chinois de l’IA, auparavant très actif, vit une forme de découragement : rejeté par les investisseurs, incapable de délivrer des technologies de pointe et ayant du mal à générer des profits. (…) Les investisseurs sont confrontés à des évaluations démesurées, à des discours exagérés et à des modèles de monétisation usés ».

Le terme IA pourrait lui-même mal vieillir, lui qui est déjà assez décrié.

Comme l’explique Luc Julia : « Tout est parti d’un immense malentendu. En 1956, lors de la conférence de Dartmouth, [l’informaticien] John McCarthy a convaincu ses collègues d’employer l’expression « intelligence artificielle » pour décrire une discipline qui n’avait rien à voir avec l’intelligence. Tous les fantasmes et les fausses idées dont on nous abreuve aujourd’hui découlent, selon moi, de cette appellation malheureuse. »

Pour Luc Julia, il faudrait plutôt parler d’« intelligence augmentée » ; Jean-Louis Dessalles prône quant à lui l’expression d’« informatique avancée ».

Toutes ces remarques ne doivent pas faire oublier les progrès bien réels réalisés dans le domaine, parfois formidables, parfois glaçants (à relier au « capitalisme de surveillance »). Mais une chose est sûre : intelligente ou non, l’IA est encore très loin d’atteindre tout ce que l’Homme peut réaliser, à commencer par notre capacité…d’humour. Les concepteurs d’assistants vocaux se sont ainsi aperçus, au fur et à mesure de l’usage de leurs outils, que la fonction la plus utilisée s’avère être « raconte-moi une blague ». Face à la quantité de demandes de blagues, Amazon (pour Alexa) et Microsoft (pour Cortana) n’ont donc eu d’autres choix que d’embaucher des humoristes – autrement dit, de bons vieux humains…

Clément Jeanneau

01.05.2019 à 16:30

L’émergence d’un nouveau Zeitgeist

signauxfaiblesco

On apprenait récemment que le célèbre Manneken-Pis de Bruxelles, qui sert de fontaine publique depuis des siècles (au moins depuis 1695, voire 1388 selon certaines archives), fonctionnait depuis toutes ces années en pur gaspillage : l’eau, une fois sortie de l’endroit que l’on sait, partait directement dans les égouts. Plus de 1500 à 2500 litres […]
Texte intégral (5414 mots)

On apprenait récemment que le célèbre Manneken-Pis de Bruxelles, qui sert de fontaine publique depuis des siècles (au moins depuis 1695, voire 1388 selon certaines archives), fonctionnait depuis toutes ces années en pur gaspillage : l’eau, une fois sortie de l’endroit que l’on sait, partait directement dans les égouts. Plus de 1500 à 2500 litres d’eau potable s’échappaient ainsi quotidiennement.

C’est l’intervention d’un technicien, fin 2018, qui a permis de prendre conscience du problème. Suite à cette découverte, la municipalité a non seulement décidé d’installer un système de récupération pour éviter ce gaspillage, mais aussi de vérifier toutes les fontaines de la ville.

A quelques jours d’intervalle, on apprenait par ailleurs, dans des sphères tout à fait différentes, que

  • les actionnaires du géant Bayer ont contesté avec force le rachat de Monsanto, refusant de donner leur quitus au directoire de l’entreprise. Comme l’écrit Cécile Boutelet dans Le Monde, ce « bouleversement majeur pour Bayer » montre que « la seule logique industrielle est désormais insuffisante, dans un monde où l’opinion publique, tout comme les investisseurs, est davantage sensibilisée sur les questions environnementales et sanitaires que par le passé ». « La perte de confiance dans la marque Bayer, jusqu’ici synonyme du sérieux et de la moralité de l’industrie chimique allemande de l’après-guerre, est un dégât jugé très grave par les actionnaires ».

  • dans l’univers de la mode, le marché de la friperie (vêtements d’occasion) connaît une telle expansion qu’il est appelé, selon des estimations, à dépasser d’ici moins de dix ans la « fast fashion » (collections renouvelées très rapidement). Les pratiques et les mentalités évoluent rapidement – en 2018, 64% des femmes auraient déjà acheté ou seraient prêtes à acheter des produits d’occasion, contre 52% en 2017 et 45% en 2016 – et ce dans toutes les classes sociales et les tranches d’âge.

Ces trois informations peuvent sembler éloignées, et pour certaines, anecdotiques. On aurait pourtant tort de les sous-estimer en y voyant des phénomènes isolés.

Toutes disent quelque chose de l’époque, chacune à leur échelle et dans leur domaine respectif (gestion d’infrastructures publiques ; stratégie d’entreprises ; pratiques de consommation).

Elles relèvent d’un même mouvement structurel, d’une lame de fond commune, que l’on pourrait désigner par « Zeitgeist » – ce terme allemand que l’on traduit souvent par « l’esprit du temps ».

« Le Zeitgeist constitue un système d’idées, d’images et de valeurs qui, déterminant une certaine ambiance intellectuelle, culturelle, fonde les pratiques, les comportements individuels et collectifs, et inspire les créations, jusqu’à celles qui sont considérées comme les plus personnelles. Il est atmosphère, air du temps, influençant styles et modes de vie individuels, et scandant la respiration sociale » (Philippe Robert-Demontrond).


Comment caractériser ce « Zeitgeist » ? Le meilleur moyen de le cerner, de le décrire, semble être simplement de s’en référer à ses différentes manifestations.

Un exemple parmi d’autres : dans l’univers des cosmétiques, la tendance forte du moment serait « l’écobeauté », à savoir ce qui met en valeur l’aspect naturel de sa peau.

Ici comme ailleurs, le phénomène est évidemment repris si ce n’est tiré par les marques, qui y voient autant le risque de rater le train de ce nouvel « esprit du temps » qu’une nouvelle opportunité de croissance : « l’industrie, des géants aux petites marques indépendantes, a compris le changement de paradigme »,écrit la journaliste Zineb Dryef dans Le Monde. « Après avoir vendu pendant des décennies des produits pour « camoufler » boutons et autres imperfections, les marketeurs de la beauté ont revu leur vocabulaire : on parle désormais de « transparence », d’« authenticité », de « beauté intérieure », de « simplicité », de « retrouver sa vraie nature ».

Les enseignes bio ne sont d’ailleurs pas en reste : il y a quelques mois, Naturalia a ainsi lancé Naturalia Origines, nouveau « concept store » dédié à la médecine douce avec déjà quatre magasins dans Paris, qui se présente comme le « temple du bien-être 100% bio »…

Bien plus qu’une simple tendance

On pourrait voir, dans ce mouvement global, le signe d’une nouvelle mode, par nature éphémère, vouée à laisser place plus tard à d’autres tendances à l’obsolescence programmée.

Ce serait faire là un pari bien risqué. Car ce mouvement repose sur un sous-jacent qui, lui, ne risque pas de se faner de sitôt : la dégradation de l’environnement – et ce qui en est relié, comme la montée de nouveaux problèmes de santé liés aux pesticides, au plastique, aux produits transformés.

A la différence de tendances précédentes, on voit mal comment la situation pourrait s’inverser, au vu de ce qui nous attend en matière environnementale. Tout indique que ce mouvement ne fera que gagner en importance, aussi bien s’agissant du nombre de personnes qui y seront sensibles que de sa profondeur. Des préoccupations auparavant quasi-inexistantes, il y a peu encore secondaires, sont appelées à devenir demain primordiales. Des visions modérées seront amenées à gagner en radicalité. Des logiques de compromis, voire de compromission, jusqu’ici acceptées ou du moins tolérées, sont condamnées à devenir rejetées.

Des implications tentaculaires

Ce nouveau « Zeitgeist », dont les différentes manifestations sont encore souvent considérées comme sympathiques, rigolotes ou agaçantes selon les points de vue, pourrait s’avérer demain décisif dans de nombreux domaines. Prenons ici deux exemples : les marques, et les recruteurs.

Pour les marques

Il appelle les marques à de profonds changements, du moins pour celles dont les valeurs actuelles restent figées dans des logiques anciennes. Le cas récent du magazine Elle, épinglé pour l’article présenté ci-dessous, est à ce titre tout sauf anecdotique.

Pour ses dirigeants, il sera vain, plus tard, de se lamenter face à la baisse de ses ventes. Le problème sera bien plus profond, plus ancien, et donc plus difficile à surmonter. Quand un magazine (se voulant) prescripteur de tendances commence à accumuler du retard en la matière, c’est sa pérennité même qui est mise en danger.

Au-delà de « Elle », cet exemple devrait servir de contre-modèle à toutes les marques ayant l’ambition de devenir ou rester des références dans les années et décennies à venir – voire, plus simplement, de perdurer… : selon une étude récente d’Havas Paris, 87% des marques pourraient disparaître sans aucun regret de la part des Français. Ce chiffre inspire ce diagnostic sans concessions de Valérie Planchez, vice-présidente d’Havas Paris : « nous sommes allés trop loin, avons mal fait notre travail, n’avons pas créé de « fair deals » avec les consommateurs, et payons aujourd’hui la monnaie de notre pièce ».

Pour les recruteurs

« Manifeste étudiant pour un réveil écologique » : ce texte rédigé fin 2018 par des élèves de différentes grandes écoles (HEC, AgroParisTech, CentraleSupélec, Polytechnique, ENS Ulm) en collaboration avec des étudiants de « dizaines d’établissements différents », a eu un certain écho en ce début d’année. Plus de 30 000 étudiants de grandes écoles l’ont signé, avec un message principal : faire savoir aux entreprises qu’ils ne se voient postuler que dans celles « en accord avec les revendications exprimées dans le manifeste », à savoir compatibles avec les logiques écologiques.

Bien sûr, une signature à un manifeste n’engage pas à grand-chose et n’empêchera pas certains de ces étudiants de postuler en temps voulu dans des entreprises dont ils récusent aujourd’hui les pratiques.

Bien sûr, ces étudiants ne sont en rien représentatifs de l’ensemble des étudiants de France (ce qu’ils ont reconnu dès le début de leur initiative).

Mais on aurait tort, pour autant, de minorer ce mouvement, qui dépasse les seules préoccupations environnementales et touche plus globalement à l’impact des entreprises sur la société et à la question du sens.

D’abord parce qu’il est porté par une partie non-négligeable des jeunes talents que recherchent – avec de plus en plus de difficulté – les grands groupes. A Polytechnique, dont une part importante de diplômés se dirigent vers l’industrie et des postes décisionnels, plus de 600 élèves ont signé le manifeste. A Centrale, « de plus en plus de diplômés choisissent des petites structures où ils comprennent ce qu’ils font et pourquoi ils sont là [alors qu’il] y a quinze ans, 50 % d’une promotion s’orientait directement dans les grands groupes », selon le directeur de l’école.

Ensuite parce qu’il est mondial. Le même phénomène se manifeste par exemple aux Etats-Unis. Le New York Times l’a constaté récemment lors d’un événement à la prestigieuse université de Berkeley : les futurs diplômés en informatique sont de plus en plus nombreux à éviter Facebook, en dépit des 140 000 dollars annuels assortis de différents avantages en nature proposés aux ingénieurs en sortie d’école – et ce, non pas parce que le réseau est passé de mode, mais bien pour ses impacts sociétaux.

Les témoignages citées par le New York Times convergent dans le même sens : « un grand nombre de mes amis se disent qu’ils ne veulent plus travailler pour Facebook pour les questions de privacy, fake news, données personnelles, tout cela » ; « je ne crois tout simplement pas au produit parce que tout ce qu’ils font consiste à montrer plus de publicités aux gens » ; « avant, y travailler était vu comme prestigieux voire magique; maintenant, on se dit que ce n’est pas parce qu’ils font ce que les gens souhaitent que c’est positif ».

Même si les jeunes diplômés restent nombreux à y postuler, ceux-ci le font « un peu plus discrètement, expliquant à leurs amis qu’ils vont y travailler pour changer l’entreprise de l’intérieur ou qu’ils ont trouvé un poste plus éthique dans cette entreprise à la réputation devenue toxique », écrit le New York Times, qui ajoute : « le changement d’attitude se produit au-delà de Facebook. Dans la Silicon Valley, les recruteurs disent que les candidats en général posent plus de questions du type « comment puis-je éviter un projet sur lequel je suis en désaccord ? » et « comment puis-je rappeler à mes chefs la mission que s’est fixée l’entreprise ? ».

Au-delà de la Silicon Valley, de nombreux jeunes diplômés, qu’ils soient issues de formation d’ingénieurs ou de commerce, font part d’un sentiment de « dissonance cognitive » et de « perte de sens » dans leur activité professionnelle. Pour la sociologue Cécile Van de Velde, « au niveau individuel, la question posée est : s’ajuster au marché du travail, d’accord, mais jusqu’où ? Par nécessité, la plupart des jeunes diplômés acceptent de renoncer à certaines valeurs pour rester dans la course, mais ils peuvent développer alors un sentiment majeur de désajustement. Je les appelle les « loyaux critiques » : ils jouent le jeu, mais portent une critique radicale du système, depuis l’intérieur ».

Ces considérations sont évidemment en soi déjà un luxe, à l’heure où l’objectif de nombreux jeunes est plus simplement de trouver un emploi, ou un travail qui serait rémunéré de façon correcte. De même, il est évident que le besoin de sens n’a pas émergé en 2018 ou 2019 : il n’est pas nouveau en soi.

Mais sa montée est indéniable et n’en est probablement qu’à ses débuts. Fait inédit : à l’ENA, la dernière promotion a débattu sérieusement de la possibilité de s’appeler « Urgence climatique », même si ce nom a finalement été écarté en « finale » après huit heures de débat (…partie remise ?).

Cécile Van de Velde confirme qu’elle « constate que le sentiment d’urgence face à la catastrophe écologique est de plus en plus prégnant. J’ai pu [le] voir monter et se diffuser, au fil de mes recherches sur la colère sociale. En 2012, la colère des jeunes diplômés était principalement structurée par les thématiques sociales et économiques. Aujourd’hui, le malaise est plus existentiel, plus global. Il porte davantage sur la question de la marche du monde et de l’humanité menacée. » Et si ces questionnements restent en grande partie portés par des classes sociales qui ne sont pas en difficulté, elle note que « chez cette jeunesse bien informée, bien formée et qui a des ressources, il y a un refus de transmission du système ».

Elle confirme également la dimension internationale et générationnelle de ce mouvement : « On voit dans les enquêtes internationales sur les valeurs que la conscience environnementale et la demande d’éthique politique sont deux revendications qui distinguent fortement les jeunes générations montantes. Non pas que ces revendications n’existent pas chez les autres, mais elles sont portées à l’extrême par ces jeunes générations. ».

Elle relie cette situation à « une inversion de la transmission entre générations » que l’anthropologue américaine Margaret Mead avait annoncé dès 1968 dans son ouvrage « Le Fossé des générations » : « au lieu d’être descendante – des parents vers les enfants –, cette transmission pouvait devenir ascendante. C’est cette forme d’inversion générationnelle qui est à l’œuvre aujourd’hui sur les questions climatiques et environnementales. »

Les normes sociales comme moteur du changement

Il y a encore peu, beaucoup voyaient dans la vague « startups » l’émergence d’une tendance lourde : l’arrivée d’une génération entrepreneurs, prêts à « uberiser » des pans entiers d’une économie traditionnelle jugée obsolète, et visant l’hypercroissance à tout prix. On sent pourtant déjà aujourd’hui en France que le vocable « startup nation » a commencé à se faner. La « disruption » sent le sapin : lorsqu’elle n’a pas mauvaise presse pour ses impacts sociaux, elle est tournée en ridicule, vue comme caricature d’un « nouveau monde » qui sonne déjà assez ancien.

Les startups sont évidemment encore (très) vivantes, et l’entrepreneuriat est bien sûr très loin de se résumer aux startups ; le propos est simplement de dire que celles-ci ne sont plus le modèle qu’elles ont pu représenter, il y a encore peu, aux yeux de certains.

Or cette question du modèle est clef.

« L’esprit du temps » dont il est question touche éminemment aux normes sociales, et en particulier à ce qui est valorisé et à ce qui devient à l’inverse mal vu.

A ce titre, l’exemple de la « honte de prendre l’avion » qui se développe en Suède et qui conduit un nombre croissant de voyageurs à préférer le train pour réduire leur empreinte carbone, est tout sauf anecdotique : c’est un vrai signal faible, dont la portée est sans doute encore sous-estimée.

Le phénomène, qui a son propre mot en suédois (« flygskam »), semble sérieux : d’ores et déjà, plusieurs lignes intérieures ont vu leur nombre de passagers diminuer, tandis que les trajets en train – et notamment les trains de nuit – entre les principales villes suédoises battent des records de fréquentation.

Ce type de pratiques est appelé à s’amplifier dans des domaines très divers, non pas uniquement en raison d’un souci accru de l’environnement, mais aussi, plus prosaïquement, en raison de l’image que l’on souhaite renvoyer.

En 2013, le PDG de la société Opower racontait qu’un groupe d’étudiants avait testé les trois messages suivants pour encourager les gens à économiser de l’énergie : « vous pouvez économiser 54 dollars ce mois-ci » ; « vous pouvez sauver la planète » ; « vous pouvez être un bon citoyen ». Aucun n’a fonctionné. Un quatrième message a alors été testé : « vos voisins font mieux que vous ». Le résultat s’est avéré « miraculeux : quand les gens découvraient que ¾ de leurs voisins avaient éteint l’air conditionné, ils l’éteignaient aussi ».

Les changements de comportements ne se feront pas (seulement) par des logiques d’incitation économique ou de contraintes. Ils seront favorisés en large partie par la pression sociale.

Dans le cas du transport en avion (l’un des principaux contributeurs d’émission de CO2), la prise de conscience progressive des ordres de grandeur liés aux émissions de CO2 devrait conduire, par exemple, à remettre en cause progressivement la mode des escapades le week-end en Europe, jusqu’alors tirées par les prix spectaculairement bas des compagnies low-cost.

C’est d’ailleurs ce qu’indique officiellement l’ADEME dans son scénario 2050 pour atteindre les objectifs fixés par le gouvernement en matière écologique : « Dans le domaine des loisirs, les voyages en avion ne seront pas proscrits, mais ils devront être globalement plus rares, en privilégiant les longs séjours plutôt que la fréquence des escapades ».

En se plaçant en 2050, l’ADEME écrit : « la politique climatique a amené à transformer les pratiques touristiques. La nouvelle fiscalité sur le kérosène a contribué à modifier les habitudes: on prend toujours l’avion pour voyager loin, mais moins souvent et plus longtemps. Les entreprises proposent maintenant à leurs salariés la possibilité de cumuler trois mois de congés payés pour faire des grands voyages ».

Autrement dit, « voyager à longue distance en avion est envisageable à condition que cet usage soit réparti dans le temps. » Pour ce faire, il sera nécessaire de « modifier les comportements liés à l’aspiration aux voyages en avion avec le développement du tourisme sur longue distance. L’objectif est de mettre en place des règles collectives qui permettent un tourisme de long séjour ».

Le domaine des loisirs n’est pas le seul concerné par le changement de ces pratiques puisqu’une large partie des trajets en avion sont liés à des déplacements professionnels. Là encore, les normes sociales sont appelées à jouer un rôle important.

Exemple parmi d’autres : aujourd’hui, les formulaires d’évaluation des chercheurs du CNRS demandent le « nombre de conférences internationales » où les chercheurs ont été invités, ce qui encourage en creux le maximum de déplacements à l’étranger. S’il est évidemment compréhensible, et même souhaitable, qu’un chercheur soit amené à présenter ses travaux à l’international, on peut se demander si les déplacements sont à chaque fois justifiés et si des substituts ne seraient pas, parfois, envisageables.

Cet exemple n’est pas le plus représentatif, il faut le reconnaître, et ce d’autant plus que la recherche joue bien sûr un rôle essentiel dans la lutte contre le désastre écologique ; mais il montre, quitte à déplaire, qu’aucun domaine ne serait être tenu à l’écart de ces questionnements.

Quelles conséquences ?

Les implications sont très larges et appelées à se diffuser dans les différents interstices de la société. Comme toujours, elles seront vues comme des évidences a posteriori. Comme toujours, elles sont sous-estimées a priori.

La notion de luxe, par exemple, est déjà en (r)évolution. C’est ce qu’écrit l’essayiste Gaspard Koenig dans un texte récent : « Dans sa célèbre controverse avec Rousseau, Voltaire définissait le luxe comme « tout ce qui est au-delà du nécessaire », s’inscrivant dans « une suite naturelle des progrès de l’espèce humaine ». En cette époque d’abondance matérielle et d’achats grégaires, que trouve-t-on de rare et de superflu « au-delà du nécessaire » ? Le silence et la frugalité. (…)

A l’ère de la massification des transports, le luxe consiste à retrouver une forme de sobriété et de tranquillité dans des environnements à taille humaine.On ne compte plus les sites de voyage  qui promettent « l’authenticité » . En Roumanie justement, aux pieds des Carpates, le prince Charles a rénové des maisons traditionnelles où vient séjourner la gentry londonienne. Le dernier chic est de faire son propre pain.

Le documentaire de Benjamin Carle, « Sandwich », enquêtait sur cette mode du Do It Yourself : un repas de luxe ne consiste plus à manger du caviar mais à partager le sandwich que l’on a fait entièrement soi-même, en faisant pousser les tomates et en récoltant le blé. »

Pour reprendre l’exemple de l’avion, c’est tout l’univers du tourisme qui sera amené à évoluer. Certains acteurs commencent déjà à l’anticiper. Le PDG de Voyageurs du monde, Jean-François Rial, dit aujourd’hui s’interdire de proposer certains voyages « inacceptables » : « Les long-courriers en dessous de cinq nuits, les allers-retours en Europe dans la journée, c’est non ! ».

D’autres acteurs ne souhaitent pas être dans ce type de compromis où l’avion a encore une place centrale. Ils s’inscrivent dans la tendance du tourisme durable, sobre, qui, là encore, n’a rien d’une mode et ne devrait faire que monter en puissance. Pour Guillaume Cromer, directeur du cabinet ID-Tourism, « les premiers touristes de demain seront intrarégionaux », ce qui implique de « construire de nouveaux imaginaires sur l’ailleurs, et de dépayser grâce à des hébergements atypiques ». Du reste, comme l’écrit Gaspard Koenig, « les Millennials branchés ne jurent plus que par le « tourisme expérientiel », préférant vivre chez l’habitant plutôt que d’être parqués dans des suites anonymes et climatisées ».

Evidemment, dans tout ce mouvement, il faut distinguer les modérés et les radicaux ; les militants et les hésitants ; les pionniers et les suiveurs : bref, tout un spectre.

Evidemment, comme dit précédemment, ces questionnements restent aujourd’hui un certain luxe ; il est plus difficile de se préoccuper de la fin du monde lorsqu’on a du mal à finir le mois…

Pour autant, on voit mal l’impact de ce « nouveau paradigme » rester circonscrit.

Dans l’univers du marketing, et donc de la consommation en général, les marques restent par exemple souvent frileuses à l’idée d’investir le terrain politique, au sens vie de la cité. Or les consommateurs attendent de plus en plus des marques qu’elles s’engagent, qu’elles défendent leurs convictions, qu’elles « prennent position sur des sujets de société clivants » pour reprendre les mots de David Nguyen de l’Ifop, et plus encore : qu’elles soient avant-gardistes en la matière.

Les marques les plus fortes ne sont pas consensuelles. Seth Godin, « gourou » du marketing, l’exprime ainsi : « Cela n’a plus de sens de vouloir plaire à tout le monde. Plus aucun produit ou service ne peut avoir cette ambition. Les marques doivent concentrer leurs efforts sur un petit nombre de clients, et susciter leur engagement. Et pour cela, elles ne doivent plus hésiter à être avant-gardistes, à prendre des risques, à oser les extrêmes ! »

Il cite l’exemple de la marque Patagonia : « eux s’engagent pour l’écologie, et n’hésitent pas à aller toujours plus loin. Mais ces choix, parfois radicaux, donnent du sens à leur message et donc à leurs produits. »

C’est l’exemple, aussi, de la marque d’électronique américaine Sonos qui a fermé l’an dernier le temps d’une journée son magasin de New York pour afficher son soutien à la neutralité du net.

La politique ne sera pas laissée de côté

« Les jeunes, à mesure de leur prise de conscience politique, seront beaucoup plus radicaux que leurs parents, tout simplement parce qu’ils n’auront plus d’autre choix » – Phil McDuff dans The Guardian

En matière environnementale, les nouvelles générations sont vouées à être plus radicales. Les notions de développement durable et croissance verte semblent déjà vieillies. La force du nouveau mouvement « Extinction Rebellion » au Royaume-Uni, qui prône la désobéissance civile non-violente contre l’inaction climatique, en est un signe révélateur. « Extinction Rebellion is leading a new, youthful politics that will change Britain » annonçait d’ailleurs fin avril un chroniqueur du Guardian.

Au-delà des seules pratiques de consommation, le terrain politique ne sera donc pas laissé de côté. On sous-estime encore l’arrivée à l’âge de voter de cette nouvelle génération. Il est d’ailleurs permis de s’interroger sur la part d’électeurs de Mélenchon ayant voté pour lui en 2017 non pas (spécialement) pour son positionnement d’extrême gauche mais pour son radicalisme écologique et institutionnel. Dans quelle mesure son score de presque 20% (à 1,7 point de Marine Le Pen et donc du second tour) a-t-il été dû à ces enjeux ?

Ces questions doivent nous interroger sur le potentiel de l’écologie comme force politique – qui n’a jusqu’ici jamais franchement connu le succès en France. Que manque-t-il pour que celle-ci réussisse ? Peut-être avant tout la figure d’un leader capable de rassembler bien au-delà de son camp et de susciter une adhésion forte sur sa personne, à partir d’un terreau d’idées commençant à devenir massivement partagées.

Si tel est le cas, alors nous pourrions être politiquement dans un état métastable, comme on l’appelle en physique – cet état qui se manifeste lorsque de l’eau en-dessous de 0°C reste provisoirement liquide. Il suffit alors d’un micro-évènement pour déclencher brutalement un changement de phase qui aurait pu se produire plus tôt (ou plus tard). L’émergence d’une personnalité représentant l’écologie et capable de rassembler pourrait constituer ce facteur de déclenchement. Y a-t-il aujourd’hui une personnalité en France capable de remplir ce rôle ?

Une chose est sûre : à défaut d’engagements forts, le greenwashing sera de moins en moins acceptés par les individus, que ceux-ci soient considérés comme consommateurs, demandeurs d’emplois ou électeurs. Si cela ne concerne pas (encore ?) l’ensemble des citoyens – il ne s’agit pas de les homogénéiser artificiellement -, il n’est plus à prouver que les mouvements émergents commencent toujours par des « early-adopters ».

Pour les marques à la recherche de nouveaux consommateurs, pour les entreprises à la recherche de nouveaux talents, pour les partis politiques à la recherche d’électeurs, le constat est donc le même : des changements cosmétiques ou de pure communication ne seront non seulement pas suffisants – la ficelle serait trop grosse – mais seront, surtout, dangereux, car porteur de risques de décrédibilisation forte. A charge à chaque acteur d’en tirer les conséquences.

Clément Jeanneau

23.03.2019 à 10:53

Pourquoi les prédictions sont souvent fausses (et quelles leçons en tirer)

signauxfaiblesco

“Internet ? On s’en fout, ça ne marchera jamais” (Pascal Nègre, alors PDG d’Universal Music, en 2001) Illustration ci-dessus : extrait d’une série de cartes postales imaginant en 1910 la France de l’an 2000 Pour les nombreux experts en expertise, chaque début d’année est l’occasion de livrer au monde ce que leur boule de cristal leur […]
Texte intégral (8458 mots)


“Internet ? On s’en fout, ça ne marchera jamais” (Pascal Nègre, alors PDG d’Universal Music, en 2001)


Illustration ci-dessus : extrait d’une série de cartes postales imaginant en 1910 la France de l’an 2000


Pour les nombreux experts en expertise, chaque début d’année est l’occasion de livrer au monde ce que leur boule de cristal leur a révélé entre la bûche et le Nouvel An. Tendez l’oreille…bienvenue en 2030, 2050, voire 2070 pour les plus chanceux d’entre nous !

Ces généreuses confidences sont d’autant plus pratiques pour leurs auteurs qu’il leur arrive rarement de devoir rendre des comptes a posteriori. Il est vrai qu’à l’heure des bilans, il est souvent plus excitant de se tourner vers…l’avenir, encore une fois.

Une fois n’est pas coutume, rembobinons la pellicule. Signaux Faibles vous invite ici à une rétrospective de certaines des plus belles prédictions formulées depuis l’ère industrielle… :

Personne n’est immunisé contre un joli loupé

Ni les économistes, Prix Nobel ou pas

« La croissance d’Internet va ralentir drastiquement, car la plupart des gens n’ont rien à se dire ! D’ici 2005 environ, il deviendra clair que l’impact d’Internet sur l’économie n’est pas plus grand que celui du fax. »

Ce pronostic a été formulé par Paul Krugman en 1998, dans un article intelligemment intitulé « Pourquoi la plupart des prédictions des économistes sont fausses ». Sûr de son fait, il ajoutait ensuite : « avec le ralentissement du taux de changement technologique, le nombre d’offres d’emploi pour spécialistes IT décélèrera, puis se renversera ; dans dix ans, l’expression « économie de l’information » semblera stupide ». 

Dix ans plus tard exactement, en 2008, Paul Krugman remportait le prix Nobel d’économie…pour d’autres analyses fort heureusement.

Ni les plus prestigieux cabinets de conseil en stratégie

Un exemple est resté célèbre en la matière : le cas AT&T et McKinsey.

Au début des années 1980, l’opérateur téléphonique AT&T demanda au (très réputé) cabinet McKinsey d’estimer combien de téléphones portables seraient utilisés dans le monde au tournant du siècle. La conclusion de McKinsey fût sans appel : en raison de défauts rédhibitoires (poids trop important, batteries trop faibles, coût exorbitant …), le téléphone portable ne pouvait pas devenir un succès.

McKinsey estima que seules 900 000 personnes environ utiliseraient en l’an 2000 un téléphone portable ; plus encore, le cabinet pronostiqua que personne n’utiliserait ce type d’appareil si une ligne téléphonique fixe était disponible à proximité. McKinsey recommanda donc à AT&T de se retirer du marché des téléphones portables (coûtant à AT&T, des années plus tard, plusieurs milliards de dollars). Au tournant du siècle, le téléphone portable compta finalement plus de 100 millions d’utilisateurs, soit plus de cent fois le pronostic initial.

Ni les PDG de grandes entreprises

« Le cheval est là pour rester, mais l’automobile est juste une nouveauté, une mode » – le Président de la Michigan Savings Bank conseillant le juriste d’Henry Ford de ne pas investir dans la Ford Motor Company en 1903.

« Il n’y a aucune chance que l’Iphone gagne la moindre part de marché significative » – Steve Ballmer, PDG de Microsoft en 2007

« Netflix, je n’y crois pas. La vidéo à la demande par abonnement, ça ne marchera jamais, il n’y a pas de marché en France » – Bertrand Méheut, PDG de Canal+ en 2013

Ni les dirigeants pourtant pionniers dans leur domaine

« Ce “téléphone” a trop de défauts pour être considéré sérieusement comme un moyen de communication » – William Orton, Président de Western Union [alors leader mondial de la radiocommunication] 1876

«La télévision ne tiendra sur aucun marché plus de six mois. Les gens en auront rapidement assez de regarder tous les soirs une boîte en contreplaqué » – Darryl Zanuck, 20th Century Fox, 1946

« L’idée d’un outil de communication personnel dans la poche de chacun est une chimère, favorisée par la cupidité » – Andy Grove, CEO d’Intel, 1992

« Le modèle de souscription par abonnement pour acheter de la musique est une mauvaise piste. Les gens nous l’ont dit et répété : ils ne veulent pas louer leur musique » – Steve Jobs en 2003

« Je n’ai pas envie de regarder tant de vidéos que cela » – Steve Chen, cofondateur de YouTube exprimant en 2005 ses doutes sur le potentiel de sa plateforme.

Ni même les plus grands scientifiques ou inventeurs

« Le phonographe n’a absolument aucune valeur commerciale » ; « l’engouement pour la radio s’éteindra avec le temps » – Thomas Edison (inventeur de l’ampoule électrique, du phonographe qui deviendra un succès commercial à l’origine de l’industrie du disque, etc.)

« Bien que la télévision soit possible théoriquement et techniquement, elle est pour moi impossible commercialement et financièrement » – Lee DeForest, pionnier des radiocommunications, 1926

« Le cinéma parlant est une invention très intéressante, mais je doute qu’elle reste à la mode bien longtemps » – Louis-Jean Lumière, inventeur du cinématographe, 1929

« Il n’y a pas la moindre indication que nous puissions un jour utiliser l’énergie nucléaire » – Albert Einstein, 1932

« La téléphonie mobile ne remplacera jamais la téléphonie fixe » – Martin Cooper, inventeur du premier téléphone mobile, 1981

« Je prédis qu’Internet sera LA grande nouveauté de 1995 et s’effondrera avec fracas en 1996 » – Robert Metcalfe, co-inventeur d’Ethernet, 1995

***

Si ces prédictions ratées abordent ici surtout l’innovation, en particulier technologique, bien d’autres exemples auraient pu être présentées (finance, politique, etc.) ; pensons par exemple à toutes celles formulées juste avant 2007 qui évacuaient l’hypothèse d’une crise. Mais plutôt que de chercher à rallonger la liste, tentons d’en comprendre les raisons…

Les raisons de ces erreurs

Daniel Jeffries, blogueur américain, a mis en avant dans un article plusieurs facteurs pour expliquer pourquoi les « experts » se trompent ainsi dans leurs prédictions :

1/ Ils consacrent trop peu de temps à un sujet avant de se forger une opinion

…parfois en raison d’excès de confiance en soi. On pense notamment ici à l’effet Dunning-Kruger, dit de la surconfiance, selon lequel les moins qualifiés dans un domaine donné ont tendance à y surestimer leur compétence.

…parfois en raison de paresse intellectuelle. C’est ce qu’explique Nadia Maizi, directrice de recherche aux Mines ParisTech et spécialiste de prospective sur le climat et l’énergie, qui regrette chez de nombreux décideurs une « perte d’effort intellectuel dans les réflexions sur le long terme » (interview sur France Culture dans l’émission Le Grain à Moudre du 3 janvier 2019 : « Peut-on modéliser le futur ? »). Elle insiste sur l’importance, « quand on est dans des réflexions sur le long terme », d’éviter de « capter un chiffre ou un autre parce que c’est celui qui nous intéresse, ou parce que c’est celui qu’on avait au départ », et de bien considérer « l’ensemble des possibles ».

2/ Le futur va à l’encontre de tout ce qu’ils comprennent du monde

Un exemple typique est celui des choix de la France

-de ne pas avoir considéré avec sérieux les travaux du chercheur français Louis Pouzin dans les années 1970, qui préfiguraient pourtant les fondations d’Internet. Poussé par les PTT (ancêtres de France Telecom et La Poste), l’Etat a choisi de couper le financement de ses travaux, qui ont été ensuite en partie repris par le chercheur américain Vinton Cerf pour la mise au point du protocole TCP/IP, fondement d’Internet.

-de s’être obstinée jusque dans les années 1990 à ne pas croire en Internet. Rappelons ici les conclusions du rapport Théry, intitulé « Les autoroutes de l’information », et remis en 1994 au gouvernement (qui voulait se faire un avis sur le potentiel d’Internet) : « il n’existe aucun moyen de facturation sur Internet, si ce n’est l’abonnement à un service. Ce réseau est donc mal adapté à la fourniture de services commerciaux. Le chiffre d’affaires mondial sur les services qu’il engendre ne correspond qu’au douzième de celui du Minitel. Les limites d’Internet démontrent ainsi qu’il ne saurait, dans le long terme, constituer à lui tout seul le réseau d’autoroutes mondial ».

La même année, Jeff Bezos lançait Amazon.

Durant toutes ces années, certaines voix avaient pourtant plaidé pour considérer le potentiel d’Internet. Mais les autorités ont choisi de ne pas en tenir en compte. Pour l’économiste Pierre Sabatier, « entre le Minitel et Internet, ce n’était pas une technologie contre une autre, mais une vision du monde contre une autre. Pour des technocrates français, formés dans une culture centralisatrice et autoritaire, où tout doit venir d’en haut, il était évident que la seule solution viable était la solution centralisatrice et autoritaire du Minitel.

Internet misait au contraire sur l’autonomie des individus, leur esprit d’initiative et d’innovation, hors de tout contrôle, excepté celui qu’ils s’imposent d’eux-mêmes. Un tel système, bordélique et anarchisant, où l’on progresse par essais et erreurs et non selon un plan préétabli, leur était simplement incompréhensible. Logique du contrôle et de la planification contre logique de la liberté individuelle. Dès lors, comment pouvaient-ils prévoir l’explosion de créativité d’Internet, qui est une créativité individualiste ? ».

Il n’est dès lors pas étonnant que le rapport remis en 1994 au premier ministre de l’époque, Edouard Balladur, ait été commandé à trois technocrates français dont l’un était…l’un des inventeurs du minitel ! De l’art de choisir ses experts pour son travail de prospective…

3/ Le futur remet en cause leur position de pouvoir

Un exemple phare est celui de Kodak qui a refusé de voir la puissance du numérique parce que l’entreprise avait tout bâti sur l’argentique. Contrairement à une idée répandue, Kodak n’a pas découvert en retard le numérique : comme l’explique Philippe Silberzahn, professeur d’innovation à l’EM Lyon, « en réalité, Kodak est l’un des tous premiers à avoir activement travaillé à la photo numérique : l’entreprise était très active dans le domaine et est à l’origine de très nombreux brevets. Parfaitement au courant du développement du numérique, puisqu’elle en était l’instigateur, Kodak n’a pas voulu le promouvoir de manière déterminée pour une raison simple : protéger son activité principale de l’époque, la vente de films argentiques ».

Les autres exemples ne manquent pas. Pensons ainsi, de façon plus récente, aux réactions de certains banquiers face aux cryptomonnaies. Jamie Dimon (CEO of JPMorgan Chase, l’un des vétérans de Wall Street) considérait ainsi en 2017 les cryptomonnaies comme une « escroquerie » (avant de « regretter » début 2018 l’emploi du terme quand les cours sont montés, puis de parler de nouveau d’ « arnaque » en août 2018, quand les cours sont redescendus…). Comme l’écrit Daniel Jeffries, « il ne peut pas concevoir un futur avec des cryptomonnaies parce qu’il fait partie des principaux bénéficiaires du système actuel. Il ne veut pas voir, et donc se ment à lui-même. Ce n’est rien d’autre qu’un mécanisme de défense mentale. Interroger ces gens sur les cryptomonnaies, c’est comme demander à un chauffeur de taxi ce qu’il pense d’Uber ou d’un fabricant de calèches ce qu’il pense des voitures. »

Au fond, si l’on en revient au rapport Théry cité plus haut, son raté peut se comprendre aussi sous l’angle de la position de pouvoir menacée : comme l’écrit Philippe Silberzahn, « ce ne serait pas l’histoire d’une erreur, mais d’une tentative désespérée d’empêcher l’avènement d’une technologie pour en défendre une autre » et pour « défendre des intérêts » plutôt que d’autres. Autrement formulé, par Franck Lefevre : « Internet versus Minitel n’est pas un dilemme technique mais un choix politique, idéologique. La position de Thery vise à défendre l’intérêt des systèmes supervisés versus les systèmes auto-organisés, l’intérêt de l’approche interventionniste versus celle misant sur la liberté des acteurs ».

4/ Ils confondent leur opinion avec la réalité

« En France, on n’a pas cru en l’informatique. On a dit que c’était une mode et que ça allait passer. Dans les années 80, dans les grandes écoles, on se demandait si l’informatique était un sujet ou pas. En 1985, à Polytechnique, on se demandait encore s’il fallait l’enseigner » (Gérard Berry, professeur au Collège de France, médaille d’or 2014 du CNRS)

Les biais d’opinions peuvent tordre fortement la capacité à anticiper le futur (ainsi qu’à comprendre le présent…et le passé !). Nadia Maizi (Mines ParisTech) raconte ainsi qu’elle obtient parfois au cours de ses recherches « des résultats pertinents sur le long terme mais qui sont peu audibles », ce qu’elle illustre par un exemple : « en 2011 la Commission Besson a été mise en place juste après Fukushima pour évaluer la politique énergétique française après 2050. Dans les premiers scénarios réalisés avec notre modèle, il était apparu clairement qu’une sortie brutale du nucléaire faisait rentrer des technologies à base de charbon, donc émissives. Mais quand on a montré ça, ça n’a pas plu ».

5/ Ils font preuve d’un grand manque de patience

Dans le domaine de l’innovation, plusieurs décennies sont parfois nécessaires pour qu’une invention prenne toute sa mesure (trouve son usage, rencontre son marché, soit utilisée au mieux). Dans certains cas, ce temps est incompressible en raison de la nature même du processus d’innovation, qui implique de tâtonner dans l’usage d’une invention donnée. Deux exemples, parmi de multiples autres, l’illustrent :

-Le microscope : comme l’explique Philippe Silberzahn, « le microscope a permis de découvrir les microbes et de changer notre vision du monde du vivant, mais il a fallu presque 200 ans entre l’invention du premier microscope et l’émergence de la théorie des microbes ; 200 ans pour adapter notre modèle mental à la nouvelle technologie et ses possibles ! ».

-Le Velcro (scratch) : « L’idée est venue à son inventeur pour la première fois en 1941. Le concept n’a pleinement pris racine dans son esprit que sept ans plus tard. Il a commencé à créer les petits crochets en 1948 et il lui a fallu dix ans pour le faire fonctionner et le produire en masse. Après avoir ouvert son entreprise à la fin des années 1950, il s’attendait à une forte demande immédiate. Ce n’est pas arrivé. Il a fallu cinq autres années avant que le programme spatial dans les années 1960 ne perçoive le Velcro comme un moyen de résoudre un problème : comment faire entrer et sortir les astronautes de combinaisons spatiales encombrantes et peu maniables ? Peu de temps après, l’industrie du ski a remarqué qu’il pouvait fonctionner sur les chaussures. De l’idée initiale à la réussite commerciale il aura fallu 25 ans. » (Daniel Jeffries)

***

Ces facteurs explicatifs ne sont certainement pas exhaustifs. D’autres pourraient être avancés : par exemple, il arrive fréquemment qu’un interlocuteur ait un intérêt particulier à mettre en avant un certain futur plutôt que d’autres – quitte à l’exagérer sciemment, parfois en tordant des chiffres pour en prendre les plus extrêmes. Citons par exemple le fameux chiffre de 47% des emplois qui seraient menacés par l’automatisation. Il est issu d’une étude de deux chercheurs de l’Université d’Oxford, qui a été extrêmement partagée, avec parfois peu de pincettes. Or de nombreuses autres études parviennent à des chiffres bien différents. L’OCDE, en revoyant la méthodologie de cette même étude, est arrivée au chiffre bien moins spectaculaire – qui reste tout de même préoccupant – de 9%. Un chiffre bien moins vendeur pour un certain nombre d’acteurs (cabinets de conseil en transformation digitale, essayiste jouant sur les peurs liées à la technologie…) qui peuvent avoir intérêt à accentuer la réalité.

Les leçons à en tirer

Les facteurs cités ci-dessus conduisent à plusieurs leçons en matière de prospective.

Sans chercher à être exhaustif, citons-en 4 ici.

1. Se méfier des jugements hâtifs

Savoir faire preuve d’humilité et de patience aussi bien dans ses recherches (cf l’excès de confiance) que dans l’observation d’un phénomène (exemple du Velcro) : cette règle, qui semble évidente en théorie, n’est pas toujours appliquée en pratique comme le montrent les multiples prédictions très assertives citées plus haut. Dans bien des cas, le problème ne tient pas tant à l’erreur d’analyse, qui peut tout à fait s’entendre, qu’à l’absence de doutes sur les prédictions exprimées.

En particulier, il convient d’être très prudent avant d’affirmer qu’une innovation donnée ne connaîtra pas la réussite, qu’un changement spécifique ne pourra pas se produire, qu’un événement potentiel ne pourra pas survenir…

Dans le New York Times en 1939, un article expliquait par exemple « pourquoi la télévision ne marchera pas » : « la famille américaine moyenne n’a pas le temps pour ça »


Au fond, il s’agit plus simplement de ne pas rejeter trop vite ce qui peut sembler anecdotique au premier regard…

Ainsi, pour l’investisseur Chris Dixon, « la prochaine “big thing” commence toujours par être vue comme un gadget. C’est l’un des principaux enseignements de la théorie de Clay Christensen sur les « technologies de rupture » [Christensen est l’auteur du « Dilemme de l’innovateur » paru en 1997 et considéré comme une référence sur l’innovation]. Cette théorie part d’une observation : les technologies tendent à s’améliorer à un rythme plus rapide que le développement des besoins des usagers. De ce simple enseignement suivent un ensemble de conclusions intéressantes. (…) Les technologies de ruptures sont vues comme des gadgets car quand elles sont lancées, elles ne répondent pas encore aux besoins des usagers. »

Les grandes innovations sont toujours vues au départ comme des gadgets (Chris Dixon)

Parmi de multiples exemples (l’ordinateur personnel, la téléphonie sur IP, etc.), il cite celui du « premier téléphone », qui « ne pouvait porter des voix que sur deux ou trois kilomètres » : « le leader en télécommunication de l’époque, Western Union, n’a pas voulu s’y lancer parce qu’il ne voyait pas comment le téléphone pouvait être utile aux entreprises et aux chemins de fer – leurs principaux clients. Western Union n’a pas anticipé la rapidité avec laquelle la technologie du téléphone et son infrastructure se sont améliorées ».

2. Arrêter de croire que les évolutions sont forcément linéaires

Ce que Western Union n’a pas saisi à l’époque, écrit Chris Dixon, tient à une caractéristique du secteur technologique : l’adoption des technologies s’effectue souvent de façon non-linéaire, en raison des effets de réseau capable d’accélérer cette adoption.

Or cette non-linéarité se retrouve dans bien d’autres domaines que la technologie.

Prenons par exemple le cas du climat. Contrairement à une idée (parfois) reçue, le dérèglement climatique n’est pas amené à progresser de façon linéaire (« + 1 degré tous les x années », si la trajectoire actuelle reste la même). Deux phénomènes permettent de l’expliquer.

D’une part, le dérèglement franchit des effets de seuil à partir desquels peuvent s’activer brutalement certains phénomènes. Pablo Servigne et Raphaël Stevens citent deux exemples dans leur ouvrage évoqué précédemment sur Signaux Faibles :

  1. « Un lac peut passer rapidement d’un état translucide à totalement opaque à cause d’une pression de pêche constante. La diminution progressive du nombre de grands poissons provoque, à un moment précis, un effet de cascade sur tout le réseau alimentaire, ce qui en bout de course mène à une prolifération très soudaine et généralisée de microalgues. Ce nouvel état, très stable, est ensuite difficile à inverser ».
  2. « Dans les forêts des régions semi-arides, il suffit de dépasser un certain niveau de disparition du couvert végétal pour que les sols s’assèchent un peu trop et provoquent l’apparition brutale d’un désert, qui empêche toute végétation de repousser. C’est ce qui s’est passé pour le Sahara lorsqu’il y a 5000 ans la forêt est soudainement devenue un désert, ou actuellement en Amazonie où une transition similaire est probablement en train de s’amorcer ».

D’autre part, le dérèglement produit des « effets en cascade ». « Une équipe de climatologues a recensé 14 « éléments de basculement climatique » susceptibles de passer ces points de rupture (permafrost de Sibérie, forêt amazonienne, calottes glaciaires…). Chacun d’eux est capable – à lui seul – d’accélérer le changement climatique…et en plus de déclencher les autres. (…) Un système complexe vivant est en effet constitué d’innombrables boucles de rétroaction entrelacées. A l’approche d’un point de rupture, il suffit d’une petite perturbation pour que certaines boucles changent de nature et entraînent l’ensemble du système dans un chaos imprévisible et souvent irréversible ».

Quiconque s’essaie à l’exercice périlleux de la prospective en matière climatique (notamment pour tenter d’anticiper ses impacts sociaux, migratoires, économiques, géopolitique, etc.) ne saurait donc miser sur une progression linéaire du dérèglement en cours.

De façon générale, l’essayiste Nassim Taleb souligne bien dans son ouvrage « Le Cygne Noir » – paru quelques mois avant l’éclatement de la crise de 2007 – l’importance des événements aléatoires, hautement improbables et à ce titre trop souvent exclus des raisonnements d’anticipation, alors qu’ils jouent un rôle considérable dans l’Histoire. Il montre la quasi-impossibilité de calculer avec des méthodes scientifiques la probabilité de ces événements : « c’est le travers des économistes et des scientifiques que de vouloir soumettre leurs observations aux règles mathématiques et prétendre ainsi prévoir les événements avec la certitude des lois de la probabilité. Or le monde n’est pas prévisible. L’histoire est plutôt déterminée par des événements extraordinaires et imprévus, mais dont le caractère surprenant disparaît dès que l’événement est survenu », considère-t-il (extrait d’une note sur l’ouvrage sur cairn.info).

Taleb définit ainsi trois critères définissant un cygne noir : « l’événement est une surprise pour l’observateur (a), a des conséquences majeures (b), et est rationalisé a posteriori comme s’il avait pu être attendu (c). Cette rationalisation rétrospective vient du fait que les informations qui auraient permis de prévoir l’événement étaient déjà présentes, mais pas prises en compte par les programmes d’atténuation du risque ».

La notion de cygne noir n’est finalement rien d’autre que l’illustration d’un biais cognitif, celui qui rend aveugle à l’incertitude, lui-même lié à d’autres biais (surconfiance ; biais de confirmation ; etc.). Taleb va jusqu’à dire que « l’avenir est un pur hasard : on perd son temps à le prédire », car il y aura toujours des variables qui nous échappent. Il recommande tout de même cependant :

  • d’une part d’envisager le maximum de possibilités (par opposition à l’attachement à une seule vision des choses, quand bien même celle-ci apparaîtrait comme la plus probable)
  • d’être le plus conscient possible de notre rationalité limitée et de l’existence d’informations dont nous n’avons pas connaissance.

C’est cette méthode qui permet selon Taleb non pas de « prédire l’avenir » mais d’anticiper au mieux les risques, et en définitive de nous aider à faire de meilleurs choix pour l’avenir – ce qui est, finalement, l’un des objectifs de la prospective.

3. Reconnaître et surmonter ses biais

L’exercice de la prospective implique d’être lucide sur ses a priori, d’avoir conscience de ses biais et d’essayer de les surmonter. Comme l’explique Cécile Wendling, sociologue des risques et directrice de la prospective du groupe Axa : « Il faut très bien connaître l’histoire et le présent pour faire de la prospective. Il faut regarder autant d’années en arrière qu’on regarde en avant, pour éviter le biais de surévaluer l’activité récente. [De façon générale] il est essentiel d’avoir conscience de ses propres biais, par exemple le biais présentiste (surévaluer l’actualité) ou le biais culturel (sa sphère géographique, son secteur d’activité, les médias que l’on suit, etc.), et de les surmonter (s’informer sur d’autres aires géographiques, etc.) » (interview sur France Culture le 3 janvier dernier).

Un biais classique de prospective, dans lequel tombent parfois les acteurs de l’innovation, est ainsi de faire de la technologie le moteur de la plupart des (r)évolutions, ce qui est loin de se vérifier (lire plus bas « Ce qui pèche souvent »).

Un autre biais, courant, consiste à voir le monde de façon statique… :

« Quand les experts se trompent, c’est souvent parce qu’ils sont experts d’une version précédente du monde. (…) Pouvez-vous vous protéger contre des croyances obsolètes ? Dans une certaine mesure, oui. La première étape est de croire au changement. Les personnes qui sont victimes d’une confiance excessive dans leurs propres opinions concluent implicitement que le monde est statique. Si vous vous rappelez consciencieusement qu’il ne l’est pas, vous commencez à chercher le changement ». – Paul Graham


4. Etendre son regard

« Quand on me demande en interview de prédire le futur, j’ai toujours du mal à dire quelque chose de plausible. Mon astuce habituelle est de parler d’aspects du présent que la plupart des gens n’ont pas encore remarqués. Les croyances sur le futur sont si rarement correctes que la meilleure stratégie [pour anticiper ce futur] consiste simplement à être extrêmement ouvert d’esprit. Au lieu d’essayer de vous diriger dans la bonne direction, admettez que vous n’avez aucune idée de la bonne direction et essayez plutôt d’être extrêmement sensible au vent du changement ». – Paul Graham


Etendre son regard, notamment pour tenter de repérer des mouvements émergents, implique ainsi souvent d’observer les marges – qu’il s’agisse de personnes en marge ou de façons de vivre, de lieux ou de temporalités qui ne sont pas (encore) sous le feu des projecteurs.

L’investisseur Chris Dixon estime par exemple que « les hobbys sont ce dans quoi les gens les plus intelligents passent leur temps quand ils ne sont pas contraints par des objectifs financiers de court terme. Leurs hobbys d’aujourd’hui constituent ce qui nourrit les industries de demain. Ce que font les gens les plus intelligents pendant leurs week-ends est ce que tous les autres feront durant leurs semaines dans 10 ans ».

Pensons ainsi à cette phrase écrite en 1991 par Linus Torvalds, créateur du système d’exploitation Linux, au moment d’annoncer son modeste projet personnel afin d’obtenir des premiers avis : « Je suis en train de faire un système d’exploitation (gratuit, c’est juste un hobby, ça ne va pas devenir grand et professionnel) ».

Etendre son regard peut aussi passer par des œuvres fictionnelles, notamment de science-fiction ou d’anticipation. Les exemples d’auteurs de romans ayant prédit ou anticipé des accomplissements futurs (voire contribué à leur émergence ?) sont multiples, de Jules Verne à H.G. Wells. Il est évidemment facile de revenir après coup sur des œuvres passées en y voyant la trace de prédictions avérées justes. La science-fiction ou l’anticipation ne doivent pas être vues comme des boules de cristal mais comme des moyens d’ouvrir son regard et de concevoir, par l’imaginaire, des situations encore impensées.

Dans la littérature contemporaine, un auteur français comme Alain Damasio est reconnu pour son travail autour de futurs possibles et dystopiques liés à l’avènement d’une société de contrôle, tandis que du côté américain, un roman comme « Dans la forêt » de l’auteure Jean Hegland, sorti dans les années 1990 (étonnamment traduit en français seulement en 2017), offre une vue remarquable – inatteignable par des essais, rapports, conférences – de ce que donnerait concrètement, humainement, un effondrement de civilisation, bien loin des représentations spectaculaires véhiculées par Hollywood. 

Au-delà de la fiction, c’est toute la sphère de l’imaginaire qui est actionnable, ce qui peut aussi passer par des voyages, des rencontres, etc. L’imaginaire permet de se représenter des actions ou événements en apparence inconcevables en réalité – comme, par exemple, l’attaque de Pearl Harbor en 1941… :

« Dans ses travaux pionniers sur l’attaque surprise de la base américaine de Pearl Harbor par les japonais le 7 décembre 1941, la chercheuse américaine Roberta Wohlstetter a montré que cet échec ne pouvait pas être mis sur le compte d’un manque d’attention aux signaux faibles. En effet, la marine américaine avait déchiffré les codes de la marine japonaise. Elle disposait donc de signaux massifs sous la forme de conversations des amiraux japonais. Mais elle trouvait l’hypothèse d’une attaque de Pearl Harbor tellement absurde qu’elle a refusé de l’envisager. Un exercice sur ce thème au printemps 1941 a même été refusé. » – Extrait de l’ouvrage « Bienvenue en incertitude ! » de Philippe Silberzahn


Enfin, étendre son regard peut – si ce n’est doit – passer par étudier l’Histoire, en particulier les façons dont les populations ont réagi à certains événements ou périodes donnés.

Cependant, gare, là encore, aux jugements hâtifs…

Ce qui pèche souvent

« La futurologie se trompe presque toujours car elle prend rarement en compte les changements de comportements », selon l’historienne Judith Flanders. Nous ne regarderions pas les bonnes choses : « le transport pour aller au travail, plutôt que la forme du travail ; la technologie, plutôt que les changements de comportement engendrés par la technologie » ; etc.

Dans la première moitié du XXe siècle, les États-Unis encadraient juridiquement les endroits où il était permis de cracher dans les trains, les gares et les quais. Un colloque tenu à Washington en 1917 ordonnait ainsi qu’« un nombre suffisant de crachoirs soit prévu » dans les wagons de train. Aujourd’hui, le terme américain « cuspidor » (« crachoir ») et l’objet ont pratiquement disparu. Sa disparition n’est pas due à l’obsolescence de certaines technologies, mais bien parce que les comportements ont évolué.

Dans l’histoire plus contemporaine, Terry Grim, professeur au sein du programme « Etudes du futur » à l’Université de Houston, se rappelle d’une vidéo des années 1960 sur le « bureau du futur » : « tout était presque juste, avec la vision de l’ordinateur et d’autres outils technologiques à venir. Mais il manquait une chose : il n’y avait pas de femmes dans le bureau ».

En France, les archives de l’INA sont une mine d’or pour se (re)plonger dans l’état d’esprit qui prévalait dans la société de la deuxième moitié du XXe siècle. On y retrouve des vidéos parfois stupéfiantes – en témoigne, par exemple, ce reportage de 1976 qui demande à plusieurs hommes leurs avis les viols de jeunes femmes en autostop, dont ce témoignage du président de la cour d’appel de Paris :

« Il faut tenir compte du fait que la victime a pris un risque en montant dans une voiture avec un garçon qu’elle ne connaissait pas. Pensons à un automobiliste qui voit passer sur la route une jeune fille dont la silhouette lui plaît, qui s’arrête et qui la viole : il est certain que la peine doit être plus forte pour celui qui n’a pas été provoqué. L’attitude de la victime doit entrer en compte. [Parfois] c’est une provocation indirecte. Les hommes sont ce qu’ils sont : il faut éviter d’allumer un garçon et de lui faire espérer une suite favorable. »


La société des années 1970 pouvait-elle s’imaginer que de tels propos, qui manifestement ne semblaient alors pas choquer particulièrement, deviennent inconcevables quarante ans plus tard, a fortiori venant d’un magistrat ?

Pour l’auteur Lawrence Samuel, le progrès social est le « talon d’Achille » de la futurologie. Il estime que l’on oublie trop souvent cette remarque de l’historien britannique Arnold Toynbee : ce sont les idées, et non la technologie, qui ont entraîné les plus grands changements historiques.

Parfois, les éléments déclencheurs de changements culturels semblent d’abord insignifiants. Dans son ouvrage « Le Pouvoir des habitudes », l’auteur Charles Duhigg montre que l’évolution des droits des homosexuels aux États-Unis a été accélérée par un changement en apparence anecdotique : la bibliothèque du Congrès américain (considérée comme la bibliothèque nationale américaine), qui classait jusqu’alors les livres sur le mouvement homosexuel dans la catégorie «Relations sexuelles anormales, dont crimes sexuels », a décidé de les déplacer dans une catégorie intitulée « Homosexualité, lesbianisme, libération gay ». Ce petit changement a créé un effet d’entraînement. Un an plus tard, l’American Psychiatric Association cessa par exemple de définir l’homosexualité comme une maladie mentale.

On le voit bien : envisager le futur ne peut se faire sans étude des mouvements sociaux et des évolutions de mentalités, et plus globalement sans prise en compte des sciences sociales, au-delà du suivi des avancées technologiques. Un exemple est éloquent en la matière : lorsque les premiers ascenseurs automatiques sont apparus, les usagers étaient inquiets à l’idée de les utiliser. Malgré la supposée fiabilité de ces appareils, ils ne pouvaient s’empêcher de craindre de possibles accidents. A l’aune de ces réactions, on devine par exemple qu’à l’avenir, l’usage massif de voitures entièrement autonomes ne démarrera pas seulement le jour où ces véhicules seront prêts et la législation adaptée, mais aussi et surtout lorsque les individus se sentiront sereins à l’idée de les utiliser.

Si l’évolution des comportements est parfois sous-estimée à l’heure d’envisager l’avenir, il arrive donc aussi qu’elle soit tenue pour acquise un peu rapidement.

A cet égard, un exercice intéressant consiste à réfléchir à ce qui reste stable dans le temps…ce qui n’est pas forcément intuitif : « nous faisons plus attention à ce qui change qu’à ce qui joue un plus grand rôle mais ne change pas » écrit ainsi Nassim Taleb dans son ouvrage « Antifragile ».

Jeff Bezos, fondateur d’Amazon, a un jour expliqué qu’il déterminait la stratégie du géant du e-commerce en fonction de ce qu’il appelle les « signaux stables » : « On m’a souvent posé cette question : ‘Qu’est-ce qui changera dans les dix prochaines années ?’. C’est une question très intéressante, mais très commune. En revanche, on ne m’a jamais demandé : ‘Qu’est-ce qui ne va pas changer dans les dix prochaines années ?’. Or pour moi, cette deuxième question est la plus importante puisqu’elle permet de construire une stratégie autour de ce qui reste stable dans le temps. Toute l’énergie et les efforts que nous mettons chez Amazon dans ces signaux stables porteront encore leurs fruits dans dix ans ».

Conclusion

La prospective, qui consiste à investiguer des futurs possibles, n’est pas l’art de la prédiction. Si les prédictions s’avèrent souvent fausses, c’est simplement parce que vouloir prédire l’avenir est vain, comme le souligne Nassim Taleb (et bien d’autres).

La prospective n’est pas non plus la prévision. Prévoir, c’est « modéliser le réel pour en déduire un futur probable » (Bernard Georges), souvent à court ou moyen terme. « A la différence de la prévision, liée à des modèles de continuité, la prospective est liée à des modèles de rupture » explique Cécile Wendling, responsable de la prospective du groupe Axa. « Sur le sujet du travail, par exemple, il est possible d’effectuer des prévisions d’évolution du taux de chômage à horizon deux semaines ou deux mois ; la prospective sur le travail, elle, nécessite de réinterroger les CSP que l’on utilise ».

Les deux exercices sont complémentaires, et la prospective se nourrit d’ailleurs d’une part de « récits, où l’on combine tendances et signaux faibles pour comprendre comment un sujet donné peut évoluer dans le temps », d’autre part de « modèles mathématiques de prévisions sur le court et moyen terme ».

Oser penser le temps long

Aujourd’hui, la prospective, cet exercice qui demande de « détecter dans le présent des […] germes du futur, déjà » comme le formule la spécialiste Édith Heurgon, n’a pas forcément bonne presse. Elle est pourtant vitale pour anticiper au mieux les risques (et opportunités) de moyen et long terme, les mouvements de fond parfois discrets mais structurels, les ruptures à venir.

L’époque est à la croyance – parfois immodérée – dans le pouvoir du Big Data et de l’intelligence artificielle. Leur puissance ne saurait être négligée ; mais ces outils statistiques et technologiques relèvent de la prévision, du domaine de l’estimation probable. Ils butent sur l’incertitude, sur les fameux « cygnes noirs » dont la sous-estimation a conduit à la stupéfaction lors de l’éclatement de la crise de 2007/2008.

La prospective doit être réhabilitée et refaire place à tous les niveaux (l’échelon de l’entreprise, d’un secteur économique, de l’Etat…). Il en va de notre capacité à penser l’incertitude et à anticiper les enjeux qui dépassent le temps politique et les contraintes économiques de court terme.

Certaines puissances, comme la Chine, l’ont bien intégré. En France, l’organisme France Stratégie, placée sous l’autorité du Premier Ministre, est censé remplir ce rôle. Il peine toutefois à s’y consacrer pleinement, ayant également d’autres missions essentielles à remplir, de plus court terme (organisation de concertation, évaluation des politiques publiques…). La France manque d’un centre de pointe entièrement dédié à la prospective. Le coût d’opportunité en est probablement considérable et se paiera sur le long terme.

Ce coût se manifeste d’ailleurs dès aujourd’hui, par exemple dans le numérique, domaine longtemps sous-estimé (et ce depuis ses débuts, puisque dans les années 70 « Internet était considéré en France comme un gadget de chercheur : il n’y avait pas d’argent, pas de reconnaissance » raconte le chercheur Louis Pouzin). Or le fait qu’en 2019 l’innovation de rupture soit, globalement, vue en France sous le seul angle de l’intelligence artificielle n’incite pas à l’optimisme pour la suite…

Diversifier

Le monde de l’entreprise, lui aussi, peine parfois à mener des réflexions prospectives. Le réflexe d’externaliser ce travail à des cabinets de conseil, de façon parfois systématique, en est un signe révélateur. S’appuyer sur des expertises extérieures peut être utile, mais il importe alors

  • d’une part de faire appel à différentes façons de penser et d’anticiper l’avenir.
  • d’autre part de développer en parallèle, en interne, une culture favorable à la diversité de points de vue – ce qui passe souvent par une diversité d’expériences, de cultures, de personnalités.

La transformation d’une entreprise ne peut se faire sans esprits capables de penser différemment. Si cette évidence relève aujourd’hui presque du lieu commun, poussé notamment par une communication corporate se voulant « disruptive », la réalité est souvent différente en pratique, comme l’exprime Philippe Silberzahn avec justesse ici :

« En filtrant les outsiders, les marginaux et ceux qui ne rentrent pas dans le cadre, l’entreprise gagne une fiabilité et une prédictibilité, gage de sa performance. (…) Et puis un jour survient une rupture. La révolution digitale, le big data, l’uberisation, les barbares sont à nos portes! Et quand la bise fut venue, l’entreprise se trouve fort dépourvue. Car tout d’un coup Boum! Crack! Elle veut des innovateurs! Des gens qui sortent du cadre! « Innovez! » comme lançait récemment devant moi un PDG à son assemblée d’employés médusés. (…)
Mais il n’y a pas de miracle en management. Seulement des choix stratégiques. Et rien n’est plus stratégique que de décider qui on recrute, qui on garde et qui on promeut
. »

Dès lors, comme il l’écrit, « le recrutement de profils fonctionnels et conformes au modèle en place est une nécessité, mais le développement d’une diversité est indispensable si l’entreprise veut pouvoir évoluer et se transformer. La création de cette diversité, et non le filtrage des marginaux, telle devrait être la mission stratégique de la RH ».

Terminons sur deux remarques pour ouvrir le débat…

…au niveau de l’entreprise, quel crédit accorder aux cabinets qui conseillent les entreprises sur leur transformation digitale lorsqu’eux-mêmes ne l’ont pas réalisée ?

…au niveau de l’Etat, quel crédit accorder, par exemple, au jury de l’ENA qui déplore publiquement le « conformisme », le « manque d’imagination » et « la pensée stéréotypée » de ses candidats alors même que tout écart de pensée et toute tentative de créativité se voient souvent sévèrement réprimés lors du concours ?

Ces incohérences, parmi d’autres, doivent nous interroger. Pour les décideurs du public comme du privé, si prédire l’avenir est vain, tenter d’anticiper des futurs possibles reste un impératif, dont la bonne exécution est en large partie une question de choix de personnes. Ces choix sont ceux qui permettent – ou non – d’éviter de dire, un jour, qu’« Internet, on s’en fout, ça ne marchera jamais »…

Clément Jeanneau

09.02.2019 à 12:07

L’Age du capitalisme de surveillance

signauxfaiblesco

2019 n’a commencé que depuis quelques semaines mais certains estiment que nous tenons déjà l’un des livres les plus importants de l’année. L’ouvrage en question s’intitule « L’Age du capitalisme de surveillance » et a été écrit par Shoshana Zuboff, professeure émérite à la Harvard Business School. De quel problème s’agit-il ? De l’avènement d’une nouvelle ère […]
Texte intégral (4949 mots)

2019 n’a commencé que depuis quelques semaines mais certains estiment que nous tenons déjà l’un des livres les plus importants de l’année.

L’ouvrage en question s’intitule « L’Age du capitalisme de surveillance » et a été écrit par Shoshana Zuboff, professeure émérite à la Harvard Business School.

De quel problème s’agit-il ? De l’avènement d’une nouvelle ère du capitalisme, celle de la surveillance, d’abord ouverte par le secteur numérique et en passe de s’étendre largement au-delà. Zuboff porte une vision très noire sur ce basculement, qui menace jusqu’à la démocratie, estime-t-elle.

Les éloges pleuvent sur ce pavé de plus de 600 pages paru mi-janvier aux Etats-Unis, fin janvier au Royaume-Uni : The Guardian, qui parle d’un livre « frappant et éclairant », qualifie sa publication « d’événement très important » ; le Financial Times le qualifie de « révolutionnaire, magistral, alarmant…incontournable » ; même le très libéral Wall Street Journal considère qu’il s’agit d’« un ouvrage rare qui met un nom sur un problème devenant critique ».

Si les idées de Zuboff ne sont pas fondamentalement nouvelles, elle met les mots sur une réalité perçue de façon souvent incomplète voire superficielle. Sa thèse, qui suscitera certainement des critiques tant elle est orientée (voire caricaturale dans sa démonstration, jugeront certains), force néanmoins chacun à se poser des questions clefs et pourtant souvent trop vite évacuées. Comme l’écrit le Wall Street Journal : « l’apport majeur de ce livre est de mettre des mots sur le phénomène en cours, de le replacer dans une perspective culturelle et historique, et de nous inviter à prendre le temps de réfléchir au futur ».

Que nous dit Zuboff ? Que la notion de « capitalisme de surveillance » – expression qu’elle a popularisée dans un article en 2014 – est encore mal comprise : bien plus que d’une (r)évolution numérique, il s’agit d’une nouvelle ère du capitalisme qui a trouvé comment exploiter la technologie à ses fins.

« La technologie est juste la marionnette : le capitalisme de surveillance est celui qui tire les ficelles. (…) Il est impossible d’imaginer le capitalisme de surveillance sans numérique, mais il est facile d’imaginer le numérique sans capitalisme de surveillance. Ce capitalisme n’équivaut pas la technologie. Il repose sur les algorithmes, l’intelligence artificielle, etc., mais il n’est pas la même chose que chacune de ces technologies-là ».

Les modèles d’affaires des géants du numérique sont aujourd’hui bien connus mais Zuboff les replace dans un contexte plus large : selon elle, il ne s’agit pas seulement d’algorithmes complexes mais de la dernière phase de la longue évolution du capitalisme. Après la production de masse, le capitalisme managérial, l’économie des services, le capitalisme financier, nous serions entrés dans une nouvelle ère du capitalisme, fondée sur l’exploitation des prédictions comportementales issues de la surveillance des utilisateurs. En ce sens, The Guardian situe son livre dans « la continuation » des analyses sur le capitalisme produites « par Adam Smith, Max Weber, Karl Polanyi et Karl Marx ».

« Le capitalisme de surveillance s’approprie l’expérience humaine comme matière première gratuite et la traduit en données comportementales. Même si certaines de ces données servent à améliorer des services, le reste est utilisé comme surplus comportemental, intégré dans des processus de « machine intelligence » avancés puis transformés en produits prédictifs qui anticipent ce que vous voudrez faire maintenant, bientôt et plus tard. Au bout du compte, ces produits prédictifs sont échangés sur une nouvelle forme de places de marché que j’appelle marchés futurs comportementaux ».

Ainsi, le fameux adage « si c’est gratuit, c’est que vous êtes le produit » est incorrect pour Zuboff.  Au lieu d’être le produit, l’utilisateur est un rouage du véritable produit : les prédictions sur son futur, vendu au plus offrant.

Une nouvelle ère ouverte en 2001

Zuboff situe l’émergence du capitalisme de surveillance aux débuts des années 2000 : selon elle, celui-ci a été inventé et perfectionné par Google de la même façon que la Ford Motor Company avait inventé et perfectionné la production de masse et que General Motors avait inventé et perfectionné le capitalisme managérial.

Elle raconte que ce nouveau capitalisme a été inventé vers 2001 et a d’abord servi de solution d’urgence pour Google, dont la situation financière commençait à se compliquer suite à l’explosion de la bulle Internet. Faisant face à une perte de confiance de leurs investisseurs, et à une pression grandissante de ces derniers, les dirigeants de Google choisirent d’abandonner la position critique qu’ils tenaient publiquement jusqu’alors contre la publicité. A la place, ils décidèrent de booster leurs revenus publicitaires en tirant profit de leur accès exclusif aux données de leurs utilisateurs et en les combinant avec leurs capacités analytiques et leur puissance de calcul déjà existantes. L’idée sous-jacente : générer des prédictions sur le taux de clic des utilisateurs, considéré comme un signal de pertinence d’une publicité.

Dès lors, l’objectif de Google devint le suivant : exploiter au maximum le surplus de données comportementales et développer des méthodes pour trouver de nouvelles sources de ce surplus.

« Google a mis au point de nouvelles méthodes de capture de ce surplus, capables de dévoiler des données que les utilisateurs ont délibérément choisi de garder confidentielles et de déduire des informations personnelles que les utilisateurs ne fournissent pas ou ne souhaitent pas fournir. L’objectif est ensuite d’analyser ce surplus pour rechercher des significations cachées pouvant prédire les futurs clics. Les données liées à ce surplus sont devenues la base des nouveaux marchés prédictifs : la publicité ciblée. »

C’est donc vers 2001, écrit Zuboff, que la recette du capitalisme de surveillance voit le jour : un mélange inédit (et lucratif) de surplus comportemental, sciences de la donnée, infrastructure matérielle, puissance de calcul et plateformes automatisées.

Comme elle le raconte, ce n’est qu’en 2004, quand Google entre en Bourse, que la puissance de ces nouveaux mécanismes prend publiquement toute sa mesure : l’entreprise révèle alors que ses revenus ont augmenté de 3590% depuis 2001.

La publicité n’était que la première étape

Au XXe siècle, l’ère de la production de masse avait démarré avec la fabrication de la Ford Model T avant de s’étendre au reste de l’économie. De la même façon, le capitalisme de surveillance a commencé au début du XXIe siècle avec la publicité en ligne, mais s’étend désormais bien au-delà. Rapidement devenu le modèle par défaut des entreprises de la Silicon Valley, le capitalisme de surveillance n’est aujourd’hui plus limité au secteur numérique, puisqu’il touche, explique Zuboff, de multiples secteurs : assurance, distribution, soins, finance, divertissement, éducation, transports… « Presque chaque produit ou service qui commence par le mot « smart » ou « personnalisé », chaque « assistant digital », est simplement un maillon d’une chaîne logistique où transitent un flux de données comportementales destinées à prédire nos futurs » écrit-elle.

Les acteurs de ce capitalisme se sont peu à peu perfectionnés. « Ils ont d’abord appris que plus ils récoltent de surplus, plus leurs prédictions sont bonnes, ce qui leur permet de générer des économies d’échelle. Ils ont ensuite découvert que plus le surplus est varié, plus les prédictions gagnent en valeur ». De là, selon elle, les efforts de ces acteurs pour passer de l’ordinateur au mobile, qui se retrouve partout : « conduite en voiture, achats, joggings, recherche de place de parking, santé, beauté…et toujours, toujours, la localisation ».

Mais ces acteurs ne se sont pas arrêtés là. Analyser les données pour prédire les comportements n’était qu’une première étape : la frontière ultime, pour Zuboff, repose sur « les systèmes conçus pour modifier les comportements, afin d’orienter ceux-ci vers des résultats commerciaux désirés ». Elle cite notamment deux exemples en ce sens :
-les tests de Facebook pour influencer les émotions de leurs utilisateurs en manipulant leurs fils d’actualité (tests effectués en 2014 sur plus de 600 000 utilisateurs, qui se sont révélés très concluants) ;
-le jeu de réalité augmentée Pokémon Go où des joueurs étaient amenés sans en avoir conscience à devoir se rendre dans des magasins (du monde physique) pour capturer des Pokémon. Les concepteurs du jeu avaient créé un système d’enchères destiné aux marques, permettant de guider les joueurs vers celles prêtes à payer le plus cher.

« Il ne suffit plus d’automatiser les flux d’informations nous concernant ; l’objectif est maintenant de nous automatiser » assène-t-elle, en soulignant les stratégies mises en place pour éviter le consentement des utilisateurs : « ces processus sont méticuleusement conçus pour produire de l’ignorance en contournant la prise de conscience individuelle et en éliminant toute possibilité de libre-arbitre ». Elle cite un data scientist rencontré durant ses travaux : « nous pouvons programmer le contexte qui entoure un comportement particulier afin d’imposer un changement ».

Pourquoi c’est une menace pour la démocratie et la société

Ce pouvoir d’influencer nos comportements « n’a aucun fondement démocratique ni légitimité morale », juge-t-elle, « puisqu’il usurpe nos droits décisionnels et érode notre autonomie individuelle, pourtant essentielle dans une société démocratique ».

Par « droits décisionnels », Zuboff entend notre capacité à défendre nos propres futurs, qui se retrouvent aujourd’hui manipulés par les systèmes prédictifs. Enutilisant les services du capitalisme de surveillance, les individus acceptent bien plus que la seule perte de contrôle sur leurs données : ils placent la trajectoire de leur vie, la détermination de leur voie, sous le contrôle du marché, de la même façon que les joueurs de Pokémon Go, guidés par leurs écrans, franchissent les portes de magasins sans avoir pris conscience de s’être fait quasiment piloter à distance.

Pour Zuboff, le problème fondamental de cette nouvelle ère capitaliste est bien son danger sur la démocratie : « La démocratie s’est endormie pendant que les capitalistes de la surveillance ont accumulé une concentration inédite de connaissances et de pouvoir. (…) Nous entrons dans le XXIe siècle marqués par cette profonde inégalité dans la division des apprentissages : ils en savent plus sur nous que nous en savons sur nous-mêmes ou que nous en savons à leur sujet. Ces nouvelles formes d’inégalité sociale sont par nature antidémocratiques. »

Dans The Guardian, l’éditorialiste John Naughton écrit : « La combinaison de la surveillance par l’Etat et par son équivalent capitaliste signifie que la technologie sépare les citoyens en deux groupes : les observateurs (invisibles, inconnus, non-responsables) et les observés. Les conséquences sur la démocratie sont profondes car l’asymétrie de savoir se traduit en asymétrie de pouvoir. Mais là où la plupart des sociétés démocratiques ont un minimum de contrôle sur la surveillance exercée par l’Etat, nous n’avons aujourd’hui pas de contrôle réglementaire sur la surveillance des entreprises privées. C’est intolérable. »

Selon Zuboff, le capitalisme de surveillance diffère des autres formes de capitalisme à plusieurs égards, mais notamment pour une raison majeure : « il abandonne les réciprocités naturelles qui ont aidé par le passé à ancrer le capitalisme, même imparfaitement, aux intérêts de la société ». Outre la remise en cause du libre-arbitre et de l’autonomie des individus, elle estime que ce nouveau capitalisme pose par exemple aussi un problème en termes d’emploi. Grâce à leurs moyens technologiques, les grands acteurs de ce capitalisme peuvent en effet se permettre d’employer relativement peu de salariés compte tenu de leur puissance, ce qu’elle illustre par un exemple frappant : « General Motors employait plus de personnes au pic de la Grande Dépression que Google ou Facebook n’en employait au plus haut de leur valeur de marché ».

De multiples questions de fond sont ouvertes par cet ouvrage (qui pèche cependant sur la forme par son style ampoulé, son ton hyperbolique à l’excès, et ses nombreuses répétitions). Arrêtons-nous quelques instants pour aborder certains points :

1/ La thèse et les arguments de Zuboff sont évidemment très orientés : le portrait noir qui est dressé des usages des données mériterait de faire valoir un point de vue différent, capable de souligner les aspects plus positifs de ce qui constitue effectivement un changement de paradigme (nb : plutôt que d’essayer de présenter -trop- rapidement ici un autre son de cloche, il sera plus judicieux d’y consacrer un article dédié). A lire Zuboff, les services numériques dominants n’apporteraient que dangers voire apocalypse, ce qui est évidemment très caricatural. En outre, il est permis de relativiser les pouvoirs actuels des mécanismes d’intelligence artificielle, sources de fantasmes et de mythes souvent surjoués – un flou d’ailleurs entretenu par les leaders du numérique.

Soulignons néanmoins un point important : Zuboff n’est pas une critique ordinaire du modèle des géants du numérique. Par le passé, elle a par exemple été éditorialiste pour des revues comme Fast Company et Businessweek, « deux bastions du techno-optimisme pas vraiment connus pour leur sentiment anticapitaliste » comme l’écrit le chercheur Evgeny Morozov dans une longue analyse dédiée à l’ouvrage de Zuboff (où il juge que l’ouvrage met trop l’accent sur la surveillance au détriment du capitalisme lui-même). Morozov, réputé pour sa dénonciation des dangers du numérique, rappelle que Zuboff était auparavant « prudemment optimiste à la fois sur le capitalisme et la technologie » : il y a 10 ans, elle écrivait par exemple qu’un géant comme Apple apportait une « valeur immense » à ses utilisateurs en leur offrant « ce qu’ils veulent, comme ils le veulent, à l’endroit où ils le veulent ».

Le basculement de Zuboff en une décennie est tout sauf anecdotique. Il est le signe, ou plutôt la confirmation, que la contestation des géants du numérique n’est plus l’apanage de sphères réfractaires aux innovations technologiques. Que des médias très pro-business comme le Wall Street Journal ou le Financial Times en viennent aujourd’hui à recommander cet ouvrage en dit long. Au vu de cette agrégation des inquiétudes, voire des contestations, une question se pose : ce modèle est-il aussi puissant qu’il n’y paraît ?

2/ Quelles solutions ? Zuboff rejette l’idée de mesures concrètes et simples capables d’apporter des réponses fortes à court terme. « Il n’y a pas de plan d’action simple, mais on sait une chose : le capitalisme de surveillance a progressé sans entraves pendant deux décennies. Nous avons besoin de nouveaux paradigmes nés d’une compréhension fine des mécanismes économiques de ce modèle ».

Demander aux GAFA de protéger notre privacy serait comme demander à Henry Ford de fabriquer chaque modèle de Ford T à la main

Elle juge que le GDPR [règlement sur les protections des données pour tous les citoyens européens mis en place en 2018] est « un bon début », mais réfute l’idée que des politiques antitrust sévères, qui démantèleraient des géants technologiques, puissent régler les causes profondes du problème : « à lui seul, un démantèlement n’éliminerait pas le capitalisme de surveillance : à la place, il produirait de plus petites entreprises sur ce même modèle et ouvrirait la voie à plus de concurrents opérant sur ces principes ».

Une chose est sûre pour elle : demander aux géants technologiques de protéger notre vie privée serait « comme demander à Henry Ford de fabriquer chaque modèle de Ford T à la main ». Autrement dit, l’autorégulation est un non-sens.

Finalement, « s’extraire de la toxicité du capitalisme de surveillance sera un processus long, lent et difficile », écrit-elle. « Le premier travail à faire doit être de nommer les choses. Ce que j’espère, c’est que mettre des mots sur la situation contribuera à un changement radical de l’opinion publique, surtout parmi les jeunes ».

3/ Cet espoir exprimé par Zuboff est-il vraiment réaliste ? Elle est loin d’être la première à alerter sur les dangers des technologies appliquées à la surveillance. Son ouvrage s’inscrit dans les pas de nombreux intellectuels (comme Alain Damasio en France, auteur notamment de « La Zone du Dehors »), chercheurs, activistes, incluant des acteurs du numérique (comme Tristan Nitot en France, dont le livre Surveillance :// aborde le sujet en quatre chapitres éclairants et accessibles à tous). Or jusqu’ici, malgré la progression ces dernières années de services numériques visant la « privacy by design » (garantir la confidentialité des données dans la conception même des produits) comme le moteur de recherche Qwant, ces idées semblent peiner à trouver un écho massif auprès du grand public et (surtout) à provoquer un basculement des usages. Est-ce seulement une question de temps ? La prévalence de la fameuse réaction « pourquoi m’en préoccuper, je n’ai rien à cacher » reste très importante…

Comment dépasser le « Je n’ai rien à cacher »


« Lorsque les gens disent « je n’ai rien à cacher », ils disent en fait « je me moque de mes droits ». Si vous cessez de défendre vos droits en disant « je n’ai pas besoin de mes droits dans ce contexte », ce ne sont plus des droits. Vous les avez convertis en quelque chose dont vous jouissez comme d’un privilège révocable. Et cela réduit l’étendue de la liberté au sein d’une société. » – Ignacio Ramonet, auteur de L’empire de la surveillance cité par maisouvaleweb.fr


En 2017, une journaliste utilisatrice de Tinder demanda aux propriétaires de l’application de lui envoyer ses données. Elle reçut près de 800 pages, contenant des informations personnelles de toute nature : l’âge moyen des hommes qui l’intéressaient, où et quand chaque conversation en ligne avec ses « matchs » s’était produite, etc. Un sociologue spécialiste du numérique qu’elle interrogea alors à ce sujet lui répondit: « Les applications comme Tinder profitent d’un phénomène émotionnel simple : nous ne pouvons pas ressentir les données. Nous sommes des créatures physiques. Nous avons besoins de matérialité ».

C’est aussi ce qu’explique Zuboff à propos du modèle de surveillance : « Son opacité et son caractère insidieux le rend difficile à appréhender, de la même façon qu’il est difficile d’appréhender le changement climatique ».

Dès lors, comment réussir à lever cet obstacle pour qu’une prise de conscience massive puisse se produire ? Pour beaucoup, c’est surtout la succession des scandales (piratages massifs ou révélations choquantes sur les usages de nos données) qui sera la plus efficace pour provoquer un choc de mentalités capable de se concrétiser dans les usages.

En attendant un scandale d’une ampleur telle qu’il serait à même de provoquer ce choc, les défenseurs de la privacy tentent de répondre au « je n’ai rien à cacher » de plusieurs manières :

  • « Dire que vous ne vous préoccupez pas du droit au respect de la vie privée parce que vous n’avez rien à cacher équivaut à dire que vous ne vous préoccupez pas de la liberté d’expression parce que vous n’avez rien à dire. » – Edward Snowden

  • « Protéger sa vie privée n’équivaut pas à vouloir se cacher pour planifier de renverser le gouvernement : la protection de la vie privée est l’état naturel des choses. Par exemple, lorsque vous allez aux toilettes, en particulier dans des toilettes publiques, vous fermez généralement la porte. La raison pour laquelle vous le faites, ce n’est pas parce que vous prévoyez de renverser le gouvernement. Vous pourriez l’être, mais il y a des chances que ce ne soit pas pour ça. Vous y aller pour utiliser les toilettes » – Riccardo Spagni, développeur principal du projet Monero (monnaie numérique intraçable)

  • « On peut prendre le problème de deux manières », explique de son côté Marc Meillassoux, réalisateur du documentaire « Nothing to hide », interrogé par maisouvaleweb.fr :

« La première approche est de prendre les cas individuels : ça prend au maximum 15 minutes avant que la personne qui pense n’avoir « rien à cacher », se rende compte que c’est faux. Chacun a une histoire et une sensibilité particulière à la surveillance et à la vie privée: certains seront agacés de recevoir des publicités basées sur leur dernière recherche Google, d’autres savent par expérience que certains épisodes médicaux (dépression, cancer) pourraient les mettre en difficulté s’ils venaient à être connus, d’autres seront gênés qu’une banque se base sur leur réseau d’amis pour définir un taux d’intérêt pour un emprunt…

-La seconde approche, la plus importante, est de comprendre qu’une société sans militants écologistes, sans journalistes d’investigation, sans secret médical ou professionnel, sans lanceurs d’alerte, sans juges indépendants est une société qui à terme s’enfoncera inéluctablement dans le totalitarisme. Les utopies communistes peuvent en témoigner. »

« Il y a cette idée dangereuse que transparence et honnêteté seraient synonymes. « Je n’ai rien à cacher » entend-on. Même aux Nazis ? On présuppose que la faute est consubstantielle à celui qui cache et que l’observateur est honnête et de bonne foi. C’est souvent l’inverse ! Pourquoi y-a-t-il des isoloirs ? Pas pour cacher un délit mais parce que le sens du vote n’appartient qu’à soi. » – Pierre Bellanger, fondateur du réseau social Skred (et PDG de Skyrock), cité par PetitWeb


En 2014, le journaliste Glenn Greenwald – le premier à avoir publié les révélations d’Edouard Snowden, dans The Guardian – a donné une conférence sur le sujet, dont la vidéo a été très partagée par la suite. Il y tient une défense de la privacy qui peut être résumée ici en trois points :  

1. Chacun a besoin d’un jardin secret

« Les êtres humains, même ceux qui disent contester l’importance de la privacy, comprennent de façon instinctive son importance fondamentale. Nous sommes certes des animaux sociaux : nous avons besoin de faire savoir aux autres ce que nous faisons, disons, pensons, et c’est la raison pour laquelle il nous arrive de publier des informations personnelles en ligne. Mais il est tout aussi essentiel, pour être libre et épanoui, d’avoir un jardin secret à l’abri du jugement des autres. Il y a une raison à ce besoin : nous tous – pas seulement les terroristes ou les criminels, nous tous – avons des choses à cacher. Il y a plein de choses que nous faisons ou pensons, que nous racontons volontiers à notre médecin, notre avocat, notre psy, notre époux, ou notre meilleur ami mais qui nous rempliraient de honte si le reste du monde les apprenait.  »

En 2009, Eric Schmidt, alors PDG de Google, crut intelligent de dire : « Si vous faites quelque chose que vous ne voulez pas que d’autres apprennent, peut-être devriez-vous commencer par ne pas la faire ». Ironie du sort : quatre ans plus tôt, il avait ordonné aux employés de Google d’arrêter de communiquer avec l’ensemble des journalistes du média CENT, suite à la publication d’un article contenant des informations sur sa vie privée…obtenues exclusivement grâce à des recherches sur Google !

2. Se savoir observé(e) modifie le comportement en tendant vers le conformisme

« Les comportements que nous adoptons quand nous pensons être observés sont soumis à une forte autocensure. C’est un simple fait de la nature humaine reconnu par les sciences sociales. Il existe des dizaines d’études psychologiques qui prouvent que lorsque quelqu’un sait qu’il pourrait être observé, le comportement qu’il adopte est beaucoup plus conformiste et consensuel. Chez les humains, la honte est une motivation très puissante, de même que le désir de l’éviter. C’est pourquoi les individus, lorsqu’ils sont observés, prennent des décisions qui résultent, non pas de leur propre réflexion, mais des attentes qu’on a mises sur eux, ou des règles de la société. »

3. Ce conformisme est destructeur pour l’esprit critique, la créativité et la capacité à s’indigner

« Une société où les gens sont surveillés à chaque instant est une société qui pousse à l’obéissance et à la soumission : voilà pourquoi, tous les tyrans, du plus manifeste au plus subtil, aspirent à ce système. A l’autre bout du spectre, il y a le royaume de la privacy : cette possibilité d’aller dans des lieux où l’on peut penser, interagir et parler sans ressentir le jugement d’autrui, qui sont les seuls endroits possibles où la culture de la créativité, de l’expérimentation et du débat peuvent exister ».

Et Greenwald d’ajouter que seule cette deuxième option permet l’émergence de mouvements citoyens capables de s’opposer à des régimes autoritaires ou anti-démocratique. « Celui qui ne bouge pas ne sent pas ses chaînes » conclut-il en citant Rosa Luxembourg…


En 2010, la France s’enthousiasmait pour un court essai au succès inattendu : « Indignez-vous », de Stéphane Hessel. Presque une décennie plus tard, durant laquelle des trillions de données auront été avalées et exploitées par des géants privés à des fins prédictives, le moment est peut-être venu de le (re)lire, avec un regard différent. La question de fond, elle, reste cependant la même : dans quelle société voulons-nous vivre, et quel avenir souhaitons-nous laisser à nos (petits) enfants ? A l’aune de la surveillance, l’expression « digital natives » prend ainsi un sens tout particulier…

Clément Jeanneau

10 / 10
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Frédéric LORDON
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Emmanuel PONT
Nicos SMYRNAIOS
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Binaire [Blogs Le Monde]
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓