Il n’est pas toujours facile d’expliquer en quoi consiste le capitalisme de surveillance. C’est encore moins facile si l’approche que l’on choisit n’est pas tout à fait celle qui a le vent en poupe. Doit-on pour autant se contenter d’une critique édulcorée du capitalisme de surveillance ? Elle n’offre qu’une alternative molle entre un capitalisme immoral et un capitalisme supportable. Essayons de ne pas avoir à choisir entre la peste et le choléra.
Fuckapital. Dialogue à propos du capitalisme de surveillance
– Alors ça recommence, tu vas encore casser du sucre sur le dos de Madame Zuboff ?
– Maiiiis nooon. Que vas-tu imaginer ? Son travail sur le capitalisme de surveillance est exceptionnel. Et c’est justement pour cette raison qu’il est important d’un déceler les a priori et voir avec lesquels on peut ne pas être d’accord.
– Quoi par exemple ?
– La manière dont elle définit le capitalisme de surveillance.
– Non, non. J’ai déjà eu l'occasion d’en parler. Si elle ne cite pas les premiers chercheurs qui ont proposé cette notion (John Bellamy Foster et Robert W. McChesney), c’est parce que sa conception à elle est bien différente. Elle définit le capitalisme de surveillance à la manière d’un dictionnaire, avec une liste très bien faite détaillant sa polysémie. À lire cette définition, tout son livre est synthétisé (on salue au passage le talent). Mais ce n’est pas cela le problème. Je veux dire : le capitalisme de surveillance. C’est-à-dire la manière dont elle fait le lien entre les mécanismes du capitalisme et ceux du capitalisme de surveillance. En effet, pour elle, le capitalisme de surveillance est une évolution (néfaste) du capitalisme. Pour être plus exact, le capitalisme de surveillance est, selon elle, un exercice du capitalisme qui ne devrait pas fonctionner. Son livre est tout sauf une critique du capitalisme tel qu’il s’exerce aujourd’hui.
– Tu veux dire que, finalement, elle « détache » le capitalisme de surveillance du capitalisme tout court ? Comme si c’était une erreur de parcours ?
– Exactement. D’où la question : est-ce que le capitalisme de surveillance est une erreur de parcours du capitalisme ? Si oui, cela veut dire qu’il reste à le réglementer, comme on a (tenté de) réglementer les monopoles. Ce serait un peu comme on distingue le capitalisme « sauvage » et le capitalisme « apprivoisé », selon les orientations politiques d’un pays.
– Oui, je vois. Mais… C’est bien cela, non ? Regarde quelqu’un comme Hal Varian de chez Google, souvent cité par S. Zuboff. Ce type pense que pour améliorer notre « expérience utilisateur », il faut pomper toute notre vie privée, en réalité pour revendre ces données aux plus offrants et s’enrichir au passage. Ou bien ces allumés (doués) comme le germano-américain Peter Thiel, qui se disent libertariens. Si on les écoutait il n’y aurait presque plus d’État pour protéger nos libertés…
– Effectivement, Zuboff montre bien qu’il y a un grand danger dans ce laisser-faire. Cela va même beaucoup plus loin, puisque que grâce aux technologies dont ils ont le monopole, ces grands acteurs économiques que sont les GAFAM, sont capables non seulement de tout savoir de nous mais surtout d’influencer nos comportements de telle manière que le marché lui-même est modelé pour calibrer nos comportements, nos savoirs, et nos vies en général. Pour Zuboff, cela met en danger la démocratie libérale, c’est-à-dire cette démocratie basée sur les droits et les libertés civils. Mais justement, c’est-là tout le paradoxe qu’elle ne pointe pas : c’est bien grâce à ce libéralisme qu’il est possible de vivre dans une économie capitaliste. Dès lors, si le capitalisme de surveillance est un excès du capitalisme, et donc du libéralisme, le remettre en cause revient à questionner les raisons pour lesquelles, à un moment donné, la démocratie libérale a échoué. Cela revient à critiquer les politiques libérales des 10, 20, 30, 50 dernières années. Pour cette raison il faut non seulement en faire l’histoire mais aussi la critique et au moins tenter de proposer une porte de sortie. On a beau lire le livre de Zuboff, on reste carrément coincé.
– Je te vois venir : évidement tu arrives en grand sauveur… tu vas dévoiler la vérité. On connaît la chanson.
– Pas moi ! John Bellamy Foster et Robert W. McChesney ont déjà pointé la direction dans laquelle il faut absolument réfléchir : déconstruire les mécanismes du capitalisme de surveillance, c’est obligatoirement en faire une histoire pour comprendre comment le libéralisme a créé des bulles hégémoniques (à la fois politiques et économiques) à la source d’un modèle de domination dont les principaux instruments sont les technologies d’information et de la communication. Eux le font sur l’histoire politique. Moi, je compte proposer une approche plutôt axée sur l’histoire des technologies, mais pas uniquement.
– Mais attends une minute. J’ai vu une conférence de Zuboff donnée à Boston en janvier 2019 à la suite de la sortie de son livre. Je l’ai trouvée passionnante. Elle expliquait comment les pratiques du capitalisme de surveillance sont bien celles du capitalisme en général. Elle ne le détache pas de l’histoire.
– Vas-y, développe.
– Elle parlait de la tradition capitaliste. La manière dont évolue le capitalisme en s’accaparant des choses qui « vivent » en dehors du marché pour les introduire dans le marché, c’est-à-dire transformer en quelque chose qui peut être vendu et acheté.
– Heu.. si on réduit le capitalisme à un marché d’échange, dans ce cas, l’humanité à toujours vécu dans le capitalisme. C’est un peu léger. À moins que tu suggères par là que le capitalisme implique de tout transformer en biens marchands, y compris ce qui est censé y échapper comme les biens communs, les services publics, la santé, l’environnement, etc. Et dans ce cas, oui, c’est bien le cas, mais on enfonce des portes ouvertes.
– Certes. C’est même très orienté de penser les choses ainsi. Mais attends. Elle précise tout de même. Le capitalisme industriel procède de cette manière et accapare la nature pour la transformer en biens destinés à l’échange. De la même manière encore, notre force physique (un élément naturel) s’est trouvé valorisé sur le marché en tant que force de travail. Et encore de la même manière, ce qu’elle appelle notre expérience humaine privée se retrouve sur le marché du capitalisme de surveillance. Il y a ainsi un marché de nos données comportementales, avec des calculs prédictifs, des paris sur nos comportements futurs, bref, on marchande nos âmes, tu vois ce que je veux dire ?
– Mouais… Quoique… il faudrait encore savoir ce qu’on entend par capitalisme, dans ce cas. L’un des gros problèmes des libéraux, c’est qu’ils pensent que le capitalisme a toujours existé. Oups… non, ce n’est pas correct de ma part. Disons qu’il y a plusieurs acceptions du capitalisme et que leurs histoires sont relatives. Par exemple, la propriété des biens de production est un principe qui ne date pas uniquement du XIXe siècle ; la création de biens marchands est une activité qui date d’aussi loin que l’économie elle-même ; et pour ce qui concerne l’accumulation de capital, tout dépend de savoir si on se place dans un capitalisme modéré par l’État (dans ce cas, s’il y a une monarchie, n’importe qui ne peut pas accumuler le capital, n’est-ce pas) ou si on se place dans un régime libéral, auquel cas, soit c’est la fête du slip soit il y a tout de même des gardes-fous, voire des contradictions, selon les orientations politiques du moment.
– D’accord, mais quel rapport avec le capitalisme de surveillance d’aujourd’hui ?
– Attends, je n’ai pas fini là dessus. Il faut lire l’économiste Bruno Amable, par exemple, qui distingue géographiquement et culturellement différents modèles du capitalisme dans le monde (modèle européen, modèle asiatique, modèle méditerranéen, ou bien modèle socio-démocrate et modèle néolibéral). Et comme il y a plusieurs modèles du capitalisme, il y a aussi plusieurs manières d’envisager là où s’exerce le capitalisme selon les secteurs économiques. Par exemple le capitalisme financier, le capitalisme industriel ou bien… le capitalisme de surveillance, donc. Ce sont des formes du capitalisme.
– Tu veux dire que Zuboff dresse une filiation du capitalisme de surveillance avec un capitalisme fantasmé? qui n’existe pas en réalité ?
– Je veux dire que le capitalisme en général n’est pas ce qu’en dit Zuboff, mais ce n’est pas le plus important. Ce que fait Zuboff, c’est qu’elle sort le capitalisme de surveillance de l’histoire elle-même. Ses références historiques ne concernent que l’histoire fleuve du capitalisme dont elle imprime les mécanismes sur des pratiques (qu’on appelle la surveillance, la dataveillance, l’uberveillance, etc.) d’aujourd’hui alors que ces mêmes pratiques ont forcément une origine qui ne date pas d’hier. Elles ont elles aussi une histoire. Et dès lors qu’elles ont une histoire, le capitalisme auquel elles se rattachent n’est pas uniforme. Et attention, je n’oppose pas pour autant une approche matérialiste, mais c’est trop long pour t’expliquer maintenant.
– C’est pour cela que tu vas en faire une archéologie, parce que cette histoire nous est cachée ?
– En tout cas les vestiges ne sont pas directement visibles, il faut creuser. Par exemple, le capitalisme des années 1950-1960-1970 est un capitalisme qui a vu naître le consumérisme de masse, des technologies de marketing, et en même temps il se trouvait hyper-régulé par l’État, si bien que les pratiques de surveillance sont en réalité des pratiques qui naissent avec les institutions, l’économie institutionnelle : les secteurs bancaires, assurantiels, et les institutions publiques aussi. L’hégémonie des grosses entreprises monopolistiques est d’abord une hégémonie qui relève de l’économie politique, en particulier celle des États-Unis, mais pas uniquement. Par la suite, la libéralisation des secteurs a créé d’autres formes encore de ce capitalisme de surveillance. Et dans toutes ces histoires, il faut analyser quelles technologies sont à l’œuvre et quelles sont les tensions sociales qu’elles créent.
– Pfou… c’est nébuleux, tu peux donner un exemple ?
– Prenons l’exemple de la valorisation de l’information en capital. C’est un principe qui existe depuis fort longtemps. Si on prend plus exactement l’information personnelle qui relève de la vie privée ou ce que Zuboff appelle notre expérience humaine privée. Qu’est-ce que c’est ? jamais la même chose. Ce n’est pas une donnée naturelle dont le capitalisme se serait emparé pour la « mettre » sur le marché. D’abord ce qu’on appelle « vie privée » est une notion qui est définie dans le droit américain de manière très malléable depuis la fin du XIXe siècle, et cette notion n’a d’existence juridique en Europe dans un sens approchant celui d’aujourd’hui que depuis la seconde moitié du XXe siècle, de plus, selon les pays ce n’est pas du tout la même chose. Dans ce cas, quel est vraiment le statut des modèles mathématiques puis informatiques des analyses marketing, d’abord théorisés dans les années 1940 et 1950, puis informatisés dans la seconde moitié des années 1960 ? Par exemple, en 1966, DEMON (Decision Mapping via Optimum Go-No Networks), dédié à l’analyse prédictive concernant « la commercialisation de nouveaux biens de consommation avec un cycle d’achat court ». Ces systèmes utilisaient bien des informations personnelles pour modéliser des comportements d’achats et prédire les états du marché. Ils se sont largement améliorés avec l’émergence des systèmes de gestion de base de données dans les années 1980 puis du machine learning des années 2000 à aujourd’hui. Ces technologies ont une histoire, la vie privée a une histoire, le capitalisme de surveillance a une histoire. Les évolutions de chacune de ces parties sont concomitantes, et s’articulent différemment selon les périodes.
– Tout cela n’est manifestement pas né avec Google.
– Évidemment. Il n’y a pas des « capitalistes de la surveillance » qui se sont décidés un beau jour de s’accaparer des morceaux de vie privée des gens. C’est le résultat d’une dynamique. Si le capitalisme de surveillance s’est généralisé à ce point c’est que son existence est en réalité collective, sciemment voulue par nous tous. Il s’est développé à différents rythmes et ce n’est que maintenant que nous pouvons le nommer « capitalisme de surveillance ». C’est un peu comme nos économies polluantes dont nous avons théorisé les impacts climatiques qu’assez récemment, même si en avions conscience depuis longtemps : qui prétend jeter la première pierre et à qui exactement ? Est-ce que d’ailleurs cela résoudrait quelque chose ?
– Oui, mais à lire Zuboff, on a atteint un point culminant avec l’Intelligence artificielle, les monopoles comme Google / Alphabet et le courtage de données. Tout cela nous catégorise et nous rend économiquement malléables. C’est vraiment dangereux depuis peu de temps, finalement.
– À partir du moment où nous avons inventé le marketing, nous avons inventé le tri social dans le capitalisme consumériste. À la question « pourquoi existe-t-il un capitalisme de surveillance ? », la réponse est : « parce qu’il s’agit d’un moyen efficace de produire du capital à partir de l’information et du profilage des agents économiques afin d’assurer une hégémonie (des GAFAM, des États-Unis, ou autre) qui assurera une croissance toujours plus forte de ce capital ».
– Mais tu es bien d’accord avec l’idée que ce capitalisme est une menace pour la démocratie, ou du moins que le capitalisme de surveillance est une menace pour les libertés. Mais enfin, si tu prétends que cette histoire a plus de 50 ans, ne penses-tu pas que les régimes démocratiques auraient pu y mettre fin ?
– Dans les démocraties occidentales, les politiques libérales ont toujours encouragé les pratiques capitalistes depuis près de trois siècles, à des degrés divers. Elles se sont simplement radicalisées avec des formes plus agressives de libéralisme qui consistaient à augmenter les profits grâce aux reculs progressifs des régulations des institutions démocratiques et des protections sociales. Si d’un côté des lois ont été créés pour protéger la vie privée, de l’autre côté on a libéré les marchés des télécommunications. Tout est à l’avenant. Encore aujourd’hui par exemple, alors qu’on plaide pour rendre obligatoire l’interopérabilité des réseaux sociaux (pour que les utilisateurs soient moins captifs des monopoles), les politiques rétorquent qu’un tel principe serait « excessivement agressif pour le modèle économique des grandes plateformes ».
– Des luttes s’engagent alors ?
– Oui mais attention à ne pas noyer le poisson. Focaliser sur la lutte pour sauvegarder les libertés individuelles face aux GAFAM, c’est bien souvent focaliser sur la sauvegarde d’un « bon » libéralisme ou d’un « capitalisme distributif » plus ou moins imaginaire. C’est-à-dire vouloir conserver le modèle politique libéral qui justement a permis l’émergence du capitalisme de surveillance. Comme le montre ce billet, c’est exactement la brèche dans laquelle s’engouffrent certains politiques qui ont le beau jeu de prétendre défendre les libertés et donc la démocratie.
– C’est déjà pas mal, non ?
– Non. Parce que lutter contre le capitalisme de surveillance uniquement en prétendant défendre les libertés individuelles, c’est faire bien peu de cas des conditions sociales dans lesquelles s’exercent ces libertés. On ne peut pas mettre de côté les inégalités évidentes que créent ces monopoles et qui ne concernent pas uniquement le tri social du capitalisme de surveillance. Que dire de l’exploitation de la main d’œuvre de la part de ces multinationales (et pas que dans les pays les plus pauvres), sans compter les impacts environnementaux (terres rares, déchets, énergies). Si on veut lutter contre le capitalisme de surveillance, ce n’est pas en plaidant pour un capitalisme acceptable (aux yeux de qui ?) mais en proposant des alternatives crédibles, en créant des solutions qui reposent sur l’entraide et la coopération davantage que sur la concurrence et la croissance-accumulation sans fin de capital. Il ne faut pas lutter contre le capitalisme de surveillance, il faut le remplacer par des modèles économiques et des technologies qui permettent aux libertés de s’épanouir au lieu de s’exercer dans les seules limites de l’exploitation capitaliste. Fuck le néolibéralisme ! Fuck la surveillance !
Rédiger des documents et élaborer un flux de production implique d’envisager clairement le résultat final. Formulé ainsi, cela pourra toujours sembler évident : que voulez-vous faire avec votre document ? À qui le destinez-vous ? Pour quels usages ? Après avoir livré quelques considérations générales relatives à la stratégie j’expliquerai comment j’envisage la rédaction de documents (souvent longs) avec Markdown vers ODT ou LaTeX.
Quelques considérations préalables
Rédiger un document avec LibreOffice, MSWord, LaTeX (ou d’autres logiciels de traitement de texte) c’est circonscrire le flux de production aux capacités de ces logiciels. Attention, c’est déjà beaucoup ! Les sorties offrent bien souvent un large choix de formats selon les besoins. Cela dit, une question peut se poser : ne serait-il pas plus logique de séparer radicalement le contenu du contenant ?
Après tout, lorsqu’on rédige un document avec un logiciel de traitement de texte, chercher à produire un format compatible consiste à produire un format qui sera non seulement lisible par d’autres logiciel et sur d’autres systèmes, mais aussi que sa mise en page soit la même ou quasi-similaire. Finalement, on veut deux choses : communiquer un format et une mise en page.
Voici quelques années que je fréquente différents logiciels dans le cadre de la rédaction et de l’édition de documents, à commencer par LibreOffice et LaTeX. Compte-tenu des pratiques actuelles de stockage dans les nuages et la sempiternelle question du partage de documents et de la collaboration en ligne, j’en suis arrivé à une conclusion : écrire, manipuler, partager, modifier un document déjà mis en forme par un logiciel de traitement de texte est une erreur. Les formats utilisés ne sont que très rarement faits pour cela (il y a bien sûr des exceptions, comme le XML, par exemple, mais nous parlons ici des pratiques les plus courantes).
Tous les formats propriétaires sont à bannir : leur manipulation est bien trop souvent source d’erreur, et suppose un enfermement non seulement de la chaîne de production mais aussi des utilisateurs dans un écosystème logiciel exclusif. Sitôt qu’un écart minime se forme dans cette chaîne, c’est fichu.
Les formats ouverts sont bien plus appropriés. Justement parce qu’ils sont ouverts, leur compatibilité pose d’autant moins de souci. Il subsiste néanmoins toujours des risques lorsque des logiciels propriétaire entrent dans la chaîne de production parce que tous les utilisateurs n’ont pas les mêmes outils.
La faiblesse ne concerne pas uniquement ces formats ou ces logiciels mais elle réside aussi dans leur manipulation. Même si on accepte de travailler (au prix de nos libertés et de notre confidentialité) avec des services comme ceux de Google ou Microsoft, et même si on utilise des solutions libres et ouvertes comme OnlyOffice ou LibreOffice Online, l’enjeu auquel nous faisons toujours face est le suivant : en ligne ou en local, choisir un logiciel de traitement de texte revient à restreindre d’emblée l’usage futur de la production en choisissant par avance son format final et sa mise en page.
Faire ce choix n’est pas interdit (et heureusement !). C’est d’ailleurs celui qui prévaut dans la plupart des situations. Il faut seulement l’assumer jusqu’au bout et manœuvrer de manière assez efficace pour ne pas se retrouver « coincé » par le format et la mise en page choisis. Là aussi, il faut réfléchir à une bonne stratégie de production et conformer toute la chaîne au choix de départ.
D’autres solutions peuvent être néanmoins adoptées. Au même titre que la règle « faites votre mise en page en dernier » doit prévaloir pour des logiciels wysiwyg, je pense qu’il faudrait ajouter un autre adage : « choisissez le format le plus basique en premier ». Cela permet en effet de produire du contenu très en amont de la phase finale de production et inclure dans cette dernière la production du format à la demande.
Quels choix ?
En d’autre termes, si votre éditeur, votre directeur de thèse, vos collègues ou vos amis, vous demandent un .odt, .doc, un PDF, un .epub, un .texou un .html, l’idéal serait que vous puissiez le produire à la demande et avec une mise en page (ou une mise en forme s’il s’agit d’un document .tex, par exemple) différente et néanmoins appropriée. Pour cela, il faut impérativement :
connaître une méthode sûre pour convertir votre document,
connaître les possibilités de mise en forme automatiques à configurer d’avance pour produire le document final.
Autrement dit, avant même de commencer à produire votre contenu (que vous allez détacher absolument de la forme finale), vous devez élaborer tout un ensemble de solutions de conversion et de mise en forme automatiques.
Rien de bien nouveau là-dedans. C’est exactement la même stratégie que l’on emprunte lorsqu’on rédige un contenu le formatant à l’aide d’un langage balisé comme le HTML ou (La)TeX. On ne fait alors que produire un document texte formaté et, parallèlement, on crée des modèles de mise en page (.css pour le HTML, ou des classes .cls pour LaTeX). La sortie finale emprunte alors les instructions et les modèles pour afficher un résultat.
L’idée est d’adopter cette démarche pour presque n’importe quel format. C’est-à-dire :
créer du texte à l’aide d’un éditeur de texte et choisir un langage de balisage facile à l’utilisation et le plus léger possible : le Markdown est à ce jour le meilleur candidat ;
convertir le document en fonction de la demande et pour cela il faut un convertisseur puissant et multi-formats : Pandoc ;
créer des modèles de mise en page (pour les réutiliser régulièrement si possible).
Avantages
Les avantages de Markdown sont à la fois techniques et logistiques.
D’un point de vue technique, c’est sur la syntaxe que tout se joue. Comme il s’agit d’un balisage léger, le temps d’apprentissage de la syntaxe est très rapide. Mais aussi, alors qu’on pourrait considérer comme une faiblesse le fait que Markdown ne soit pas standardisé, il reste néanmoins possible d’adapter cette syntaxe en lui donnant un saveur particulière. C’est le cas de Multimarkdown, une variante de Markdown permettant des exports plus spécialisés. Ainsi, plusieurs fonctionnalités sont ouvertes lorsqu’on destine un document Markdown à la conversion avec Pandoc. On retient surtout les tables, les notes de bas de page et la gestion bibliographique ou d’index. Enfin, il est toujours possible d’inclure du code HTML ou même LaTeX dans le document source (parfois même les deux, en prévision d’une conversion multiple).
Pour ce qui concerne le travail Markdown + Pandoc + LaTeX, on peut se reporter à l’article que j’avais traduit sur ce blog : « un aperçu de Pandoc ».
Pour ce qui concerne la pérennité d’un fichier markdown, tout comme n’importe quel fichier texte, il sera toujours lisible et modifiable par un éditeur de texte, ce qui n’est pas le cas des formats plus complexes (exceptés les formats ouverts).
D’un point de vue logistique, la manipulation a plusieurs avantages, bien qu’ils ne soient pas réservés au seul format Markdown :
les éditeurs de texte sont des logiciels très légers par rapport aux « gros » logiciels de traitement de texte, si bien que travailler sur un document Markdown ne nécessite que peu de ressources (et il y a un grand choix d’éditeurs de texte libres),
on peut aisément travailler à plusieurs sur un document texte en utilisant des services en ligne légers comme des pads (par exemple sur framapad.org ou cryptpad),
ce qui n’empêche pas l’utilisation de logiciels en ligne plus classiques, pourvu que l’export puisse se faire en texte ou dans un format qui permet la conversion « inverse » vers le Markdown (ou alors de simples copier/coller),
on peut utiliser facilement un dépôt Git pour synchroniser ses fichiers et retrouver son travail où que l’on soit (ou collaborer avec d’autres utilisateurs),
le fait de séparer le contenu de la forme permet de se concentrer sur le contenu sans être distrait par les questions de mise en page ou une interface trop chargée (c’est aussi un argument pour LateX, sauf que la syntaxe plus complexe contraint en fait le rédacteur à organiser son texte selon les critères « logiques » de la syntaxe, ce qui est aussi respectable).
Ensuite tout est une question d’ajout d’options / fonctions dans la ligne de commande.
Les difficultés sont les suivantes (je ne reviens pas sur le mode d’emploi de Pandoc, l’usage des templates, etc.).
Les styles
La gestion des styles dans la conversion en .odt dans LibreOffice n’est pas évidente. Le mieux est encore d’utiliser un modèle qui prenne en compte les styles que Pandoc produit lors de la conversion. En effet, la grande force de LibreOffice, ce sont les styles (voir cet ouvrage). Dès lors il est important que vous puissiez opérer dessus une fois votre document au format ODT.
Pour faire simple, il n’est pas utile de spécifier un modèle lors de la conversion avec Pandoc. Il faut la plupart du temps se contenter de produire le document en .odt puis appliquer les styles voulus. Pour aller vite, voici ce que je conseille de faire :
rédigez une fois un document Markdown avec toutes les marques de formatage que vous voulez,
convertissez-le en .odt,
ouvrez le .odt avec LibreOffice et modifiez les styles que Pandoc a créé,
sauvegardez ce document,
puis à chaque fois que vous devrez produire un document similaire, effectuez un simple transfert de style en suivant la méthode expliquée pages 64-66 de cet ouvrage.
Pour gérer les styles en vue d’une production de document HTML/epub ou LaTeX/PDF, le mieux est encore de créer ses classes .css et/ou .cls et/ou .sty et d’y faire appel au moment de la conversion. On peut aussi intégrer l’appel à ces fichiers directement dans le template, mais faut dans ce cas donner leur nom, ce qui n’est pas pratique si l’on souhaite avoir plusieurs styles de mise en page à disposition et changer à la volée.
(notez que l’appel au fichier .css peut très bien être déjà inclus dans le modèle)
La bibliographie
J’ai indiqué dans cet article comment utiliser Pandoc avec une bibliographie. L’essentiel est de comprendre que, quel que soit le format de sortie choisi, il faut que votre bibliographie soit enregistrée dans le format de bibliographie par excellence, bibtex (.bib). Puis :
si vous voulez sortir un fichier pour LaTeX, la bibliographie se gérera avec Biblatex (on ajoutera l’option --biblatex dans la ligne de commande),
si vous voulez sortir des fichiers HTML, ou ODT, avec une mise en forme de la bibliographie, il faut aussi installer Citeproc, un jeu de programmes auxquels Pandoc fera appel pour appliquer des instructions de configuration en CSL Citation Style Language.
Concernant les styles de bibliographie obtenus en CSL, le mieux est encore d’utiliser le logiciel Zotero. Il peut vous servir à créer votre bibliographie (il est très pratique grâce à son extension pour Firefox) ou simplement ouvrir votre .bib obtenu par un autre logiciel, peu importe. Comme Zotero permet d’exporter des éléments bibliographiques formatés, il permet aussi de jouer avec les styles CSL disponibles sur ce dépôt. Si vous trouvez votre bonheur, conservez le fichier .csl de votre style ou bien utilisez l'éditeur en ligne pour en créer un de toutes pièces ou modifier un modèle existant.
Notez que la conversion vers le format .odt avec une bibliographie formatée avec un modèle .csl ne vous produira pas une bibliographie comme si vous l’aviez obtenu avec l’extension Zotero dans LibreOffice et des références dynamiques. Au contraire, selon la mise en forme choisie vous aurez vos éléments bibliographiques dans votre document (y compris avec une bibliographie à la fin) mais il faudra re-compiler si vous changez des éléments bibliographiques. N’oubliez pas que vous devez prendre en compte toute la chaîne depuis votre format de départ (c’est pareil avec LaTeX : il faut recompiler si on met la biblio ou l’index à jour).
Git : travailler dans l’cloude
Comme il m’arrive tous les jours d’utiliser au moins deux ordinateurs différents, j’ai choisi d’utiliser Git lorsque je dois rédiger des documents longs sur une longue période de temps. Là encore, l’avantage d’utiliser de simples fichiers texte, permet de jouer sur la rapidité et la flexibilité de Git. On peut aussi se payer le luxe (selon les programmes disponibles sur le serveur) de configurer des jobs qui permettent, une fois uploadé(s) le(s) fichier(s) Markdown, de créer automatiquement les sorties voulues. Si Pandoc est installé, vous pouvez une fois pour toute configurer votre dépôt pour créer l’artefact à chaque fois.
il est donc inutile de s’encombrer localement (et encombrer le dépôt avec) des fichiers de sortie à moins de les tracer avec Git LFS (cf. ci-dessous).
Concernant les fichiers binaires, trop volumineux, les illustrations, etc. , il faut utiliser GIT LFS qui permet de trier et tracer les fichiers qu’il est inutile de recopier en doublon à chaque fois sur le serveur.
Choisir un bon éditeur
Non, il ne s’agit pas de l’éditeur de la collection où vous allez publier votre livre. Il s’agit de l’éditeur de texte.
Pour ceux qui sont habitués à utiliser à chaque fois un logiciel de traitement de texte wysiwyg pour écrire, il pourrait à première vue sembler bien austère de choisir un logiciel avec une interface moins fournie (en apparence, en tout cas) pour écrire. Et pourtant, que de tranquillité ainsi gagnée !
Tout d’abord un bon éditeur est un éditeur avec coloration syntaxique. Avec cela, les éléments importants de la syntaxe Markdown, ainsi que les titres, les mots en italique, etc., apparaissent en évidence. Ensuite, un bon éditeur de texte est presque entièrement configurable : il vous sera très bénéfique de configurer selon vos goûts le thème de la coloration syntaxique et de l’interface, ainsi que la police. Cela vous assurera surtout un confort d’écriture.
Certains éditeurs sont spécialisés en Markdown, tel Ghostwriter. Mais vous pouvez toujours utiliser des éditeurs destinés à la programmation mais disposant de tout ce qu’il faut pour écrire en Markdown. Certains sont de véritable machines à tout faire (et intègrent souvent une extension pour gérer un dépôt Git), tel Atom ou Geany, d’autres sont des éditeurs de textes historiques du Libre, plus difficiles au premier abord, comme Vi ou Emacs (et avec un grand choix d’extensions). Et il y a ceux qui sont beaucoup plus simples (Gedit, Kate, Notepad++).
Inutile ici de s’étendre sur les centaines d’éditeurs de texte libres et disponibles pour tout un chacun. L’essentiel est de comprendre qu’un bon éditeur est d’abord celui qui conviendra à votre usage et qui vous permettra d’écrire confortablement (esthétique et ergonomie).
Quels outils de production ?
Pour terminer ce billet, voici les éléments pour créer mon flux de production (du moins celui auquel je me conforme le plus possible).
Pour synchroniser et stocker en ligne : Git et Gitlab, ou bien une instance Nextcloud ;
LaTeX (éditeur de texte classique ou Texmaker) ;
LibreOffice pour un traitement de texte autre que LaTeX ;
JabRef et Zotero pour la gestion bibliographique (parfois un simple éditeur de texte).
Concernant la rédaction d’un ouvrage à paraître bientôt, voici comment j’ai procédé tout au long du processus d’écriture :
rédaction des parties (un fichier par partie) en Markdown avec Ghostwriter la plupart du temps (il dispose d’un outil de visualisation de table des matières fort pratique) ;
Zotero ouvert sans interruption pour entrer les références bibliographiques au fur et à mesure et insérer leurs IDs dans le document en référence ;
synchronisation à chaque fin de session de travail avec Git (une instance Gitlab), et une requête de récupération à chaque début de session ;
pour donner à l’éditeur un « manuscrit » en ODT suivant ses prescriptions : conversion avec Pandoc et un fichier CSL pour la bibliographie : la collaboration avec l’éditeur se fera sur Libreoffice (mise en forme, suivi de corrections).
à venir : récupération du travail fini en Markdown et export HTML/epub pour la postérité.
Ajoutons à cela que l’usage du Markdown tend à se prêter à bien d’autres situations. Ainsi ce blog est écrit entièrement en Markdown, mes courriels le sont parfois, le logiciel qui me permet de prendre des notes et de les synchroniser sur un serveur utilise le Markdown (j’utilise alternativement Joplin ou Notes de Nextcloud, et de temps à autre Firefox Notes). En somme, autant de situations qui me permettent d’écrire, synchroniser et exporter : le Markdown est omniprésent.
Ce billet concerne tous ceux qui, dans le cadre d’activités de plein air (randonnée, VTT, trail) ont besoin d’une solution permettant de planifier et visualiser des parcours et disposer d’une solution mobile sur le terrain. Les logiciels cités ici ne sont pas tous libres : après avoir longuement cherché des solutions simples à mettre en œuvre, du moins qui ne nécessitent pas d’être un crack en Système d’Information Géographique, quelques compromis se sont imposés.
De quoi avons-nous besoin ?
D’un smartphone Android (je n’ai pas fait de test avec d’autres OS) : j’ai choisi d’en recycler un sous version ancienne (mais pas trop) d’Android. Conseil : s’assurer que le smartphone dispose d’une puce GPS fiable (les puces d’il y a dix ans étaient réputées peu exactes, mais cela s’est largement amélioré). L’idée est de disposer d’un dispositif peu onéreux et néanmoins utile.
d’un chargeur : en randonnée pédestre, il y a toujours moyen d’économiser de la batterie, voire se contenter d’enregistrer une trace ou simplement visualiser une carte embarquée à la demande. En VTT ou en course à pied, on ne peut guère manipuler le dispositif en pédalant ou en courant. Mes essais ont rarement dépassé 4 heures d’utilisation avec écran allumé en permanence et guidage GPS en action, mais au bout du compte le niveau de batterie excédait rarement 15%. Ajoutons à cela la température ambiante et la variabilité des batteries de smartphone : à vous de voir de quelle quantité d’énergie vous avez besoin.
d’un ordinateur sous GNU/Linux ou MSWindows avec une bonne connexion Internet (pour télécharger les tuiles de cartes).
être à l’aise avec la gestion de fichiers.
Quels sont les objectifs ?
Il s’agira d’utiliser des fonds de cartes les plus exacts possibles (en l’occurrence des fonds de carte IGN)1 sur le dispositif embarqué et visualiser une trace par-dessus de manière à suivre un parcours dans les meilleures conditions. On pourra néanmoins utiliser les fonds de cartes communautaires d’Open Street Map avec les logiciels permettant de planifier les parcours même si quelquefois, il vaut mieux s’assurer de la bonne correspondance avec les cartes IGN (et éventuellement contribuer à OSM pour compléter les cartes).
L’IGN a depuis peu de temps rendu disponible sur Geoportail les balisages du Club Vosgien. Étant donné que mes pérégrinations concernent les Vosges, j’ai d’autant plus d’intérêt à utiliser ces fonds de cartes.
Petite précision rapide
Nous allons parler de « tuiles » (tiles), de calques, et de niveaux de zoom. Kézako ?
Un fond de cartographie numérique est composé de plusieurs couches d’images correspondants à des puzzles rassemblés en autant de niveaux de zoom sur la carte. Ce n’est pas exactement les échelles (valables sur une carte papier) mais, pour faire court, on peut dire les choses ainsi : plus vous zoomez plus votre « échelle » est précise. Selon ce que vous voulez faire, par exemple pour de la randonnée, il n’y a pas besoin de composer un fond de carte qui comprend tous les niveaux de zoom. Ainsi, pour obtenir l’équivalent ce qu’on voit sur une carte papier à 1/250000 on utilisera toutes les images (les tuiles) qui correspondent au niveau voulu.
Quant aux calques, c’est un vocable que l’on retrouve partout où l’on traite d’image numérique. Là encore, pour faire simple, on peut dire qu’un fond de carte est un calque sur lequel on va superposer un autre calque qui est en fait le dessin d’une trace GPS. Ce dessin est obtenu avec un fichier (souvent portant l’extension GPX) qui contient tous les points GPS qui composent la trace.
Un tel fichier (lorsqu’on l’ouvre avec un éditeur de texte) comprend un listing, dans l’ordre de passage, de tous les points : latitude et longitude, date et heure, altitude, etc.
Quelles sont les tâches ?
Il y a plusieurs aspects à prendre en compte :
choisir les logiciels à utiliser sur le dispositif portable (Oruxmaps, Maverick),
récupérer les fonds de cartes pour être utilisés sur le dispositif portable (Mobac),
choisir les logiciels à utiliser pour planifier les parcours sur l’ordinateur (Viking, QMapShack)
choisir les logiciels à utiliser pour visualiser les parcours sur l’ordinateur (et créer sa base de données avec ses stats) : Turtlesport, Mytourbook, partager avec Framacarte…
Applications sur le smartphone
C’est sans doute le sujet le plus décevant : je n’ai pas trouvé d’application libre/open source satisfaisante. Cependant, les applications offrent la possibilité d’utiliser les cartes du projet Open Street Map (OSM).
Que faut-il ?
une application dans laquelle on peut importer des fonds de carte sur mesure,
une visualisation claire du tracé avec suivi GPS et, si possible, un code couleur pour les dénivelés.
Mon choix s’est porté sur Oruxmaps. Outre de nombreuses fonctionnalités utiles, cette application permet un guidage GPS particulièrement efficace et reste peu gourmande en énergie, même avec la fonction « écran allumé » pendant tout le trajet.
Une fois le smartphone connecté à l’ordinateur, pour déposer des fonds de carte et des traces GPX, il suffit de naviguer :
dans oruxmaps > mapfiles et déposer les dossiers de fonds de carte. Ou bien (et c’est conseillé) configurer depuis Oruxmaps l’emplacement des fonds de carte (« définir le dossier où sont stockées les cartes ») et pointer sur un dossier de la carte SD externe. En effet, si on met toutes les Vosges du Sud, le dossier prend facilement 300 Mo, par exemple.
dans oruxmaps > tracklogs et déposer les fichiers GPX des traces que l’on veut suivre. Puis dans le menu Oruxmaps, « gérer traces / routes », sélectionner le tracé voulu.
Oruxmaps permet un affichage de la trace avec un code couleur bien visible indiquant les dénivelés. C’est très utile car le smartphone étant situé à plus de 30 cm des yeux (dans mon cas sur le guidon de mon VTT, avec moult vibrations), repérer les courbes de niveaux d’une carte est plutôt difficile.
Fig. 1 -- Navigation sur Oruxmaps
Une autre application offre peu ou prou les mêmes conditions, c’est Maverick. L’interface est plus simple, plus facile à prendre en main, mais il y a moins de gadgets. L’essentiel porte sur la géolocalisation. De la même manière :
pour déposer un fond de carte, on navigue dans le dossier Maverick > maps,
pour déposer une trace, on navigue dans Maverick > tracks.
Fig. 2. -- Navigation avec Maverick
On peut toutefois noter une particularité intéressante pour Maverick : comme on va le voir plus loin, nous allons créer des fonds de carte avec un certain niveau de zoom (zoom 15 pour ce qui nous concerne). Ce qui signifie que les tuiles qui correspondent à d’autres niveaux de zoom (par exemple le fond de carte OSM présent par défaut) peut très bien chevaucher nos tuiles. Ainsi, en zoomant, on obtient alors un mélange des cartes libres Open Street Map (OSM) et nos tuiles, ce qui permet d’avoir un panel très complet.
Une autre application se nomme RandoGPS. Je ne m’étendrai pas dessus car elle ne correspond pas tout à fait au besoin exprimé plus haut. Elle mérite cependant d’être signalée : elle permet d’afficher « offline » le fond de carte correspondant à la trace qu’auparavant on aura pris soin d’entrer sur notre compte en ligne. Grâce à un astucieux système de numéro, on peut alors récupérer la trace directement depuis l’application. RandoGPS est néanmoins dédiée à la randonné pédestre et se prête beaucoup moins bien à d’autres activités sportives.
Récupérer des fonds de carte
À cette étape, il faut utiliser un logiciel qui, non seulement est capable de récupérer toutes les images d’un fond de carte aux dimensions voulues, mais aussi convertir l’ensemble dans un format qui puisse être lu par l’une ou l’autre des applications sur le smartphone.
Pour cela, il y a un logiciel libre (sous licence GNU GPL) nommé Mobile Atlas Creator, alias MOBAC (avant 2010, il se nommait TrekBuddy Atlas Creator). Écrit en java, il est utilisable sur GNU Linux comme sous MSWindows. Il suffit de télécharger Mobac et dézipper le fichier localement pour lancer ensuite le .jar sous GNU Linux ou le .exe sous MSWindows.
Mobac propose, dès l’ouverture, une visualisation des fonds de carte téléchargeables à la demande via un système de clés (c’est pour cela qu’il faut être connecté à Internet pour l’utiliser). Si, à l’ouverture, vous avez une erreur indiquant que la cartographie choisie n’est pas disponible, sélectionnez, en haut à droite la source OpenStreetMap 4UMaps.eu. C’est de loin un jeu très complet.
Utiliser le bon jeu
Comme je l’ai dit plus haut, aussi sympathiques que soient les tuiles communautaires d’OSM, elles ne sont pas aussi complètes que celles de l’IGN2 et nous cherchons aussi à obtenir les balisages du Club Vosgien.
Pour obtenir le fond de carte IGN sur MOBAC, on peut utiliser la Clé pratique que l’IGN a rendu disponible aux utilisateurs qui ne souhaitent pas utiliser de compte professionnel (et assez complexe). Pour cela il faut ajouter un petit fichier de configuration qui va utiliser cette fonctionnalité pratique de l’IGN. Voici comment faire ce petit bricolage facile.
Premièrement, fermez MOBAC et ouvrez un éditeur de texte. Si vous êtes sous GNU Linux, vous avez l’embarras du choix. Sous Windows, utilisez par exemple Notepad++, un logiciel libre très pratique. Créez un nouveau document et copiez-collez le code ci-dessous :
name = "IGN Pratique Cartes+ortho";
tileType = "jpg";
tileSize = 256;
minZoom = 0;
maxZoom = 19;
ignoreError = "True";
String getTileUrl( int zoom, int x, int y ) {
if (zoom
Enregistrez ensuite le document en lui donnant l’extension .bsh (mettez le nom que vous voulez devant) dans le dossier \mapsources de MOBAC (lorsque vous avez dézippé Mobac pour lancer le programme vous avez sans doute remarqué la présence de ce dossier).
Relancez ensuite MOBAC et sélectionnez en haut à droite dans les sources celle qui porte le nom « IGN Pratique Cartes+ortho » (cf. le fichier que vous venez de créer).
Désormais, en zoomant vous reconnaîtrez les cartes IGN et, du côté des Vosges, vous verrez le balisage du Club Vosgien que l’IGN a rendu disponible sur ses fonds de carte.
Créer un atlas
Il faut maintenant créer un atlas, c’est-à-dire un fond de carte correspondant à la zone que vous désirez de manière à l’utiliser sur le dispositif mobile GPS.
Sur Mobac, positionnez-vous sur la zone que vous désirez : clic droit pour bouger la carte et clic gauche pour sélectionner une zone.
Sélectionnez dans le menu Atlas > Nouvel atlas.
Dans la fenêtre qui apparaît, donnez un nom à votre Atlas. Pour le format, si vous utilisez Oruxmaps, sélectionnez Oruxmaps Sqlite et si vous utilisez Maverick, sélectionnez RMaps SQlite.
Dans le panneau de gauche, sélectionnez un ou plusieurs niveaux de zoom. Le niveau 15 correspond bien à l’usage habituel sur le terrain, mais vous pouvez en sélectionner plusieurs selon votre usage.
Sélectionnez la zone qui vous intéresse sur la carte (dézoomez pour cela). La sélection rectangulaire est la plus simple à utiliser, mais vous pouvez aller dans le menu Sélection et choisir Mode de sélection > polygonal, par exemple.
Dans la partie « Contenu de l’Atlas », donnez un nom à votre nouveau contenu puis cliquez sur Ajouter la sélection.
Enfin dans le panneau de gauche, cliquez sur Créer l'Atlas.
MOBAC télécharge alors les tuiles qui correspondent à votre sélection et les niveaux de zoom choisis.
Fig. 3. -- Créer un nouvel atlas
Fig. 4. -- Sélectionner une zone
Fig. 5. -- Niveaux de zoom, ajouter la sélection et créer l'atlas
N’oubliez pas un point important : plus votre sélection est étendue et plus vous avez de niveaux de zoom, plus le nombre de tuiles sera important et plus votre atlas pèsera lourd. Pour un ordre de grandeur, tout le massif des Vosges du Sud (Saverne en haut) au niveau de zoom 15 est contenu dans un fichier de 300 Mo.
Une autre solution, si vous disposez déjà du fichier GPX de la trace que vous planifiez, consiste à laisser MOBAC sélectionner automatiquement les tuiles autour de la zone en question. Pour cela :
Dans le menu de droite, Charger GPX,
Sélectionner votre fichier et l’importer,
Dans le Menu Sélection choisir Sélectionner avec une trace GPX.
Cela dit, d’un point de vue pratique, il est à mon avis plus simple de créer une fois pour toute un gros atlas sur tout un massif et que l’on place dans le smartphone, au lieu de répéter l’opération à chaque fois que l’on planifie un parcours.
Transférer les atlas sur le dispositif mobile
Mais où donc sont trouvables les fichiers ainsi créés ? En fait, après que MOBAC a fini de télécharger les tuiles, vous avez la possibilité de cliquer sur ouvrir le dossier des atlas. Si, pour une raison ou une autre cela vous est impossible, cherchez le dossier \atlases dans votre \home sous GNU Linux ou ailleurs sur C: sous Windows. Rassurez-vous, il ne doit pas être bien loin.
Dedans vous trouverez :
Le dossier de l’atlas si vous avez utilisé le format Oruxmaps Sqlite. Là, ouvrez ce dossier et vous trouverez un (ou plusieurs) sous-dossier(s) correspondant à votre (ou vos) sélection(s). C’est ce sous-dossier qu’il faut placer dans votre smartphone dans le répertoire oruxmaps > mapfiles (ou là où vous avez spécifié via Oruxmaps l’emplacement du dossier des cartes, cf. la première partie de ce tutoriel). Par exemple, si vous avez créé un atlas Vosges et dedans deux sélections Vosges-du-nord et Vosges-du-sud, il y a aura donc deux dossiers à copier et coller dans Oruxmaps, \Vosges-du-nord et \Vosges-du-sud.
Ou bien un fichier xxxx.sqlitedb si vous avez utilisé le format RMaps SQlite pour Maverick. Dans ce cas, c’est ce fichier qu’il faudra copier et coller dans le dossier Maverick > maps sur votre smartphone.
Après avoir débranché votre smartphone de l’USB de votre ordinateur, vous utilisez les applications comme suit :
dans Maverick, menu Maps > more maps, déselectionnez toutes les étoiles et sélectionnez la map que vous venez d’entrer.
dans Oruxmaps, cliquez sur l’icône carte du menu du haut, puis Nouvelle carte > offlineet vous trouverez dans Multicartes le dossier OTRK que vous avez entré.
Préparer vos parcours
Il reste maintenant à planifier un parcours. Pour cela il existe plusieurs solutions. Beaucoup d’utilisateurs se rabattent sur des services en ligne comme Openrunner. Ce dernier propose des cartes (dont les cartes IGN) et un système de pointage permettant de tracer un parcours et l’enregistrer en GPX.
D’autres solutions peuvent néanmoins être tout à fait utilisables localement avec des logiciels libres. On peut citer Viking et QMapShack. Les deux sont présents dans les dépôts des distributions GNU Linux courantes.
Dans le cas de QMapShack, une opportunité intéressante est qu’on peut obtenir de la même manière avec MOBAC un fond de carte utilisable directement pour faire des traces. Nul besoin, par conséquent, d’utiliser un service en ligne. Voici comment faire.
A l’ouverture de QMapShack vous avez certainement remarqué un message bizarre : « Au secours ! je veux des cartes ! je n’ai pas envie de lire la documentation ! ». Bon… il fallait quand même lire un petit peu alors je vous livre mes résultats.
Dans la partie haute du panneau de gauche de QMapShack, vous pouvez activer ou désactiver des fonds de carte (clic droit). Mais un clic droit dans ledit panneau vous permet d’accéder à un menu Configurer les répertoires des cartes. Il vous permet de préciser un répertoire dans lequel le logiciel peut aller chercher des fonds de cartes.
Oui, mais quelles cartes ? Hé bien celles que vous pouvez créer avec MOBAC exactement comme je l’ai décrit plus haut. Sauf que cette fois, au moment de créer un nouvel atlas, vous préciserez le format TwoNav (RMAP).
MOBAC créera alors un dossier portant le nom de l’atlas, avec, dedans, le fichier résultat du travail. Puis dans QMapShack :
lancer la fonctionnalité Configurer les répertoires des cartes,
cliquer sur + et pointez le dossier que Mobac a créé (dans \atlases) ou copier-coller le dossier dans un autre répertoire de votre choix et pointez dessus.
Vous trouverez alors, dans la partie haute du panneau de gauche de QMapShack le nom du fond de carte qu’il vous restera à activer pour le voir s’afficher.
Le reste est un jeu d’enfant :
cliquez sur l’icône Routage et donnez un nom à votre projet,
clic droit sur la carte et Ajouter une trace,
faites votre tracé et enregistrez,
puis Fichier > Enregistrer toutes les données SIG (et sauvegardez au format GPX).
Vous voilà avec une trace qu’il vous reste à transférer sur votre dispositif mobile pour Oruxmaps ou Maverick, dans le dossier correspondant, comme précisé plus haut.
Vous pouvez faire les mêmes opérations avec Viking. De la même manière vous importez votre trace GPX pour la visualiser.
Fig. 6 -- Tracer un parcours avec QMapShack
Stocker et gérer vos traces
Cette partie sera plus courte car il s’agit simplement de signaler l’existence de quelques logiciels utiles.
Le premier est Turtlesport, qui vous permet de stocker vos traces (y compris depuis un dispositif GPS de type Garmin directement). Mais, au-delà, il vous permet de tenir le compte de vos performances et autres informations sur votre matériel sportif. Il agit exactement comme un carnet de bord de vos sorties.
Le second est Mytourbook. Il s’apparente au précédent avec un peu plus de gadgets.
Pour partager vos traces avec vos amis, vous pouvez aussi penser à Umap et Framacarte (le second est une instance du premier).
Je vous convie à consulter ce billet. Il est un peu ancien mais complétera utilement ce qui vient d’être dit ici.
Les fonds de cartes OpenStreetMap sont certes très fiables et exacts mais lorsqu’il s’agit de naviguer dans des coins peu fréquentés de certains massifs, il y a tout de même des chemins non cartographiés. Une solution très importante, si vous tournez régulièrement dans les mêmes coins, est de contribuer à OpenStreetMap dès que vous le pouvez. C’est facile, notamment avec l’éditeur de carte sur le site OSM. Un autre point, particulièrement bloquant dans les endroits que je fréquente (les Vosges), est que seul l’IGN a pour l’instant l’exclusivité du balisage du Club Vosgien. Cette histoire de droit et de propriété intellectuelle est désolante mais il faut reconnaître que, une fois sur le terrain, pouvoir visualiser sur la carte les parcours du club Vosgien est très utile, particulier pour avoir une idée de la « fréquentabilité » des sentiers. ↩︎
Mais encore une fois, il suffit de contribuer : OSM souffre la plupart du temps de quelques chemins non complétés, assez peu pour néanmoins utiliser les cartes. De retour chez vous, si vous voyez qu’il manque quelques centaines de mètres sur un sentier, vous pouvez compléter et obtenir au bout du compte une cartographie complète des coins où vous vous rendez souvent. Cela prend peu de temps et les mises à jour d’OSM sont régulières. ↩︎
L’essor des intelligences artificielles réactualise une prophétie lancinante : avec le remplacement des êtres humains par les machines, le travail serait appelé à disparaître. Si certains s’en alarment, d’autres voient dans la « disruption numérique » une promesse d’émancipation fondée sur la participation, l’ouverture et le partage. Les coulisses de ce théâtre de marionnettes (sans fils) donnent cependant à voir un tout autre spectacle. Celui des usagers qui alimentent gratuitement les réseaux sociaux de données personnelles et de contenus créatifs monnayés par les géants du Web. Celui des prestataires des start-ups de l’économie collaborative, dont le quotidien connecté consiste moins à conduire des véhicules ou à assister des personnes qu’à produire des flux d’informations sur leur smartphone. Celui des microtravailleurs rivés à leurs écrans qui, à domicile ou depuis des « fermes à clics », propulsent la viralité des marques, filtrent les images pornographiques et violentes ou saisissent à la chaîne des fragments de textes pour faire fonctionner des logiciels de traduction automatique. En dissipant l’illusion de l’automation intelligente, Antonio Casilli fait apparaître la réalité du digital labor : l’exploitation des petites mains de l’intelligence « artificielle », ces myriades de tâcherons du clic soumis au management algorithmique de plateformes en passe de reconfigurer et de précariser le travail humain.
Casilli, Antonio A. En attendant les robots: enquête sur le travail du clic. Éditions du Seuil, 2019.
Dans les années 1970, l’économiste américaine Susan Strange théorisait l’économie politique des États-Unis relativement aux intérêts de marché. Elle démontrait dans ses travaux comment la stabilité économique des États-Unis ne dépendait pas du seul pilier des intérêts territoriaux assurés par leur puissance militaro-financière.
Les jeux se jouaient à la fois sur les marchés intérieurs et extérieurs : conditions d’accès aux marchés, production de produits financiers, investissements et firmes multinationales. Elle identifiait plusieurs couches structurelles sur lesquelles devait reposer toute velléité impérialiste, c’est-à-dire la construction de plusieurs types d’hégémonies. La plupart d’entre elles étaient tout à la fois le fait de grandes entreprises mais aussi l’organisation des créneaux économiques que le pouvoir politique américain était capable de dessiner (imposer) sur le globe.
Aujourd’hui, nous connaissons bien évidemment nombre de ces structures et en particulier les structures de la connaissance, celles qui reposent pour l’essentiel sur les technologies de l’information et de la communication et qui sont maîtrisées en grande partie, voire en totalité, par des firmes américaines. Pour ce qui concerne Internet : Google-Alphabet, Amazon, AT&T, Microsoft, etc. (du côté chinois, le même jeu est en train de se dérouler et il importe de ne pas le perdre de vue).
Les processus qui ont permis l’émergence de ces firmes hégémoniques ne se résument pas uniquement aux pratiques de ces dernières. Leur manque d’éthique, l’organisation savante du vol de nos données personnelles, les implications de cette industrie de la data sur nos libertés d’expression, nos vies privées et la démocratie, ne sont pas la recette unique de leur position dominatrice.
On pourrait éternellement disserter sur ces pratiques, démontrer à quel point elles sont néfastes. Il n’en demeure pas moins que si la situation est telle, c’est parce que des stratégies structurelles sont à l’œuvre. Il s’agit de plusieurs pouvoirs : l’état de guerre permanent orchestré par les États-Unis depuis la fin de la Guerre du Vietnam, la transformation ultra-technologique de l’économie financière, les contraintes de marché imposées aux peuples (et pas seulement ceux des pays défavorisés) par des accords iniques, et enfin les technologies de l’information (depuis au moins l’histoire naissante des communications câblées, et à travers tout le XXe siècle). Ces éléments constituent ce que le sociologue et économiste John B. Foster et l’historien des médias Robert W. McChesney appellent le capitalisme de surveillance1, c’est à dire le résultat de ces stratégies hégémoniques et dont la puissance de surveillance (et donc de contrôle) est assuré par les GAFAM (mais pas seulement).
Il reste néanmoins un point crucial : la question des monopoles. Lorsqu’une économie a tendance à se retrouver sclérosée par quelques monopoles qui assurent à eux seuls de multiples secteurs d’activité (rappelons la multiplicité des activités de Google-Alphabet), et couvrent une grande part des capitaux financiers disponibles au détriment de la dynamique économique2, le problème de ces monopoles… c’est que l’économie politique à l’œuvre commence à se voir un peu trop bien.
Quels que soient les partis au pouvoir aux États-Unis, c’est cette politique qui a toujours primé. L’effet de ce conditionnement se fait sentir y compris chez les plus audacieux intellectuels. Les plus prompts à critiquer les pratiques sournoises des GAFAM le feront toujours au nom des libertés des individus, au nom de la vie privée, au nom du droit, mais très peu d’entre eux finissent par reconnaître que, finalement, c’est une critique du capitalisme qu’il faut faire. Y compris, et surtout, une critique des principes politiques qui encouragent les stratégies hégémoniques.
Lorsque le capitalisme et le libéralisme sont considérés comme les seuls systèmes capables de sauvegarder la démocratie, on en vient à des poncifs. Il me revient par exemple ce refrain stupide du milieu des années 1990, où l’on répétait à l’envi que là où McDonald s’installait, la paix s’installait. La démocratie a peu à peu été réduite à la somme des libertés que chacun peu exercer dans un marché capitaliste, c’est-à-dire un marché où les biens finissent toujours par être détenus par quelques-uns, détenteurs de fait du pouvoir politique.
Cette difficulté à penser la démocratie autrement qu’à travers le prisme libéral, est parfaitement illustrée par le récent ouvrage de Shoshana Zuboff3. Cette dernière démontre avec brio comment les stratégies des Gafam et consorts se révèlent être un hold-up sur nos vies et donc sur la démocratie. Elle décortique de manière méthodique la manière dont ces pratiques modifient nos comportements, modèlent le marché et nous privent de notre autonomie. Comprendre aussi : notre autonomie en tant qu’agents économiques, nos libertés de choix et de positionnement qui font le lit d’une certaine conception d’un marché redistributif fondé sur la concurrence et l’échange. En somme les monopoles cassent ce marché, brisent le contrat social (celui d’Adam Smith plus que celui de Rousseau) et brisent aussi l’équilibre libéral sur lequel est censé reposer un capitalisme qui dure, celui fondé sur la propriété privée, etc.
Peu importent finalement les solutions alternatives, y compris libérales, que l’on puisse opposer à ces modèles : si S. Zuboff ne parvient pas à aller au bout de sa démonstration4, c’est qu’elle ne critique que les mécanismes économiques et techniques du capitalisme de surveillance et se refuse à admettre qu’il s’agit d’une économie politique dont il faudrait analyser les principes et les remplacer.
Toutes ces considérations pourraient en rester au stade du débat d’idées. Ce n’est pas le cas. Les conceptions politiques qui ont permit justement l’émergence des monopoles américains du web et leur hégémonie, semblent avoir la peau bien plus dure qu’on le pensait. Cela alors même que leurs effets sur les libertés sont pointés du doigt. Tout se passe comme si la seule cause à défendre n’était qu’un credo libéral et pas n’importe lequel.
La candidate du parti démocrate Elizabeth Warren, résolument opposée à D. Trump pour les prochaines élections présidentielles de 2020, publiait récemment par l’intermédiaire de son équipe sur la plateforme Medium.com un article au titre apparemment incisif : « Here’s how we can break up Big Tech »5. La guerre au capitalisme de surveillance est-elle officiellement déclarée aux plus hauts niveaux des partis politiques ? Cette ancienne conseillère de B. Obama, dont les positions publiques et acerbes à l’encontre des requins de la finance mondiale lui ont valu une certaine renommée, a-t-elle trouvé le moyen de lutter contre les inégalités sociales et financières que créent les modèles économiques des Big Tech ?
En fait, non. Son texte est l’illustration des principes énoncés ci-dessus même si le constat a le mérite d’être lucide :
Les grandes entreprises technologiques d’aujourd’hui ont trop de pouvoir – trop de pouvoir sur notre économie, notre société et notre démocratie. Elles ont écrasé la concurrence, utilisé nos renseignements personnels à des fins lucratives et faussé les règles du jeu contre tout le monde. Ce faisant, elles ont nui aux petites entreprises et étouffé l’innovation.
À lire Elizabeth Warren, les outils de régulation économique se résument en fait à l’organisation d’un espace concurrentiel libre et non faussé. Son argumentation est intéressante : si les grands monopoles en sont arrivés là, c’est parce, profitant d’un manque de régulation, ils ont roulé les consommateurs. Ces derniers seraient les dindons de la farce, et se retrouvent après tant d’années les instruments involontaires du pouvoir des GAFAM.
La posture d’E. Warren est alors très confortable : elle réfute d’emblée l’idée que l’apparition de ces monopoles est le fruit d’une politique hégémonique (celle qui favorisait justement l’apparition de monopoles américains à l’échelle du globe) menée tant par les démocrates que par les conservateurs. Au contraire : c’est sur les individus uniquement, et à leur détriment, que se seraient bâti ces monopoles. Dès lors c’est en libérateur que le parti démocrate pourra intervenir, avec E. Warren à sa tête, pour défaire les liens des individus et leur rendre leur vie privée, leurs droits et, carrément, une vraie démocratie.
Cela dit, comme nous l’avons vu, cette démocratie ne s’exerce que dans un certain cadre, celui d’une concurrence maîtrisée et juste. Pour E. Warren, il est alors temps de « démanteler Amazon, Facebook et Google », d’une part en durcissant les règles anti-trust (en souvenir d’un âge d’or de la régulation contre les conglomérats) et, d’autre part, en distinguant l’utilitaire des plate-formes (les conditions techniques d’accès, les structures) et les services aux utilisateurs. Les entreprises qui posséderaient l’utilitaire (par exemple un fournisseur d’accès Internet) seraient alors réputées accomplir un service public (qui, au besoin, pourrait très bien être régulé à coup de subventions) et ne pourraient pas posséder les deux faces du modèle économique. Inversement, les compagnies qui assurent des services ne pourraient pas « coincer » les utilisateurs sur leur système.
Il y a deux conclusions que l’on tire de cette proposition de E. Warren. La première, c’est qu’il est désormais acté que les entreprises de la Tech sont à même d’accomplir du service d’intérêt public : loin d’être nationalisées, au contraire, de nombreuses solutions pourront toujours être externalisées par les États en toute confiance (tout comme Kaa hypnotise le jeune Mowgli) puisque, en théorie, cela ne risquera plus de créer de distorsion de concurrence. L’autre conclusion est que ces nouvelles dispositions n’interviennent évidemment que sur le territoire des États-Unis : on joue là encore sur la régulation des multinationales sur le marché intérieur et dont les effets se feront sentir sur le marché extérieur. Ici il s’agit de multiplier les acteurs, créer des « petits » Gafam qui auront alors l’avantage de se présenter auprès de l’Europe comme des acteurs économiques si différents et à chaque fois pleinement compatibles avec les lois européennes ressenties comme protectionnistes. Il restera cependant que les technologies, elles, resteront des émanations de l'american tech. Certes l’innovation sera moins bridée par les monopoles actuels, mais ces mini-gafam continueront d’assurer l’hégémonie tout en s’inscrivant de manière moins frontale sur les marchés mondiaux face à (ou avec) d’autres géants chinois.
Oui, parfois les libertés individuelles ont bon dos. On peut construire toutes sortes d’argumentations sur cette base, y compris celle qui consiste à rebattre les cartes et recommencer… Si vous voulez vous aussi jouer ce jeu de dupes, signez la pétition de la Team Warren.
John Bellamy Foster et Robert W. McChesney, « Surveillance Capitalism. Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age », Monthly Review, 07/2014, vol. 66. ↩︎
Par exemple, on peut comparer aux États-Unis le nombre de salariés employés par les firmes multinationales de la Silicon Valley, pour des sommets de capitaux financiers jamais atteins jusqu’à présent et le nombre de salariés que l’industrie automobile (plutôt nationale) employait jusqu’à un passé récent. Le résultat n’est n’est pas tant de pointer que les Big tech emploient moins de monde (et il y a tout de même une multitude de sous-traitants) mais qu’en réalité l’organisation de cette économie crée des inégalités salariales radicales où les plus qualifiés dans les nœuds monopolistiques concentrent toute la richesse. Les chômeurs laissés pour compte dans cette transformation de l’économie manufacturière en économie de service constitue un déséquilibre évident pour l’économie américaine et qui s’est traduit récemment en crise financière. ↩︎
Shoshana Zuboff, Das Zeitalter Des ÜberwachungsKapitalismus, Frankfurt, Campus Verlag, 2018 ; Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, New York, Public Affairs, 2019. ↩︎
C’est un peu ce que montre Sébastien Broca dans une lecture critique du livre de S. Zuboff. S. Broca, « Surveiller et prédire », La vie des idées, 07/03/2019. ↩︎
« J’en veux pas de ton café. Et puis t’as bien lavé la tasse au moins ? C’est pas un bar ici.
Je viens juste essayer la jolie montre que j’ai vue en vitrine. Elle me plaît bien, cette montre, avec un bracelet métal qui semble tenir la route. Il y a un peu de monde dans le magasin, ok, on est samedi, c’est normal. Pas grave, je peux attendre.
Mais tu m’emmerdes avec ton café. Je vais être obligé de décliner. Je vais devoir aller puiser dans ces années d’apprentissage de savoir vivre pour refuser poliment. Je ne voudrais pas donner une mauvaise impression, quoi. Un peu comme si on inversait les rôles. Puisque je refuse, c’est à moi qu’il revient de faire un effort. Merde alors.
Si je ne veux pas de ton café, c’est pas qu’il n’est pas bon, ou que ta tête ne me revient pas, ou que je préfère le thé, non… juste : je-n’en-veux-pas.
Comment te le dire sans te froisser ? Mais en fait peut-être que tu t’en contrefout. Et puis, je le vois bien, tu n’as pas le temps de m’offrir un café. Je veux dire : vraiment m’offrir un café, pour discuter, taper une belote, parler politique et lier une amitié. Du temps, tu en as déjà pris sur le client précédent pour venir m’asséner ton prénom et ton nom (et cette fois-ci, c’est moi qui m’en fout), accompagnés d’un laïus que tu as répété si vite, si machinalement…
En fait, tu dois m’accueillir avec tout un discours, toute une armada de phrases toutes faites, rabâchées, brandissant ta tablette… d’ailleurs, tu la trimballes cette tablette, c’est pas encombrant ? et puis qu’est-ce que tu viens d’y écrire là ?
Pourquoi utilises-tu tous les codes des relations sociales intimes, alors qu’on ne se connaît pas ? Enfin si, maintenant, on se connaît : je le vois dans tes yeux, en grosses lettres fatiguées : surcharge discursive.
Je regarde derrière le comptoir : diplôme de technicienne d’horlogerie. Pas un diplôme facile. Deux ans d’études, sans compter le bac pro, des stages, un vrai métier, quoi. Qu’est-ce que tu fous à me proposer un café ?
Il y a un an, ta boutique a complètement changé de look. Une volonté des grands patrons. Des chaises design (je le sais : cela fait 5 minutes que je viens de m’asseoir, j’ai les fesses gelées et une sciatique), un agencement à l’avenant avec un comptoir où tu ne peux même pas exercer ton métier, ne serait-ce que pour changer une pile.
Et puis surtout des formations. À la pelle. Sur l’accueil clientèle, sur la qualité du service, l’entretien de la peur du « client mystère », les frustrations des contrôles qualité.
C’est là qu’on t’a appris un truc que tu ignorais jusqu’alors : 86% des clients s’estiment mieux accueillis si on leur offre un café en magasin. Ouaih! sérieux, dans une horlogerie ! Ton patron responsable de boutique, lui aussi, l’ignorait totalement. Après 25 ans d’expérience, en voilà une surprise !
C’est les petits gars de la boîte Retail Service Expert qui lui ont appris. La boîte que le grand chef à Paris avait mandaté pour réaliser un audit sur la qualité de l’accueil clientèle dans la chaîne.
Ça n’a pas tardé. Moins d’un mois plus tard tous les magasins étaient équipés d’une machine à café (celle avec les capsules en alu qui polluent bien) et d’un coin « convivialité clientèle ». Tu l’as organisé comme tu pouvais, au détriment des rangements disponibles, à côté de « l’espace enfants » avec les bouquins déchirés et les jouets baveux, en face du grand portique des montres Artik, celui avec le grand ours blanc de deux mètres de haut. Déjà que la boutique était petite…
Pour toi, ce café, c’est devenu l’étape obligatoire pour « papoter » avec les clients pendant que cinquante commandes t’attendent à l’arrière boutique pour être traitées en grignotant sur le temps de travail. Si ça se trouve, tu ne l’aimes pas non plus ton café.
Maintenant tu rentres plus tard le soir, tu t’occupes moins des enfants, mais après tout, tu as bien « papoté » avec les clients, c’est pas comme si tu travaillais. Enfin, bon, sur le site internet de la chaîne, c’est marqué que les clients sont censés venir « papoter » autour d’un café avec les vendeurs… Il faut dire que les contrôles qualité organisés par les grandes marque partenaires y accordent beaucoup d’importance : sinon tu perdrais carrément le marché !
Il y en a des procédures, des discours à ressortir par cœur. Quand tu n’es pas en surcharge discursive, il te faut remplir de la paperasse, des évaluations de contrôles de procédures dans des dossiers… Staline en aurait rêvé.
Avant, tu réparais des horloges, tu vendais des belles montres et même des sur-mesure ! attention, même des japonaises et des suisses haut de gamme. Tu étais fière de ton métier… tu possédais un savoir-faire.
Là, tu bricoles. Tu vends ce qu’on te dit de vendre… et pourtant c’est les mêmes produits à peu de chose près. Pas de la camelote. Mais c’est un peu comme si tu n’en n’avais plus rien à foutre de ce que pense le client ou bien ce qu’il voudrait dire. Là… tu proposes un café… oui, même à la mère Chopin, 85 ans, qui est passée avant-hier pour réparer son coucou de la Forêt-Noire et qui est cardiaque. Pas son coucou, elle. Tu le sais parce que c’est son fils qui te l’a dit à la supérette, l’autre jour. Elle t’avait regardé bizarre, en rentrant, quand tu lui a annoncé ton nom en lui montrant la machine à café. Tout ça parce tu passais un audit ce jour-là. L’a rien pigé, la pauvre vieille.
Parce que si tu ne le proposes pas ce putain de café, c’est l’un des indicateurs de la qualité d’accueil qui saute. Sans ça, les managers qui ne sont pas horlogers, eux, ils ne sauraient pas dire si tu fais bien ou mal ton métier. Il faut bien te surveiller, des fois que t’oublies de remonter une info clientèle.
Alors j’ai une bonne et une mauvaise nouvelle pour toi. En attendant mon tour, j’ai un peu surfé avec mon smartphone. Je me demandais d’où pouvait bien provenir cette idée que les clients d’une horlogerie voulaient absolument du café. Ben j’ai trouvé.
Il y a beaucoup de sites internet de boîtes de conseil, et surtout des blogs, spécialisés dans la relation clientèle. Beaucoup vantent les mérites de la compétitivité de la « qualité d’accueil », celle qui transforme les vendeurs en carpettes pour clients et souffre-douleur pour managers sous pression. Tous font appel à de vagues études, ne citent presque jamais leurs sources et, quand ils le font, les études ne valent pas grand chose en définitive. Mais j’ai été étonné de constater que très peu mentionnent cette histoire de café. Il a fallu insister pour trouver ce qui, pourtant, semble connu.
Il y a celui-ci, qui mentionne clairement que le café est un « rituel de service » et qui soutient que, effectivement 86% des clients s’estiment satisfait lorsqu’on leur offre un café. Et de là tout un laïus sur la « symétrie des attentions », un concept managérial construit assez récemment. Et quand on s’y penche de plus près, la « symétrie des attentions », ben ça passe par du café.
Petite explication. La « symétrie des attentions » est une idée entretenue par l'Académie du service, un cabinet de conseil appartenant anciennement au groupe hôtelier Accor. Grosso-modo il s’agit de soutenir que la qualité du service au client dans une entreprise est relative (symétriquement) à la qualité des relations entre les collaborateurs à l’intérieur de cette entreprise. C’est expliqué là.
Personnellement, j’ai eu beau chercher, je n’ai pas trouvé d’éléments du côté de la littérature scientifique du management à ce propos, mais un concept semble s’y accoler parfaitement, celui de servuction. Là il s’agit surtout du processus de production de service, applicable pour beaucoup en hôtellerie et restauration : on parle d’un parcours de servuction, c’est-à-dire qu’on identifie les moment-clé la vie du client et à chaque étape proposer du service, calibrer des réponses et des rôles. Dès lors, il n’est pas délirant de se dire que si on identifie le parcours de servuction en mettant les collaborateurs et les clients ensemble dans un processus de discussion intelligente, et en faisant en sorte que les relations entre les collaborateurs soient bien huilées, sans pression inutile, on peut obtenir au bout du compte un service de premier ordre pour la majeure partie des clients.
Quelle que soit leur valeur scientifique, ces concepts, au départ, sont donc faits pour tenter d’augmenter les chances de satisfaire la clientèle. Mais lorsqu’ils sont appliqués bêtement à n’importe quel secteur d’activité tout en conservant un modèle hiérarchique (et tayloriste) des rôles, là où la concertation est nécessaire, on arrive à des aberrations.
Ce putain de café est une aberration.
Mais d’où sort-il ? ben des ex-hotelliers de l’Académie du Service, justement… Dans une étude, intitulée « Le rôle sociétal du café » qu’on peut se procurer sur leur site, on apprend que dans le cadre d’une évaluation de la satisfaction clientèle : 9 clients sur 10 considèrent qu’ils sont vraiment accueillis lorsqu’on leur propose un café ! Et cela va même jusqu’à apprécier la qualité du café, attention !
Alors, ma chère horlogère, tu apprendras aussi d’autres trucs :
l’étude en question est une étude qui a été commandée par Nespresso ;
l’étude montre que non seulement il faut offrir du café au client mais aussi que le café joue aussi un rôle très important entre les collaborateurs (ben oui, parce que si le café est bon pour huiler les relations entre les collègues, il le sera forcément avec les clients) ;
que la Société Générale (qui témoigne avec force pour appuyer l’étude) avait déjà collaboré avec Nespresso en 2012 pour… démontrer la même chose ;
et puis tiens on trouve aussi une autre étude menée par l’IFOP, toujours pour Nespresso, à propos du rôle sociétal du café, mais cette fois uniquement dans les relations au sein de l’entreprise (mais comme on a montré qu’il fallait une « symétrie des attentions », ce qui vaut pour les collaborateurs vaut aussi pour les clients).
Bref, t’as pas fini d’en boire du café, ma chère. Et du Nespresso, s’il te plaît.