LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Christophe MASUTTI
Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft
Souscrire à ce FLUX

STATIUM


▸ les 164 dernières parutions

04.03.2017 à 01:00

Scott Spark 950 : prise en main

L’hiver ne doit pas être un obstacle pour rouler et tant pis si le terrain est gras. La sortie du jour avait pour thème : comment prendre en main un VTT tout juste sorti du carton ? En fait c’est très facile, pourvu que le vélo en question soit de bonne qualité.

L’engin en test

Oui, parce qu’à ce niveau-là, ce n’est ni un vélo ni un simple VTT mais un engin, bourré de technologies plus avancées les unes que les autres. Lorsque j’ai vu le monteur régler les suspensions pour mon gabarit, je me suis demandé si je n’aurais pas dû choisir maths-physique à la sortie du lycée. Heureusement, une fois réglées ces suspensions, normalement on ne devrait pas avoir à y bricoler sans arrêt.

Le test a porté assez simplement sur la base de ma pratique du cross-country : 40 km environ dans les Vosges pour 1000 m de dénivelé (ben oui, au-delà il y avait de la neige). Le VTT concerné : un Scott Spark 950.

Scott Spark 950

Alors qu’est-ce qu’il y a dans le paquet ?

D’abord une transmission Shimano XT pour le dérailleur arrière et Deore pour l’avant. D’accord, c’est pas du full-XT mais franchement pour passer les deux plateaux avant, c’est largement suffisant (et Deore reste une référence).

Dans l’ensemble, la transmission est franchement au poil. Si comme moi vous sortez direct d’un VTT avec trois plateaux avant, l’apprentissage met environ… 5 minutes, le temps de trouver une montée pour essayer tout cela. Évidemment, sur ce VTT, je conseille de prendre grand soin de cette transmission : l’équipement convient parfaitement pour une pratique cross-country mais si on tire un peu long et selon le kilométrage m’est d’avis que la longévité est proportionnelle au soin avec lequel vous passez les vitesses.

Ensuite viennent les super gadgets de chez Scott.

Mécanisme suspension

Le système Twinlock, d’abord, qui permet en trois positions, de régler le débattements des suspensions avant et arrière : relâche totale pour la descente, mode traction (semi-blocage) pour les montées un peu techniques, et blocage total pour montée régulière ou la route (bêrk). Simple gadget ou vraiment utile ? la question n’est pas sérieuse : c’est l’une des clés de la polyvalence de ce VTT. Sans ce système, l’intérêt pour le cross-country serait bien moindre. Bien sûr, il faut adapter ses réglages en fonction du terrain sur lequel on évolue, mais comme la commande est située au guidon, c’est une simple formalité.

Mécanisme tige selle

La commande de la tige télescopique au guidon. Là encore, l’intérêt est évident… la tige s’abaisse avec le poids du cycliste, histoire d’engager des descentes dans de bonnes conditions, puis remonte très vite une fois que l’on souhaite revenir à une position de pédalage. Petit bémol toutefois : comme on le voit sur la photo, la commande est située après la commande de transmission, et à moins d’avoir de grandes mains, il faut aller la chercher en lâchant la prise du guidon. C’est un problème de montage et non de conception ! Je vais rapidement corriger ce problème car il est important de pouvoir manipuler les différentes commandes au guidon sans lâcher la prise. C’est normalement étudié pour cela :) Cette commande doit en fait être située entre la poignée et le levier de frein (pour affirmer cela, j’ai demandé au service après vente de chez Scott qui a mis moins de deux heures pour me répondre par courriel, merci à eux.)

De manière générale, vous avez tout intérêt à penser à baisser la selle avant d’engager la descente, mais parfois les terrains s’enchaînent plus vite que prévu. Pour la reprise, le problème est moins difficile, sauf que généralement la main est déjà occupée à changer de vitesse. Bref, la commande de la tige au guidon, c’est génial, mais attention au montage.

Quant aux suspensions, rien à dire de particulier : fourche Fox 32 à l’avant (débattement de 100 pour le cross country) et amortisseur Fox Float à la l’arrière. Trois positions (cf. ci-dessus). Dans le domaine, Fox fait des petites merveilles.

La taille des roues est un choix… personnel. Le Spark 950 est dotée de roues en 29 pouces. Ceux qui ne jurent que par le 27.5 devront prendre le Spark 750.

Le 29 pouces et moi, c’est une longue histoire. Pour la faire courte, mon premier VTT était un Gary Fisher type « semi-descente » avec des 29 pouces, sans aucune suspension. Le fait d’avoir roulé avec cela vous fait comprendre la raison pour laquelle, si on pratique le cross-country, le 29 pouces me semble un excellent atout (mais pas le seul, j’en conviens). L’entraînement et l’inertie de grandes roues est un confort dont j’ai eu des difficultés à me passer avec mon précédent VTT qui, lui, est doté de 27,5 pouces. Passer de l’un à l’autre vous fait vraiment apprécier la différence.

Mais le bémol des 29 pouces, je l’ai rencontré aujourd’hui même : sur la neige, il y a quand même moins de répondant (trop de surface au contact). Certes, je pense que c’est aussi lié aux pneus fournis avec le Spark : des Maxxis Forecaster dont je ne suis pas un grand fan (on verra bien à l’usage). D’un autre côté, de la neige, il n’y en a pas toute l’année, hein ?

Conclusion

Ce VTT m’a été conseillé de toutes parts lorsque je recherchais le meilleur compromis pour ma pratique du VTT. Aucun regret. Le vélo correspond parfaitement à mes attentes et il n’y a pas de surprise. Du point de vue des performances, il est à l’image de la gamme Spark de chez Scott qui bénéficie maintenant de quelques années d’ajustements. C’est à l’usage qu’on verra ce que vaut vraiment le cadre, dans un alliage d’aluminium 6011 (avantage du nickel pour la corrosion, à envisager sur le long terme). Quant à l’entretien, il devrait être minimal.

Avec un bon réglage de départ, une étude posturale assurée par un spécialiste du magasin, ce Spark 950 est un bon investissement et s’adaptera à une pratique engagée ou non. Il se manie cependant avec discernement et nécessite tout de même un certain niveau de pratique pour en tirer tous les avantages. Je déconseillerais donc ce VTT pour un premier achat, mais une fois de bonne habitudes prises, il fera très certainement votre affaire, pour un budget qui ne grimpe pas pour autant vers les cadres carbone-super-chers :)

Vers les hauteurs

01.02.2017 à 01:00

Creditworthy

The first consumer credit bureaus appeared in the 1870s and quickly amassed huge archives of deeply personal information. Today, the three leading credit bureaus are among the most powerful institutions in modern life — yet we know almost nothing about them. Experian, Equifax, and TransUnion are multi-billion-dollar corporations that track our movements, spending behavior, and financial status. This data is used to predict our riskiness as borrowers and to judge our trustworthiness and value in a broad array of contexts, from insurance and marketing to employment and housing. In Creditworthy, the first comprehensive history of this crucial American institution, Josh Lauer explores the evolution of credit reporting from its nineteenth-century origins to the rise of the modern consumer data industry. By revealing the sophistication of early credit reporting networks, Creditworthy highlights the leading role that commercial surveillance has played — ahead of state surveillance systems — in monitoring the economic lives of Americans. Lauer charts how credit reporting grew from an industry that relied on personal knowledge of consumers to one that employs sophisticated algorithms to determine a person’s trustworthiness. Ultimately, Lauer argues that by converting individual reputations into brief written reports — and, later, credit ratings and credit scores — credit bureaus did something more profound: they invented the modern concept of financial identity. Creditworthy reminds us that creditworthiness is never just about economic “facts.” It is fundamentally concerned with — and determines — our social standing as an honest, reliable, profit-generating person."


Lauer, Josh. Creditworthy. A history of consumer surveillance and financial identity in America. Columbia University Press, 2017.

Lien vers le site de l’éditeur : https://cup.columbia.edu/book/creditworthy/9780231168083


16.11.2016 à 01:00

Du software au soft power

J’ai eu l’occasion de participer au livre dirigé par T. Nitot, Numérique : reprendre le contrôle (éd. Framabook), paru à l’occasion du Paris Open Source Summit 2016. J’interviens sur le sujet de l’autonomie numérique et les discours associés à cette problématique, aux côtés du grand Alain Damasio, qui nous a gratifié d’un texte magnifique. Je retranscris ici l’interview qui me concerne (pp. 99-107).

Couverture. Numérique : reprendre le contrôle (Framasoft/Framabook, nov. 2016)

— Comment décrire les problèmes politiques posés par la concentration des données ? Peut-on y remédier en promouvant la souveraineté et l’autonomie numérique ?

— La question est très large et appelle un développement. En fait, j’ai toujours eu un peu de mal avec ces trois notions qu’il faut définir.

La concentration des données, en soi, n’est qu’un moyen pour obtenir un résultat. C’est l’utilité de ce dernier, c’est-à-dire l’intention qu’il faut questionner. Concentrer, cela revient à collecter et rassembler des informations en un seul point. Ce n’est pas une pratique condamnable. L’Insee, pour prendre un exemple connu, a toujours pratiqué ce type de collecte à des fins d’analyse et je pense qu’on ne saurait remettre en question les avantages cognitifs et pratiques des données de l’Insee.

Dans le contexte qui nous occupe, nous parlons de big data. C’est un niveau bien supérieur à ce que pratique l’Insee depuis l’après-guerre, même avec des moyens de plus en plus modernes. Les big data proviennent de plusieurs sources et celles produites par des institutions privées ou publiques à des fins statistiques (des hard datas) n’en constituent qu’une petite partie1. La partie la plus spectaculaire des données que rassemblent des grandes multinationales provient en réalité de nous-mêmes, il s’agit des soft datas que nous laissons plus ou moins volontairement en fonction de nos comportements de consommateurs de biens et services, gratuits ou non : entrées de requêtes dans des moteurs de recherche, flux de données de géolocalisation en temps réel, comptage de clics, mesure de l’attention informationnelle, etc. Moins connues sont les métadonnées, c’est-à-dire la provenance des données, les durées, les mesures de trafic, les vitesses de connexion, les traces et historiques de géolocalisation, etc. Bref un ensemble d’informations que nous pensons souvent inutiles du point de vue individuel, négligeables du point de vue de la taille, mais qui, en grandes quantités, traduisent avec une exactitude impressionnante l’ensemble de nos comportements. Ces données sont multipliées du point de vue sémantique dans tout ce qui concerne l’Internet des objets, le quantified self et toutes les pratiques qui lient des services et des conditions d’exercice de ces services (je profite d’un bien à condition de donner en retour des informations très personnelles sur moi).

Toutes ces informations pourraient être rassemblées et traitées par une multitude d’entreprises qui, chacune, utiliserait ces informations pour améliorer les biens et services en question en passant des contrats clairs avec les utilisateurs. Un peu comme le contrat que je passe avec ma banque qui connaît énormément de choses sur mon comportement de consommateur. Il y aurait donc un contrat entre l’utilisateur et la firme : je te confie mes données et tu me fournis un service (si possible plus performant). Or, aujourd’hui, non seulement le contrat est la plupart du temps fallacieux mais en plus le nombre de firmes est finalement très faible. Pour ne prendre que l’exemple d'Alphabet Inc., ce conglomérat regroupe plusieurs entreprises, think tank et sous-traitants aux secteurs d’activités très différents et qui pourtant traitent tous de manière plus ou moins directe des données des individus utilisateurs des services, en particulier ceux de Google, dans une logique de monopole (publicitaire, en particulier).

Là où la concentration des données pose problème, c’est à la fois dans leur quantité et dans les secteurs où elles deviennent des facteurs permettant de profiler non plus les individus, mais la société en entier tant les secteurs d’activité concernés recomposent le social (dans le cas d’Alphabet Inc. : biotechnologie, médecine, jeux, communications en tout genre, économie, bourse, automobile, urbanisation, robotique, cartographie et espaces, biens culturels et même corruption). Ainsi le problème politique de la concentration des données, c’est justement l’idéologie dont les solutions technologiques de ces multinationales sont devenues les supports. Et cette idéologie, c’est en premier lieu celle de la substitution de l’État par des services, et en second lieu l’absence de toute forme de contrat de confiance. Par exemple, il n’y a plus besoin de confiance entre individus si nous faisons reposer uniquement la fiabilité de nos informations sur des algorithmes faisant foi/loi. Je ne dis pas que, par exemple, l’utilisation de services sécurisés par SSL est un problème, je dis que la tendance à vouloir remplacer notre espace de confiance entre citoyens par des solutions technologiques cause immanquablement une révision de la nature de nos relations sociales. Il en va ainsi de tous les contrat dits clauses de confidentialité et clauses d’utilisation que nous passons avec toutes sortes de services numériques, comme Facebook, et qui font régulièrement l’objet de questionnements quant à leur éthique : l’éthique est justement ce qui n’a plus à être pris en compte dès lors que l’on considère que la contrepartie de l’utilisation d’un service est l’abandon même de la confiance. Je donne toutes mes informations personnelles et mon intimité à une firme : qu’a-t-elle besoin d’attendre mon accord individuel si son objectif n’est pas de me profiler, moi, mais tout le monde, pour une « meilleure société » ?

Partant de ce constat, ce qu’on appelle « souveraineté numérique » correspond à l’idée qu’à l’échelle d’un pays, d’un État, il puisse exister suffisamment de ressources pour que les usages de services numériques puissent y être circonscrits au moins en droit, au mieux que les supports technologiques des services soient intégrés dans l’espace de confiance d’un État. À l’heure de la mondialisation des échanges boursiers et des firmes, cette vision est bien entendu celle d’une chimère. L’autonomie numérique ne peut donc être que celle des utilisateurs eux-mêmes. En refusant les contrats iniques, la diffusion et la concentration de leurs données, les citoyens peuvent chercher des solutions capables de créer des chaînes de confiance auxquelles ils peuvent participer en partageant les ressources, en coopérant à leur création ou tout simplement en utilisateurs éclairés.

Cette autonomie, aujourd’hui ne peut plus être garantie par l’un ou l’autre État. Depuis les révélations d’E. Snowden, celles de Wikileaks, l’édiction de diverses lois scélérates de surveillance généralisée et autres procès discutables, les gouvernements ont fait la preuve qu’il est devenu impossible qu’ils puissent créer une sphère de confiance suffisamment crédible pour que des citoyens puissent considérer que leurs données (leurs informations personnelles) y soient protégées. La seule solution repose sur un postulat : il doit être primordial pour un peuple de pouvoir disposer de solutions technologiques capables de garantir physiquement (mathématiquement) le secret et l’anonymat des citoyens, à n’importe quel prix, et reposant sur des solutions libres/open source. Nous avons atteint les limites du contrat social : avec des firmes comme les GAFAM, l’État n’est plus capable d’assurer la sécurité numérique des citoyens, c’est à eux de construire leur autonomie en la matière.

— Le capitalisme de surveillance, sur lequel vous avez écrit une longue analyse, est-il un obstacle à la souveraineté numérique des individus ?

— Ramené au rang de paradigme, le modèle de l’économie de cette première tranche du XXIe siècle, pas seulement celle des services numériques, repose sur la captation des données et leurs valeurs prédictives. L’économie libérale, celle que l’on trouve dans les livres aux origines du capitalisme moderne, composait avec l’idée d’une égalité entre les acteurs économiques et celle d’un équilibre général où tout échange trouve sa fin dans la satisfaction de chacun. Dans un article paru en 2015, intitulé « Big other : surveillance capitalism and the prospects of an information civilization », la chercheuse Shoshana Zuboff2 montre que la logique d’accumulation des données, l’automatisation de leur traitement et leur analyse en autant d’inférences et de prédictions, faussent la logique de l’équilibre général. Pour cela les firmes mettent en œuvre des pratiques d’extraction de données qui annihilent toute réciprocité du contrat avec les utilisateurs, jusqu’à créer un marché de la quotidienneté (nos données les plus intimes et à la fois les plus sociales). Ce sont nos comportements, notre expérience quotidienne, qui deviennent l’objet du marché et qui conditionne même la production des biens industriels (dont la vente dépend de nos comportements de consommateurs). Mieux : ce marché n’est plus soumis aux contraintes du hasard, du risque ou de l’imprédictibilité, comme le pensaient les chantres du libéralisme du XXe siècle : il est devenu malléable parce que ce sont nos comportements qui font l’objet d’une prédictibilité d’autant plus exacte que les big data puissent être analysées avec des méthodes de plus en plus fiables et à grande échelle. Selon S. Zuboff, cette nouvelle forme de capitalisme est nommée « capitalisme de surveillance ».

Reste l’explication du titre de l’article : « Big Other ». Dans son roman, G. Orwell nommait un état de surveillance tout puissant Big Brother. Pour S. Zuboff, les firmes aujourd’hui capables d’une surveillance / conformation du marché à l’échelle mondiale, n’ont pas pour objectif de remplacer l’État comme on le ferait avec un coup d’État. C’est un coup des gens qu’oppose S. Zuboff à cette idée, c’est-à-dire que c’est dans le marché, c’est-à-dire dans et par la société et notre soumission volontaire à la logique de l’accumulation de données, que naît cette altérité supérieure de l’économie de la surveillance, remplaçant l’idéal d’une démocratie libérale, un Big Other dont l’une des personnifications est Google (dans le texte de S. Zuboff). On pourrait dire aujourd’hui l’ensemble des GAFAM, Alphabet et compagnie.

— Les GAFAM ont aujourd’hui le quasi-monopole du stockage et de la gestion de nos données : quelles sont les implications politiques de la concentration des données dans les silos de quelques grands acteurs ? Je pense notamment à Apple qui refuse certaines applications jugées trop politiques dans l’App Store, ou à Facebook qui prend le rôle d’un service public avec son Safety Check).

— Il y a encore peu de temps, le problème que pouvait soulever la concentration des données, c’était celui de la remise en question de la sphère privée. C’est toujours le cas, mais nous assistions à un changement social en pensant seulement que nous avions encore le choix entre accepter ou non les contrats d’utilisation des services numériques des grandes firmes. Nous n’avions peur que de Big Brother. Or, nous n’en sommes plus là. Comme S. Zuboff le montre, le développement des méthodes d’analyse des big data est en progression constante, si bien que, dans les mains de firmes gigantesques avec autant de domaines d’application, nous avons besoin d’appréhender ce bouleversement avec des outils qui dépassent le seul stade de l’analyse de risque individuel ou collectif de la diffusion des données personnelles. Dans l’histoire économique mondiale, les firmes n’ont jamais été autant en mesure de modeler le marché à volonté grâce à la puissance de l’analyse des données à grande échelle. Non seulement les données sont déjà diffusées et utilisées, mais elles sont aussi extraites et accumulées sans aucune réaction de l’ordre de la décision publique.

C’est en cela que l’État échoue à protéger ses citoyens, et dans cette faille du contrat social les solutions de facilité s’engouffrent : encore récemment notre ministre français B. Cazeneuve surenchérissait dans la lutte anti-terroriste en appelant à une limitation drastique des messageries chiffrées à l’échelle internationale3, provoquant ainsi la colère des spécialistes4 qui rappellent l’utilité économique et sécuritaire du chiffrement dans tout système d’information. Pour que des décideurs publics soient à ce point pro-actifs dans le passage de marché avec les GAFAM (comme c’est le cas dans l’Éducation Nationale française) ou soient prêts à ce que nos communications transitent en clair à travers les services des mêmes GAFAM, c’est bien parce que l’établissement des firmes sur le marché est vécu comme un état de fait, immuable. Tout est fait pour qu’Internet ne soit plus qu’un marché avec quelques services identifiés et non plus un réseau ouvert, partagé et diversifié. La réduction de l’offre de services sur Internet est conçu par les décideurs publics comme un outil visant à faciliter la surveillance et justifier le manque de maîtrise des outils numériques dans la plupart des secteurs des services publics. De leur côté, les firmes jouent un double rôle : collaborer politiquement et asseoir toujours davantage leurs situations de monopoles.

— Comment sensibiliser le grand public à ces implications politiques ? Quel type de discours construire ?

En France, s’adresser au public ne peut se faire que de manière directe mais avec certains principes. Une méthode directe c’est-à-dire sans passer par un filtre institutionnel. Et pour cause : par les réformes successives de l’Éducation Nationale, l’État a échoué à former ses citoyens à l’autonomie numérique. Cela aurait pu fonctionner au milieu des années 1980, à la « grande époque » du Plan Informatique Pour Tous qui mettait l’accent sur la formation à la programmation. Aujourd’hui malgré de nombreux efforts, seule une petite partie des lycéens peuvent avoir accès à un véritable enseignement à la programmation informatique depuis 2013 tandis que la majorité n’auront d’autre choix que de pianoter laborieusement sur des outils Microsoft. Dans un contexte académique, former les jeunes à des concepts aussi complexes que les protocoles du réseau Internet, à un peu de langage de programmation, aux enjeux du profilage, de la confidentialité des systèmes d’information et surtout au droit et au cadre de la liberté d’expression, cela revient à marcher sur des œufs avec un éléphant sur le dos.

Les principes de la sensibilisation au grand public doivent être beaucoup plus simples : diffuser et démontrer que l’offre en logiciel libre est fiable, montrer que cette fiabilité repose à la fois sur la qualité des programmes et sur une chaîne de confiance entre l’hébergeur, le concepteur, l’utilisateur et même le fabricant des machines sur lesquelles on travaille. On ne touche pas les gens avec un discours mais en faisant une démonstration : montrer que des alternatives ne se contentent pas d’exister mais qu’elles respectent leurs utilisateurs sur la base du partage d’information, de connaissance et de code. C’est l’objectif de la campagne Degooglisons Internet de Framasoft, mais c’est bien davantage : pour faire cela, il faut des relais de proximité et ces relais constituent tout le tissu de l’économie sociale et solidaire (ESS), y compris des petites entreprises, qui permettront de relayer le modèle sur un mode d’éducation populaire^5^. Si longtemps, nous avons naïvement cru que la lutte contre un Internet déloyal devait se faire par le haut, enfermés que nous étions dans une tour d’ivoire digne des Cathares les plus radicaux, l’heure est venue de mobiliser les foules par un mouvement de fond. Pour répondre au capitalisme de surveillance qui modèle le marché, il faut fausser le marché.

— À quoi ressemblerait un monde ou le libre aurait échoué ? Où les GAFAM auraient gagné ? Ou les silos continueraient de grossir ?

Sommes-nous réellement dans cette dualité ? Je pense que le Libre (et tout ce qui en découle, c’est-à-dire au-delà de l’informatique) est une réaction à un monde où le partage n’existe pas. L’histoire du logiciel libre le montre bien : c’est en réaction à l’idée que le non-partage est source quasi-exclusive de profit que le logiciel libre s’est formalisé en droit, par une licence et un contrat de confiance. Ces principes ne peuvent pas échouer, tout au plus ils peuvent être muselés, voire condamnés, tyrannisés. Mais l’essence de l’homme, c’est le partage.

Nous avons beaucoup plus à craindre d’un accroissement des monopoles et du jeu des brevets, parce qu’en monopolisant les systèmes d’information planétaires, ce ne seront plus les hommes d’un pays particulièrement enclin à la dictature qui seront muselés, mais tous les hommes et femmes de tous les pays. Les monopoles, parce qu’ils composent avec les politiques, ne peuvent que limiter l’exercice de la liberté d’expression. En d’autres termes, l’erreur que nous avons tous commise dans les années 1990, lors des bulles Internet, ce fut de croire que nous pouvions communiquer à l’échelle mondiale en profitant d’une libéralisation des réseaux. Le jeu des monopoles fausse complètement cette utopie. Les GAFAM ont déjà gagné une partie, celle qui a débouché sur l’impuissance publique (quelle firme des GAFAM, totalisant des milliards de capitalisation boursière, serait censée avoir peur de quelques millions d’euros d’amende de la part de la Commission Européenne ?, soyons sérieux^6^). Si nous échouons à faire du Libre le support de nos libertés informatiques, numériques, culturelles… il nous faudra réinventer un Internet différent, hors contrôle, hors confiance, résolument anarchique. Ce n’est pas non plus une solution qu’il faut viser, mais ce serait la seule alternative.


  1. Voir sur une typologie des données dans l’acception Big Data, le rapport d’Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016. ↩︎

  2. Shoshana Zuboff, « Big other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, pp. 75-89. ↩︎

  3. Voir cet article de Julien Lausson, « Cazeneuve en croisade contre le chiffrement, rappelé à l’ordre par la Cnil et le Cnnum », Numerama.com, 23/08/2016. ↩︎

  4. Voir cette tribune signée par Isabelle Falque-Pierrotin, MounirMahjoubi et Gilles Babinet, « En s’attaquant au chiffrement contre le terrorisme, on se trompe de cible » journal Le Monde, 22/08/2016. ↩︎

07.11.2016 à 01:00

Surveillance://, par T. Nitot

Un récent essai de Tristan Nitot est intitulé Surveillance://. Les libertés au défi du numérique : comprendre et agir. Un livre pertinent, qui atteint ses objectifs. On ne cherchera donc que la petite bête sur quelques détails du point de vue du fond et de la méthode.

Surveillance://. Les libertés au défi du numérique : comprendre et agir. C&F éditions (2016). Couverture

Surveillance:// de Tristan Nitot est un ouvrage contextuel. Il appartient à une désormais assez longue tradition d’essais « tout public » sur le fichage des populations, la protection de la vie privée, et la défense des libertés individuelles à l’ère du tout-numérique.

On peut citer pour mémoire en 1994 l’enquête de C-M. Vadrot et L. Gouverne, Tous fichés (1994) qui alertait sur l’usage des mémoires embarquées (en particulier les cartes à puces). Plus récemment, L’homme nu. La dictature invisible du numérique par M. Dugain et C. Labbé (2016) se livrait au déballage angoissant des hauts faits de la surveillance de masse à l’ère post-Snowden.

L’ouvrage Surveillance:// se démarque néanmoins par son projet pédagogique qui cherche à la fois à expliquer les concepts-clé des mécanismes de contrôle et les solutions pratiques pour s’en prémunir. Si bien que l’ouvrage se place aussi dans une autre tradition, celle qui met en perspective les risques informatiques. Il faut alors remonter plus loin dans le temps.

Déjà en juillet 1970, lors du Colloque de Cerisy-La-Salle « L’homme devant l’informatique », on s’interrogeait sur les nouvelles formes de pouvoir qu’apporterait l’informatique dans les processus de prise de décision publique. Un basculement a néanmoins eu lieu dans cette tradition réflexive. Alors que la Révolution Informatique questionnait le rapport que nous avons avec nos données informatisées, les années 1990 ont vu se modeler différents pouvoirs par l’utilisation des données personnelles ou collectives. Le rapport entre pouvoir et collection de données se questionnait surtout selon le prisme de la notion de contrôle (institutionnel), et s’envisageait essentiellement du point de vue des libertés individuelles. Les années 2000 et la consolidation des grands monopoles du web (les GAFAM) et la pléthore de services permettant de collecter des quantités inédites de données à l’échelle mondiale, ont amené une nouvelle forme de questionnement sous l’angle, cette fois, de la surveillance. La surveillance comme fin, et non comme moyen : si la collecte et l’analyse de données est un moyen pour prendre des décisions économiques (ciblage marketing), la surveillance est une activité qui cherche à se rendre socialement acceptable et conforme les comportements, jusqu’à modeler le marché (j’ai eu l’occasion d’en traiter différents aspects, en parlant du capitalisme de surveillance dans d’autres articles de ce blog.

Dans sa première partie, le livre de Tristan Nitot établit un état des lieux de la captation et la centralisation des données. Il se fait ainsi l’écho de multiples enquêtes et ouvrages traitant des « dangers de la surveillance », avec un focus plus important sur les firmes Google et Facebook, dont l’un des principaux attraits pour les gouvernements est de réduire le nombre d’interlocuteurs dans les requêtes de renseignements sur les utilisateurs. Ainsi, on comprend que l’affaire Snowden n’a pas seulement montré que les États surveillaient leurs citoyens en masse, mais aussi que l’apparition de grands silos centralisés de données tenus par quelques firmes facilitaient grandement la tâche des gouvernements souhaitant généraliser la surveillance.

Il faut néanmoins attendre la section 7 de cette première partie pour aborder un point central : « L’impact de la surveillance sur la société », qui sera décliné encore dans la seconde partie. On regrette, bien que le public visé soit assez large, que T. Nitot prenne d’emblée la décision d’aborder la question sous l’angle exclusif du contrôle institutionnel en reprenant la référence de Michel Foucault à Jeremy Bentham, le panoptique et la prison (cf. M. Foucault, Surveiller et punir, 1975). Les références subséquentes à Glenn Greenwald (journaliste ayant publié les révélations d’E. Snowden sur la NSA) et Bruce Schneier (une pointure en matière de chiffrement et sécurité informatique), en restent néanmoins à l’analyse sociologique de la surveillance comme instrument de contrôle des populations, soit par une forme institutionnalisée (l’État surveille), soit par l’effet panoptique (l’individu se contrôle lui-même parce qu’il se sent surveillé et conforme ses comportements).

L’un des enseignements qu’on tire néanmoins de la lecture de Bruce Schneier, c’est justement que la surveillance n’est pas un instrument de contrôle. Elle ne le devient que dans la mesure on l’on prête une intention à l’institution capable de contrôle et d’action (l’État, en l’occurrence, y compris par l’intention des firmes de manipuler des opinions selon les intérêts politiques du moment, comme T. Nitot le montre à propos de Facebook dans la seconde partie). Bruce Schneier a montré que la surveillance est d’abord un modèle économique (cf. « Surveillance is the Business Model of the Internet », 2014). Si l’on se concentre uniquement sur un questionnement utilitariste de la surveillance globale des masses par les firmes (et par les États en contrat avec ces firmes), les clés d’analyse se restreignent à l’individu, son rapport à la liberté et ses droits, l’exercice de la démocratie, bref, on se focalise sur le contrat social. Or, comme il y a une perte de confiance générale envers les États depuis l’affaire Snowden, la solution adoptée par beaucoup est libertaire, consiste à prôner le moins d’État pour plus de libertés… mais moins de protection contre les firmes ; dès lors, qui garantirait le contrat de confiance entre l’individu et la firme ? (question autrement posée  : qui peut garantir l’exercice de la justice ?).

Ce sera mon seul point de désaccord avec T. Nitot : il est important de comprendre aujourd’hui que la surveillance comme modèle économique n’est un problème d’État qu’à la marge ! Quand le ministre B. Cazeneuve fait voter en catimini le fichage général de 60 millions de français le 30 octobre 2016, ce n’est pas un problème de surveillance qui est posé mais un problème constitutionnel (comment une démocratie peut-elle laisser de telles décisions se prendre de manière unilatérale ?). C’est tout le paradoxe des « dangers de la surveillance » : on ne peut plus appréhender le capitalisme de surveillance avec des concepts inhérents aux démocraties qui ont produit ce nouveau capitalisme, car il s’en échappe. Le capitalisme de surveillance conforme les individus sociaux, mais conforme aussi l’organisation socio-politico-économique et la production. Le changement est radical en ce début du XXIe siècle, l’analyse politique doit l’être aussi.

Là où je rejoins T. Nitot, c’est sur l’essentiel, après tout : pour appréhender cela à l’échelle gigantesque des GAFAM, on ne peut plus se contenter de pointer la surveillance d’État même si elle utilise de fait les acquis des GAFAM. C’est le modèle économique entier d’Internet qu’il faut revoir, d’autant plus que Monsieur Dupuis-Morizeau n’est qu’un simple utilisateur qui n’envisage ces questions que du point de vue individuel dans ses pratiques quotidiennes.

C’est justement cette surveillance de la quotidienneté qui est alors en question durant tout le reste de l’ouvrage, après avoir brillamment vulgarisé les mécanismes de la surveillance et expliqué sur quels plans se confrontent les modèles informatiques. Rien qu’après cette lecture, l’utilisateur moyen pourra situer aisément ses propres pratiques numériques. Si l’on peut reprocher à T. Nitot d’avoir légèrement raccourci les enjeux économiques et politiques de la surveillance, il n’en demeure pas moins que l’essentiel de son ouvrage atteint le but recherché : informer l’utilisateur sur les techniques de surveillance et les moyens pratiques de s’en prémunir tout en promouvant un monde numérique décentralisé. Le maître mot est la confiance. Comment renouer la confiance dans l’usage des réseaux alors que les firmes qui proposent les plus célèbres services ne respectent pas les utilisateurs et leurs intimités numériques ? Pour Tristan Nitot, l’essentiel d’un Internet respectueux des utilisateurs repose sur quelques principes évidents qu’il résume à la section 21 :

  • utiliser des logiciels libres ;
  • pratiquer l’auto-hébergement ;
  • chiffrer ses communications ;
  • trouver un modèle économique qui ne repose pas sur le marketing (et l’extraction / exploitation sauvages des données des utilisateurs).

Restent enfin les aspects pratiques de l’auto-défense numérique. Dans un tel ouvrage, qui prétend brosser un aperçu général de ces problématiques, la liste des solutions ne saurait être exhaustive. Néanmoins, T. Nitot nous démontre ici un excellent niveau d’expertise, acquis tant chez Mozilla que chez CozyCloud, en identifiant les éléments les plus significatifs de la protection numérique. Pour cela il faut évidemment faire quelques concessions : on ne change pas du jour au landemain des habitudes prises par des millions d’internautes. Ainsi, au risque de rendre cette partie de son ouvrage trop vite obsolète, T. Nitot va même jusqu’à expliquer comment paramétrer les services de Google (Twitter, Facebook) auxquels ont a souscrit pour pouvoir espérer ne pas y abandonner trop de données personnelles. « Entre deux maux, choisissons le moindre » : est-ce une bonne approche ? Ceci pourrait être discuté longuement, mais il faut avant tout confronter les pratiques.

Abandonner des services performants sous prétexte qu’ils ne respectent pas nos intimités numériques, cela revient à imposer un changement organisationnel et technologique motivé par un choix éthique ou moral. Si l’utilisateur individuel peut très bien effectuer le basculement sur cette seule base, il n’en va pas de même pour des organisations, ainsi par exemple des entreprises ou des associations qui utilisent des services gratuits mais qui ne tombent jamais ou presque jamais en panne, dont l’usage est ergonomique et bien pensé, etc. On regrette un peu que T. Nitot ne prend pas davantage de temps pour expliquer comment un service gratuit ou payant (le plus souvent à bas prix) et à la fois éthique permettrait de construire une économie de la confiance et par conséquent ouvrirait aux utilisateurs de nouvelles perspectives. La question est certes abordée çà et là, en mentionnant les alternatives proposées notamment par certains membres du collectif CHATONS, mais sans une réelle approche systémique (trop complexe pour être résumée en deux pages de toute façon).

Cette économie de la confiance représente aujourd’hui l’alternative crédible au capitalisme de surveillance, mais uniquement dans la mesure où les choix technologiques sont assumés et compris par les utilisateurs. Cette compréhension est bien ce à quoi s’attaque le livre Surveillance://, ce qui explique sans doute quelques choix facilitatifs au profit d’une approche épurée et concrète, facilement assimilable par un public désormais averti.

21.10.2016 à 02:00

Paul Magnette, l'Europe et le CETA

J’interviens peu sur ce blog à propos de politiques européennes, alors qu’on pourrait s’y attendre étant donné que j’y suis plongé régulièrement dans le cadre de mes fonctions professionnelles. Je suis néanmoins particulièrement touché par le discours récent de Paul Magnette, le 16 octobre 2016, devant le parlement Wallon.

Dans ce discours (vidéo en bas de ce billet) d’une durée approximative d’une vingtaine de minutes, Paul Magnette explique de manière claire et précise les raisons pour lesquelles la Wallonie refuse(ra), dans son état actuel, l’accord économique et commercial global (AECG), mieux connu sous son acronyme anglais Comprehensive Economic and Trade Agreement (CETA). Ce dernier, pour être adopté, doit être accepté par toutes les parties prenantes, c’est à dire les 10 provinces canadiennes et les 28 États-membres de l’UE. Or, pour que la Belgique fédérale puisse valider son accord, il faut auparavant que le gouvernement Wallon puisse donner le sien, au même titre que les autres régions Belges (région Flamande et région Bruxelloise).

Et voilà que la Wallonie refuse, ce qui implique l’impossibilité pour la Belgique de donner son accord. Pour en comprendre rapidement le contexte on peut lire l’article de Pierre Kohler et Servaas Storm paru dans le Moinde Diplomatique le 14 octobre 2016. Je ne m’étendrai pas davantage : il est clair que les grands accords commerciaux dont il est question depuis ces dernières années posent des problèmes de souveraineté des États, en particulier du côté européen, et que les modèles d’équilibres sociaux, sanitaires, environnementaux et normatifs de ce côté de l’Atlantique risquent de basculer dans une foire au moins-disant néo-libéral.

Ce n’est pourtant pas dans ce registre (uniquement) qu’il faut écouter le discours de Paul Magnette. Ce spécialiste de la construction européenne (titulaire d’un doctorat en science politique sur ce sujet) est à la fois un expert et un élu. C’est un européen convaincu mais surtout éclairé. Et en tant que tel, il confronte les grands principes de la construction européenne (en particulier tout l’intérêt du principe de subsidiarité) avec la contradiction politique des accords des autres pays européens (à tendance centralisatrice) vis-à-vis du CETA. Il cite d’ailleurs en passant les divergences entre les élus allemands et la Cour constitutionnelle allemande, ainsi que les hésitations de fond au sein du gouvernement des Pays-Bas. Et tout ceci sans oublier de souligner avec force et vigueur tout l’intérêt qu’il y a à écouter la société civile wallone (mutualités, syndicats, experts, universitaires…) qui s’est sérieusement penchée sur le CETA avec forcerapport, avis, et déclarations. Une approche dont devraient s’inspirer plus d’un élu en France.

En somme, le discours de Paul Magnette est un discours de démocratie. Et il est assez rare aujourd’hui d’entendre de tels discours dans le cadre d’un parlement en plein processus de décision (c’est-à-dire qu’il ne s’agit pas d’un discours électoral bourré de bonnes intentions). C’est sans doute aussi la raison pour laquelle, afin d’appuyer son discours, Paul Magnette cite deux auteurs, et pas des moindre : Albert Einstein et Emmanuel Kant (à partir de 11'55 dans la vidéo). Car en effet son discours a une double portée : générale, d’abord, puisque le processus d’adoption du CETA ne saurait logiquement pas convenir aux principes de souveraineté des États ; universelle, ensuite, puisque en vertu du principe de l'impératif catégorique kantien, qui, aux yeux de Paul Magnette, vaut aussi bien pour les individus que pour les États, on ne saurait espérer d’accord harmonieux avec les modalités discutables du CETA et, au-delà, de tous les accords censés définir aujourd’hui des processus de mondialisation économique.

03.08.2016 à 02:00

Surveillance://

Tous nos pas dans le cyberespace sont suivis, enregistrés, analysés, et nos profils se monnayent en permanence. Comment en est-on arrivé là ? Les évolutions techniques ont permis à plus de quatre milliards d’internautes de communiquer, de rechercher de l’information ou de se distraire. Dans le même temps, la concentration des acteurs et les intérêts commerciaux ont développé une industrie mondiale des traces. Les États se sont engouffrés dans cette logique et ont mis en œuvre partout dans le monde des outils de surveillance de masse. Le livre de Tristan Nitot porte un regard lucide et analytique sur la situation de surveillance ; il nous offre également des moyens de reprendre le contrôle de notre vie numérique. Comprendre et agir sont les deux faces de cet ouvrage, qui le rendent indispensable à celles et ceux qui veulent défendre les libertés dans un monde numérique.


Nitot, Tristan. Surveillance:// Les libertés au défi du numérique : comprendre et agir. C&F éditions, 2016.

Lien vers le site de l’éditeur : https://cfeditions.com/surveillance/


96 / 164
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
Blogs persos du Diplo
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
PLOUM
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓