12.10.2018 à 02:00
Archéologie du capitalisme de surveillance
Avec le temps, cela devait finalement arriver. Me voici embarqué dans l’écriture d’un ouvrage à paraître chez C&F Éditions au printemps prochain. Une archéologie du capitalisme de surveillance, rien que cela. Mais c’est garanti, je ne me prendrai pas pour un penseur post-moderne (ils avaient tort !).
De quoi cet ouvrage va-il parler? D’abord le titre est tout à fait provisoire, qu’on se le dise. C’était juste pour vous faire cliquer ici. Blague à part, voici un petit argumentaire qui, je l’espère pourra vous faire patienter les quelques mois qui nous séparent d’une publication…
Christophe Masutti, Archéologie du capitalisme de surveillance, Caen, C&F Éditions, 2019 (à paraître).
Argumentaire
L’expression « capitalisme de surveillance » est employée le plus souvent non comme un concept mais comme un dénominateur, c’est-à-dire de l’ordre de la perception des phénomènes, de ceux qui nous font tomber de nos chaises presque tous les jours lorsque nous apprenons à quels trafics sont mêlées nos données personnelles. Mais il n’a pas été défini pour cela : son ambition est surtout d’être un outil, une clé de lecture pour comprendre la configuration politique et sociale de l’économie de la surveillance. Il faut donc mettre à l’épreuve ce concept et voir dans quelle mesure il permet de comprendre si l’économie de la surveillance obéit ou non à une idéologie, au-delà des pratiques. Certes, il faut donner une définition du capitalisme de surveillance (idéologique, pratique, sociale, collective, culturelle, anthropologique ou politique), mais il faut surtout en comprendre l’avènement.
Je propose dans ce livre une approche historique qui commence par une lecture différente des révolutions informatiques depuis les années 1960. Comment vient la surveillance? comment devient-elle un levier économique ? Il faut contextualiser la critique du contrôle (en particulier par les philosophies post-modernes et les observateurs des années 1970) telle qu’elle s’est faite dans la continuité de la révolution informatique. On peut focaliser non pas sur l’évolution technologique mais sur le besoin d’information et de traitement de l’information, tout particulièrement à travers des exemples de projets publics et privés. L’informatisation est un mouvement de transformation des données en capital. Cet ouvrage sera parsemé d’études de cas et de beaucoup de citations troublantes, plus ou moins visionnaires, qui laissent penser que le capitalisme de surveillance, lui aussi, est germinal.
Qu’est-ce qui donne corps à la société de la surveillance ? c’est l’apparition de dispositifs institutionnels de vigilance et de régulation, poussés par un débat public, politique et juridique, sur fond de crainte de l’avènement de la société de 1984. C’est dans ce contexte qu’au sein de l’appareillage législatif germèrent les conditions des capacités de régulation des institutions. Néanmoins la valorisation des données, en tant que propriétés, capitaux et composantes stratégiques, fini par consacrer l’économie de la surveillance comme modèle unique. Le marketing, la modélisation des comportements, la valeur vie client : la surveillance devient une activité prédictive.
Le capitalisme de surveillance est-il une affaire culturelle ? On peut le concevoir comme une tendance en économie politique, ainsi que les premiers à avoir défini le capitalisme de surveillance proposent une lecture macro-politico-économique (John Bellamy Foster, Robert W. McChesney, 2014). On peut aussi se concentrer sur les pratiques des firmes comme Google et plus généralement sur les pratiques d’extraction et de concentration des big datas (Shoshana Zuboff, 2018). On peut aussi conclure à une forme de radicalité moderne des institutions dans l’acceptation sociale (collective ?) de ce capitalisme de surveillance (on se penchera notamment sur les travaux d'Anthony Giddens puis sur ceux de Bernard Stiegler). Que peut-on y opposer ? Quels choix ? À partir du constat extrêmement sombre que nous allons dresser dans cet ouvrage, peut-être que le temps est venu d’un mouvement réflexif et émancipateur.
03.08.2018 à 02:00
Algorithmes: la bombe à retardement
Qui choisit votre université ? Qui vous accorde un crédit, une assurance, et sélectionne vos professeurs ? Qui influence votre vote aux élections ? Ce sont des formules mathématiques. Ancienne analyste à Wall Street devenue une figure majeure de la lutte contre les dérives des algorithmes, Cathy O’Neil dévoile ces « armes de destruction mathématiques » qui se développent grâce à l’ultra-connexion et leur puissance de calcul exponentielle. Brillante mathématicienne, elle explique avec une simplicité percutante comment les algorithmes font le jeu du profit. Cet ouvrage fait le tour du monde depuis sa parution. Il explore des domaines aussi variés que l’emploi, l’éducation, la politique, nos habitudes de consommation. Nous ne pouvons plus ignorer les dérives croissantes d’une industrie des données qui favorise les inégalités et continue d’échapper à tout contrôle. Voulons-nous que ces formules mathématiques décident à notre place ? C’est un débat essentiel, au cœur de la démocratie.
O’Neil, Cathy. Algorithmes: la bombe à retardement, les Arènes, 2018.
Lien vers le site de l’éditeur : http://www.arenes.fr/livre/algorithmes-la-bombe-a-retardement/
31.07.2018 à 02:00
Cyberstructure
Les outils de communication ont d’emblée une dimension politique : ce sont les relations humaines, les idées, les échanges commerciaux ou les désirs qui s’y expriment. L’ouvrage de Stéphane Bortzmeyer montre les relations subtiles entre les décisions techniques concernant l’Internet et la réalisation — ou au contraire la mise en danger — des droits fondamentaux. Après une description précise du fonctionnement de l’Internet sous les aspects techniques, économiques et de la prise de décision, l’auteur évalue l’impact des choix informatiques sur l’espace politique du réseau. Un ouvrage pour appuyer une citoyenneté informée, adaptée aux techniques du XXIe siècle et en mesure de défendre les droits humains
Bortzmeyer, Stéphane. Cyberstructure: l’internet, un espace politique. C&F éditions, 2018.
Lien vers le site de l’éditeur : https://cyberstructure.fr/
24.06.2018 à 02:00
Capitalisme de surveillance ?
Dans une série d’article intitulée Les Léviathans, j’ai longuement présenté le concept de capitalisme de surveillance développé par Shoshana Zuboff. L’interprétation reste toujours prisonnière de l’objet, au moins en partie : en l’occurrence, il y a une chose que je n’ai pas précisé dans ces articles, c’est la provenance du concept.
Les premiers à avoir formulé et développé le capitalisme de surveillance sont John Bellamy Foster et Robert W. McChesney en juin 2014 dans un article paru dans la Monthly Review, dont le titre devrait toujours être donné in extenso : « Surveillance Capitalism Monopoly-Finance Capital, the Military-Industrial Complex, and the Digital Age ».
Les lecteurs de Shoshana Zuboff noteront que cette dernière ne fait pas mention, dans ses articles, à la paternité du concept par Foster et McChesney. Du moins, elle n’a pas publié (à ma connaissance) une approche critique et comparative de son approche par rapport à celle de Foster et McChesney. La conséquence est que, au fil des affaires relatives aux usages déloyaux des données personnelles durant ces 3 ou 4 dernières années, le concept de capitalisme de surveillance a été sur-employé, parfois même galvaudé et transformé en un mot-valise. Pour celles et ceux qui ont cependant fait un effort d’analyse (tel Aral Balkan) le concept renvoie systématiquement aux travaux de Shoshana Zuboff.
Oserait-on accuser Zuboff de l’avoir usurpé ? pas tout à fait. On peut parler plutôt d’un emprunt. Le capitalisme de surveillance tel que le défini Zuboff implique bien d’autres éléments de réflexion. Quant à citer les auteurs qui les premiers ont énoncé le capitalisme de surveillance, oui, elle aurait pu le faire. Mais qu’est-ce que cela aurait impliqué ? L'éditorial de la Monthly Review de ce mois de juin 2018 apporte quelques éléments de réponse en confrontant l’approche de Foster-McChesnay et de Zuboff :
Zuboff a défini le capitalisme de surveillance de manière plus restrictive comme un système dans lequel la surveillance de la population est utilisée pour acquérir des informations qui peuvent ensuite être monétisées et vendues. L’objet de ses recherches était donc d’étudier les interrelations entre les entreprises et le comportement individuel dans ce nouveau système d’espionnage marchandisé. Mais une telle vision a effectivement dissocié le capitalisme de surveillance de l’analyse de classe, ainsi que de la structure politico-économique globale du capitalisme – comme si la surveillance pouvait être abstraite du capital monopolistique et financier dans son ensemble. De plus, l’approche de Zuboff a largement éludé la question de la relation symbiotique entre les sociétés militaires et privées – principalement dans les domaines du marketing, de la finance, de la haute technologie et de la défense – qui était au centre de l’analyse de Foster et McChesney.
Pour ce qui me concerne, les lecteurs des Léviathans (et j’espère un peu plus tard d’un ouvrage actuellement en gestation) pourront constater que j’extrapole assez largement la pensée de Zuboff, sans toutefois rejoindre l’analyse américano-centrée de Foster-McChesnay. Le point de basculement est somme toute assez pragmatique.
Le besoin de surveillance est un besoin viscéral de l’économie des biens et services (j’ai montré qu’il relève d’une histoire bien plus ancienne que le web 2.0 et remonte aux années 1950). La concentration des entreprises répond à un besoin d’optimisation des systèmes d’informations autant qu’au besoin de maîtriser le marché en le rendant malléable selon des stratégies bien définies, à commencer par les pratiques de marketing. Comment est-il devenu malléable ? grâce aux big datas et à l’usage prédictif du traitement des données. La concentration des capitaux est donc à la fois une conséquence de ce nouveau mode de fonctionnement capitaliste (qui enclenche parallèlement une autre approche du (néo-) libéralisme), et une stratégie calculée de recherche de maximisation des profits tirés des données conçues elles-mêmes comme un capital.
À mon humble avis, nonobstant l’approche concernant le complexe militaro-industriel de Foster-McChesney qui nous fait remonter à la Guerre du Vietnam tout en étant parfaitement explicatif des stratégies de surveillance des institutions gouvernementales (auxquelles finirent par se prêter les gouvernements d’autres pays du monde, comme en France ces dernières années), l’approche de Zuboff détache effectivement la question du capitalisme de surveillance de ses racines politiques pour se concentrer surtout sur les organisations et les comportements individuels soumis à une idéologie presque exclusivement économique. Ma part modeste à cette réflexion n’est pas d’entamer une histoire totale comme le feraient Foster et McChesney, mais d’aller directement au cœur du problème : la capitalisation de l’information comme nouvelle forme du capitalisme. C’est peut-être une approche (pseudo-) marxiste qu’il manque selon moi à Foster-McChesney pour mieux comprendre cette mondialisation du capitalisme de surveillance.
21.05.2018 à 02:00
Capitalisme de plateforme
Google et Facebook, Apple et Microsoft, Siemens et GE, Uber et Airbnb : les entreprises qui adoptent et perfectionnent le modèle d’affaires dominant aujourd’hui, celui des plateformes pair-à-pair du capitalisme numérique, s’enrichissent principalement par la collecte de données et le statut d’intermédiaire qu’il leur confère. Si elles prospèrent, ces compagnies peuvent créer leur propre marché, voire finir par contrôler une économie entière, un potentiel monopolistique inusité qui, bien qu’il s’inscrive dans la logique du capitalisme dit « classique », présente un réel danger aux yeux de quiconque s’applique à imaginer un futur postcapitaliste. Dans ce texte bref et d’une rare clarté, Nick Srnicek retrace la genèse de ce phénomène, analyse celui-ci de manière limpide et aborde la question de son impact sur l’avenir. Un livre essentiel pour comprendre comment les GAFA et autres géants du numérique transforment l’économie mondiale, et pour envisager des pistes d’action susceptibles d’en contrer les effets délétères.
Srnicek, Nick. Capitalisme de plateforme. L’hégémonie de l’économie numérique, Lux Éditeur, 2018.
Lien vers le site de l’éditeur : https://www.luxediteur.com/catalogue/capitalisme-de-plateforme/
01.05.2018 à 02:00
LibreOffice Writer, c'est stylé!
En ce début de printemps 2018, voici une traduction et adaptation d’un manuel sur LibreOffice Writer et (surtout) les styles ! LibreOffice Writer, c’est stylé! est une publication Framabook. Il s’agit d’un projet de longue date, que j’ai le plaisir de voir aboutir, enfin !
Halte aux manuels bourrés de procédures qui transforment les logiciels en cliquodromes. Pour changer, laissez-vous guider vers la compréhension des règles de mise en page et de la typographie, à travers l’usage des styles dans LibreOffice Writer. L’objectif est de vous aider à vous concentrer sur le contenu de vos documents, gagner en rapidité et en précision, tout en vous formant à l’automatisation de la mise en forme.
Cet ouvrage s’adresse aux utilisateurs débutants mais ayant déjà fréquenté un logiciel de traitement de texte. Quels choix de polices et d’interlignage devez-vous faire ? Comment créer des styles et les enchaîner correctement ? À quoi servent les styles conditionnels ? Paragraphes, listes, tableaux, titres, et hiérarchie des styles, toutes ces notions n’auront plus de secret pour vous. Voici un aperçu unique de LibreOffice Writer, de ses fonctionnalités importantes et de ses capacités.
Vous pouvez acheter, télécharger, consulter librement cet ouvrage sur Framabook.org.
20.04.2018 à 02:00
Justice digitale
Remplacement des avocats par des robots, disparition des notaires, résolution des conflits en ligne, justice prédictive, état civil tenu par la blockchain, généralisation des contrats en bitcoins échappant à tout contrôle (et à toute taxation) : le numérique n’en finit pas de bouleverser la justice en inquiétant les uns et en enthousiasmant les autres. Plutôt que de proposer un bilan de ces innovations, nécessairement prématuré, ce livre tente de situer l’épicentre anthropologique d’une déflagration provoquée par l’apparition d’une nouvelle écriture qu’il faut bien désigner comme une révolution graphique. La justice digitale alimente un nouveau mythe, celui d’organiser la coexistence des hommes sans tiers et sans loi par un seul jeu d’écritures, au risque d’oublier que l’homme est un animal politique.
Garapon, Antoine, et Jean Lassègue. Justice digitale. Révolution graphique et rupture anthropologique. PUF, 2018.
Lien vers le site de l’éditeur : https://www.puf.com/content/Justice_digitale
31.03.2018 à 02:00
Utopie du logiciel libre
Né dans les années 1980 de la révolte de hackers contre la privatisation du code informatique, le mouvement du logiciel libre a peu à peu diffusé ses valeurs et ses pratiques à d’autres domaines, dessinant une véritable « utopie concrète ». Celle-ci a fait sienne plusieurs exigences : bricoler nos technologies au lieu d’en être les consommateurs sidérés, défendre la circulation de l’information contre l’extension des droits de propriété intellectuelle, lier travail et accomplissement personnel en minimisant les hiérarchies. De GNU/Linux à Wikipédia, de la licence GPL aux Creative Commons, des ordinateurs aux imprimantes 3D, ces aspirations se sont concrétisées dans des objets techniques, des outils juridiques et des formes de collaboration qui nourrissent aujourd’hui une nouvelle sphère des communs. Dans cette histoire du Libre, les hackers inspirent la pensée critique (d’André Gorz à la revue Multitudes) et les entrepreneurs open source côtoient les défenseurs des biens communs. De ce bouillonnement de pratiques, de luttes et de théories, l’esprit du Libre émerge comme un déjà là propre à encourager l’inventivité collective. Mais il est aussi un prisme pour comprendre comment, en quelques décennies, on est passé du capitalisme de Microsoft – la commercialisation de petites boîtes des biens informationnels protégés par des droits de propriété intellectuelle – au capitalisme numérique des Gafa (Google, Amazon, Facebook, Apple), fondé sur l’exploitation de nos données et la toute puissance des algorithmes.
Broca, Sébastien. Utopie du logiciel libre. Éditions le Passager clandestin, 2018.
Lien vers le site de l’éditeur : http://lepassagerclandestin.fr/catalogue/poche/utopie-du-logiciel-libre.html
31.03.2018 à 02:00
Sur quoi reposent nos infrastructures numériques ?
Aujourd’hui, la quasi-totalité des logiciels couramment utilisés sont tributaires de code dit « open source », créé et maintenu par des communautés composées de développeurs et d’autres talents. Ce code peut être repris, modifié et utilisé par n’importe qui, entreprise ou particulier, pour créer ses propres logiciels. Partagé, ce code constitue ainsi l’infrastructure numérique de la société d’aujourd’hui… dont les fondations menacent cependant de céder sous la demande !
En effet, dans un monde régi par la technologie, qu’il s’agisse des entreprises du Fortune 500, du Gouvernement, des grandes entreprises de logiciel ou des startups, nous sommes en train d’accroître la charge de ceux qui produisent et entretiennent cette infrastructure partagée. Or, comme ces communautés sont assez discrètes, les utilisateurs ont mis longtemps à en prendre conscience.
Tout comme l’infrastructure matérielle, l’infrastructure numérique nécessite pourtant une maintenance et un entretien réguliers. Face à une demande sans précédent, si nous ne soutenons pas cette infrastructure, les conséquences seront nombreuses.
L’entretien de notre infrastructure numérique est une idée nouvelle pour beaucoup, et les problèmes que cela pose sont mal cernés. Dans cet ouvrage, Nadia Eghbal met au jour les défis uniques auxquels sont confrontées les infrastructures numériques et comment l’on peut œuvrer pour les relever.
Eghbal, Nadia. Sur quoi reposent nos infrastructures numériques ?, Lyon, Framasoft & Open Editions, 2017.
Lien vers le site de l’éditeur : https://framabook.org/sur-quoi-reposent-nos-infrastructures-numeriques/
31.03.2018 à 02:00
Le travail invisible des données
Ouvertes, massives, brutes… les données sont aujourd’hui au coeur de nombreux débats. Les optimistes y voient une ressource naturelle dont la récolte et la circulation sont en passe de révolutionner l’innovation et la démocratie, tandis que les pessimistes les dépeignent comme le carburant de mécanismes qui ne profiteront qu’aux puissants et renforceront les inégalités. Face aux enthousiasmes et aux affolements, face au vocabulaire de la transparence, de la fluidité et de l’automatisation qu’ils mobilisent, ce livre fait un pas de côté et défend la nécessité d’étudier les modalités concrètes de la production et de la circulation des données. Les données ne tombent en effet jamais du ciel. Elles n’affleurent pas non plus sous le sol des organisations. En amont de leurs traitements si prometteurs ou inquiétants, elles font l’objet d’un travail dont la nature, l’organisation et les processus mêmes qui mènent à son invisibilité restent à explorer. En articulant les apports de la sociologie des sciences et des techniques, de l’histoire, de l’anthropologie de l’écriture, de la sociologie du travail et des accounting studies, l’ouvrage compose un outillage conceptuel et méthodologique original pour interroger au plus près ce travail des données, qui est devenu central dans les entreprises et les administrations à partir de la fin du XIXe siècle.
Denis, Jérôme, et Delphine Gardey. Le travail invisible des données. Éléments pour une sociologie des infrastructures scripturales. Presses des Mines - Transvalor, 2018.
Lien vers le site de l’éditeur : https://www.pressesdesmines.com/produit/le-travail-invisible-des-donnees/
24.03.2018 à 01:00
Vie privée, informatique et marketing dans le monde d'avant Google
En 1969, Paul Baran affirmait: « Quelle belle opportunité pour l’ingénieur informaticien d’exercer une nouvelle forme de responsabilité sociale ». En effet, il y a presque 70 ans, les interrogations sociales au sujet du traitement informatique des données personnelles étaient déjà sur le devant de la scène.
Voici le résumé d’un assez long texte, écrit début mars 2018, que vous pouvez lire en version HTML ou récupérer en PDF sur HAL-SHS.
Il est notable que les monopoles de l’économie numérique d’aujourd’hui exploitent à grande échelle nos données personnelles et explorent nos vies privées. Cet article propose une mise au point historique sur la manière dont se sont constitués ces modèles : dès les années 1960, par la convergence entre l’industrie informatique, les méthodes de marketing (en particulier le marketing direct) et les applications en bases de données. Les pratiques de captation et d’exploitation des données personnelles ont en réalité toujours été sources de débats, de limitation et de mises en garde. Malgré cela, le contrôle social exercé par la segmentation sociale, elle-même imposée par le marketing, semble être une condition de l’avènement d’une forme d’économie de la consommation que de nombreux auteurs ont dénoncé. Peut-on penser autrement ce capitalisme de surveillance ?
05.02.2018 à 01:00
Club Vosgien et VTT : l'appropriation des communs
Chacun ses combats. Pour moi, c’est le logiciel libre et la culture libre, pour d’autres c’est la lutte contre les inégalités, la défense de la nature, la sauvegarde du patrimoine… Et pourtant nous agissons tous avec des méthodes communes : le partage et la coopération. Hélas ce n’est pas toujours le cas. Certains œuvrent pour une cause juste mais veulent s’approprier le résultat, au prétexte qu’ils seraient les dépositaires (même s’ils ne sont pas exclusifs) des moyens et, donc, de la fin. C’est le cas du Club Vosgien dont je voudrais ici toucher quelques mots à propos de sa capacité à partager et à collaborer.
La montagne est au Club
Le Club Vosgien, c’est d’abord une association alsacienne séculaire. Fondée en 1872, le Vogesenclub doit d’abord être salué avec le plus grand respect pour le travail de promotion des activités de pleine nature et le balisage des sentiers sans lequel nombre de promeneurs ne pourraient bénéficier des superbes parcours sur l’ensemble du massif, et au-delà.
Ceci étant dit, j’affirme que le Club Vosgien à une tendance particulièrement détestable à s’approprier le bien commun que représente le paysage montagneux et forestier.
S’approprier ? non, bien entendu, il ne s’agit pas de mettre des barrières et d’interdire quiconque de les franchir s’il n’est pas encarté au Club… Mais justement, le Club Vosgien, comprenez-vous, ce n’est pas l’Association des amoureux des sentiers des Vosges, ce n’est pas l’Association des randonneurs vosgiens, non. C’est un Club, à l’image du Club Alpin d’où il tire son nom d’ailleurs. Et un club, c’est plus qu’une association. Ce n’est pas uniquement le rassemblement de personnes ayant des intérêts communs. Un club est une société, c’est-à-dire un regroupement de personnes sociologiquement semblables : des activités communes, des pratiques sociales communes, etc. Dès lors, il n’y a qu’un pas facilement franchi entre la communauté de pratiques et le sentiment d’appartenance du territoire que l’on investit.
Voici un exemple. Au début du XXe siècle, le Club Vosgien s’est vu confier, par le Service des Eaux et Forêts le monopole du balisage des sentiers. L’explication est logique : fin XIXe siècle se développe dans les Vosges l’activité touristique. En 1875, par exemple à Gérardmer naît le premier office de tourisme, nommé Comité des promenades qui aménage des sentiers de randonnées dans la Vallées des Lacs et valorise son territoire. Sur le même modèle, les sociétés touristiques investissent le massif : il fallait harmoniser tout cela et c’est le Club Vosgien qui se vit confier ce rôle. Depuis ce jour, le Club Vosgien mène de front le balisage et l’entretien des sentiers.
Ainsi, fièrement annoncé sur la page d’accueil du site internet du Club Vosgien :
Les signes de balisage du Club Vosgien sont déposés à l’INPI et soumis à autorisation pour leur utilisation sur tous supports de communication papier ou web.
En clair, les signes de balisage du Club Vosgien sont déposés en tant que logo de marque (ce n’est pas un brevet au sens industriel du terme), et il est donc impossible d’en avoir l’usage sans une autorisation expresse du Club Vosgien. C’est le premier paradoxe : un balisage harmonisé est un gage de qualité des parcours du Massif, et si je souhaite cartographier un parcours, par exemple pour le VTT ou le trail, et partager ma carte, je n’ai le droit de le faire qu’avec l’autorisation du Club Vosgien. Un comble, quand on sait à quel point ce besoin est présent.
L’implication ? le Club Vosgien empêche ainsi le partage des parcours, ce qui aurait pourtant comme effet de valoriser encore davantage cet important travail de balisage du Club Vosgien. Si j’appartiens à une association sportive et que je souhaite créer un parcours en utilisant le balisage du Club Vosgien et partager ce parcours en imprimant plusieurs cartes ou sous format numérique, je n’ai pas le droit de le faire.
L’interprétation ? Randonner avec le Club Vosgien, c’est utiliser son balisage et les cartes qui vont avec : la bonne vieille carte IGN TOP 25 en papier ou son équivalent extrêmement onéreux sur GPS. Il ne s’agirait pas que n’importe qui vienne improviser un parcours VTT ou trail pour déranger les « vrais » randonneurs à crampons et sac à dos, n’est-ce pas ? Parce que si tout le monde pouvait si facilement se repérer dans la forêt, et pouvait partager en ligne des cartes en utilisant, au hasard les couches Outdoors d'Open Street Map et les indicateurs du Club Vosgien… hé bien qu’est-ce que cela changerait, au fond ? Rien. Si ce n’est que l’usage en serait d’autant plus valorisé. Mais voilà : le Club Vosgien ne veut pas. Parce que ce sont ses sentiers, c’est son balisage, le fruit de son travail, qui lui incombe à lui uniquement.
C’est l’ambiance. Et cela va même jusqu’à servir d’arguments contre l’usage des VTT, comme on va le voir plus loin.
Le cas du VTT
Les cyclistes, c’est le combat du moment pour le Club Vosgien… enfin pour être plus exact, quelques sections du Club Vosgien, minoritaires, mais dont le vacarme implique forcément l’image du Club Vosgien en général. En effet, en plus du balisage, l’entretien de ses parcours est capital pour que le balisage soit lui-même fiable. Et c’est là que le Club Vosgien a tendance à étendre sa préséance, à ceci près que cette fois on touche au territoire.
Dans les forêts vosgiennes, on trouve de tout :
- des quads avec des gros lards dessus,
- des motocyclistes, sportifs, mais à qui il faudrait expliquer deux trois choses,
- des files de 4x4 avec des chasseurs souvent seuls dedans (il faudrait leur expliquer ce que c’est que le co-voiturage),
- des 4x4 isolés, dont les trajectoires restent mystérieuses,
- des travailleurs forestiers parfois (parfois !) peu respectueux de la forêt (mais comme il manque de personnels aux Eaux et Forêts, il est difficile de faire respecter l’ordre et la loi),
- et des cyclistes.
La ligne de front actuelle qui défraye la chronique depuis au moins le printemps 2017, se situe dans le secteur de Masevaux (Haut-Rhin), mais ce n’est pas exclusif. Devinez quelle catégorie dans la liste ci-dessus fait l’objet de l’ire des membres du Club Vogien ? je vous le donne en mille : les vététistes.
Pour certains membres du Club Vosgien, visiblement, les vététistes représentent l’ennemi à abattre, voire même la principale calamité du paysage Vosgien. On pourrait croire que des combats autrement plus glorieux pourraient voir le jour, comme par exemple la biodiversité végétale, la gestion de la faune, la pollution. Non. Parce que vous comprenez, ça c’est des trucs d’écolos. Ces combats sont déjà investis et puis les écolos c’est à gauche…
Ce qui chiffonne ces gens, c’est que les sentiers avec des VTT dessus, c’est plus des sentiers de randonnées. Parce qu’un sentier, c’est forcément « de randonnée à pieds », hein ? pas fait pour rouler, jouer au ballon, ou même courir (quel traileur ne s’est pas ramassé un jour une remarque désobligeante par un randonneur peureux sur un chemin un peu étroit ?).
Interdire le VTT sur les sentiers du massif ? c’est un projet que certains membres du club Vosgien semblent caresser avec envie. Des municipalités, sans doute sous influence, avaient déjà tenté le coup, comme à Ottrott en 2015 avant une contestation en bonne et dûe forme par la Mountain Bike Foundation qui rappelle d’ailleurs quelques fondamentaux juridiques à propos du code forestier (un autre guide juridique est trouvable sur le site alsace-velo.fr).
Bref, voilà que le Club Vosgien de Masevaux a relancé une polémique en mai 2017, bénéficiant d’une tribune dans les Dernières Nouvelles d’Alsace : « La montagne n’est pas un stade ». L’accroche ? elle se résume en trois points :
- La dégradation des sentiers serait l’apanage exclusif des VTT… et de se lancer dans une problématique digne de l’oeuf ou de la poule à savoir si ce sont les freinages des vététistes qui aggravent l’érosion naturelle ou si c’est l’érosion naturelle qui cause l’instabilité du chemin et donc nécessite des freinages. Car dans le premier cas, il faudrait peut-être cesser de croire que les vététistes s’amusent à détériorer les chemins pour le plaisir et dans l’autre cas, les problèmes d’érosion ont bien souvent leur remède dans la gestion du couvert végétal. Est-ce pour autant que tous les sentiers devraient être interdits aux VTT ? Comment s’effectue donc cette généralisation entre quelques chemins érodés et tous les sentiers ? Elle ne peut s’expliquer autrement que par le souhait de ne plus voir de VTT sur les chemins parce qu’ils « dérangent » le Club Vosgien, parce qu’il s’agit d’un public différent.
- « le code forestier article n° 163-6, interdit la pratique du VTT sur des itinéraires de moins de deux mètres », c’est faux, comme le montre le code forestier lui-même (cf. les liens cités plus haut).
- On notera de même que le chantage est à l’appui : « Soit les communes nous suivent par des arrêtés de réglementation de circulation qui interdit la pratique du VTT sur les sentiers, soit on arrête de faire l’entretien basique (piochage, élagage, ratissage) et en cinq ans les sentiers seront morts ». Une citation bien paradoxale de la part du Club Vosgien, parce que la mort des sentiers signerait aussi la mort du Club…
Enfin, comme le démontrent de nombreuses photographies prises par les vététistes et les randonneurs, on ne compte plus sur le massif vosgien le nombre de sentiers littéralement saccagés par les travaux forestiers. À juste titre ou non, pour les besoins de l’exploitation forestière, le passage d’engins favorise inévitablement une forme d’érosion bien plus grave que le creusement d’une rigole de 20 mètres ici où là : c’est carrément de la gestion forestière raisonnée qu’il s’agit, et cela dépasse de loin les petites polémiques.
Et pourtant, le Club Vosgien a déjà dénoncé les travaux forestiers peu scrupuleux, notamment dans les pages des Dernières Nouvelles d’Alsace en mars 2017. L’enjeu est de taille et le combat mérite en effet d’être mené car il concerne de multiples acteurs… hélas, il est bien plus facile d’incriminer les VTT. Si bien qu’une seconde fois en ce début d’année 2018 le journal Les Dernières Nouvelles d’Alsace titrait « Les sentiers de la discorde ». L’article est à l’avenant, et, citant les interlocuteurs du Club Vosgien :
Nous ne sommes pas des conservateurs à tendance réactionnaire, l’avenir passe par une bonne cohabitation avec les pratiquants tout en intégrant le respect de la réglementation. Le VTT étant un véhicule sur le plan juridique, le vttiste doit pratiquer en dehors de nos sentiers étroits, inférieurs à un mètre.
Comprendre : « je ne suis pas réac… mais », ou bien ce qu’on appelle en réthorique une prétérition, qui permet de passer sous silence plusieurs éléments manquant à l’argumentation : ici, par exemple, la rigueur de l’argumentation juridique. Ce qui ne démonte pas la Mountain Bike Foundation, répondant du tac au tac :
« Le code de la route ne s’applique pas à 900 m d’altitude », affirme Jonathan Choulet, référent MBF Florival, par ailleurs fonctionnaire de police. « Le droit d’itinérance sur les sentiers relève du droit constitutionnel d’aller et venir. Quatre codes régissent la circulation de tous en milieu naturel, mais aucun, excepté le code de la route, ne définit le VTT comme un véhicule. (…) »
Solution 1 : le dialogue
Dialoguer avec le Club Vosgien n’est pas toujours une sinécure. Pourtant tout semblait se présenter sous les meilleurs auspices en été 2017, lors d’une rencontre entre la MBF et le président de la Fédération du Club Vosgien, qui n’avait jamais auparavant répondu aux lettres de la MBF et semblait découvrir ses activités.
Peu de temps après, suite à l’article du Club Vosgien section Masevaux, une seconde rencontre eu lieu, dans une intention de dialogue et de coopération. D’après le compte rendu figurant sur le site de la MBF, il y a vraisemblablement une claire différence de conception du terme « dialogue » entre les antennes locales (plus ou moins indépendantes, mais est-ce vraiment souhaitable ?) et la fédération du Club Vosgien. Voici un extrait significatif de cette rencontre entre les référents MBF du secteur Thur-Doller et la présidence du Club Vosgien de Masevaux :
Mais le responsable du C.V ne l’entend pas ainsi et quitte la salle en nous rappelant qu’au titre de la propriété intellectuelle, nous ne devrions même pas regarder « leur » balisage. Deux autres membres du C.V de Masevaux quittent également la salle sans daigner nous saluer.
Pourtant les bonnes volontés ne manquent pas, de part et d’autre. La MBF agit déjà dans le domaine de l’entretien de sentiers, de manière systématique, en Alsace et dans d’autres régions de France, et organise même des défis internationaux sur ce thème. Pour preuve cette session de coopération entre les vététistes et le Club Vosgien de la même section de Masevaux, une collaboration qui pourtant n’a pas satisfait tout le monde, selon Jean Koehl, vice-président du CV Masevaux :
On a accueilli des groupes MBF pour deux demi-journées de travail et une journée pleine. Ils en ont profité pour faire leur com’en faisant venir France 3…
C’est vraiment à se demander ce que reprochent réellement les membres du Club Vosgien aux vététistes. Il semblerait que, quelles que soit les offres de coopération, les éternels insatisfaits sont toujours les mêmes. Pourtant le dialogue est bel et bien la clé d’une bonne entente entre randonneurs et vététistes : la coopération dans l’entretien des sentiers et les code de conduite des vététistes (comme par exemple la limitation des parcours sauvages d’enduro).
Le dialogue c’est l’apprentissage de la diversité. Diversité des usages et diversité sociale. Les vététistes sont particulièrement au clair sur ce point en distinguant les pratiques entre le cross country (qui n’a pratiquement aucun impact sur l’érosion des sentiers et représente plus de 80% des pratiques), l’enduro et la descente (DH). Peut-être que le Club Vosgien pourrait faire aussi un effort de son côté en se questionnant sur son rapport au paysage commun et les notions de partage que cela implique.
Solution 2 : attractivité
Cette attitude de la part du Club Vosgien pourrait notamment jouer en défaveur de l’attractivité du Massif Vosgien. Comme exprimé dans les Dernières Nouvelles d’Alsace, les revendications du Club Vosgien se résument à demander la création de Bike Park pour y cantonner les VTT et de ce fait leur interdire les sentiers… Une revendication qui s’établirait en défaveur évidente de l’écrasante majorité des pratiquants sur le segment du cross country. Autant dire que si les communautés de communes contactées à ce sujet par le Club Vosgien valident ces intentions, c’est toute l’attractivité du VTT sur le Massif qui en serait affectée : adieu les descentes techniques et les petits frissons qui pourtant sont souvent accessibles aux débutants. On ira expliquer aussi aux touristes que pour monter à plus de 900 mètres d’altitude ils devront emprunter les autoroutes à grumiers…
En la matière, on ne peut que saluer la lettre du maire de Hohrod (68142) qui rappelle que l’équipement de randonnée est une liberté de choix :
Randonner est une liberté individuelle fondée sur le principe de la liberté de circuler, un droit fondamental et universel. Que l’on circule à pieds ou à vélo est sans importance, chacun est libre de choisir l’équipement nécessaire à sa randonnée (…)
et que par conséquent :
La réponse éthique est de ne privilégier aucune pratique et de les placer à égalité dans leur accueil et leur traitement, les principes d’équité et de non-discrimination alimentent avantageusement l’argumentation en faveur des activités de plein air.
La valorisation du massif passe donc non seulement par le partage mais aussi par le dialogue entre les pratiquants. Ce besoin de coopération n’est pas seulement vital pour le Massif Vosgien, il l’est aussi pour que le paysage et ses sentiers ne comptent pas parmi les trop nombreux secteurs où le partage et le respect n’ont plus cours.
Alors oui, le Club Vosgien doit partager la montagne, le balisage et les sentiers. Les vététistes de leur côté n’ont pas à rougir de l’aide qu’ils offrent (même en communiquant dessus), comme en témoigne l’opération de grande envergure Take Care Your Trails. Cette communauté est active et respectueuse de l’environnement, qui irait le lui reprocher ?
Heureusement, les interlocuteurs bienveillants de la MBF sont nombreux, tels les Parcs, les Offices de Tourisme, les élus… et bien souvent très attentifs aux contraintes et aux paradoxes dont la communauté des vététistes n’est pas exempte. Ainsi, par exemple, l’image du VTT pâti bien souvent des quelques incivilités rencontrées ici et là, ou des vidéos trash sur Youtube dont ne manquent pas de s’emparer les détracteurs du VTT pour généraliser et justifier leur hargne. Mais qu’importe. L’essentiel est d’atteindre la maturité nécessaire au dialogue et dépasser ces contradictions. En la matière, certaines sections du Club Vosgien devraient prendre exemple, justement, sur la MBF.
01.02.2018 à 01:00
The culture of surveillance
From 9/11 to the Snowden leaks, stories about surveillance increasingly dominate the headlines. But security and police agencies or internet and phone companies are not the only players. Surveillance is not only ‘done to us’ - it is something we do in everyday life. We submit to surveillance, believing that ‘we have nothing to hide.’ Or we try to protect our privacy or negotiate the terms under which others have access to our data. At the same time, we participate in surveillance in order to supervise children, monitor other road users, and safeguard our property. Social media allows us to keep tabs on others, including complete strangers, as well as on ourselves. This is the culture of surveillance. Watching has become a way of life.
This important new book explores the imaginaries and practices of everyday surveillance, at work, at play, in school, at home, in both ‘public’ and ‘private’ domains. Its main focus is not high-tech, organized surveillance operations but our varied, often emotional, mundane experiences of surveillance that range from the casual and careless to the focused and intentional.
Surveillance culture, David Lyon argues, is not detached from the surveillance state, society and economy. It is informed by them. He reveals how the culture of surveillance may help to domesticate and naturalize surveillance of unwelcome kinds, weighing which kinds of surveillance might be fostered for the common good and human flourishing.
Lyon, David. The culture of surveillance: Watching as a way of life. Polity Press, 2018.
Lien vers le site de l’éditeur : http://politybooks.com/bookdetail/?isbn=9780745671727
06.01.2018 à 01:00
Les nouveaux Léviathans IV. La surveillance qui vient
Je continue la série des Léviathans commencée en 2016 sur le Framablog. Pour ce nouveaux numéro, je propose de voir dans quelle mesure le modèle économique a développé son besoin vital de la captation des données relatives à la vie privée. De fait, nous vivons dans le même scénario dystopique depuis une cinquantaine d’années. Nous verrons comment les critiques de l’économie de la surveillance sont redondantes depuis tout ce temps et que, au-delà des craintes, le temps est à l’action d’urgence.
Petit extrait :
L’incertitude au sujet des dérives du capitalisme de surveillance n’existe pas. Personne ne peut affirmer aujourd’hui qu’avec l’avènement des big data dans les stratégies économiques, on pouvait ignorer que leur usage déloyal était non seulement possible mais aussi que c’est bien cette direction qui fut choisie d’emblée dans l’intérêt des monopoles et en vertu de la centralisation des informations et des capitaux. Depuis les années 1970, plusieurs concepts ont cherché à exprimer la même chose. Pour n’en citer que quelques-uns : computocracie (M. Warner et M. Stone, 1970), société du dossier (Arthur R. Miller, 1971), surveillance de masse (J. Rule, 1973), dataveillance (R. Clarke, 1988), capitalisme de surveillance (Zuboff, 2015)… tous cherchent à démontrer que la surveillance des comportements par l’usage des données personnelles implique en retour la recherche collective de points de rupture avec le modèle économique et de gouvernance qui s’impose de manière déloyale. Cette recherche peut s’exprimer par le besoin d’une régulation démocratiquement décidée et avec des outils juridiques. Elle peut s’exprimer aussi autrement, de manière violente ou pacifiste, militante et/ou contre-culturelle.
Tous les articles rassemblés en un fichier .epub
sur mon dépot Gitlab
La série d’articles sur le framablog :
28.09.2017 à 02:00
Petit tour sur les hautes chaumes
Profitons du soleil d’automne pour une sortie VTT sur les Hautes Chaumes de la région de Schirmeck / pays de Salm. Ce parcours n’est pas d’une grande difficulté technique mais nécessite à la fois de l’endurance et de la patience… (44 km / 1068 m D+)
En résumé
Au départ de Schirmeck, prenez la direction du joli petit village de Fréconrupt par le GR 532 La montée piquera un peu, pour commencer, avec quelques efforts à fournir en guise d’échauffement. Plusieurs grimpettes de ce style vont jalonner le parcours, alors… gardez des réserves !
On prendra ensuite le temps d’admirer les frondaisons sur le chemin qui mène à Salm puis l’ascension du relief du château de Salm et de la Chatte Pendue prendra un peu de temps. Repérez, au début, le « chemin médiéval » qui longe le flanc de la montagne. On coupera ensuite au niveau du replat entre les deux sommets pour rejoindre les Hautes Chaumes. À ce niveau, il faut emprunter le chemin des passeurs puis faire un petit détour jusquà la Haute Loge (un petit chemin très amusant en VTT), où on pourra admirer la superbe vue sur les monts Vosgiens (Climont, Champ du feu, Donon…).
Il est alors temps de poursuivre au long des chaumes pour rejoindre le Lac de la Meix. Attention, le parcours emprunte le chemin « piéton », qui est très technique à la descente et que je déconseille fortement en cas de temps humide ou forte fréquentation de marcheurs. Si vous n’êtes pas à l’aise avec ce genre de pilotage, prenez plutôt le chemin forestier en amont.
Depuis le Lac il faut alors remonter et rejoindre le Col de Prayé. La descente sera à la fois technique et rapide jusqu’à la route de l’Etang du Coucou. Le retour s’effectue enfin via Malplaquet-Fréconrupt.
L’ensemble est faisable en 4 heures (le temps d’admirer les vues), pour 44 km et 1068 m D+.
La carte et le tracé
18.06.2017 à 02:00
Champ du feu - les cuisses qui piquent
Une belle sortie d’entraînement à la montée en VTT vous attend au départ de Barr (67140) jusqu’au Champ du feu (1099 m). Voici le rapide descriptif et la carte correspondante.
Au départ de Barr, vous pouvez garer votre véhicule sur le parking de l’église protestante rue du Kirschberg. Le départ du parcours commence directmeent par la montée le long du cimetière en direction du chateau du Landsberg par le GR (rectangles rouges). On se dirige ensuite vers le carrefour de la Bloss (6 km) via le kiosque Jadelot pour totaliser 491 m D+. On amorce aussitôt une descente roulante jusque la Holzplatz (8,7 km).
Après avoir traversé la D854, on entamme alors une longue montée (rectangles rouges et blancs) très exigeante (400 m D+) avec des passages techniques jusqu’à Welschbruch (13,6 km). De là, on poursuit l’ascension jusqu’au Champ du Feu (22,19 km) en passant par la Rothlach (282 m D+).
Il est alors temps de prendre le chemin du retour. Celui-ci commence par une grande descente jusqu’au Hohwald (28 km) en passant par la cascade, puis un petit bout de route avant de longer cette dernière (en l’Andlau) jusqu’à Lilsbach. Pour rejoindre la vallée de Barr, il faut alors remonter jusqu’à Hungerplatz (130 m D+) pour redescendre via le château d’Andlau (croix rouges) jusqu’à l’entrée de Barr.
Le dénivelé total du parcours est de 1360 m D+ (les dénivelés cités ci-dessus ne sont pas exhaustifs) pour une distance de 42 km.
12.06.2017 à 02:00
Corporate Surveillance in Everyday Life
How thousands of companies monitor, analyze, and influence the lives of billions. Who are the main players in today’s digital tracking? What can they infer from our purchases, phone calls, web searches, and Facebook likes? How do online platforms, tech companies, and data brokers collect, trade, and make use of personal data?
In recent years, a wide range of companies has started to monitor, track and follow people in virtually every aspect of their lives. The behaviors, movements, social relationships, interests, weaknesses and most private moments of billions are now constantly recorded, evaluated and analyzed in real-time. The exploitation of personal information has become a multi-billion industry. Yet only the tip of the iceberg of today’s pervasive digital tracking is visible; much of it occurs in the background and remains opaque to most of us.
This report by Cracked Labs examines the actual practices and inner workings of this personal data industry. Based on years of research and a previous 2016 report, the investigation shines light on the hidden data flows between companies. It maps the structure and scope of today’s digital tracking and profiling ecosystems and explores relevant technologies, platforms and devices, as well as key recent developments.
Christl, Wolfie, et CrackedLab. Corporate Surveillance in Everyday Life. How Companies Collect, Combine, Analyze, Trade, and Use Personal Data on Billions. Cracked Labs, 2017.
Lien vers le site : http://crackedlabs.org/en/corporate-surveillance.
01.06.2017 à 02:00
Ghostwriter, un bon éditeur Markdown
Après plusieurs essais pour trouver l’éditeur Markdown qui convienne à mes besoins, je pense avoir trouvé avec Ghostwriter une réponse plutôt pertinente.
Ghostwriter mise avant tout sur la simplicité. C’est ce qu’on appelle un éditeur « distraction free ». Il pousse même le concept jusqu’à proposer trois mode d’édition :
- un mode normal,
- un mode « focus » qui permet de mettre en surbrillance la phrase (et non la ligne) que l’on est en train d’écrire (jusqu’à la ponctuation, en fait),
- un mode « Hemingway », qui désactive les touches
backspace
etdelete
pour se forcer à écrire comme avec une antique machine à écrire mécanique.
Mais cela, c’est du détail. Dans les fonctions plus opérationnelles, on note :
- une interface en panneaux, qui permet de passer le panneau principal où l’on écrit en mode plein écran, vraiment « distraction free »,
- la possibilité d’insérer des images en glisser-déposer directement dans l’interface,
- des fenêtres HUD (affichage tête haute, en anglais : Head-up display) qui permettent de sortir notamment l’affichage du sommaire du document et les statistiques.
- Parmi les statistiques, on note aussi quatre types d’estimation : la durée de lecture, le pourcentage de mots complexes, et de manière corrélée la facilité de lecture et le niveau (facile, université, très difficile…). Tiens en écrivant le terme « corrélé » ci-dessus, je suis passé à « difficile », j’espère que cela ira…
- enfin, un autre panneau permet d’afficher le rendu HTML du document.
Concernant le rendu, une fonction très appréciable est le choix des rendus en fonction des moteurs de transcription de la saveur Markdown utilisée. Ainsi le rendu intègre le choix d’un rendu à la sauce Pandoc, Sundow, Multimarkdown, etc. Une autre fonction est le choix de la CSS qui servira à la fois pour le rendu en temps réel mais aussi pour une éventuelle exportation en HTML.
À propos d’export, le choix est très large et on doit souligner la grande propreté des fichiers produits : html, html5, odt, xml, rtf, docx, pdf (LaTeX), pdf (ConTeXt), epub2, epub3, Groff, LaTeX… Pour ce qui me concerne, j’exporte très souvent en LaTeX, en choisissant le moteur Pandoc, et c’est vraiment efficace. Évidemment l’autre solution est d’enregistrer le .md et le convertir avec Pandoc en ligne de commande.
Le reste est à l’avenant : correction orthographique, interface en plusieurs langues, personnalisation assez poussée de l’apparence de l’interface (couleurs, transparence, image d’arrière plan). Ces sont autant de petits détails qui rendent l’utilisation de Ghostwriter fort appréciable.
Pour conclure, Ghostwriter répond à mes attentes, parce qu’il situe une bonne interface de rédaction à l’intersection entre l’éditeur de texte et les sorties souhaitées pour la finalisation (LaTeX et HTML, surtout pour ce qui me concerne).
Lien vers le site officiel de Ghostwriter : wereturtle.github.io/ghostwriter/
12.05.2017 à 02:00
Oui au chiffrement, non à la liberté
Dans cet article, nous allons voir comment la stratégie gouvernementale en matière de chiffrement suppose de limiter nos libertés numériques pour favoriser une économie de la norme à l’exclusion du logiciel libre. Telle est la feuille de route d’Emmanuel Macron.
Il y a quelque temps, j’ai écrit un article intitulé « Le contrat social fait 128 bits… ou plus ». J’y interrogeais les velléités gouvernementales à sacrifier un peu plus de nos libertés afin de pouvoir mieux encadrer les pratiques de chiffrement au nom de la lutte contre le terrorisme. Le ministre Manuel Valls, à l’époque, faisait mention de pratiques de « cryptologie légales », par opposition, donc, à des pratiques illégales. Ce à quoi toute personne moyennement intelligente pouvait lui faire remarquer que ce n’est pas le chiffrement qui devrait être réputé illégal, mais les informations, chiffrées ou non. L’idée de Valls était alors de prévenir de l’intention du gouvernement à encadrer une technologie qui lui échappe et qui permet aux citoyens de protéger leur vie privée. L’ennemi, pour qui conçoit l’État sous une telle forme archaïque, ce n’est pas la vie privée, c’est de ne pas pouvoir choisir ceux qui ont droit à une vie privée et ceux qui n’y ont pas droit. De là à la lutte de classe, on n’est pas loin, mais nous ne suivrons pas cette direction dans ce billet…
Le chiffrement, c’est bien plus que cela. C’est la capacité à user du secret des correspondances. Et la question qui se pose est de savoir si un gouvernement peut organiser une intrusion systématique dans toute correspondance, au nom de la sécurité des citoyens.
Le secret, c’est le pouvoir
C’est un choix cornélien. D’un côté le gouvernement qui, depuis Louis XI a fait sienne la doctrine qui nescit dissimulare, nescit regnare (qui ne sait dissimuler ne sait régner), principe érigé à l’état de science avec le Prince de Machiavel. Et de l’autre, puisque savoir c’est pouvoir, la possibilité pour un individu d’échanger en secret des informations avec d’autres. De tout temps ce fut un jeu entre l’autorité absolue de l’État et le pouvoir relatif des individus que de savoir comment doit s’exercer le secret de la correspondance.
Après qu’on eut littéralement massacré la Commune de Paris, les anarchistes les plus vengeurs furent visés par les fameuses Lois scélérates, dont l’une d’entre elles fit dire à Jean Jaurès qu’elle se défini par « l’effort du législateur pour aller chercher l’anarchie presque dans les secrets de la conscience humaine ». Après une chasse aux sorcières qui habitua peu à peu les Français à la pratique de la délation, le mouvement des anarchistes (pacifistes ou non) ont dû se résigner à entretenir des modes d’organisation exerçant le secret, presque aussitôt contrecarrés par l’État de guerre qui s’annonçait. Depuis la fin du XIXe siècle, l’histoire des Républiques successives (mais c’est aussi valable hors la France) n’a fait que brandir le chiffon rouge de la sécurité des citoyens pour bâtir des législations afin d’assurer au pouvoir le monopole du secret.
Et heureusement. Le secret d’État, c’est aussi un outil de sa permanence. Qu’on soit pour ou contre le principe de l’État, il n’en demeure pas moins que pour exercer la sécurité des individus, le Renseignement (avec un grand R) est un organe primordial. Le fait que nous puissions discuter du secret d’État et qu’il puisse être régulé par des instances auxquelles on prête plus ou moins de pouvoir, est un signe de démocratie.
Néanmoins, depuis la Loi Renseignement de 2015, force est de constater une certaine conception « leviathanesque » du secret d’État dans la Ve République. Il s’agit de la crainte qu’une solution de chiffrement puisse être étendue à tous les citoyens.
Quand c’est le chiffrement qui devient un risque
En réalité c’est déjà le cas, ce qui valu quelques ennuis à Philip Zimmermann, le créateur de PGP au début des années 1990. Aujourd’hui, tout le monde peut utiliser PGP, y compris avec des clés de plus de 128 bits. On peut dès lors s’étonner de la tribune signée, entre autre, par le procureur de Paris dans le New York Times en août 2015, intitulée « [When Phone Encryption Blocks Justice](https://www.nytimes.com/2015/08/12/opinion/apple-google-when-phone-encryption-blocks-justice.html?_r=1">When Phone Encryption Blocks Justice) ». Selon les auteurs, « Les nouvelles pratiques de chiffrement d’Apple et Google rendent plus difficile la protection de la population contre les crimes ». Or, en réalité, le fond de l’affaire n’est pas là. Comment en vouloir à des vendeurs de smartphone de faciliter le chiffrement des données personnelles alors que les solutions de chiffrement sont de toute façon disponibles ? Le travail de la justice ne serait donc facilité qu’à partir du moment où les criminels « oublieraient » simplement de chiffrer leurs données ? Un peu de sérieux…
La véritable intention de cette tribune, elle est exprimée en ces termes : « (…) les régulateurs et législateurs de nos pays doivent trouver un moyen approprié d’équilibrer le gain minime lié au chiffrement entier des systèmes et la nécessité pour les forces de l’ordre de résoudre les crimes et poursuivre les criminels ». Il faut en effet justifier par n’importe quel argument, même le moins crédible, une forme de dérégulation du Renseignement tout en accusant les pourvoyeurs de solutions de chiffrement d’augmenter les risques d’insécurité des citoyens. Le principal risque n’est plus le terrorisme ou le crime, qui devient une justification : le risque, c’est le chiffrement.
À partir de ces idées, les interventions d’élus et de hauts responsables se sont multipliées, sans crainte du ridicule faisant fi de tous les avis de la CNIL, comme de l’Observatoire des libertés numériques ou même du Conseil national du numérique. Las, ce débat ne date pas d’hier, comme Guillaume Poupard le rappelle en janvier 2015 : « Ce débat, nous l’avons eu il y a vingt ans. Nous avons conclu que chercher à interdire le chiffrement était à la fois passéiste et irréaliste. »
Si on ne peut interdire, il faut encadrer : les backdoors
Voyant qu’une opposition frontale à la pratique même du chiffrement ne mène à rien, en particulier parce que le chiffrement est un secteur économique à part entière, les discours se sont peu à peu infléchis vers une version édulcorée mais scélérate : imposer des backdoors obligatoires dans tout système de chiffrement autorisé. Ne pouvant interdire le chiffrement, il faut trouver le moyen de le contrôler. L’idée s’est insinuée petit à petit dans l’appareil d’État, jusqu’à commencer le travail d’une possible réforme.
C’est l’ANSSI (Agence nationale de la sécurité des systèmes d’information) qui réagit assez vertement, notamment dans une lettre diffusée par le journal Libération en août 20161, et signée de G. Poupard. Pour ce dernier, imposer des backdoors revient à affaiblir le niveau de sécurité général. On lit dans sa lettre :
« Il convient de noter que les technologies robustes de cryptographie, longtemps réservées à une communauté très restreinte, sont aujourd’hui largement diffusées et relativement aisées à mettre en œuvre. Le développement de logiciels non contrôlables, faciles à distribuer et offrant un niveau de sécurité très élevé est par conséquent à la portée de n’importe quelle organisation criminelle.
Imposer un affaiblissement généralisé des moyens cryptographiques serait attentatoire à la sécurité numérique et aux libertés de l’immense majorité des utilisateurs respectueux des règles tout en étant rapidement inefficace vis-à-vis de la minorité ciblée. »
Difficile d’exprimer combien G. Poupard a raison. Pourtant le débat resurgit en février 2017, cette fois sous l’angle de la coopération franco-allemande. C’est une lettre officielle publiée par Politico<2, signée des Ministères de l’Intérieur Français et Allemand, qui met en exergue la lutte contre le terrorisme et annonce que cette dernière…
…requiert de donner les moyens juridiques aux autorités européennes afin de tenir compte de la généralisation du chiffrement des communications par voie électronique lors d’enquêtes judiciaires et administratives. La Commission européenne doit veiller à ce que des travaux techniques et juridiques soient menés dès maintenant pour étudier la possibilité de définir de nouvelles obligations à la charge des prestataires de services de communication par voie électronique tout en garantissant la fiabilité de systèmes hautement sécurisés, et de proposer sur cette base une initiative législative en octobre 2017. »
En d’autres termes, c’est aux prestataires qu’il devrait revenir l’obligation de fournir aux utilisateurs des solutions de communication chiffrées tout en maintenant des ouvertures (forcément secrètes pour éviter qu’elles soient exploitées par des malveillants, donc des backdoors) capables de fournir en clair les informations aux autorités.
Il est très curieux de découvrir qu’en ce début d’année 2017, la Commission Européenne soit citée comme garante de cette coopération franco-allemande, alors même que son vice-président chargé du marché numérique unique Andrus Ansip déclarait un an plus tôt : « I am strongly against any backdoor to encrypted systems »3, opposant à cela les récentes avancées numériques pour lesquelles l’Estonie est connue comme particulièrement avant-gardiste.
La feuille de route du gouvernement Macron
Nous ne sommes pas au bout de nos surprises, puisqu’on apprend qu’en bon élève, notre Président E. Macron fraîchement élu, reprendra cette coopération franco-allemande. Interrogé à propos de la cybersécurité par le mathématicien Cédric Villani, il l’affirme en effet dans une vidéo publiée par Science et Avenir (source directe) :
C. Villani : « J’ai une question sur le domaine numérique, qui va être plus technique, c’est la question sur laquelle on est en train de plancher au Conseil Scientifique de la Commission Européenne, ça s’appelle la cybersécurité. C’est un sujet sur lequel on nous a demandé de plancher en tant que scientifiques, mais on s’est vite aperçu que c’est un sujet qui ne pouvait pas être traité juste sous l’angle scientifique parce que les questions politiques, économiques, étaient mêlées de façon, heu, indémêlable et que derrière il y avait des questions de souveraineté de l’Europe par rapport au reste du monde…
E. Macron : « le sujet de la cybersécurité est un des axes absolument essentiel et on est plutôt en retard aujourd’hui sur ce sujet quand on regarde… Le pays qui est le plus en pointe, c’est Israël qui a fait un travail absolument remarquable en construisant carrément une cité de la cybersécurité, qui a un rapport existentiel avec cet aspect… et les États-Unis… nous sommes en retard… il en dépend de notre capacité à nous protéger, de notre souveraineté numérique derrière, et notre capacité à protéger nos systèmes puisqu’on agrège tout dans ce domaine-là.
Je suis assez en ligne avec la stratégie qui avait été présentée en France par Le Drian, sur le plan militaire. Le sujet, c’est qu’il faut le désenclaver du plan militaire. C’est un sujet qui dépend du domaine militaire, mais qui doit également protéger tous les systèmes experts civils, parce que si on parle de cybersécurité et qu’on va au bout, les systèmes scientifiques, les systèmes de coopération universitaire, les systèmes de relation entre les ministères, doivent être couverts par ce sujet cybersécurité. Donc c’est beaucoup plus inclusif que la façon dont on l’aborde aujourd’hui qui est juste « les systèmes experts défenses » et qui est très sectoriel. La deuxième chose, c’est que je pense que c’est une stratégie qui est européenne, et qui est au moins franco-allemande. Pourquoi ? parce que, on le sait, il y a des sujets de standards, des sujets de normalisation qui sont assez techniques, et qui font que si on choisit une option technologique plutôt qu’une autre, en termes de chiffrement ou de spécifications, on se retrouve après avec des non-compatibilités, et on va se retrouver — on est les champions pour réussir cela — dans une bataille de chiffonniers entre la France et l’Allemagne. Si on veut avoir une vraie stratégie en la matière sur le plan européen, il faut d’abord une vraie stratégie franco-allemande, une vraie convergence normative, une vraie stratégie commune en franco-allemand, en termes, pour moi, de rapprochement des univers de recherche, de rapprochement des intérêts militaires, de rapprochement de nos experts en la matière. Pour moi c’est 1) un vrai sujet de priorité et 2) un vrai sujet d’organisation en interne et en externe. Quand je m’engage sur le 2% en Défense, j’y inclus le sujet cybersécurité qui est absolument critique. »
La position d’E. Macron entre donc dans la droite ligne de la satisfaction des députés en faveur d’une limitation du chiffrement dans les usages individuels, au profit a) d’une augmentation capacitaire du chiffrement pour les autorités de l’État et b) du renforcement des transactions stratégiques (bancaires, communicationnelles, coopérationnelles etc.). Cela ouvre à la fois des perspectives de marchés et tend à concilier, malgré les critiques et l’inefficacité, cette fameuse limitation par solution de backdoors interposée.
Pour que de telles solutions existent pour les individus, il va donc falloir se tourner vers des prestataires, seuls capables à la fois de créer des solutions innovantes et d’être autorisés à fournir au public des services de chiffrement « backdorisés ».
Pour cela, c’est vers la French Tech qu’il va falloir se tourner. Et cela tombe plutôt bien, puisque Mounir Mahjoubi, le directeur de la campagne numérique d’Emmanuel Macron et sans doute futur député, en faisait la promotion le 11 mai 2017 sur France Inter4, tout en plaidant pour que les « français créent une culture de la sécurité en ligne ».
Il faut donc bien comprendre que, bien que les individus aient tout intérêt à chiffrer leurs communications au moins depuis l’Affaire Snowden, l’objectif est de les encourager :
- pour asseoir notre autonomie numérique nationale et moins prêter le flanc aux risques sécuritaires,
- dans le cadre de solutions de chiffrement backdorisées,
- en poussant des start-up et autres entreprises de la French Tech à proposer qui des logiciels de chiffrement qui des messageries chiffrées de bout en bout, conformes aux normes mentionnées par E. Macron et dont la coopération franco-allemande dressera les premiers étalons.
Dans ce domaine, il va de soi que les solutions de chiffrement en cours aujourd’hui et basées sur des logiciels libres n’auront certainement plus aucun doit de cité. En effet, il est contradictoire de proposer un logiciel libre doté d’une backdoor : il serait aussitôt modifié pour supprimer cette dernière. Et, d’un autre côté, si des normes viennent à être établies, elles seront décidées à l’exclusion de toute tentative de normalisation basée sur des chiffrements libres existants comme PGP, GNUPG…
Si nous résumons
Il suffit de rassembler les idées :
- tout est en place aujourd’hui pour pousser une limitation de nos libertés numériques sous le recours fallacieux d’un encouragement au chiffrement mais doté de solutions obligatoires de portes dérobées,
- l’État assurerait ainsi son pouvoir de contrôle total en privant les individus de tout droit au secret absolu (ou quasi-absolu, parce qu’un bon chiffrement leur est aujourd’hui accessible),
- les solutions libres pourraient devenir interdites, ce qui annonce alors la fin de plus de vingt années de lutte pour que des solutions comme PGP puissent exister, quitte à imposer aux entreprises d’utiliser des nouvelles « normes » décidées de manière plus ou moins unilatérales par la France et l’Allemagne,
- cette stratégie, bien que profondément inutile au regard de la lutte contre le terrorisme et la sécurité des citoyens, sert les intérêts de certaines entreprises du numérique qui trouvent dans la politique de E. Macron une ouverture que le gouvernement précédent refusait de leur servir sur un plateau en tardant à développer davantage ce secteur.
Je me suis souvent exprimé à ce propos : pour moi, le chiffrement des communications des individus grâce au logiciel libre est une garantie de la liberté d’expression et du secret des correspondances. Aucun État ne devrait interdire ou dégrader de telles solutions technologiques à ses citoyens. Ce qui distingue un État civilisé et démocratique d’une dictature, c’est justement cette possibilité que les capacités de renseignement de l’État puissent non seulement être régulées de manière démocratique, mais aussi que le chiffrement, en tant qu’application des lois mathématiques, puisse être accessible à tous, sans discrimination et rendre possible l’exercice du secret par les citoyens. Problème : aujourd’hui, le chiffrement libre est remis en cause par la stratégie gouvernementale.
-
Voir aussi sur le site du Ministère de l’Intérieur. ↩︎
21.04.2017 à 02:00
The Red Web
After the Moscow protests in 2011-2012, Vladimir Putin became terrified of the internet as a dangerous means for political mobilization and uncensored public debate. Only four years later, the Kremlin used that same platform to disrupt the 2016 presidential election in the United States. How did this transformation happen?
The Red Web is a groundbreaking history of the Kremlin’s massive online-surveillance state that exposes just how easily the internet can become the means for repression, control, and geopolitical warfare. In this bold, updated edition, Andrei Soldatov and Irina Borogan offer a perspective from Moscow with new and previously unreported details of the 2016 hacking operation, telling the story of how Russia came to embrace the disruptive potential of the web and interfere with democracy around the world.
Soldatov, Andrei, et Irina Borogan. The Red Web. The Struggle Between Russia’s Digital Dictators and the New Online Revolutionaries. Public Affairs, 2017.
Lien vers le site de l’éditeur : https://www.publicaffairsbooks.com/titles/andrei-soldatov/the-red-web/9781610395748/
21.04.2017 à 02:00
La toile que nous voulons
Depuis son origine, et sous la pression d’un secteur économique désormais hégémonique, le web a évolué en un sens qui l’a profondément dénaturé, au point d’en faire un instrument d’hypercontrôle et d’imposition d’une gouvernance purement computationnelle de toutes choses. Privilégiant à outrance l’automatisation mise au service de modèles économiques devenus la plupart du temps ravageurs pour les structures sociales, cette évolution a affaibli toujours plus gravement les conditions d’une pratique réflexive, délibérative, outre les aspects révélés par Edward Snowden. Cet ouvrage présente les principaux aspects théoriques et pratiques d’une refondation indispensable du web, dans lequel et par lequel aujourd’hui nous vivons. L’automatisation du web ne peut être bénéfique que si elle permet d’organiser des plateformes contributives et des processus délibératifs, notamment à travers la conception d’un nouveau type de réseaux sociaux. Bernard Stiegler, Julian Assange, Paul Jorion, Dominique Cardon, Evgeny Morozov, François Bon,Thomas Bern, Bruno Teboul, Ariel Kyrou, Yuk Hui, Harry Halpin, Pierre Guéhénneux, David Berry, Christian Claude, Giuseppe Longo, balayent les aspects et les enjeux économiques, politiques, militaires et épistémologiques de cette rénovation nécessaire et avance des hypothèses pour l’élaboration d’un avenir meilleur.
Jorion, Paul, et Stiegler, Bernard et al. La toile que nous voulons. Le web néguentropique. Édité par Bernard Stiegler, FYP éditions, 2017.
Lien vers le site de l’éditeur : https://www.fypeditions.com/toile-voulons-bernard-stiegler-evgeny-morozov-julian-assange-dominique-cardon/
20.04.2017 à 02:00
L’appétit des géants
Il fallait un amoureux du web et des médias sociaux pour décrypter les enjeux culturels, relationnels et démocratiques de nos usages numériques. Olivier Ertzscheid met en lumière les effets d’échelle, l’émergence de géants aux appétits insatiables. En concentrant toutes nos activités numériques sur quelques plateformes, nous avons fait naître des acteurs mondiaux qui s’épanouissent sans contrôle. Nos échanges, nos relations, notre sociabilité vont nourrir des algorithmes pour classer, organiser et finalement décider pour nous de ce qu’il nous faut voir.
Quelle loyauté attendre des algorithmes qui se nourrissent de nos traces pour mieux alimenter l’influence publicitaire ou politique ? Comment construire des médias sociaux et un accès indépendant à l’information qui ne seraient pas soumis aux ambitions des grands acteurs économiques du web ? Pourquoi n’y a-t-il pas de bouton « sauver le monde » ?
Ertzscheid, Olivier. L’appétit des géants: pouvoir des algorithmes, ambitions des plateformes. C&F éditions, 2017.
Lien vers le site de l’éditeur : https://cfeditions.com/geants/
02.04.2017 à 02:00
Parution de Libertés numériques
Et voici le guide Libertés numériques. Guide des bonnes pratiques à l’usage des DuMo (coll. Framabook, version août 2017). Un inventaire des bonnes pratiques numériques à la portée de tous. Un ouvrage dans collection Framabook).
Nous utilisons nos terminaux, nos ordinateurs, nos téléphones portables comme nous l’avons appris, ou pas. Pourtant, pour bien des gens, ces machines restent des boîtes noires. C’est le cas des Dupuis-Morizeau, une famille imaginaire que nous citons souvent à Framasoft. Elle correspond, je crois, assez bien à une réalité : des personnes qui utilisent les réseaux et les outils numériques, souvent même avec une certaine efficacité, mais qui ne sont pas autonomes, dépendent des services des grands silos numériques du web, et sont démunis face à tout ce contexte anxiogène de la surveillance, des verrous numériques, des usages irrespectueux des données personnelles… C’est à eux que s’adresse cet ouvrage, dans l’intention à la fois de dresser un petit inventaire de pratiques numériques mais aussi d’expliquer les bonnes raisons de les mettre en œuvre, en particulier en utilisant des logiciels libres.
Pour une autre présentation de cet ouvrage, vous pouvez lire l’interview paru sur le Framablog où j’explique les tenants et aboutissants de ce projet.
Quelques liens :
- pour télécharger le guide Libertés numériques sur Framabook,
- acheter la version papier chez Lulu,
- lire le guide en ligne,
- participer à son amélioration sur son dépôt Git.
Grands utilisateurs d’outils et de services numériques, les Dupuis-Morizeau (DuMo) sont pourtant entourés de boîtes noires. Installer, configurer, sauvegarder, envoyer, souscrire, télécharger… autant d’actions que, comme les DuMo, nous ne maîtrisons pas toujours dans un environnement dont nous sommes au mieux les acteurs passifs, au pire les prisonniers.
Avec des exemples concrets, ce manuel accompagne l’utilisateur au quotidien. Il montre comment l’utilisation de logiciels libres est l’une des clés d’une informatique domestique maîtrisée. Quels logiciels choisir et pourquoi ? quelle confiance accorder aux services en réseau ? qu’est-ce que la confidentialité dans les communications ? Autant de sujets vulgarisés permettront au lecteur de faire bon usage de ses libertés numériques.
31.03.2017 à 02:00
Manifeste pour une véritable économie collaborative : Vers une société des communs
Partage de fichiers, distribution de musique, installation de logiciels, la technologie du peer-to-peer (P2P) permet différents types de coopération via un échange direct de données entre ordinateurs, sans passer par des serveurs centralisés. Mais ce genre d’utilisation a au fond une portée limitée, et si l’on adopte un point de vue plus large, le P2P peut être considéré comme un nouveau modèle de relations humaines. Dans cet ouvrage, Michel Bauwens et Vasilis Kostakis décrivent et expliquent l’émergence d’une dynamique du P2P fondée sur la protection et le développement des communs, et la replacent dans le cadre de l’évolution des différents modes de production. Cette nouvelle modalité de création et de distribution de la valeur, qui favorise les relations horizontales, crée les conditions pour une transition vers une nouvelle économie, respectueuse de la nature et des personnes, une véritable économie collaborative.
Bauwens, M., & Kostakis, V. (2017). Manifeste pour une véritable économie collaborative : Vers une société des communs (O. Petitjean, Trad.). Éditions Charles Léopold Mayer.
Lien vers le site de l’éditeur : http://www.eclm.fr/ouvrage-386.html
04.03.2017 à 01:00
Scott Spark 950 : prise en main
L’hiver ne doit pas être un obstacle pour rouler et tant pis si le terrain est gras. La sortie du jour avait pour thème : comment prendre en main un VTT tout juste sorti du carton ? En fait c’est très facile, pourvu que le vélo en question soit de bonne qualité.
L’engin en test
Oui, parce qu’à ce niveau-là, ce n’est ni un vélo ni un simple VTT mais un engin, bourré de technologies plus avancées les unes que les autres. Lorsque j’ai vu le monteur régler les suspensions pour mon gabarit, je me suis demandé si je n’aurais pas dû choisir maths-physique à la sortie du lycée. Heureusement, une fois réglées ces suspensions, normalement on ne devrait pas avoir à y bricoler sans arrêt.
Le test a porté assez simplement sur la base de ma pratique du cross-country : 40 km environ dans les Vosges pour 1000 m de dénivelé (ben oui, au-delà il y avait de la neige). Le VTT concerné : un Scott Spark 950.
Alors qu’est-ce qu’il y a dans le paquet ?
D’abord une transmission Shimano XT pour le dérailleur arrière et Deore pour l’avant. D’accord, c’est pas du full-XT mais franchement pour passer les deux plateaux avant, c’est largement suffisant (et Deore reste une référence).
Dans l’ensemble, la transmission est franchement au poil. Si comme moi vous sortez direct d’un VTT avec trois plateaux avant, l’apprentissage met environ… 5 minutes, le temps de trouver une montée pour essayer tout cela. Évidemment, sur ce VTT, je conseille de prendre grand soin de cette transmission : l’équipement convient parfaitement pour une pratique cross-country mais si on tire un peu long et selon le kilométrage m’est d’avis que la longévité est proportionnelle au soin avec lequel vous passez les vitesses.
Ensuite viennent les super gadgets de chez Scott.
Le système Twinlock, d’abord, qui permet en trois positions, de régler le débattements des suspensions avant et arrière : relâche totale pour la descente, mode traction (semi-blocage) pour les montées un peu techniques, et blocage total pour montée régulière ou la route (bêrk). Simple gadget ou vraiment utile ? la question n’est pas sérieuse : c’est l’une des clés de la polyvalence de ce VTT. Sans ce système, l’intérêt pour le cross-country serait bien moindre. Bien sûr, il faut adapter ses réglages en fonction du terrain sur lequel on évolue, mais comme la commande est située au guidon, c’est une simple formalité.
La commande de la tige télescopique au guidon. Là encore, l’intérêt est évident… la tige s’abaisse avec le poids du cycliste, histoire d’engager des descentes dans de bonnes conditions, puis remonte très vite une fois que l’on souhaite revenir à une position de pédalage. Petit bémol toutefois : comme on le voit sur la photo, la commande est située après la commande de transmission, et à moins d’avoir de grandes mains, il faut aller la chercher en lâchant la prise du guidon. C’est un problème de montage et non de conception ! Je vais rapidement corriger ce problème car il est important de pouvoir manipuler les différentes commandes au guidon sans lâcher la prise. C’est normalement étudié pour cela :) Cette commande doit en fait être située entre la poignée et le levier de frein (pour affirmer cela, j’ai demandé au service après vente de chez Scott qui a mis moins de deux heures pour me répondre par courriel, merci à eux.)
De manière générale, vous avez tout intérêt à penser à baisser la selle avant d’engager la descente, mais parfois les terrains s’enchaînent plus vite que prévu. Pour la reprise, le problème est moins difficile, sauf que généralement la main est déjà occupée à changer de vitesse. Bref, la commande de la tige au guidon, c’est génial, mais attention au montage.
Quant aux suspensions, rien à dire de particulier : fourche Fox 32 à l’avant (débattement de 100 pour le cross country) et amortisseur Fox Float à la l’arrière. Trois positions (cf. ci-dessus). Dans le domaine, Fox fait des petites merveilles.
La taille des roues est un choix… personnel. Le Spark 950 est dotée de roues en 29 pouces. Ceux qui ne jurent que par le 27.5 devront prendre le Spark 750.
Le 29 pouces et moi, c’est une longue histoire. Pour la faire courte, mon premier VTT était un Gary Fisher type « semi-descente » avec des 29 pouces, sans aucune suspension. Le fait d’avoir roulé avec cela vous fait comprendre la raison pour laquelle, si on pratique le cross-country, le 29 pouces me semble un excellent atout (mais pas le seul, j’en conviens). L’entraînement et l’inertie de grandes roues est un confort dont j’ai eu des difficultés à me passer avec mon précédent VTT qui, lui, est doté de 27,5 pouces. Passer de l’un à l’autre vous fait vraiment apprécier la différence.
Mais le bémol des 29 pouces, je l’ai rencontré aujourd’hui même : sur la neige, il y a quand même moins de répondant (trop de surface au contact). Certes, je pense que c’est aussi lié aux pneus fournis avec le Spark : des Maxxis Forecaster dont je ne suis pas un grand fan (on verra bien à l’usage). D’un autre côté, de la neige, il n’y en a pas toute l’année, hein ?
Conclusion
Ce VTT m’a été conseillé de toutes parts lorsque je recherchais le meilleur compromis pour ma pratique du VTT. Aucun regret. Le vélo correspond parfaitement à mes attentes et il n’y a pas de surprise. Du point de vue des performances, il est à l’image de la gamme Spark de chez Scott qui bénéficie maintenant de quelques années d’ajustements. C’est à l’usage qu’on verra ce que vaut vraiment le cadre, dans un alliage d’aluminium 6011 (avantage du nickel pour la corrosion, à envisager sur le long terme). Quant à l’entretien, il devrait être minimal.
Avec un bon réglage de départ, une étude posturale assurée par un spécialiste du magasin, ce Spark 950 est un bon investissement et s’adaptera à une pratique engagée ou non. Il se manie cependant avec discernement et nécessite tout de même un certain niveau de pratique pour en tirer tous les avantages. Je déconseillerais donc ce VTT pour un premier achat, mais une fois de bonne habitudes prises, il fera très certainement votre affaire, pour un budget qui ne grimpe pas pour autant vers les cadres carbone-super-chers :)
01.02.2017 à 01:00
Creditworthy
The first consumer credit bureaus appeared in the 1870s and quickly amassed huge archives of deeply personal information. Today, the three leading credit bureaus are among the most powerful institutions in modern life — yet we know almost nothing about them. Experian, Equifax, and TransUnion are multi-billion-dollar corporations that track our movements, spending behavior, and financial status. This data is used to predict our riskiness as borrowers and to judge our trustworthiness and value in a broad array of contexts, from insurance and marketing to employment and housing. In Creditworthy, the first comprehensive history of this crucial American institution, Josh Lauer explores the evolution of credit reporting from its nineteenth-century origins to the rise of the modern consumer data industry. By revealing the sophistication of early credit reporting networks, Creditworthy highlights the leading role that commercial surveillance has played — ahead of state surveillance systems — in monitoring the economic lives of Americans. Lauer charts how credit reporting grew from an industry that relied on personal knowledge of consumers to one that employs sophisticated algorithms to determine a person’s trustworthiness. Ultimately, Lauer argues that by converting individual reputations into brief written reports — and, later, credit ratings and credit scores — credit bureaus did something more profound: they invented the modern concept of financial identity. Creditworthy reminds us that creditworthiness is never just about economic “facts.” It is fundamentally concerned with — and determines — our social standing as an honest, reliable, profit-generating person."
Lauer, Josh. Creditworthy. A history of consumer surveillance and financial identity in America. Columbia University Press, 2017.
Lien vers le site de l’éditeur : https://cup.columbia.edu/book/creditworthy/9780231168083
16.11.2016 à 01:00
Du software au soft power
J’ai eu l’occasion de participer au livre dirigé par T. Nitot, Numérique : reprendre le contrôle (éd. Framabook), paru à l’occasion du Paris Open Source Summit 2016. J’interviens sur le sujet de l’autonomie numérique et les discours associés à cette problématique, aux côtés du grand Alain Damasio, qui nous a gratifié d’un texte magnifique. Je retranscris ici l’interview qui me concerne (pp. 99-107).
Couverture. Numérique : reprendre le contrôle (Framasoft/Framabook, nov. 2016)
— Comment décrire les problèmes politiques posés par la concentration des données ? Peut-on y remédier en promouvant la souveraineté et l’autonomie numérique ?
— La question est très large et appelle un développement. En fait, j’ai toujours eu un peu de mal avec ces trois notions qu’il faut définir.
La concentration des données, en soi, n’est qu’un moyen pour obtenir un résultat. C’est l’utilité de ce dernier, c’est-à-dire l’intention qu’il faut questionner. Concentrer, cela revient à collecter et rassembler des informations en un seul point. Ce n’est pas une pratique condamnable. L’Insee, pour prendre un exemple connu, a toujours pratiqué ce type de collecte à des fins d’analyse et je pense qu’on ne saurait remettre en question les avantages cognitifs et pratiques des données de l’Insee.
Dans le contexte qui nous occupe, nous parlons de big data. C’est un niveau bien supérieur à ce que pratique l’Insee depuis l’après-guerre, même avec des moyens de plus en plus modernes. Les big data proviennent de plusieurs sources et celles produites par des institutions privées ou publiques à des fins statistiques (des hard datas) n’en constituent qu’une petite partie1. La partie la plus spectaculaire des données que rassemblent des grandes multinationales provient en réalité de nous-mêmes, il s’agit des soft datas que nous laissons plus ou moins volontairement en fonction de nos comportements de consommateurs de biens et services, gratuits ou non : entrées de requêtes dans des moteurs de recherche, flux de données de géolocalisation en temps réel, comptage de clics, mesure de l’attention informationnelle, etc. Moins connues sont les métadonnées, c’est-à-dire la provenance des données, les durées, les mesures de trafic, les vitesses de connexion, les traces et historiques de géolocalisation, etc. Bref un ensemble d’informations que nous pensons souvent inutiles du point de vue individuel, négligeables du point de vue de la taille, mais qui, en grandes quantités, traduisent avec une exactitude impressionnante l’ensemble de nos comportements. Ces données sont multipliées du point de vue sémantique dans tout ce qui concerne l’Internet des objets, le quantified self et toutes les pratiques qui lient des services et des conditions d’exercice de ces services (je profite d’un bien à condition de donner en retour des informations très personnelles sur moi).
Toutes ces informations pourraient être rassemblées et traitées par une multitude d’entreprises qui, chacune, utiliserait ces informations pour améliorer les biens et services en question en passant des contrats clairs avec les utilisateurs. Un peu comme le contrat que je passe avec ma banque qui connaît énormément de choses sur mon comportement de consommateur. Il y aurait donc un contrat entre l’utilisateur et la firme : je te confie mes données et tu me fournis un service (si possible plus performant). Or, aujourd’hui, non seulement le contrat est la plupart du temps fallacieux mais en plus le nombre de firmes est finalement très faible. Pour ne prendre que l’exemple d'Alphabet Inc., ce conglomérat regroupe plusieurs entreprises, think tank et sous-traitants aux secteurs d’activités très différents et qui pourtant traitent tous de manière plus ou moins directe des données des individus utilisateurs des services, en particulier ceux de Google, dans une logique de monopole (publicitaire, en particulier).
Là où la concentration des données pose problème, c’est à la fois dans leur quantité et dans les secteurs où elles deviennent des facteurs permettant de profiler non plus les individus, mais la société en entier tant les secteurs d’activité concernés recomposent le social (dans le cas d’Alphabet Inc. : biotechnologie, médecine, jeux, communications en tout genre, économie, bourse, automobile, urbanisation, robotique, cartographie et espaces, biens culturels et même corruption). Ainsi le problème politique de la concentration des données, c’est justement l’idéologie dont les solutions technologiques de ces multinationales sont devenues les supports. Et cette idéologie, c’est en premier lieu celle de la substitution de l’État par des services, et en second lieu l’absence de toute forme de contrat de confiance. Par exemple, il n’y a plus besoin de confiance entre individus si nous faisons reposer uniquement la fiabilité de nos informations sur des algorithmes faisant foi/loi. Je ne dis pas que, par exemple, l’utilisation de services sécurisés par SSL est un problème, je dis que la tendance à vouloir remplacer notre espace de confiance entre citoyens par des solutions technologiques cause immanquablement une révision de la nature de nos relations sociales. Il en va ainsi de tous les contrat dits clauses de confidentialité et clauses d’utilisation que nous passons avec toutes sortes de services numériques, comme Facebook, et qui font régulièrement l’objet de questionnements quant à leur éthique : l’éthique est justement ce qui n’a plus à être pris en compte dès lors que l’on considère que la contrepartie de l’utilisation d’un service est l’abandon même de la confiance. Je donne toutes mes informations personnelles et mon intimité à une firme : qu’a-t-elle besoin d’attendre mon accord individuel si son objectif n’est pas de me profiler, moi, mais tout le monde, pour une « meilleure société » ?
Partant de ce constat, ce qu’on appelle « souveraineté numérique » correspond à l’idée qu’à l’échelle d’un pays, d’un État, il puisse exister suffisamment de ressources pour que les usages de services numériques puissent y être circonscrits au moins en droit, au mieux que les supports technologiques des services soient intégrés dans l’espace de confiance d’un État. À l’heure de la mondialisation des échanges boursiers et des firmes, cette vision est bien entendu celle d’une chimère. L’autonomie numérique ne peut donc être que celle des utilisateurs eux-mêmes. En refusant les contrats iniques, la diffusion et la concentration de leurs données, les citoyens peuvent chercher des solutions capables de créer des chaînes de confiance auxquelles ils peuvent participer en partageant les ressources, en coopérant à leur création ou tout simplement en utilisateurs éclairés.
Cette autonomie, aujourd’hui ne peut plus être garantie par l’un ou l’autre État. Depuis les révélations d’E. Snowden, celles de Wikileaks, l’édiction de diverses lois scélérates de surveillance généralisée et autres procès discutables, les gouvernements ont fait la preuve qu’il est devenu impossible qu’ils puissent créer une sphère de confiance suffisamment crédible pour que des citoyens puissent considérer que leurs données (leurs informations personnelles) y soient protégées. La seule solution repose sur un postulat : il doit être primordial pour un peuple de pouvoir disposer de solutions technologiques capables de garantir physiquement (mathématiquement) le secret et l’anonymat des citoyens, à n’importe quel prix, et reposant sur des solutions libres/open source. Nous avons atteint les limites du contrat social : avec des firmes comme les GAFAM, l’État n’est plus capable d’assurer la sécurité numérique des citoyens, c’est à eux de construire leur autonomie en la matière.
— Le capitalisme de surveillance, sur lequel vous avez écrit une longue analyse, est-il un obstacle à la souveraineté numérique des individus ?
— Ramené au rang de paradigme, le modèle de l’économie de cette première tranche du XXIe siècle, pas seulement celle des services numériques, repose sur la captation des données et leurs valeurs prédictives. L’économie libérale, celle que l’on trouve dans les livres aux origines du capitalisme moderne, composait avec l’idée d’une égalité entre les acteurs économiques et celle d’un équilibre général où tout échange trouve sa fin dans la satisfaction de chacun. Dans un article paru en 2015, intitulé « Big other : surveillance capitalism and the prospects of an information civilization », la chercheuse Shoshana Zuboff2 montre que la logique d’accumulation des données, l’automatisation de leur traitement et leur analyse en autant d’inférences et de prédictions, faussent la logique de l’équilibre général. Pour cela les firmes mettent en œuvre des pratiques d’extraction de données qui annihilent toute réciprocité du contrat avec les utilisateurs, jusqu’à créer un marché de la quotidienneté (nos données les plus intimes et à la fois les plus sociales). Ce sont nos comportements, notre expérience quotidienne, qui deviennent l’objet du marché et qui conditionne même la production des biens industriels (dont la vente dépend de nos comportements de consommateurs). Mieux : ce marché n’est plus soumis aux contraintes du hasard, du risque ou de l’imprédictibilité, comme le pensaient les chantres du libéralisme du XXe siècle : il est devenu malléable parce que ce sont nos comportements qui font l’objet d’une prédictibilité d’autant plus exacte que les big data puissent être analysées avec des méthodes de plus en plus fiables et à grande échelle. Selon S. Zuboff, cette nouvelle forme de capitalisme est nommée « capitalisme de surveillance ».
Reste l’explication du titre de l’article : « Big Other ». Dans son roman, G. Orwell nommait un état de surveillance tout puissant Big Brother. Pour S. Zuboff, les firmes aujourd’hui capables d’une surveillance / conformation du marché à l’échelle mondiale, n’ont pas pour objectif de remplacer l’État comme on le ferait avec un coup d’État. C’est un coup des gens qu’oppose S. Zuboff à cette idée, c’est-à-dire que c’est dans le marché, c’est-à-dire dans et par la société et notre soumission volontaire à la logique de l’accumulation de données, que naît cette altérité supérieure de l’économie de la surveillance, remplaçant l’idéal d’une démocratie libérale, un Big Other dont l’une des personnifications est Google (dans le texte de S. Zuboff). On pourrait dire aujourd’hui l’ensemble des GAFAM, Alphabet et compagnie.
— Les GAFAM ont aujourd’hui le quasi-monopole du stockage et de la gestion de nos données : quelles sont les implications politiques de la concentration des données dans les silos de quelques grands acteurs ? Je pense notamment à Apple qui refuse certaines applications jugées trop politiques dans l’App Store, ou à Facebook qui prend le rôle d’un service public avec son Safety Check).
— Il y a encore peu de temps, le problème que pouvait soulever la concentration des données, c’était celui de la remise en question de la sphère privée. C’est toujours le cas, mais nous assistions à un changement social en pensant seulement que nous avions encore le choix entre accepter ou non les contrats d’utilisation des services numériques des grandes firmes. Nous n’avions peur que de Big Brother. Or, nous n’en sommes plus là. Comme S. Zuboff le montre, le développement des méthodes d’analyse des big data est en progression constante, si bien que, dans les mains de firmes gigantesques avec autant de domaines d’application, nous avons besoin d’appréhender ce bouleversement avec des outils qui dépassent le seul stade de l’analyse de risque individuel ou collectif de la diffusion des données personnelles. Dans l’histoire économique mondiale, les firmes n’ont jamais été autant en mesure de modeler le marché à volonté grâce à la puissance de l’analyse des données à grande échelle. Non seulement les données sont déjà diffusées et utilisées, mais elles sont aussi extraites et accumulées sans aucune réaction de l’ordre de la décision publique.
C’est en cela que l’État échoue à protéger ses citoyens, et dans cette faille du contrat social les solutions de facilité s’engouffrent : encore récemment notre ministre français B. Cazeneuve surenchérissait dans la lutte anti-terroriste en appelant à une limitation drastique des messageries chiffrées à l’échelle internationale3, provoquant ainsi la colère des spécialistes4 qui rappellent l’utilité économique et sécuritaire du chiffrement dans tout système d’information. Pour que des décideurs publics soient à ce point pro-actifs dans le passage de marché avec les GAFAM (comme c’est le cas dans l’Éducation Nationale française) ou soient prêts à ce que nos communications transitent en clair à travers les services des mêmes GAFAM, c’est bien parce que l’établissement des firmes sur le marché est vécu comme un état de fait, immuable. Tout est fait pour qu’Internet ne soit plus qu’un marché avec quelques services identifiés et non plus un réseau ouvert, partagé et diversifié. La réduction de l’offre de services sur Internet est conçu par les décideurs publics comme un outil visant à faciliter la surveillance et justifier le manque de maîtrise des outils numériques dans la plupart des secteurs des services publics. De leur côté, les firmes jouent un double rôle : collaborer politiquement et asseoir toujours davantage leurs situations de monopoles.
— Comment sensibiliser le grand public à ces implications politiques ? Quel type de discours construire ?
En France, s’adresser au public ne peut se faire que de manière directe mais avec certains principes. Une méthode directe c’est-à-dire sans passer par un filtre institutionnel. Et pour cause : par les réformes successives de l’Éducation Nationale, l’État a échoué à former ses citoyens à l’autonomie numérique. Cela aurait pu fonctionner au milieu des années 1980, à la « grande époque » du Plan Informatique Pour Tous qui mettait l’accent sur la formation à la programmation. Aujourd’hui malgré de nombreux efforts, seule une petite partie des lycéens peuvent avoir accès à un véritable enseignement à la programmation informatique depuis 2013 tandis que la majorité n’auront d’autre choix que de pianoter laborieusement sur des outils Microsoft. Dans un contexte académique, former les jeunes à des concepts aussi complexes que les protocoles du réseau Internet, à un peu de langage de programmation, aux enjeux du profilage, de la confidentialité des systèmes d’information et surtout au droit et au cadre de la liberté d’expression, cela revient à marcher sur des œufs avec un éléphant sur le dos.
Les principes de la sensibilisation au grand public doivent être beaucoup plus simples : diffuser et démontrer que l’offre en logiciel libre est fiable, montrer que cette fiabilité repose à la fois sur la qualité des programmes et sur une chaîne de confiance entre l’hébergeur, le concepteur, l’utilisateur et même le fabricant des machines sur lesquelles on travaille. On ne touche pas les gens avec un discours mais en faisant une démonstration : montrer que des alternatives ne se contentent pas d’exister mais qu’elles respectent leurs utilisateurs sur la base du partage d’information, de connaissance et de code. C’est l’objectif de la campagne Degooglisons Internet de Framasoft, mais c’est bien davantage : pour faire cela, il faut des relais de proximité et ces relais constituent tout le tissu de l’économie sociale et solidaire (ESS), y compris des petites entreprises, qui permettront de relayer le modèle sur un mode d’éducation populaire^5^. Si longtemps, nous avons naïvement cru que la lutte contre un Internet déloyal devait se faire par le haut, enfermés que nous étions dans une tour d’ivoire digne des Cathares les plus radicaux, l’heure est venue de mobiliser les foules par un mouvement de fond. Pour répondre au capitalisme de surveillance qui modèle le marché, il faut fausser le marché.
— À quoi ressemblerait un monde ou le libre aurait échoué ? Où les GAFAM auraient gagné ? Ou les silos continueraient de grossir ?
Sommes-nous réellement dans cette dualité ? Je pense que le Libre (et tout ce qui en découle, c’est-à-dire au-delà de l’informatique) est une réaction à un monde où le partage n’existe pas. L’histoire du logiciel libre le montre bien : c’est en réaction à l’idée que le non-partage est source quasi-exclusive de profit que le logiciel libre s’est formalisé en droit, par une licence et un contrat de confiance. Ces principes ne peuvent pas échouer, tout au plus ils peuvent être muselés, voire condamnés, tyrannisés. Mais l’essence de l’homme, c’est le partage.
Nous avons beaucoup plus à craindre d’un accroissement des monopoles et du jeu des brevets, parce qu’en monopolisant les systèmes d’information planétaires, ce ne seront plus les hommes d’un pays particulièrement enclin à la dictature qui seront muselés, mais tous les hommes et femmes de tous les pays. Les monopoles, parce qu’ils composent avec les politiques, ne peuvent que limiter l’exercice de la liberté d’expression. En d’autres termes, l’erreur que nous avons tous commise dans les années 1990, lors des bulles Internet, ce fut de croire que nous pouvions communiquer à l’échelle mondiale en profitant d’une libéralisation des réseaux. Le jeu des monopoles fausse complètement cette utopie. Les GAFAM ont déjà gagné une partie, celle qui a débouché sur l’impuissance publique (quelle firme des GAFAM, totalisant des milliards de capitalisation boursière, serait censée avoir peur de quelques millions d’euros d’amende de la part de la Commission Européenne ?, soyons sérieux^6^). Si nous échouons à faire du Libre le support de nos libertés informatiques, numériques, culturelles… il nous faudra réinventer un Internet différent, hors contrôle, hors confiance, résolument anarchique. Ce n’est pas non plus une solution qu’il faut viser, mais ce serait la seule alternative.
-
Voir sur une typologie des données dans l’acception Big Data, le rapport d’Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016. ↩︎
-
Shoshana Zuboff, « Big other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, pp. 75-89. ↩︎
-
Voir cet article de Julien Lausson, « Cazeneuve en croisade contre le chiffrement, rappelé à l’ordre par la Cnil et le Cnnum », Numerama.com, 23/08/2016. ↩︎
-
Voir cette tribune signée par Isabelle Falque-Pierrotin, MounirMahjoubi et Gilles Babinet, « En s’attaquant au chiffrement contre le terrorisme, on se trompe de cible » journal Le Monde, 22/08/2016. ↩︎
07.11.2016 à 01:00
Surveillance://, par T. Nitot
Un récent essai de Tristan Nitot est intitulé Surveillance://. Les libertés au défi du numérique : comprendre et agir. Un livre pertinent, qui atteint ses objectifs. On ne cherchera donc que la petite bête sur quelques détails du point de vue du fond et de la méthode.
Surveillance:// de Tristan Nitot est un ouvrage contextuel. Il appartient à une désormais assez longue tradition d’essais « tout public » sur le fichage des populations, la protection de la vie privée, et la défense des libertés individuelles à l’ère du tout-numérique.
On peut citer pour mémoire en 1994 l’enquête de C-M. Vadrot et L. Gouverne, Tous fichés (1994) qui alertait sur l’usage des mémoires embarquées (en particulier les cartes à puces). Plus récemment, L’homme nu. La dictature invisible du numérique par M. Dugain et C. Labbé (2016) se livrait au déballage angoissant des hauts faits de la surveillance de masse à l’ère post-Snowden.
L’ouvrage Surveillance:// se démarque néanmoins par son projet pédagogique qui cherche à la fois à expliquer les concepts-clé des mécanismes de contrôle et les solutions pratiques pour s’en prémunir. Si bien que l’ouvrage se place aussi dans une autre tradition, celle qui met en perspective les risques informatiques. Il faut alors remonter plus loin dans le temps.
Déjà en juillet 1970, lors du Colloque de Cerisy-La-Salle « L’homme devant l’informatique », on s’interrogeait sur les nouvelles formes de pouvoir qu’apporterait l’informatique dans les processus de prise de décision publique. Un basculement a néanmoins eu lieu dans cette tradition réflexive. Alors que la Révolution Informatique questionnait le rapport que nous avons avec nos données informatisées, les années 1990 ont vu se modeler différents pouvoirs par l’utilisation des données personnelles ou collectives. Le rapport entre pouvoir et collection de données se questionnait surtout selon le prisme de la notion de contrôle (institutionnel), et s’envisageait essentiellement du point de vue des libertés individuelles. Les années 2000 et la consolidation des grands monopoles du web (les GAFAM) et la pléthore de services permettant de collecter des quantités inédites de données à l’échelle mondiale, ont amené une nouvelle forme de questionnement sous l’angle, cette fois, de la surveillance. La surveillance comme fin, et non comme moyen : si la collecte et l’analyse de données est un moyen pour prendre des décisions économiques (ciblage marketing), la surveillance est une activité qui cherche à se rendre socialement acceptable et conforme les comportements, jusqu’à modeler le marché (j’ai eu l’occasion d’en traiter différents aspects, en parlant du capitalisme de surveillance dans d’autres articles de ce blog.
Dans sa première partie, le livre de Tristan Nitot établit un état des lieux de la captation et la centralisation des données. Il se fait ainsi l’écho de multiples enquêtes et ouvrages traitant des « dangers de la surveillance », avec un focus plus important sur les firmes Google et Facebook, dont l’un des principaux attraits pour les gouvernements est de réduire le nombre d’interlocuteurs dans les requêtes de renseignements sur les utilisateurs. Ainsi, on comprend que l’affaire Snowden n’a pas seulement montré que les États surveillaient leurs citoyens en masse, mais aussi que l’apparition de grands silos centralisés de données tenus par quelques firmes facilitaient grandement la tâche des gouvernements souhaitant généraliser la surveillance.
Il faut néanmoins attendre la section 7 de cette première partie pour aborder un point central : « L’impact de la surveillance sur la société », qui sera décliné encore dans la seconde partie. On regrette, bien que le public visé soit assez large, que T. Nitot prenne d’emblée la décision d’aborder la question sous l’angle exclusif du contrôle institutionnel en reprenant la référence de Michel Foucault à Jeremy Bentham, le panoptique et la prison (cf. M. Foucault, Surveiller et punir, 1975). Les références subséquentes à Glenn Greenwald (journaliste ayant publié les révélations d’E. Snowden sur la NSA) et Bruce Schneier (une pointure en matière de chiffrement et sécurité informatique), en restent néanmoins à l’analyse sociologique de la surveillance comme instrument de contrôle des populations, soit par une forme institutionnalisée (l’État surveille), soit par l’effet panoptique (l’individu se contrôle lui-même parce qu’il se sent surveillé et conforme ses comportements).
L’un des enseignements qu’on tire néanmoins de la lecture de Bruce Schneier, c’est justement que la surveillance n’est pas un instrument de contrôle. Elle ne le devient que dans la mesure on l’on prête une intention à l’institution capable de contrôle et d’action (l’État, en l’occurrence, y compris par l’intention des firmes de manipuler des opinions selon les intérêts politiques du moment, comme T. Nitot le montre à propos de Facebook dans la seconde partie). Bruce Schneier a montré que la surveillance est d’abord un modèle économique (cf. « Surveillance is the Business Model of the Internet », 2014). Si l’on se concentre uniquement sur un questionnement utilitariste de la surveillance globale des masses par les firmes (et par les États en contrat avec ces firmes), les clés d’analyse se restreignent à l’individu, son rapport à la liberté et ses droits, l’exercice de la démocratie, bref, on se focalise sur le contrat social. Or, comme il y a une perte de confiance générale envers les États depuis l’affaire Snowden, la solution adoptée par beaucoup est libertaire, consiste à prôner le moins d’État pour plus de libertés… mais moins de protection contre les firmes ; dès lors, qui garantirait le contrat de confiance entre l’individu et la firme ? (question autrement posée : qui peut garantir l’exercice de la justice ?).
Ce sera mon seul point de désaccord avec T. Nitot : il est important de comprendre aujourd’hui que la surveillance comme modèle économique n’est un problème d’État qu’à la marge ! Quand le ministre B. Cazeneuve fait voter en catimini le fichage général de 60 millions de français le 30 octobre 2016, ce n’est pas un problème de surveillance qui est posé mais un problème constitutionnel (comment une démocratie peut-elle laisser de telles décisions se prendre de manière unilatérale ?). C’est tout le paradoxe des « dangers de la surveillance » : on ne peut plus appréhender le capitalisme de surveillance avec des concepts inhérents aux démocraties qui ont produit ce nouveau capitalisme, car il s’en échappe. Le capitalisme de surveillance conforme les individus sociaux, mais conforme aussi l’organisation socio-politico-économique et la production. Le changement est radical en ce début du XXIe siècle, l’analyse politique doit l’être aussi.
Là où je rejoins T. Nitot, c’est sur l’essentiel, après tout : pour appréhender cela à l’échelle gigantesque des GAFAM, on ne peut plus se contenter de pointer la surveillance d’État même si elle utilise de fait les acquis des GAFAM. C’est le modèle économique entier d’Internet qu’il faut revoir, d’autant plus que Monsieur Dupuis-Morizeau n’est qu’un simple utilisateur qui n’envisage ces questions que du point de vue individuel dans ses pratiques quotidiennes.
C’est justement cette surveillance de la quotidienneté qui est alors en question durant tout le reste de l’ouvrage, après avoir brillamment vulgarisé les mécanismes de la surveillance et expliqué sur quels plans se confrontent les modèles informatiques. Rien qu’après cette lecture, l’utilisateur moyen pourra situer aisément ses propres pratiques numériques. Si l’on peut reprocher à T. Nitot d’avoir légèrement raccourci les enjeux économiques et politiques de la surveillance, il n’en demeure pas moins que l’essentiel de son ouvrage atteint le but recherché : informer l’utilisateur sur les techniques de surveillance et les moyens pratiques de s’en prémunir tout en promouvant un monde numérique décentralisé. Le maître mot est la confiance. Comment renouer la confiance dans l’usage des réseaux alors que les firmes qui proposent les plus célèbres services ne respectent pas les utilisateurs et leurs intimités numériques ? Pour Tristan Nitot, l’essentiel d’un Internet respectueux des utilisateurs repose sur quelques principes évidents qu’il résume à la section 21 :
- utiliser des logiciels libres ;
- pratiquer l’auto-hébergement ;
- chiffrer ses communications ;
- trouver un modèle économique qui ne repose pas sur le marketing (et l’extraction / exploitation sauvages des données des utilisateurs).
Restent enfin les aspects pratiques de l’auto-défense numérique. Dans un tel ouvrage, qui prétend brosser un aperçu général de ces problématiques, la liste des solutions ne saurait être exhaustive. Néanmoins, T. Nitot nous démontre ici un excellent niveau d’expertise, acquis tant chez Mozilla que chez CozyCloud, en identifiant les éléments les plus significatifs de la protection numérique. Pour cela il faut évidemment faire quelques concessions : on ne change pas du jour au landemain des habitudes prises par des millions d’internautes. Ainsi, au risque de rendre cette partie de son ouvrage trop vite obsolète, T. Nitot va même jusqu’à expliquer comment paramétrer les services de Google (Twitter, Facebook) auxquels ont a souscrit pour pouvoir espérer ne pas y abandonner trop de données personnelles. « Entre deux maux, choisissons le moindre » : est-ce une bonne approche ? Ceci pourrait être discuté longuement, mais il faut avant tout confronter les pratiques.
Abandonner des services performants sous prétexte qu’ils ne respectent pas nos intimités numériques, cela revient à imposer un changement organisationnel et technologique motivé par un choix éthique ou moral. Si l’utilisateur individuel peut très bien effectuer le basculement sur cette seule base, il n’en va pas de même pour des organisations, ainsi par exemple des entreprises ou des associations qui utilisent des services gratuits mais qui ne tombent jamais ou presque jamais en panne, dont l’usage est ergonomique et bien pensé, etc. On regrette un peu que T. Nitot ne prend pas davantage de temps pour expliquer comment un service gratuit ou payant (le plus souvent à bas prix) et à la fois éthique permettrait de construire une économie de la confiance et par conséquent ouvrirait aux utilisateurs de nouvelles perspectives. La question est certes abordée çà et là, en mentionnant les alternatives proposées notamment par certains membres du collectif CHATONS, mais sans une réelle approche systémique (trop complexe pour être résumée en deux pages de toute façon).
Cette économie de la confiance représente aujourd’hui l’alternative crédible au capitalisme de surveillance, mais uniquement dans la mesure où les choix technologiques sont assumés et compris par les utilisateurs. Cette compréhension est bien ce à quoi s’attaque le livre Surveillance://, ce qui explique sans doute quelques choix facilitatifs au profit d’une approche épurée et concrète, facilement assimilable par un public désormais averti.
21.10.2016 à 02:00
Paul Magnette, l'Europe et le CETA
J’interviens peu sur ce blog à propos de politiques européennes, alors qu’on pourrait s’y attendre étant donné que j’y suis plongé régulièrement dans le cadre de mes fonctions professionnelles. Je suis néanmoins particulièrement touché par le discours récent de Paul Magnette, le 16 octobre 2016, devant le parlement Wallon.
Dans ce discours (vidéo en bas de ce billet) d’une durée approximative d’une vingtaine de minutes, Paul Magnette explique de manière claire et précise les raisons pour lesquelles la Wallonie refuse(ra), dans son état actuel, l’accord économique et commercial global (AECG), mieux connu sous son acronyme anglais Comprehensive Economic and Trade Agreement (CETA). Ce dernier, pour être adopté, doit être accepté par toutes les parties prenantes, c’est à dire les 10 provinces canadiennes et les 28 États-membres de l’UE. Or, pour que la Belgique fédérale puisse valider son accord, il faut auparavant que le gouvernement Wallon puisse donner le sien, au même titre que les autres régions Belges (région Flamande et région Bruxelloise).
Et voilà que la Wallonie refuse, ce qui implique l’impossibilité pour la Belgique de donner son accord. Pour en comprendre rapidement le contexte on peut lire l’article de Pierre Kohler et Servaas Storm paru dans le Moinde Diplomatique le 14 octobre 2016. Je ne m’étendrai pas davantage : il est clair que les grands accords commerciaux dont il est question depuis ces dernières années posent des problèmes de souveraineté des États, en particulier du côté européen, et que les modèles d’équilibres sociaux, sanitaires, environnementaux et normatifs de ce côté de l’Atlantique risquent de basculer dans une foire au moins-disant néo-libéral.
Ce n’est pourtant pas dans ce registre (uniquement) qu’il faut écouter le discours de Paul Magnette. Ce spécialiste de la construction européenne (titulaire d’un doctorat en science politique sur ce sujet) est à la fois un expert et un élu. C’est un européen convaincu mais surtout éclairé. Et en tant que tel, il confronte les grands principes de la construction européenne (en particulier tout l’intérêt du principe de subsidiarité) avec la contradiction politique des accords des autres pays européens (à tendance centralisatrice) vis-à-vis du CETA. Il cite d’ailleurs en passant les divergences entre les élus allemands et la Cour constitutionnelle allemande, ainsi que les hésitations de fond au sein du gouvernement des Pays-Bas. Et tout ceci sans oublier de souligner avec force et vigueur tout l’intérêt qu’il y a à écouter la société civile wallone (mutualités, syndicats, experts, universitaires…) qui s’est sérieusement penchée sur le CETA avec forcerapport, avis, et déclarations. Une approche dont devraient s’inspirer plus d’un élu en France.
En somme, le discours de Paul Magnette est un discours de démocratie. Et il est assez rare aujourd’hui d’entendre de tels discours dans le cadre d’un parlement en plein processus de décision (c’est-à-dire qu’il ne s’agit pas d’un discours électoral bourré de bonnes intentions). C’est sans doute aussi la raison pour laquelle, afin d’appuyer son discours, Paul Magnette cite deux auteurs, et pas des moindre : Albert Einstein et Emmanuel Kant (à partir de 11'55 dans la vidéo). Car en effet son discours a une double portée : générale, d’abord, puisque le processus d’adoption du CETA ne saurait logiquement pas convenir aux principes de souveraineté des États ; universelle, ensuite, puisque en vertu du principe de l'impératif catégorique kantien, qui, aux yeux de Paul Magnette, vaut aussi bien pour les individus que pour les États, on ne saurait espérer d’accord harmonieux avec les modalités discutables du CETA et, au-delà, de tous les accords censés définir aujourd’hui des processus de mondialisation économique.
03.08.2016 à 02:00
Surveillance://
Tous nos pas dans le cyberespace sont suivis, enregistrés, analysés, et nos profils se monnayent en permanence. Comment en est-on arrivé là ? Les évolutions techniques ont permis à plus de quatre milliards d’internautes de communiquer, de rechercher de l’information ou de se distraire. Dans le même temps, la concentration des acteurs et les intérêts commerciaux ont développé une industrie mondiale des traces. Les États se sont engouffrés dans cette logique et ont mis en œuvre partout dans le monde des outils de surveillance de masse. Le livre de Tristan Nitot porte un regard lucide et analytique sur la situation de surveillance ; il nous offre également des moyens de reprendre le contrôle de notre vie numérique. Comprendre et agir sont les deux faces de cet ouvrage, qui le rendent indispensable à celles et ceux qui veulent défendre les libertés dans un monde numérique.
Nitot, Tristan. Surveillance:// Les libertés au défi du numérique : comprendre et agir. C&F éditions, 2016.
Lien vers le site de l’éditeur : https://cfeditions.com/surveillance/
02.08.2016 à 02:00
Numérique : reprendre le contrôle
L’extraction et l’analyse des données massives représente l’Eldorado des modèles économiques d’Internet. Pour une grande partie, ces données proviennent de chacun d’entre nous. Profilage, surveillance, contrôle : en utilisant une foule de services et de produits, gratuits ou payants, nous dévoilons toujours un peu plus nos intimités numériques.
Aujourd’hui, pouvons-nous encore contrôler nos données ? Est-ce à l’État ou aux citoyens de construire et défendre leurs souverainetés numériques ? Le logiciel libre permet-il de nous rendre autonomes et d’utiliser des outils respectueux de nos données personnelles ? Les réponses à ces questions sont parfois contradictoires.
Dans cet ouvrage, Tristan NITOT et Nina CERCY donnent la parole à plusieurs acteurs impliqués aujourd’hui dans le paysage numérique. Leurs arguments sont forts, issus de plusieurs points de vue. Une préoccupation principale : la confiance.
Nitot, Tristan, et Nina Cercy. Numérique : reprendre le contrôle. Lyon, Framasoft, 2016.
Lien vers le site de l’éditeur : https://framabook.org/numerique-reprendre-le-controle/
17.06.2016 à 02:00
Cross-country, VTT, Trail : 8 logiciels libres
En matière de logiciel libres, les sportifs ont plutôt l’embarras du choix. C’est à se demander pourquoi, lorsqu’on veut récupérer des traces, on doive naviguer entre divers sites issus des constructeurs de montres GPS (pas toujours bien intentionnés). Et c’est sans compter la page ouèb du trail de Brouzouf-le-haut qui oblige les concurrents à se connecter sur Facebook et Google pour voir les caractéristiques du parcours. Ami traileur, biker, ou randonneur, toi le geek sportif, regarde plutôt cette petite sélection de logiciels libres, rien que pour toi.
Quels logiciels ?
J’en ai encore fait l’expérience avec le site internet Tracedetrail.fr. Certes, le site est plutôt bien fichu, avec la possibilité de partager ses traces en les accompagnant des différentes données (altitudes, cumuls de dénivelés au différents points du parcours, etc) mais il faut ouvrir un compte pour télécharger les traces ou récupérer des données, quant à confier systématiquement mes données à un tiers, c’est un principe : je n’aime pas.
En réalité ce type de site ne repose que sur un principe relativement simple : stocker et partager des fichiers GPS. Si on a sur sa machine, en local, des logiciels fiables pour les lire, il n’y a aucune raison d’ouvrir un compte chez Monsieur Dupont, si ce n’est que pour sacrifier à la mode du moment. De plus, on ne dispose pas toujours d’une connexion internet : en vacances au fond d’une vallée perdue pour s’adonner à la pratique du trail, il peut toujours être utile d’analyser ses parcours sans devoir les téléverser quelque part.
Les logiciels spécialisés dans les relevés GPS ont deux caractéristiques : les fonds de cartes proposés (à minima, la possibilité d’utiliser ses propres fonds de cartes), et la capacité d’analyser un maximum de données issues des fichiers (GPX, KML, etc) qu’on utilise, en particulier si les fichiers contiennnent des données autres que purement géographiques comme par exemple les donnnées d’un cardiofréquencemètre. À cela s’ajoutent des fonctionnalités supplémentaires appréciables :
- pouvoir se connecter à un dispositif GPS (selon les marques, en particulier Garmin), même si l’on peut d’abord chercher les fichiers sur le dispositif puis les utiliser avec le logiciel,
- stocker les informations, comparer les données avec des graphiques,
- éditer des traces existantes ou en créer de nouvelles pour préparer un parcours,
- ajouter des informations en fonction de l’activité (course à pied, cyclisme, trail, randonnée, etc.)
Des logiciels libres
Ce qui me motive dans le trail, c’est avant tout la sensation de grande liberté que procure cette discipline. Si l’on compare avec la course à pied classique ou le cross-country, les contraintes de distances et de temps sont largement repoussées, on se confronte à des terrains aux multiples caractéristiques, les épreuves mélangent le plus souvent les amateurs et les pros, et ce qui compte avant tout, c’est de pouvoir terminer un trail, et pas forcément « faire un temps ».
Je trouve que la pratique du trail est complètement opposée aux contraintes des logiciels privateurs ou de services distants qui imposent une rétention de données ou dont les conditions d’utilisation impliquent l’emploi des mes informations personnelles à des fins commerciales. Les assurances et même certaines mutuelles profitent déjà de la manne providentielles des dispositifs de santé connectés (cf. les machins-fit), et l’on présage déjà très bien les inégalités sociales que cela pourra créer à l’avenir. Hors de question, donc, d’utiliser des logiciels privateurs, ou des services tiers dont les intentions ne sont pas conformes à mon éthique.
L’utilisation de logiciels libres n’implique pas pour autant de devoir galérer des heures avec des interfaces difficiles. Les logiciels présentés ci-dessous sont certes très spécialisés, et nécessitent un minimum d’apprentissage. Cependant, chacun d’entre eux permet de visualiser rapidement un profil de trace : le travail des données n’est ensuite qu’une question d’habitude.
Tous ces logiciels proposent des versions pour les trois systèmes d’exloitation les plus courants : GNU/Linux, MacOs et MSWindows. Concernant GNU/Linux, la plupart sont disponibles dans les dépôts des principales distributions, à l’exception de MyTourbook et Turtlesport.
GPSbabel
Il serait difficile de commencer une liste de logiciels censés lire des fichiers contenant des données GPS sans mentionner GPSBabel. Ce n’est pas un logiciel indispensable, étant donné que, souvent, les logiciels sont capables de converser avec les dispositifs GPS courants, et que ces derniers fournissent des fichiers aux formats la plupart du temps lisibles. Cependant, pour assurer des conversions entre ces différents formats de fichiers, GPSBabel est d’une grande utilité.
Viking
Le logiciel Viking est avant tout un visualiseur de données GPS. Il permet de les afficher sur un fond de carte, les archiver et les classer. Viking fonctionne par calques : il suffit d’afficher la carte voulue (disponible soit en local soit en ligne, via, différents Web Map Services), puis ouvrir un fichier de trace GPS pour le voir affiché sur la carte. Il est aussi possible de réaliser un tracé avec mesure de distances grâce aux outils graphiques disponibles.
GPXviewer
Dans la même ligne que Viking, mais de manière encore plus simple, Gpxviewer permet d’afficher une trace GPX sur un fond de carte. Disponible dans la plupart des dépôts GNU/Linux, il s’agit d’un programme très simple, dont les équivalents ne manquent pas sur les autres systèmes d’exploitation.
QlandKarteGT
Bien que disponible dans les dépôts des distributions GNU/Linux, QlandKarteGT est en fait aujourd’hui obsolète, il est remplacé par son sucesseur Qmapshack (voir sur le site officiel). Néanmoins, les fonctionnalités sont déjà très poussées pour cette version d’un projet logiciel très dynamique. QlandKarteGT est un outil très polyvalent, et dispose même d’un rendu 3D des parcours sur carte. On peut noter la présence (au moins dans les dépôts) de QlandKarteGT-Garmin qui fourni des greffons pour communiquer avec différents dispositifs Garmin. Cependant, QlandKarteGT n’est pas limité à Garmin, bien sûr. Un autre atout de QlandKarteGT est de proposer d’emblée des fonds de cartes issus de nombreux Web Map Services) européens, et, parmi ceux-ci, les fonds IGN Topo 25. Les fonctionnalités de QlandKarteGT peuvent se limiter à l’import/export et la visualisation, mais elles peuvent être très poussées et se confondre avec un véritable outil de système d’information géographique.
Turtlesport
On ne présente plus Turtlesport, LE logiciel qu’il faut avoir si on fait du trail, de la course à pied, du vélo… En un coup d’oeil vous pouvez avoir un rapport d’activité des sessions d’entraînement, l’affichage de votre parcours sur un fond de carte (configurable), et le tout en personnalisant les données de l’athlète (taille, poid, équipement, vitesse, fréquence cardiaque, etc.). C’est sans doute dans cette liste le logiciel le plus polyvalent, capable de communiquer avec un grand nombre de dispositifs GPS/cardio, et disposant d’une interface agréable et facile à prendre en main (pour utiliser le fond de carte OpenTopoMap avec Turtlesport, voyez le petit tutoriel consacré sur ce blog).
Mytourbook
Moins connu, peut-être, que Turtlesport, MytourBook est prévu pour analyser, représenter, comparer, et documenter des traces GPS. Il est donc adapté à la randonnée, le VTT ou le trail. On peut ajouter des photos et les lier au parcours, visualiser les dénivelés et analyser les vitesses, récupérer des graphes, des analyses statistiques. Il s’agit d’un programme tournant avec java, mêlant les licences Eclipse et GPL (un peu de concession, parfois). Turtlesport et Mytourbook sont comparables, avec une mention spéciale pour le second concernant la visualisation graphique des différentes données des traces (il faut toutefois s’habituer à l’interface).
Framacarte et Umap
Enfin, il aurait été dommage de ne pas mentionner au moins deux possibilités de partager ses traces en ligne via des services non seulement libres mais aussi éthiques et décentralisateurs. Comme je l’ai dit précédemment, la meilleure façon de partager ses traces GPS est encore de partager les fichiers sans vouloir absolument les téléverser auprès de services tiers. Pourtant, vous pouvez avoir besoin de partager des traces en donnant directement à voir une carte, la rendre disponible sur votre site web ou tout simplement parce que vos correspondants ne disposent pas forcément d’un logiciel pour lire ce type de fichier.
Umap est un projet OpenStreetMap (le Wikipédia de la cartographie) qui vous permet d’éditer et partager des traces de manière très rapide, en quelques clics. Voyez ce petit tutoriel. Mais Umap est bien plus que cela ! C’est aussi la possibilité, pour vous, votre club, votre association, de disposer de votre instance Umap sur un serveur et partager vos traces en conservant vos données là où vous le voulez. En guise de démonstration, Framacarte est un service de Framasoft qui montre qu’il est possible d’installer une instance Umap et la proposer à qui vous voulez. Vous pouvez utiliser utiliser l’instance Umap d’OSM ou de Framasoft en toute sécurité pour vos données, bien sûr, mais n’oubliez pas qu’il est possible (et même souhaitable) de créer votre propre instance.
12.06.2016 à 02:00
Parcours VTT. Hahnenberg-Heidenkopf
Voici une belle randonnée VTT avec des passages techniques amusants, des sections boueuses et humides à souhait (même par temps sec) et de jolis point de vue. L’endurance est de mise, même si le parcours en soi ne recquiert pas de capacités de pilotage exceptionnelles. Les descentes sont très sûres, pas de mauvaises surprise : tout se joue dans les montées. Mollets en fromage blanc, s’abstenir !
Accessible en train, facilement, depuis Strasbourg, la gare de Heiligenberg possède un parking où vous pouvez aussi garer votre voiture. Le début du parcours longe la Bruche sur le fond de la vallée jusqu’à la montée vers le Hahnenberg. Le chemin est très boueux par endroits, surtout après les travaux forestiers. Au lieu-dit Hirschbaechel, la montée commence vers le Hahnenberg. Soyez attentifs au balisage : une fois sur un replat, on quitte le chemin forestier pour prendre une variante du balisage jaune : les premières difficultés surgiront, en particulier les dérapages de roue arrière sur racines, un vrai plaisir. Les derniers mètres sur le Hahnenberg sont impossibles en vélo : il faudra pousser. La descente est néanmoins très facile, sur un sentier régulier.
Une fois arrivé à Grendelbruch (après une descente façon kilomètre lancé), il faudra prendre la route pour monter rapidement au Schelmeck et rejoindre le col de Franzluhr. Il va faloir chercher à s’économiser, malgré la facilité de cette section car le reste du parcours promet quelques surprises. Une variante plus intéressante consisterait plutôt à rejoindre la D204 et passer par le Bruchberg (je ferai sans doute un billet avec un parcours mieux élaboré).
La descente depuis le col de Franzluhr jursqu’au Rossberg se fera sur le chemin forestier balisé en croix jaune. La variante, qui longe la première partie du chemin, est faisable en VTT mais avec prudence si vous débutez. Il faudra encore être bien attentif au moment de plonger vers la Magel : le sentier est étroit avec quelques trous inattendus. Assurez-vous d’avoir de bon freins avant d’entammer cette petite section de descente, la plus complexe du parcours.
La montée du chemin du Nikishof (aujourd’hui transformé en véritable autoroute pour travaux forestiers) fera appel à votre patience et votre endurance, mais pour un court moment : on quitte le chemin forestier pour reprendre un single (croix bleues) jusqu’au col du Jaegertaennel. Cette section montante étant néanmoins très roulante, il faudra engager des trajectoires réfléchies pour ne pas perdre trop d’énergie. On redescendra enfin vers la maison forestière Ochsenlaegger tambour battant. Profitez-en pour avaler un peu de sucre…
La dernière montée mémorable du parcours s’annonce, c’est celle du Heidenkopf. Amorcez-là avec patience et calmement et tout ira bien jusqu’en haut. Les lacets ne sont pas si nombreux. Votre vitesse dépendra de l’énergie dépensée depuis le début du parcours. La longue descente vers Mollkirch se fera en suivant le balisage blanc et rouge jusqu’à la D217 (là encore une variante consiste à prendre le GR jusque Laubenheim, mais ce billet n’est pas pour les plus confirmés des vététistes). On reprend les croix jaunes pour traverser la Magel (attention, section très humide!) puis on rejoint les rectangles bleus (GR 531) à Mollkirch jusqu’à la gare.
Caractéristiques du parcours : 35 km avec 1250 m D+.
12.05.2016 à 02:00
Parcours VTT. Le Schneeberg
Et voilà que j’inaugure par ce billet une nouvelle section VTT à ce blog. Pour cette fois, c’est au Schneeberg que je vous propose une petite virée sympathique pour 30 km (900m D+) avec une variété de chemins intéressante.
Le départ se fait sur le parking de l’école d’Oberhaslach, derrière la mairie, où l’on peut garer son véhicule. D’emblée, le GR 531 vous tend les bras : empruntez-le jusqu’au Carrefour Anlagen. D’une part cela permet d’éviter d’emprunter un chemin forestier long et laborieux et d’autre part c’est sur un petit chemin façon single que se fera l’essentiel de cette première étape, ni trop technique ni trop fatigante, bref de quoi se mettre en jambe.
C’est au Carrefour Anlagen, que commence vraiment l’ascension de l’essentiel des dénivelés. On rejoint le Col des Pandours pour enchaîner sur le GR 532 jusqu’à rejoindre les chemins forestiers Schlangenweg puis Kohlweg jusqu’au col de l’Eichkopf. Cette partie sur chemins larges est très roulante et mettra votre endurance à l’épreuve : plat, montées, descentes. Une petite remarque : à chaque patte d’oie, prenez toujours le chemin de droite (tout fini par se ressembler au bout d’un moment).
C’est sur l’Eichkopf que commence une belle partie technique jusqu’au Schneeberg. En montant le long de l’Urstein jusqu’au Col du Hoellenwasen on peut s’amuser à essayer de ne jamais poser pied à terre : la montée n’est pas dure, c’est le terrain qui est amusant… par temps sec. En cas d’humidité… il vaudrait mieux prendre un autre chemin. Au Col du Hoellenwasen, on pénètre dans une réserve biologique. Une descente très technique s’amorce dans laquelle il faut faire preuve d’une grande prudence : les racines créent des marches hautes qu’il vaut mieux passer en douceur et en retenant toute l’attention possible. On commence alors à remonter vers le Schneeberg en rejoignant la crête et le GR 53.
Pour la descente du Schneeberg, mon conseil est de ne pas suivre tout à fait les “croix rouges” jusqu’au refuge du Schneeberg. En effet, à deux endroits un portage de vélo sera nécessaire pour franchir les talus entre sentier et chemin forestiers. Je préconise de rester un petit peu sur le GR 53 puis embrayer sur le chemin forestier des Pandours jusqu’au Col du même nom. On rejoint ensuite le Carrefour Anlagen puis je propose d’aller visiter les ruines du château du Hohenstein avant de rejoindre la D 218 et le village d’Oberhaslach (ou bien poursuivre sur le chemin et rejoindre les croix jaunes pour arriver au dessus du parking de l’école).
Caractéristiques du parcours : 30 Km, 945 m D+.
12.05.2016 à 02:00
Le poids des cartables : de la maltraitance par négligence
Depuis de nombreuses années, le poids des cartables (surtout à l’école et collège) fait l’objet de questionnements, circulaires et préconisations. Il s’agit d’un problème de santé publique grave qui, à ce jour, ne semble pas faire l’objet de la préoccupation qu’il mérite dans la conscience du corps enseignant.
La question est même internationale. Elle a déjà fait l’objet de recommandations et de politiques publiques dores et déjà appliquées dans les pays. On relève cependant que l’American School Health Association a procédé à une comparaison de nombreuses études scientifiques. Ces dernières ne présentent pas de résultats harmonisés. Ainsi le poids maximal du cartable, toutes études confondues, est compris entre 5% et 20% de l’élève. Néanmoins, l’Institut allemand de normalisation (DIN) s’est depuis longtemps prononcé en faveur de 10% du poids de l’élève. Ce pourcentage a été repris officiellement par le Ministère Français de l’Éducation Nationale à l’occasion de la circulaire du Ministre Xavier Darcos en 2008 (cf. plus bas).
En septembre 2016, alors même que mon fils entrait au collège pour la première fois, le poids de son cartable était de 9 kg, soit 30% du poids du porteur ! Au fil des rencontres avec les enseignants, soit lors des réunions de parents d’élèves, soit lors des conseils de classe, je soumettais cette question, recevant une attention unanime de principe mais aucune volonté, de la part du corps enseignant, d’améliorer concrètement la situation. Pire : chaque enseignant, questionné séparément, insiste toujours sur l’importance d’amener chaque jour les livres et les cahiers relatifs à sa matière enseignée, sans prendre en compte les implications évidentes en termes de santé de l’enfant.
Tous les enfants sont concernés par cette question, mais surtout les demi-pensionnaires. Comme je vais le montrer, les solutions sont simples à mettre en œuvre mais changent aussi les pratiques des professeurs. J’affirme par conséquent que le poids du cartable et l’absence de volonté de la part des enseignants d’adapter leurs pratiques à cette question de santé publique, relève de la maltraitance par négligence.
Il y a d’abord le Ministère
Saisi depuis longtemps par les instances représentant les parents d’élèves, le Ministère de l’Éducation Nationale a déjà montré sa préoccupation face au constat d’alerte en santé publique que représente le poids des cartables chez les enfants. Ainsi, la Note Ministérielle du 17 octobre 1995 « poids des cartables » (BO num. 39 du 26 octobre 1995) mentionne :
(…) les membres de la communauté éducative doivent se sentir concernés par ce problème et ont un rôle à jouer, dans ce domaine, chacun en fonction de ses responsabilités.
Les enseignants peuvent veiller à limiter leurs demandes en matière de fournitures scolaires,(…)
une réduction du poids des cartables (qui ne devrait pas dépasser 10 % du poids moyen des élèves) (…)
Les rappels furent nombreux. La question soulevée à de multiples reprises tant au Parlement qu’au Sénat. On trouve en 2008, soit 13 ans plus tard, une circulaire officielle (2008-002 du 11-1-2008) et assez complète, signée du Ministre de l’Éducation Nationale Xavier Darcos, dont l’introduction commence par :
Le poids du cartable est une question de santé publique pour nos enfants : je souhaite que les établissements scolaires s’emparent de cette question, dès à présent, dans le cadre de la prévention du mal de dos en milieu scolaire.
On peut néanmoins regretter qu’en 2016, 21 ans plus tard, à l’occasion de la circulaire Ministérielle relative aux fournitures scolaires (2016-054 du 13-4-2016), il soit tout juste mentionné que « Les cahiers au format 24 x 32 cm jugés trop lourds ne figurent plus sur la liste indicative depuis 2014 », sans autre allusion à l’impact de cette liste déjà très importante sur le poids total du cartable !
En somme, lorsqu’il s’agit de porter haut cette question de santé publique, les élus et les ministres se mobilisent et font des déclarations. Mais lorsqu’il s’agit de gouverner effectivement le corps enseignant, et limiter concrètement le poids du cartable, aucun ordre n’est donné.
Quelles solutions ?
Régulièrement on voit quelques élus locaux plaider pour « les tablettes à l’école », ou mobiliser de l’argent public pour promouvoir des solutions technologiques coûteuses pour des questions essentiellement organisationnelles. Les solutions peuvent être beaucoup simples.
Les livres scolaires
Lors du choix et de l’achat d’une collection de manuels scolaires, nombreux sont les éditeurs qui proposent d’accompagner cet achat par une version électronique utilisable en classe. Ainsi, il est toujours possible, pour l’enseignant, de projeter les pages du manuel.
En classe, il s’agit concrètement d’allumer un ordinateur et un vidéo-projecteur. Si toutes les classes n’en sont pas pourvues, il reste néanmoins que les établissements proposent au moins des solutions équivalentes (comme un ordinateur et un vidéo projecteur portables).
Pour ce qui concerne le poids des livres scolaires, la question peut donc se régler à la fois facilement et pour un coût négligeable (même si, à l’échelle d’une académie, quelques rares établissements sont encore à équiper).
Ne pas opter pour cette solution, alors même que l’équipement suffisant est présent, relève donc de la négligence pure et simple, littéralement « sur le dos » de tous les enfants.
Les cahiers
Même si le fameux cahier aux dimensions 24 x 32 est déconseillé par la circulaire ministérielle, certains enseignants continuent de le réclamer dans la liste des fournitures scolaires. La raison : il s’agit de pouvoir y coller des feuilles au format A4, c’est-à-dire des supports de cours préparés par l’enseignant mais qui pourraient très bien, moyennant un minimum de cosmétique, passer dans un cahier de format plus petit.
Que dire des enseignants réclamant des classeurs rigides et autant de feuilles de réserve, en plus des cahiers ?
Toujours est-il que l’un principaux facteurs d’alourdissement du cartable repose sur l’utilisation de cahiers, quel que soit leurs formats : en longueur d’année, la plupart de ces cahiers obligent les élèves à transporter autant de feuilles inutilisées dans la journée (et même parfois sur l’année entière). Le cahier, en soi, est un instrument bien encombrant puisqu’il consiste à trimballer des pages qui, par définition, sont inutiles chaque jour : à quoi bon promener les cours du mois dernier ou de la séquence passée ?
Là encore, il existe au moins une solution dont le seul prix à payer réside dans la mobilisation de quelques heures d’apprentissage et une surveillance un peu plus étroite : le parapheur (ou du moins un seul classeur souple et fin muni d’intercalaires). En pratique, il s’agit d’apprendre aux élèves à classer par matière les éléments de cours dans un parapheur général durant la semaine, puis classer l’ensemble à la maison dans des classeurs séparés (ou même un seul gros classeur). On peut aussi imaginer une évaluation spécifique en fin de trimestre où l’élève ramène exceptionnellement son classeur de la maison (pour rappel, ce classeur est même censé peser moins lourd que tous les cahiers confondus transportés chaque jour par l’élève).
Ce type d’apprentissage organisationnel fait partie des apprentissages et compétences demandés à chaque élève au collège. Il n’y a donc aucune contre-indication à ce que cette pratique soit systématique, bien au contraire.
Les autres fournitures
Quant aux autres fournitures demandées par les enseignants, elles sont tantôt nécessaires (comme l’équipement de sport) tantôt exagérées ou même hors de propos. Il en va ainsi des tubes de gouaches demandés à chaque séance d’Art Plastique, des supports de partition (type porte-bloc) jamais utilisés, etc. Les anecdotes ne manquent pas.
Les fausses solutions
Quelques collèges (c’est le cas de celui de mon fils) proposent des casiers. Généralement en nombre modeste, ces casiers sont parfois réservés au élèves de sixième demi-pensionnaires. S’ils permettent effectivement de stocker le casque de vélo et autres affaires non-scolaires, l’usage des casiers est en réalité une fausse solution pour deux raisons :
- dans une journée de cours, l’élève n’a pas la possibilité d’effectuer de multiples allers-retours d’un bout à l’autre du collège pour récupérer les affaires dont il a besoin,
- le problème du poids des cartables se pose moins à l’intérieur du collège (où le cartable peut très bien être posé à terre) qu’à l’extérieur sur le chemin du collège, car c’est bien là que les risques associés se déclarent : risque en santé (scolioses, troubles musculo-squelettiques), mais aussi en sécurité (essayez, par exemple, de faire du vélo avec un sac pesant 30% de votre propre poids…).
Quant au partage des manuels entre élèves, l’idée commune que les enseignants suggèrent régulièrement comme s’il s’agissait de la trouvaille du siècle, il ne résout qu’une petite partie du problème et encore, il repose sur l’organisation générale des élèves entre eux, alors même que l’organisation des enseignants entre eux pourrait résoudre beaucoup plus de choses.
De la négligence
Pour conclure, j’insiste sur ce point : si depuis si longtemps le poids des cartables n’a pas baissé et compte-tenu de son impact connu de tous en termes de santé publique, ce n’est pas seulement parce que les pratiques des enseignants ne sont pas adaptées, c’est parce qu’il y a un refus systématique de la part des enseignants de changer leurs propres pratiques au détriment des élèves. C’est une forme de maltraitance avérée. Car en effet comment expliquer que seuls certains établissements parviennent à faire les efforts organisationnels nécessaires alors que la majorité mène une politique de laisser-faire particulièrement condamnable ?
Il est temps de mettre fin à cette maltraitance inadmissible, parfois ignorée des parents car il existe peu de prévention, et pour cause : comment un ministère pourrait-il informer les parents qu’un cartable ne doit pas dépasser 10% du poids de l’élève, alors même que les enseignants encouragent, par leurs pratiques, au transport de sacs de plus de 30% de ce poids ?
01.02.2016 à 01:00
Windows into the soul
We live in an age saturated with surveillance. Our personal and public lives are increasingly on display for governments, merchants, employers, hackers — and the merely curious — to see. In Windows into the Soul, Gary T. Marx, a central figure in the rapidly expanding field of surveillance studies, argues that surveillance itself is neither good nor bad, but that context and comportment make it so.
In this landmark book, Marx sums up a lifetime of work on issues of surveillance and social control by disentangling and parsing the empirical richness of watching and being watched. Using fictional narratives as well as the findings of social science, Marx draws on decades of studies of covert policing, computer profiling, location and work monitoring, drug testing, caller identification, and much more, Marx gives us a conceptual language to understand the new realities and his work clearly emphasizes the paradoxes, trade-offs, and confusion enveloping the field. Windows into the Soul shows how surveillance can penetrate our social and personal lives in profound, and sometimes harrowing, ways. Ultimately, Marx argues, recognizing complexity and asking the right questions is essential to bringing light and accountability to the darker, more iniquitous corners of our emerging surveillance society.
Marx, Gary T. Windows into the soul: surveillance and society in an age of high technology. University of Chicago Press. 2016.
Lien vers le site de l’éditeur : https://www.press.uchicago.edu/ucp/books/book/chicago/W/bo22228665.html
09.12.2015 à 01:00
Je n'ai pas voté non plus
Bizarre comme titre, n’est-ce pas ? En fait, c’est en écho à cet article du copain Gee, auteur de Grisebouille, qui a su exprimer de manière assez claire les raisons pour lesquelles il ne vote pas (plus). La démocratie représentative serait-elle morte ? Oui. Nous avons besoin d’un reboot de la démocratie et c’est chez Jean-Jacques Rousseau qu’il faut en trouver l’amorce.
Détournements de votes
Comme disait Coluche : « dire qu’il suffirait que les gens n’en n’achètent plus pour que cela ne se vende pas ». Je n’ai jamais trop aimé Coluche – ou plutôt son humour de bistrot dont se sont emparés la plupart des réacs aigris –, mais au moins il avait le sens de la formule. Il suffirait que plus personne n’aille voter pour que la classe politique actuelle s’en aille pour de bon. Imaginons un instant une grève du vote : tous les vieux dinosaures des partis qu’on voit depuis 40 ans verraient soudainement leur légitimité en prendre un coup. Quant aux plus jeunes, persuadés de faire partie d’une « élite » républicaine (autrement dit, une aristocratie politique), ils pourraient retourner sur les bancs d’école, histoire de bien comprendre qu’on ne s’implique pas dans la politique par carriérisme. Oui, mais voilà : de fait, nous sommes des millions à ne pas aller voter. Et plutôt que de se remettre en cause, les politiques multiplient les interventions en se targuant de vouloir « barrer la route au FN » tout en assurant, comme c’est le cas à chaque élection depuis que je suis né, que « le message a été entendu ».
Mais quel message ? Pourquoi les gens s’abstiennent de voter, et pourquoi certains votent pour un parti fasciste ? Parce que contrairement à ce qu’on m’a toujours dit, le vote n’est pas un choix démocratique. C’est un levier qui légitimise l’exercice du pouvoir par certains. Ainsi, depuis que je vote, je n’ai jamais pu dire que mon vote a servi des causes que je défends :
- quand il m’a fallu voter Chirac pour « barrer la route à Le Pen », en 2002 ;
- quand j’ai voté « non » au référendum de 2005 sur le traité européen Rome II (parce que c’est d’une autre Europe dont je rêve), remplacé 4 ans plus tard par son clone, le Traité de Lisbonne, cette fois sans demander l’avis aux citoyens ;
- quand j’ai voté blanc en 2007 devant les choix consternants qui nous étaient livrés, entre une grande nunuche sans programme et un petit nerveux aux idées brunes ;
- quand j’ai voté blanc en 2012 en ayant absolument aucune illusion sur les mensonges de F. Hollande.
La démocratie représentative a vécu
Quel est mon constat, au-delà de la simple déception ? le même que Gee : la démocratie représentative a vécu. Et je coupe court tout de suite aux détracteurs qui viendront me dire que « des gens sont morts pour que nous ayons le droit de voter ». Non : ils ne sont pas morts pour le droit de vote, ils sont morts pour avoir le droit de participer à la vie politique. Ils ne sont pas morts pour que j’aie le droit de désigner un représentant qui, fondé de pouvoir, fera ce qu’il veut pendant son mandat. Ils sont morts pour que la démocratie s’exerce.
Oui, ma bonne dame, et c’est pas pareil du tout. Et pourtant on nous l’apprend depuis tout petit. Lorsqu’à l’école on n’est pas content des décisions du délégué de classe, on s’empresse de nous dire de fermer notre gueule. C’est vraiment cela, la démocratie ? Tiens, voyons ce qu’en disait ce bon vieux Jean-Jacques Rousseau, qu’il serait peut-être temps de relire parce que au pays des Lumières, certains n’ont pas le courant à tous les étages :
L’attiédissement de l’amour de la patrie, l’activité de l’intérêt privé, l’immensité des états, les conquêtes, l’abus du gouvernement, ont fait imaginer la voie des députés ou représentants du peuple dans les assemblées de la nation. C’est ce qu’en certain pays on ose appeler le tiers état. Ainsi l’intérêt particulier de deux ordres est mis au premier et second rang; l’intérêt public n’est qu’au troisième.
La souveraineté ne peut être représentée, par la même raison qu’elle peut être aliénée; elle consiste essentiellement dans la volonté générale, et la volonté ne se représente point : elle est la même, ou elle est autre; il n’y a point de milieu. Les députés du peuple ne sont donc ni ne peuvent être ses représentants, ils ne sont que ses commissaires; ils ne peuvent rien conclure définitivement. Toute loi que le peuple en personne n’a pas ratifiée est nulle; ce n’est point une loi. Le peuple Anglais pense être libre, il se trompe fort; il ne l’est que durant l’élection des membres du parlement: sitôt qu’ils sont élus, il est esclave, il n’est rien. Dans les courts moments de sa liberté, l’usage qu’il en fait mérite bien qu’il la perde. […]
Quoi qu’il en soit, à l’instant qu’un peuple se donne des représentants, il n’est plus libre; il n’est plus.
— Du contrat social ou Principes du droit politique (1762), Chapitre 3.15 – Des députés ou représentants
Un peu d'explication de texte
Au premier paragraphe Rousseau montre que le principe de représentativité est d’abord une affaire de l’Ancien Régime et son administration. Ce qu’on désigne par « tiers état », ce sont les députés, provinciaux pour la plupart, censés être représentatifs des classes sociales (bougeois, commerçants, artisans, etc.) mais qui valident le modèle hiérarchique des trois ordres (noblesse, clergé, bourgeoisie). Lors de la Révolution française, qui interviendra 27 ans après l’ouvrage de ce visionnaire de Rousseau, le principe de souveraineté du peuple sera remis en cause par Sieyès qui, justement, désignera le tiers état comme un élément de la constitution. Sieyès reprendra l’ancien ordre hiérarchique pour montrer que le tiers état, comme les deux autres ordres, doit être représenté de manière proportionelle à sa population. C’était plutôt bien vu, mais en réalité, la représentatitvité de ce tiers état est tellement diversifiée (cela va du paysan au riche industriel) que c’est la haute bourgeoisie, riche et cultivée, qui finira par s’octroyer cette représentativité, pour s’assurer exactement ce que dénonce Rousseau, à savoir la sauvegarde de leurs intérêts privés, face à une noblesse déclinante et une masse « prolétarienne »1 qu’il faut absolument écarter du pouvoir. Rousseau note bien, sous l’Ancien Régime, que c’est l’intérêt public (comprendre : du peuple) qui est mis au troisième rang parce que justement les représentants du peuple ne sont là que pour limiter les intérêts des deux autres ordres, ainsi confortés dans le pouvoir. La Révolution ne changera finalement la donne qu’au regard des intérêts d’une bourgeoisie de plus en plus riche face à la noblesse déclinante, c’est tout.
Rousseau est catégorique, sans appel. Dans le second paragraphe, il répond même à Montesquieu qui, dans l'Esprit des Lois (Livre XI, 1748) se montrait admiratif de la Constitution Anglaise et écrivait pour sa part :
Comme, dans un état libre, tout homme qui est censé avoir une âme libre doit être gouverné par lui-même, il faudrait que le peuple en corps eût la puissance législative. Mais comme cela est impossible dans les grands états, et est sujet à beaucoup d’inconvénients dans les petits, il faut que le peuple fasse par ses représentants tout ce qu’il ne peut faire par lui-même. (…) Le grand avantage des représentants, c’est qu’ils sont capables de discuter les affaires. Le peuple n’y est point du tout propre; ce qui forme un des grands inconvénients de la démocratie.
Mais ce qui distingue notre Rousseau, c’est justement la conception des rôles. La conclusion de Rousseau est terrible, je la redonne ici, rien que pour le plaisir :
(…) Quoi qu’il en soit, à l’instant qu’un peuple se donne des représentants, il n’est plus libre; il n’est plus.
La démocratie ne s’exerce pas tant parce qu’il est possible de rendre la représentativité plus ou moins légitime (de toute façon une impasse pour Rousseau), mais parce qu’il est possible d’y voir s’exercer la volonté générale et, en tant que telle, elle ne peut se déléguer. Donc oui, le peuple (la société civile, dirait-on aujourd’hui) est capable de gouverner, c’est à dire exercer et instruire la volonté générale, au lieu de laisser faire des représentants qui aliènent cette volonté durant leurs mandats.
Ces mots de Rousseau il y a plus de 250 ans, je les ai entendu lors même de la série de renoncements aux engagements du clan de F. Hollande promulgués lors des élections. Pendant toute la durée du mandat, il allait faloir supporter, impuissants, les féodalités financières dont le point d’orgue fut atteint en insultant le peuple grec qui avait eu le culot, en juillet 2015, de réfuser par référendum les pires tentatives de réformes technocratiques pour remédier à un endettement historiquement organisé contre lui. Pour la plupart des électeurs, le fait d’aller voter n’était plus conçu comme l’exercice de la démocratie mais comme le seul moment de liberté avant de s’enchaîner aux grilles infranchissables qu’une classe politique dresse entre elle et le peuple.
Oui, n’en déplaise à ce pédant de Montesquieu qui pensait que le peuple est trop con pour faire de la politique, et tous les coincés du bocal pour qui la politique serait un métier, la société civile est capable à la fois d’expertise, d’expérience et de gouvernement. C’est la raison pour laquelle, sans doute, on a abruti les foules en étouffant leur activisme civique au profit du vote conçu comme une fin en soi, l’acte unique censé être la preuve d’une démocratie vivante. Rien n’est plus faux. Ce n’est pas parce qu’un peuple organise des élections qu’il est sur le chemin de la démocratie. Certains sont présidents à vie, suivez mon regard y compris dans certains fiefs électoraux de notre France.
D’autres modèles existent déjà
Si l’on regarde honnêtement l’histoire de France, en en particulier de la Cinquième République, les exemples sont nombreux où les moyens de formation du peuple à la démocratie ont été étouffés dans l’oeuf. C’est par exemple toute la tragédie de l’éducation populaire, sujet sur lequel je vous laisse la lecture de l’article de Franck Lepage dans Le Monde Diplomatique, De l’éducation populaire à la domestication par la « culture ».
La société n’est pas avare de modèles dits « alternatifs », en réalité, des expériences bien souvent probantes de modèles d’organisation politique qui démontrent les limites de la représentation. Tous ces modèles ont ceci de commun qu’ils remettent explicitement en cause le fonctionnement actuel, et sont bien plus exigeants en matière de probité et d’équité. Démocratie directe, démocratie participative, auto-gestion des entreprises ou des collectifs, partage de connaissances, collaborations techniques, j’en passe et des meilleures. Dans le milieu associatif où j’évolue à mes heures pas perdues pour tout le monde, les solutions collaboratives ne manquent pas non plus. Prendre des décisions stratégiques à plusieurs milliers, y compris sous la forme de référendums permanents, tout cela est rendu possible dans le concept de démocratie liquide, y compris des bases logicielles (plate-formes web, la plupart du temps). La société peut aujourd’hui être conçue comme un gigantesque processeur, une machine à décision ultra rapide, capable de rassembler toutes les voix, en particulier sur des bases de technologies de communication ouvertes. On se réfèrera sur ce point à cet article de Dominik Schiener (trad. fr. sur le Framablog).
Évidemment, l’aristocratie électoraliste n’est pas prête à accepter une remise en cause radicale de ses prérogatives. Les exemples, parfois tragiques, des Zones à Défendre et du militantisme écologique, sont plus qu’éloquents, à tel point que, profitant des libéralités d’un état d’urgence anti-terrorisme, on en vient à faire taire les voix trop bruyantes en plein sommet mondial pour le Climat.
Mais bien plus que les fausses excuses du terrorisme, ce qui caractérise la classe politique, c’est sa crainte de voir le peuple se débarrasser d’elle. Si la démocratie représentative est un modèle qui ne fonctionne plus, le pouvoir n’a plus qu’une seule échapatoire : la violence d’état, qui oppose la classe politique et le peuple (qui se défini alors en opposition à l’aristocratie). Si l’on considère que la représentativité est la seule légitimation de l’ordre public, alors la seule réponse à toute volonté de changement de système, c’est d’imposer un vieux modèle contre un nouveau. C’est selon moi tout le principe des lois scélérates votées récemment (comme la Loi relative au Renseignement…) et dont on voit s’accélérer les tendances, tout spécialement à l’encontre des moyens de communication qui permettent aux citoyens de se faire entendre, d’organiser et planifier l’alternance démocratique.
Après ces dénis de démocratie, les leçons sur le droit de vote sont plus que jamais malvenues. Alors, oui, voilà pourquoi je n’irai pas voter non plus dimanche prochain, et pourquoi je m’emploierai à ma mesure, à l’avènement de solutions vraiment démocratiques.
-
Oui, ici je fais un anachronisme en utilisant ce terme, mais on comprend bien que la paysannerie était exclue de fait, alors même qu’elle représentait alors la grande majorité du peuple. Plus tard, avec la révolution industrielle, ce furent justement les prolétaires qui furent exclus, la voix du peuple étant largement confisquée par les classes bourgeoises capitalistes. Et oui, là, j’ai une lecture marxiste, mais elle en vaut bien une autre. ↩︎
27.11.2015 à 01:00
Sortie trail au Taennchel
C’est déjà vendredi et demain c’est reparti pour un autre tour de trail dans la brume fraîche et humide des Vosges alsaciennes. Il me fallait néanmoins témoigner de ce parcours au Taennchel effectué récemment car il présente de nombreux avantages techniques.
Au dessus de Ribeauvillé, surveillé par ses trois châteaux, on voit poindre le massif du Taennchel, un endroit magnifique avec des rochers aux étranges formes : Rocher des Titans, Rocher des Géants, Rocher des Reptiles… Si l’on sait se laisser bercer par l’atmosphère des lieux, on ne revient pas effrontément d’une visite au Taennchel. La particularité géomorphologique du massif est de présenter une longue crête d’environ 6 kilomètres de la forme d’un « U » entourant le hameau de la Grande Verrerie. Sous la partie Est du massif, on peut aussi admirer le village de Thannenkirsch et, au delà et en face, le château du Haut Koenigsbourg. Quelle que soit la face par laquelle vous abordez ce massif, il faudra compter sur un dénivelé important en peu de kilomètres, ce qui permet d’avoir quelques perspectives intéressantes en matière de technique de montée et de descente sur des sentiers aux morphologies très différentes. Ce massif est d’ailleurs le terrain de jeu de l'Association Sportive Ribeauvillé Athléroute qui organise annuellement les Courses du Taennchel, dont un trail court.
Avec les collègues de l'ASCPA, la sortie du samedi matin nous a conduit en cette contrée. En partant de Ribeauvillé (on peut se garer au niveau du lyçée au nord de la ville), le parcours fait environ 20 km. Il commence et se termine par la montée / descente vers les châteaux St Ulrich et Ribeaupierre (310 m D+). Lors du retour, cette descente est très rocheuse par endroits, presque alpine. La plus grande prudence est de mise surtout avec la fatigue d’une fin de parcours et en particulier sur sol humide. Cependant, c’est un excellent entraînement à renouveler par exemple plusieurs fois sur une boucle plus courte.
Après le sentier des châteaux et un replat aux pieds du Taennchel sur chemin large, c’est vers la Grande Verrerie que l’on se dirige par un sentier en descente régulière et pierreux par endroits, pour remonter en face vers la crête du Taennchel en passant par le Schelmenkopf (380 m D+). C’est le second « coup de cul » à sérieux à supporter sur ce parcours : tout le reste de la crête du Taennchel alterne entre faux plat montant et descendant, ce qui laisse largement le temps d’admirer les lieux (lorsque la météo s’y prête). Une fois dépassé le Rocher des Géants, une longue descente sur sentier régulier s’amorçe jusqu’à l’Abri du Taennchel. Rien de spécialement technique mais attention toutefois aux animaux sauvages : un chevreuil a carrément faille me renverser en passant à 1 m de moi (tous deux lancés en pleine course) ! Magnifique souvenir mais très impressionnant sur le moment.
Les photographies çi-dessous montreront qu’en choisissant ce parcours en plein mois de novembre, ce n’est pas forcément la meilleure saison pour faire un trail touristique. Disons que nous ne nous sommes pas trop attardés à des endroits qui nous auraient incités à ralentir le rythme avec une météo plus clémente.
Comme d’habitude, ci-dessous, voici la trace du parcours :
18.11.2015 à 01:00
Alimenter mon dépôt Gitlab
Framasoft a ouvert un service Gitlab très facile d’utilisation. Pour qui ne serait pas encore à l’aise avec Git, voici un petit tutoriel rapide pour alimenter son propre dépôt.
Créer un nouveau dépôt
Un fois son compte créé et configuré (tout se fait en ligne), on peut créer un nouveau dépôt. Ce dernier doit être alimenté en premier par un fichier readme.md
c’est à dire un fichier écrit en Markdown. Il est censé décrire le projet, et communiquer régulièrement les principaux changements.
On peut préparer ce fichier readme.md
localement en prévision des premières manipulations (ci-dessous).
Générer sa clé SSH
Toutes les connexions sur votre compte Gitlab se feront de préférence de manière chiffrée et authentifiée avec une clé SSH. L’idée est simple : il faut générer une clé SSH, la stocker localement et la recopier dans les paramètres SSH de son compte Gitlab. On peut ajouter autant de clé SSH que l’on souhaite.
Pour générer et stocker une clé SSH
Entrer la commande suivante :
ssh-keygen -t rsa -C "xxxxxxxx"
(remplacer xxxxxxxx par son adresse courriel renseignée dans Gitlab)
La création d’un mot de passe n’est pas obligatoire, mais elle est préférable en tant que sécurité supplémentaire.
Une fois la clé créée, il faut la placer dans son dossier ~\.ssh
et la recopier sur son compte Gitlab.
Installer et configurer Git
Après avoir installé Git (sudo apt-get install git
), il faut le configurer comme suit :
git config --global user.name "nomutilisateur"
git config --global user.email "adressecourriel"
Premier dépôt
Une fois le dépôt créé via l’interface de Gitlab, on peut travailler localement.
Commencer par cloner le dépôt en local :
git clone git@git.framasoft.org:nomutilisateur/nomdudepot.git
Se rendre dans le dossier du dépôt :
cd nomdudepot
Coller dans ce dossier le readme préparé auparavant (cf. ci-dessus).
Puis ajouter ce fichier dans la file des fichiers que nous allons remonter dans le dépôt :
git add README.md
Annoncer un commit en écrivant un message explicatif :
git commit -m "ajout du fichier readme"
Pousser le tout sur le dépôt :
git push -u origin master
Précéder de la même manière pour tous les autres fichiers. Si l’on souhaite ajouter d’un coup plusieurs fichiers on peut écrire git add fichier1 fichier2 fichier3
etc.
Évidemment il ne s’agit ici que de remonter dans la file principale du projet.
Problème en https
Si l’on veut pousser des gros fichiers en https, on peut tomber sur une erreur de type
error: RPC failed; result=22, HTTP code = 411
fatal: The remote end hung up unexpectedly
C’est en fait parce que la configuration par défaut de Git en http limite à 1Mo la taille maximale des fichiers qu’on peut pousser. Il faut donc configurer Git pour accepter une taille plus importante en entrant une commande idoine :
git config http.postBuffer nombredebytes
où nombredebytes est la taille maximale des fichiers qu’on veut envoyer.
On peut configurer Git de manière globale, ainsi :
git config --global http.postBuffer 524288000
07.09.2015 à 02:00
Trail du Haut Koenigsbourg 2015
J’attendais avec une certaine impatience ce second rendez-vous à Kintzheim pour le trail court du Haut Koenigsbourg. L’engouement ressenti lors de la session de l’année dernière allait-il être encore au rendez-vous ? Et surtout, il faut bien reconnaître que, un an plus tard avec des entraînements réguliers, j’espérais bien diminuer significativement le chrono précédent.
La course
Le nombre de participants n’en fini pas de croître pour ce trail ! De 1664 coureurs en 2014, on est passé à 1900 pour cette session 2015. En voyant les objectifs d’inscrits, j’avais un peu peur que l’équipe d’organisation se laisse dépasser… que nenni ! Ils ont assuré, les bougres. Non seulement l’organisation fut de nouveau exemplaire mais ce n’est plus le seul château du Haut Koenigsbourg qui fut traversé (par le chemin de ronde s’il vous plaît) mais c’est aussi celui de Kintzheim que les coureurs ont pu admirer en fin de parcours.
Dans la fraîcheur matinale et dans les senteurs très caractéristiques à l’approche des vendanges, la ville de Kintzheim avait connu une nuit plutôt agitée, avec les départs des trails de 84 km et 55 km, respectivement à 2:00 et 7:00 du matin. C’est le trail court (25 km) qui, fort de ses 900 participants, contribua sans doute au réveil définitif. Un quart d’heure de retard sur l’horaire prévue s’explique par le succès de l’épreuve. Sur le bitume, les semelles chauffent, on a peur de se refroidir (il fait un peu frais quand même), on se presse, on échange quelques banalités, puis c’est avec un certain soulagement que le départ est finalement donné.
La traversée de la ville n’est pas si rapide, ce qui laisse le temps de se mettre en jambe. On longe la vigne en direction de Châtenois, un point de vue remarquable au soleil levant ferait presque ralentir la cadence pour admirer les belles couleurs d’un paysage typiquement alsacien.
J’aperçois alors Céline, une sympathique coureuse de Kintzheim placée à côté de moi dans la foule du départ et avec qui j’avais échangé quelques mots. Son rythme est régulier, elle connaît le terrain… je me décide à la suivre. Sans le savoir elle me servira de lièvre dans les 5 premiers kilomètres, décisifs sur ce parcours. Si elle passe par ce blog, je lui adresse (de nouveaux) mes chaleureuses salutations ! Nous nous retrouverons au château du Haut Koenigsbourg, kilomètre 16, pour terminer la course presque ensemble.
Sur ce trail, outre les longues montées, il y a deux endroits à appréhender : le premier sentier qui monte au Hahnenberg, où le dépassement est très difficile, et la montée continue aux pieds du Haut Koenigsbourg. J’arrive au premier single avec le net avantage de ne pas être dans le gros du peloton, contrairement à l’année passée. Si bien que la montée se négocie finalement bien avec un rythme agréable. La première descente est très rapide, heureusement, les coureurs sont très espacés et j’en profite pour faire quelques pointes.
Puis tout s’enchaîne sur un rythme plutôt ronflant. Il faut dire – et c’est le principal grief du parcours – que les chemins sont très larges et presque sans aucun obstacle, ce qui instaure une sorte de monotonie. On s’y laisse facilement prendre au risque de ralentir l’allure, ou du moins ne pas adopter celle que l’on aurait dû avoir, dans les limites de ses capacités. Regarder sa vitesse en temps réel sur sa montre est un réflexe qu’il faut parfois savoir prendre. Bref, je n’hésite pas à accélérer un peu en me disant que je pourrai récupérer plus tard, quitte à marcher un peu plus que prévu dans la grande montée.
Ce fut une bonne stratégie, finalement, car c’est lors de cette montée que j’ai du réaliser le meilleur temps par rapport à l’année dernière, tout en modérant l’effort. Je récolte les fruits de mon entraînement estival dans les Alpes. Passé le dernier obstacle de la descente du Haut Koenigsbourg, assez technique par endroits, le reste du parcours s’est déroulé de manière assez rapide. Le grand replat entre les deux montagnes doit se négocier sur la vitesse, sans quoi on y perd vite tous les avantages glanés auparavant.
Le dernier kilomètre, cette année, nous faisait passer au château de Kintzheim. L’intérêt touristique est indéniable, mais l’autre avantage est de nous épargner la longue descente betonnée du parcours précédent. Grâce en soit rendue aux organisateurs : bien que le parcours soit légèrement plus long, c’est bien plus confortable comme cela.
De manière générale, le Trail du Haut koenigsbourg, dans sa version 25 km, est un parcours très rapide. Le premier arrivé est à 1:49 et les derniers à presque 4 heures. Pour ma part, je me situe dans la première moitié (2:46), ce qui fait tout de même 20 minutes de moins que ma performance de 2014, avec 1 km de plus ! Une différence franchement inattendue, mais qui révèle, outre l’entraînement, toute l’importance de faire les bons choix au fil de la course.
Résultats
Classement :
- 32e dans la catégorie Vétérans 1 (sur 51)
- 398e au classement général (sur 839)
- Temps : 2:46:27
- Team : Framasoft
20.08.2015 à 02:00
L'Aiguille Rouge, Névache
Les Alpes, c’est vaste. Si vous cherchez un endroit propice à la randonnée en famille et particulièrement bien situé, je conseille la petite vallée de la Clarée à quelques kilomètres de Briançon, juste à côté de la frontière italienne. Le petit village de Névache est très accueillant et s’organise l’été autour des activités pédestres, lieu de rendez-vous de nombreux randonneurs. On peut notamment saluer le système des navettes qui permettent de ne plus se soucier de sa voiture et emmènent les randonneurs au bout de la vallée, de manière à amorcer de multiples circuits aux paysages admirables.
Entraînement à la vitesse ascensionnelle
Pour le trail, la vallée offre beaucoup d’opportunités et les moyens de se créer des boucles sympathiques avec plusieurs pics, crêtes et lacs facilement accessibles. Le conseil est évidemment de partir de très bonne heure le matin. Inutile de préciser que le soleil a tendance à plomber en journée et que les variantes du GR 5 autour de la vallée se peuplent relativement vite à partir de 9h00.
Pour la quatrième fois que je séjourne dans cette vallée, ce fut une première pour l’entraînement au trail, habitué que je suis aux chemins des Vosges. Alternant entre randonnée et repos estival, je me suis réservé 2 à 2,5 heures de course un jour sur deux, au départ du hameau de Roubion, commune de Névache. Un rythme tout à fait ronflant mais néanmoins régulier qui m’a permit de travailler sérieusement ma technique de montée sans me fatiguer outre mesure (c’est les vacances, après tout).
Le circuit de l’Aiguille Rouge, que je présente ci-dessous, est à la fois touristique et technique. Premièrement, le fait de monter sur une aiguille n’est selon moi pas vraiment intéressant du point de vue de l’entraînement au trail : le paysage est magnifique mais les derniers mètres de dénivelés en montée comme en descente se font avant tout dans le calme en faisant bien attention où l’on pose ses pieds. Néanmoins, on cumule ainsi quelques 1000 m D+ en un minimum de kilomètres, là où, dans les Vosges, il faudrait systématiquement allonger le parcours d’au moins 5 kilomètres pour obtenir le même dénivelé positif. C’est l’avantage de la haute montagne ; par ailleurs, n’importe quel parcours peut se faire sur des très jolis sentiers en évitant les larges et longs chemins forestiers parfois interminables des Vosges. Deuxièmement, ce parcours concentre en un seul coup tous les paysages que l’on trouve dans le briançonnais : si vous n’êtes que rapidement de passage dans le coin, sachez que ce circuit peut se faire en famille pour une randonnée de niveau facile (le sommet de l’Aiguille Rouge est accessible pour des enfants à partir de 12 ans, mais attention à la fréquentation : il peut y avoir beaucoup de monde en journée).
Le parcours
Tout le parcours peut se faire sans carte : les chemins sont très bien indiqués (c’est le cas partout dans la région) et la navigation peut se faire à vue dans ce cas précis. Si, à un moment donné, vous apercevez des pancartes écrites en italien, c’est que vous êtes descendu du mauvais côté !
Au départ du hameau de Roubion, il faut emprunter le GR en direction du col des Thures. On profite ainsi de la fraîcheur (ou de l’abri, en cas de pluie) de la forêt de mélèzes sur toute la combe que l’on remonte à côté du ruisseau (ou torrent, selon la météo !). Cette fraîcheur sera particulièrement appréciable car le chemin monte de manière très régulière, d’abord faiblement puis de plus en plus rapidement sans toutefois offrir de raidillon obligeant à casser le rythme. Il est dès lors possible de moduler sa vitesse pour ne pas avoir à marcher. C’est la partie la plus intéressante du point de vue de l’endurance et, techniquement, elle offre deux à trois petits replats qui permettent de reprendre son souffle.
Arrivé à la fin de cette première partie d’environ 3.5 km, beaucoup de sueur a déjà coulé mais on a encore de la réserve pour amorcer la prairie du magnifique vallon des Thures qui s’offre alors, avec la cabane du berger des Thures et sa fontaine. Sur un peu moins de 2 km on longe l’Aiguille Rouge à droite pour arriver au lac Chavillon à travers le pré. On ne manquera pas de regarder attentivement à droite, à mi-côte de l’Aiguille Rouge, le chemin qui part du lac, c’est lui qu’il faut alors emprunter pour amorcer la montée de l’Aiguille, sans toutefois le confondre avec quelques traces qui longent la crête, plus en amont : elle mènent au même endroit mais sont beaucoup moins confortables pour le trail.
Arrivé à peu près en amont de la cabane du berger, on rejoint le chemin « normal » qui monte à l’Aiguille en provenance du col de l’Échelle au niveau de la courbe de dénivelé des 2340 m. Il suffit ensuite de poursuivre jusqu’au sommet où seuls les derniers mètres se négocient avec prudence.
En haut, il est temps de stopper sa montre et apprécier le paysage, avec, respectivement :
- Au Nord-nord-Ouest, le majestueux Mont Thabor,
- Au Nord, les trois pointes italiennes Balthazard, Melchior et Gaspard,
- Au Nord-Est, une vue sur les pistes de ski alpin de Bardonecchia
- À l’Est, en bas, le col de l’Échelle,
- Au Sud-Est, la vallée de la Clarée vers Plampinet,
- Au Sud, en bas, le hameau de Roubion.
La descente se fera dans le prolongement vers le col de l’Échelle jusqu’à croiser le GR (une pancarte rustique en bois indique la direction des Granges de la Vallée Étroite, qu’il faut suivre jusqu’au-dessus du Roubion). La descente vers le Roubion se fait par le chemin auparavant emprunté à ceci près que, environ 300 m après avoir franchi le ruisseau, un petit sentier (ouvrez l’œil) vers la droite permet, en quittant le GR, d’aller dans la combe du Roubion pour rejoindre le circuit dit des « balcons de Névache ». C’est une variante que l’on peut emprunter jusque Névache Ville Haute (à environ 4 km par ce chemin) ou couper à quelques endroits (indiqués) pour rejoindre le hameau de Sallé ou Névache Ville Basse. Le parcours ci-dessous coupe au plus court pour rejoindre le Roubion, ce qui porte ce tracé à 14,5 km pour environ 1000 m D+.
24.07.2015 à 02:00
Un aperçu de Pandoc
Dans un billet précédent, je parlais des avantages du Markdown dans les processus de conversion vers des formats de sortie comme HTML et LaTeX. Il se trouve que Massimiliano Dominici, passé maître dans l’usage de Pandoc, a publié en 2013 un article remarquable focalisant justement sur les fonctionnalités de Pandoc du point de vue des objectifs de publication HTML et LaTeX (PDF).
Présentation
Avec l’autorisation de l’auteur, je propose une traduction française de cet article qui ne manquera pas d’intéresser ceux qui hésitent encore à franchir le pas de la ligne de commande avec Pandoc ou tout simplement ceux qui ne connaissent pas encore ce logiciel.
Cet article de Massimiliano Dominici est paru sous le titre « An overview of Pandoc », TUGboat 35:1, 2014, pp. 44-50. Originellement publié sous « Una panoramica su Pandoc », ArsTEXnica 15, avril 2013, pp. 31-38. Traduction de l’anglais par Christophe Masutti, avec l’aimable autorisation de l’auteur. Licence du document : CC By-Sa.
Vous trouverez sur ce dépôt GIT les sources qui ont servi à la composition et à la compilation du document, en utilisant Pandoc’s Markdown. Il est possible de télécharger directement la version PDF. Le fichier README.md
contient les lignes de commandes destinées aux sorties voulues.
Comment compiler ce document ?
Pour une sortie LaTeX, avec le template LaTeX (ne pas oublier d’installer pandoc-citeproc
) :
$pandoc --listings --bibliography=biblio.bib --biblatex metadata.yaml --number-sections -s --template=modele.latex --toc source.markdown -o sortie.tex
Pour la sortie PDF :
$pdflatex sortie.tex
$biber sortie
$pdflatex sortie.tex
Pour la sortie HTML :
$pandoc -s -S --toc --template=modele.html -H style.css --number-sections --bibliography=biblio.bib metadata.yaml source.markdown -o sortie.html
30.06.2015 à 02:00
Partie carrée avec Pandoc, Markdown, HTML et LaTeX
Pour ceux qui en douteraient encore, les blagues graveleuses à propos de LaTeX n’ont pas cours ici. Il s’agit dans ce billet de proposer une mini chaîne éditoriale qui vous permettra de composer rapidement des documents en plusieurs formats tout en les écrivant avec le minimum de contraintes. Qu’il s’agisse de n’importe quel logiciel de traitement de texte ou d’un simple éditeur dans lequel on formate directement le document source, on passe bien trop de temps à cliquer ou entrer des commandes, toujours au détriment du contenu. Avoir une solution automatisée ne résoudra jamais toutes les situations, mais notre objectif est de tâcher de séparer le plus possible l’entrée de contenu et la mise en page. Pour cela nous allons utiliser deux outils, à savoir le formatage Markdown et le logiciel de conversion Pandoc.
Prérequis
Pour accomplir toutes les opérations mentionnées ci-dessous, quelques conditions doivent être réunies :
- Pour la plus grande partie de ce billet, il faut avoir compris (juste « compris ») ce qu’est un langage de balisage comme le HTML ou le LaTeX, et savoir se servir d’un terminal (entrer des lignes de commandes, au demeurant fort simples à comprendre) ;
- Avoir Pandoc installé sur sa machine ;
- Avoir un bon éditeur de texte, si possible capable d’afficher une coloration syntaxique propre au Markdown (voir capture d’écran) ;
- Pour obtenir un document LaTeX et produire un PDF, il faut avoir une distribution LaTeX installée, comme TeXlive.
Objectifs
À quel genre de situation sommes-nous censés faire face ?
Vous souhaitez rédiger rapidement un document, cependant, avec votre logiciel de traitement de texte, vous supportez de moins en moins d’avoir à cliquer sans cesse pour formater des styles de titres et de paragraphes et vous aimeriez pouvoir rédiger avec une interface d’éditeur de texte la moins chargée possible.
Il vous est peut-être arrivé de rédiger un document en LaTeX et, malgré les filtres disponibles, avoir toutes les peines du monde à le transformer en HTML parce qu’en fin de compte vous souhaitiez l’afficher en tant que page web ou réaliser un e-pub.
Vous avez essayé plusieurs systèmes de conversion automatisés, mais jamais vous n’avez fini par obtenir de document proprement formaté.
D’autres situations ont pu se produire et vous allez certainement trouver des failles à la méthode proposée ici. En revanche, en plus de la méthode, je propose un principe auquel on pense pas toujours : si vous voulez transformer un document, rédigez-le d’abord au format le plus simple. C’est depuis cette source qu’il faut tenter les conversions et éviter de le faire depuis un format complexe. Quoi que vous fassiez, pour être parfait, votre document final devra sans doute faire l’objet de retouches, mais elles seront un moindre mal car la majeure partie du document sera alors traitée proprement.
Qu’est-ce que j’entends par « proprement » ? C’est vraiment un conseil d’hygiène : certaines solutions de formatage ou de conversion utilisent des solutions plus ou moins adaptées à la complexité du code de départ. Cela se traduit souvent par l’adjonction de styles prédéfinis par le logiciel de conversion. Ainsi, si vous transformez un document LaTeX en HTML, la malléabilité du document final laissera toujours à désirer, en particulier si vous voulez adapter votre propre feuille de style, à moins de la définir auparavant ce qui nécessite en retour beaucoup d’efforts. Faire les choses simplement dès le départ vous permettra de complexifier par la suite à votre propre initiative, mais en aucun cas vous ne serez contraints d’adapter votre projet au format : c’est l’inverse qui doit se produire.
Les objectifs seront successivement :
- de produire un document au format Markdown adapté à Pandoc,
- le transformer en utilisant Pandoc, de manière à produire un document au format .odt (ou .docx), un document au format HTML,
- et un document .pdf (re)formaté LaTeX et compilé avec pdfTeX ou Xe(La)TeX.
Créer un document au format Markdown
Le format Markdown est tellement simple qu’il n’y a pas besoin de créer des macros pour pouvoir l’utiliser. En d’autres termes, tout ce dont vous avez besoin pour écrire dans ce format est d’un éditeur de texte et d’un peu de mémoire. Si, en plus, vous utilisez votre éditeur en plein écran, sans autre affichage que votre curseur pour entrer des caractères, vous pourrez vous concentrer pleinement sur votre contenu et écrire sans vous soucier d’autre chose.
L’entrée des éléments de formatage en Markdown s’effectue au long de la frappe. Ainsi, pour un titre de niveau 1, vous n’avez qu’à entrer un croisillon (# Titre 1
) en début de ligne ; pour un titre de niveau 2, deux croisillons feront l’affaire (## Titre 2
) ; pour mettre en valeur une partie de votre texte, par exemple en italique, il suffit d’entrer le caractère tiret bas (_italique_
) ou une astérisque (*italique*
) au début et à la fin de la partie ; etc.
Pour reconnaître votre document en markdown, vous pouvez lui ajouter l’extension .markdown
, ou .md
, par exemple.
Par ailleurs, il existe certains éditeurs de texte qui vous proposent d’afficher directement le rendu HTML de votre document. Ils utilisent parfois une double fenêtre. Voici trois éditeurs sympathiques : Ghostwriter, ReText, StackEdit (fonctionne dans votre navigateur). Ces éditeurs proposent aussi des filtres d’export vers odt
, HTML
et PDF
.
La liste des commandes de formatage Markdown est très courte. Vous trouverez sur le site de son créateur, John Gruber, les éléments de syntaxe utilisables dans ce format. En revanche, comme nous allons le voir, Pandoc propose quelques fonctionnalités spécifiques, aussi il sera préférable de se référer à cette partie du manuel de Pandoc. En réalité, il suffit de quelques minutes de pratique pour en maîtriser l’essentiel. La seule difficulté du Markdown, c’est qu’il n’est pas (encore) standardisé, si bien que tout le monde s’accorde à reconnaître l’essentiel mais de petites variations peuvent apparaître ici et là.
Dans notre cas, il y a une manière d’utiliser le Markdown à la sauce Pandoc. En voici quelques exemples :
Les notes de bas de page
Le Markdown est si simple que des éléments pourtant essentiels à la rédaction en sont absents. C’est le cas de la gestion des notes de bas de page. Pandoc permet de gérer cela de manière très simple : il suffit d’entrer le numéro de la note à l’endroit de l’appel de note, puis, en fin de texte, rédiger la note en y faisant référence.
Ceci est un appel de note[^1]. (en fin de texte) [^1]: Ceci est le contenu de la note de bas de page.
La question des notes de bas de page est loin d’être triviale. Si vous devez convertir votre document à la fois en HTML et en LaTeX vous constaterez bien vite que les méthodes dont ces deux langages balisés gèrent les notes de bas de page n’ont quasiment rien à voir entre elles, si bien que convertir de l’un à l’autre un document contenant des notes de bas de page est souvent un vrai casse-tête, tout particulièrement si vous avez beaucoup de notes.
Les métadonnées
Les informations du document comme le titre, la date et l’auteur, pourront être entrées en début de document en les introduisant simplement avec le signe %
.
% Titre % Auteur % Date
Là encore, c’est une fonctionnalité qui est proposée : vous verrez que, lorsque nous utiliseront un modèle de conversion, nous pourrons utiliser ces données rendues exploitables par Pandoc.
La table des matières
Pour créer une table des matières… hé bien, non, il n’y a rien à faire ! Il suffira, lors de la conversion, de demander gentiment à Pandoc de se charger de créer une table des matières selon le format de sortie désiré.
Autres aspects du Pandoc’s Markdown
Vous trouverez dans le manuel toutes les possibilités d’interprétation du Markdown par Pandoc, par exemple pour faire des tableaux, insérer des mathématiques, faire des listes spéciales, etc. Sachez toutefois que si vous voulez que votre document reste interprétable par d’autres convertisseurs que Pandoc, il faudra aussi faire un effort de simplification. L’autre solution est que, quoiqu’il arrive, selon le format de conversion visé, vous pouvez insérer directement des éléments de code dans votre document Markdown. Ainsi, si vous voulez transformer vers LaTeX, vous pouvez insérer directement du code LaTeX qui sera interprété tout à fait normalement. Idem pour le HTML. Et même mieux : vous pouvez insérer du code HTML dans du Markdown et interpréter le tout vers LaTeX !
À propos de Pandoc
Dans la suite de ce billet, je vais vous montrer comment utiliser certaines commandes de Pandoc. Mais les possibilités de ce dernier sont très vastes. Il est possible, par exemple, de lui faire traiter de la bibliographie en travaillant avec LaTeX et BibLaTeX, ou encore rédiger un script qui permettra d’automatiser certaines tâches avec Pandoc. Faisons simple pour commencer : Pandoc propose des options, utilisons-les.
Par ailleurs, Pandoc permet de transformer de multiples formats. Nous nous focaliserons ici sur le Markdown, mais sachez que les applications de Pandoc excèdent largement ce cadre.
Comment utiliser Pandoc ?
Pandoc s’utilise en ligne de commande. Non, attendez ! ne partez pas tout de suite. D’accord, il s’agit d’ouvrir un terminal mais il ne s’agit pas non plus d’incanter des formules réservées à un caste de moines guerriers initiés. Il faut passer outre vos appréhensions et vous allez voir, c’est vraiment simple.
Première chose à faire : ouvrir un terminal et vous rendre dans le dossier où vous avez stocké votre document en Markdown. Dans les commandes que je citerai plus bas, tout se passera dans ce dossier : la production de sortie sera enregistré à cet emplacement (mais vous pouvez toujours en choisir un autre, il suffit pour cela de spécifier à chaque fois le chemin).
Les commandes se rédigent toujours de manière logique. On « dit à la machine », quelque chose comme « Tu vas utiliser Pandoc sur ce document au format Bidule pour produire ce nouveau document au format Machin, en utilisant telle et telle option ». Les options sont toujours introduites avec un double tiret (--
) ou leur diminutif par un tiret simple (-
).
Voici un exemple simple que je commente :
pandoc mondocument.md -o masortie.html
Pandoc est lancé, il traitera un document au format markdown pour produire (-o
, ou bien -output
) un autre document au format HTML. À chaque fois j’aurais pu préciser un chemin différent pour chaque document, ainsi pour traiter un document d’un dossier à l’autre, on peut écrire :
pandoc chemin/redaction/mondocument.md -o chemin/production/masortie.html
Cerise sur le gâteau, si vous avez plusieurs document markdown que vous désirez convertir pour produire un document unique dans un autre format, il suffit de les entrer dans l’ordre :
pandoc doc1.md doc2.md doc3.md -o docfinal.odt
Ceci est d’autant plus pratique si vous rédigez un livre, par exemple, avec un fichier par chapitre.
Passons à la pratique
Vous avez donc rédigé un document au format Markdown. Qu’allez-vous en faire ?
Tel quel
Vous pouvez tout simplement utiliser votre document tel quel. Le markdown, c’est d’abord du texte. Par ailleurs, ce format a été conçu spécifiquement au départ pour envoyer des courriels en mode texte sans avoir à perdre du temps dans une mise en page dont le résultat est différent selon le paramétrage du client de courriel du destinataire.
De plus, vos documents en Markdown seront lisibles par tout éditeur de texte dans l’avenir. Vous pouvez être certain de leur pérennité. Si vous ouvrez vos documents Markdown avec un éditeur permettant le rendu HTML, vous avez en plus de cela une mise en page toute prête si l’aspect « texte » ne vous convient pas.
Vers un logiciel de traitement de texte
Si vous avez besoin d’éditer votre document avec un logiciel de traitement de texte comme LibreOffice Writer ou MSWord, en particulier si vous avez des modèles de mise en page à y appliquer, la syntaxe de la transformation est la plus simple :
pandoc source.md -o produitfinal.odt
ou bien
pandoc source.md -o produitfinal.doc
Le document produit sera mis en page avec les styles par défaut de votre logiciel de traitement de texte, il suffit ensuite d’y appliquer vos propres styles si besoin.
Vers le HTML
S’agissant d’un langage balisé, la conversion vers le HTML permet d’intégrer des exigences de mise en page directement au moment de le traiter avec Pandoc. Ainsi, vous pouvez préparer une feuille de style .css
en vue de l’intégrer (ou pas) directement dans le document de sortie, ce dernier pouvant de même obéir à un modèle (template) préparé à l’avance.
pandoc -s -S --toc --template=modele.html -H monstyle.css --number-section source.md -o produitfinal.html
Cette ligne de commande permet de faire ces opérations (vous pouvez ôter celles qui nous intéressent pas) :
- Produire un document « standalone » (
-s
ou--standalone
), c’est-à-dire qu’il intégrera toutes les informations pour qu’il s’affiche dans le navigateur sans faire appel à d’autres fichiers. - Le document aura une typographie acceptable, grâce à l’option
-S
(ou--smart
). Pandoc convertira par exemple les doubles tirets (--
) par des demi-cadratins ou les triples tirets (---
) par des cadratins - Il intégrera une table des matières au début, grâce à l’option
--toc
(ou--table-of-contents
), notez que la profondeur de la TOC peut se régler avec l’option--toc-depth=nombre
. - l’option
--number-section
permet de numéroter les sections, sous-sections, etc. - Le template est défini à l’avance, on le renseigne dans la ligne de commande avec
--template=fichier
. - Dans son en-tête (header,
-H
ou en version longue--include-in-header=fichier
), il intégrera la feuille de style que vous avez créée à cet effet, et que l’on renseigne en donnant le nom du fichier (mais on pourrait aussi bien intégrer le renvoi à la feuille de style dans le template lui-même ; ici vous avez la possibilité de choisir parmi plusieurs feuilles de style si besoin).
Le document final affichera, en plus du titre, de la date et de l’auteur, une table des matières et toutes les informations de mise en page que vous avez intégrées à votre document Markdown.
Vous noterez la gestion des notes de bas de page, par exemple, et la manière dont la table des matières s’affiche. Si vous aviez dû entrer toutes les références internes de la page, cela vous aurait certainement pris beaucoup plus de temps.
Vers LaTeX (pdf)
C’est vers ce format qu’on s’amuse le plus, à mon humble avis. Toutes les options sont applicables mais nous pouvons aller beaucoup plus loin. En effet, nous cherchons à automatiser la création du format de sortie le plus courant de LaTeX, à savoir un beau document PDF. Tout l’intérêt de la démarche consiste donc à créer un style comme nous l’avons fait pour le rendu HTML, mais beaucoup plus fin puisque nous pourrons paramétrer une mise en page destinée à l’impression. Il s’agira d’un document LaTeX contenant quelques éléments conditionnels, les packages que vous souhaitez utiliser et la configuration de ceux-ci. En somme, c’est de toute l’en-tête du document que nous avons besoin. Si bien qu’une fois celle-ci définie, il vous restera à l’avenir à rédiger vos documents en Markdown sans passer par LaTeX (ou alors pour quelques retouches si besoin), tout en utilisant les options de Pandoc. Ce qui produit finalement un double outil très puissant.
Dans l’exemple donné, il s’agit de créer un document au format A4, présenté comme un rapport avec un en-tête, etc. Mais ce n’est qu’un exemple : à vous de modifier le modèle pour le conformer à vos besoins.
Par défaut, c’est-à-dire si vous ne spécifiez aucun style, la sortie PDF se fera sous la simple classe [article]
sans style particulier. Et n’oubliez pas : nous cherchons à produire directement un PDF en utilisant le moteur LaTeX, rien ne vous empêche de transformer votre document en LaTeX pour le travailler ensuite.
Pour notre exemple, la syntaxe est la suivante :
pandoc source.md -o produitfinal.pdf --toc --template=monstyle.latex --number-section
- l’option
--toc
permet l’insertion d’une table des matières - l’option
--number-section
permet de numéroter les sections, sous-sections, etc. - l’option
--template=xxx
permet de spécifier le style, c’est-à-dire l’en-tête du document LaTeX qui sera compilé pour produire le pdf final, cet en-tête se rédige dans un document LaTeX auquel on fait appel lors de la compilation.
Mais enfin, comment se construisent ces templates pour Pandoc?
Il s’agit en réalité de modèles de composition qui intègrent toute une série de variables. Par exemple, pour la date à intégrer dans un document LaTeX, on peut utiliser $if(date)$\date{$date$}$endif
, c’est à dire « si la date est renseignée (dans les métadonnées), alors tu utilises cette valeur dans la commande indiquée ».
On peut construire ses propres modèles, dans la mesure où les valeurs peuvent être utilisées de cette manière. Mieux encore, certaines données peuvent aussi être entrées dans un fichier en YAML, mais cela fera l’un des objets d’un futur billet.
Pour commencer à bâtir des modèles, vous pouvez vous reporter à cette partie de la documentation et surtout regarder comment sont bâtis les templates par défaut de Pandoc, de manière à vous en inspirer.
La bibliographie (et production finale)
La bibliographie peut être traitée différemment selon votre format de sortie. Quoiqu’il en soit, pour commencer, vous devez produire un fichier de bibliographie au format bibtex (.bib
).
Dans les commandes pandoc vous devrez renseigner ce fichier avec
--bibliography=nomdufichier.bib
Et dans votre document Markdown, vous passez les références ainsi, avec leurs identifiants :
Comme le dit Dupont [@dupont1950, p. 15]. Si nous marchons nous ne dormons pas [@Martin1985; @Dupont1950].
Si vous produisez un document LaTeX, le mieux sera d’utiliser l’option --biblatex
ce qui aura pour effet de générer la commande biblatex pour traiter la bibliographie. Par exemple :
pandoc --bibliography=nomdufichier.bib --latex-engine=xelatex mondoc.md -o sortie.tex
Mais l’objet de cet article est de vous aider à produire des documents de manière automatisée. Voici comment procéder pour produire un document PDF ou HTML disposant d’une bibliographie (et donc d’une liste bibliographique).
Il faut pour cela utiliser l’interpréteur citeproc
(à installer en plus de pandoc) et un fichier CSL (Citation Style Language). Le premier permet d’interpréter les fichiers CSL qui sont en fait des styles de bibliographie. Vous pouvez trouver un répertoire de ces fichiers CSL (prêts à l’emploi ou que vous pouvez modifier) dans le dépôt Zotero, un logiciel de gestion bibliographique.
Une fois votre fichier CSL prêt, vous pouvez produire :
pandoc --filter pandoc-citeproc --bibliography=mabiblio.bib --csl=monstylebiblio.csl -s --toc --number-section --template template.html --css template.css masource.md -o sortie.html
Ce qui permettra de produire un document HTML (standalone), avec une table des matières, des sections numérotées, basé sur un modèle HTML et un fichier de style CSS, une bibliographie traitée dans le texte et présente à la fin selon le fichier de style bibliographique choisi.
Astuce : pour introduire la bibliographie, laissez à la fin de votre document markdown un titre comme # Bibliographie
.
pandoc --filter pandoc-citeproc --bibliography=mabiblio.bib --csl=monstylebiblio.csl -s --latex-engine=xelatex --toc --number-section -colorlinks masource.md -o sortie.pdf
Ce qui permettra de produire un document PDF, traité par XeLaTeX, avec une table des matières, des sections numérotées, des liens colorés, une bibliographie traitée dans le texte et présente à la fin selon le fichier de style bibliographique choisi.
Production finale
Si vous n’avez pas de bibliographie à gérer, vous pouvez vous lancer dans la production de documents différents à partir d’un seul fichier Markdown.
Produisez un fichier .ODT (ou Docx) puis appliquez vos styles avec LibreOffice (ou MSWord). C’est la solution la plus simple : en fait pandoc produit des styles que vous pouvez modifier ou carrément écraser avec un modèle (LibreOffice ou Word) par la suite.
pandoc masource.md -o sortie.odt
Produisez un fichier .tex prêt à l’emploi.
pandoc masource.md -o sortie.tex
Produisez un document HTML avec un modèle et un fichier de style, une table des matières, des sections numérotées.
pandoc -s --toc --number-section --template template.html --css template.css masource.md -o sortie.html
Produisez un beau PDF (travaillé avec LaTeX), avec un modèle préparé à l’avance (et dans lequel vous aurez pris le temps d’inclure les mackages à utiliser, et tout ce que vous voulez dans l’en-tête) :
pandoc -s --latex-engine=xelatex --template template.latex --toc --number-section -colorlinks masource.md -o sortie.pdf
En somme, il peut être particulièrement utile de vous préparer à l’avance quelques modèles (en partant des modèles par défaut de pandoc), même sans forcément y intégrer toutes les options. Selon les types de documents que vous produisez, vous pourrez les générer très vite.
Pour ce qui concerne les sorties destinées à un format comme ODT ou Docx, le mieux est encore de préparer un modèle qui écrasera les styles du fichier de sortie.
Conclusion
Même sans connaître toutes les possibilités offertes par Pandoc, vous voici désormais en mesure de produire un document censé être travaillé sous différents formats. Ceci est particulièrement utile si vous êtes censé récupérer des documents en provenance de différentes sources pour les mettre en page et les diffuser : il est plus facile de demander à vos contributeurs de rédiger en Markdown voire de rédiger un texte sans style quitte à ce que vous les repassiez vous-même en Markdown. De cette manière il vous sera ensuite très facile de publier différentes versions de ces textes adaptées aux mode de diffusions : pour le web, une version HTML, pour l’impression, une version PDF (LaTeX), etc.
Bien entendu, travailler à un bas niveau de mise en page, comme le veut l’usage du Markdown, nécessite de faire des choix, en particulier savoir à l’avance vers quel(s) format(s) vous voulez convertir vos documents. Si vous êtes amené à intégrer des éléments de HTML ou de LaTeX dans vos documents Markdown, faites-le en connaissance de cause.
En revanche les options de Pandoc étant nombreuses, et une fois affinées avec des fichiers de style, vos documents seront non seulement rapides à produire mais ils bénéficieront de multiples manières de les compiler pour des résultats différents.
De manière générale, le Markdown permet d’écrire très vite des contenus avec un minimum de commandes. À certains aspects, c’est sans doute le seul format qui permet d’écrire au kilomètre, avec un minimum d’informations de mise en page, ce qui permet de se concentrer exclusivement sur le contenu. Pandoc et l’art de créer des styles feront le reste.
24.06.2015 à 02:00
Révolutions informatiques : algorithmes et pouvoirs
Il y a 45 ans, avec l’arrivée en masse de l’informatique et du micro-ordinateur dans les entreprises, les foyers français, et à peu près tous les secteurs de l'économie, la notion de « Révolution Informatique » occupait le thème d’un des célèbres colloques de Cerisy-la-Salle du 10 au 20 juillet 1970.
Les actes de ce colloque, aujourd’hui indisponibles, méritent toutefois d'être lus aujourd’hui à bien des titres. Tout particulièrement à l’heure où notre gouvernement est en passe de voter un texte de surveillance de masse de nos outils de communication. En effet, en automatisant les tâches de surveillance par des algorithmes, ce qui revient à surveiller tout le monde pour faire un tri ensuite, il se développe actuellement une sorte d’accomplissement d’un pouvoir techniciste au prix d’une dépossession du peuple des instruments de la circulation de l’information, au fondement de la démocratie. Or, c’est étonnement un axe de lecture tout à fait intéressant des actes du colloque de ce mois de juillet 1970…
Deux textes en particulier méritent un détour. Le premier explique la notion d’algorithme. Un peu ardu à certains endroits, son auteur Jacques Riguet est néanmoins fort synthétique, et montre qu’en réalité ce qu’on appelle un algorithme est loin de mériter un traitement aussi désinvolte que celui que lui réservent nos responsables politiques du moment, puisqu’il s’agit de définir de l’imprécis par un choix d'éléments précis. Surveiller la population par des algorithmes suppose donc de manière systématique de l’imprécision et par conséquent nécessite d’expliquer précisément la classe des éléments choisis en fonction du but poursuivi. Si l’objectif est trop large, les algorithmes ne peuvent être précis : la Loi Renseignement ne peut donc pas concilier les deux, cqfd.
Le second texte est de la plume de Louis Pouzin, connu comme l’un des pionniers des recherches sur le temps partagé (voir sa fiche Wikipédia) aux sources de notre Internet d’aujourd’hui. Son texte porte sur les aspects technocratiques de l’informatique utilisée comme instrument décisionnaire. Loin de relayer des craintes infondées et anti-progressistes, ils soulève néanmoins quelques questions fort pertinentes sur le rapport qu’entretien le pouvoir avec le traitement informatique de l’information. Car en effet, déjà l’Internet balbutiant montrait qu’il pouvait être un extraordinaire outil de partage de l’information et par conséquent un outil majeur du dialogue démocratique. Si la génération des hommes politiques d’alors n'était pas encore prête à amortir cette révolution informatique naissante, il était tout à fait pertinent de s’interroger un peu sur l’avenir. Et ce n’est pas innocemment que l’auteur conclu en ces termes : « L’invocation de l’ordinateur est un camouflage commode pour l’accomplissement de politiques occultes. »
Je livre donc ces deux textes ci-dessous. J’espère que les responsables des publications du Centre Culturel International de Cerisy ne m’en voudront pas d’outrepasser ici le droit de citation pour aller un peu plus loin : le livre n'étant plus édité, je donne en quelque sorte une seconde vie à ces deux textes :
- La notion d'algorithme (Jacques Riguet)
- Intervention de L. Pouzin
Titre : Révolutions informatiques
Direction : François Le Lionnais
Éditeur : Union Générale d'Éditions
Collection : 10/18
Année de publication : 1972
Année du colloque : 1970
Table des matières
Section : Naissance et développement de l’informatique
Dimanche 12 juillet 1970 (après-midi), intervention de Jacques Riguet, Professeur à l’Université de Limoges (pp. 89-97)
La notion d'algorithme
Le mot « algorithme » a une signification voisine de celle des mots « recette », « procédé », « méthode », « technique », « routine ».
La notion d’algorithme est une notion intuitive, donc essentiellement imprécise, tout comme l’est, par exemple, la notion de courbe en géométrie. Un thème fondamental de la recherche mathématique consiste à tenter de donner des définitions précises d’un concept imprécis, le succès de la tentative étant de plus en plus assuré au fur et à mesure que l’on parvient à prouver que les définitions proposées sont équivalentes. Un exemple célèbre de ce thème de recherche nous est fourni par le résultat obtenu par Hahn et Mazur-Kiewicz en 1914 : la notion d’espace métrique compact connexe localement connexe et la notion d’image par une application continue d’un segment dans un espace séparé sont équivalentes et constituent donc une définition précise de la notion intuitive de courbe.
Nous verrons plus loin que les logiciens contemporains sont parvenus à démontrer l'équivalence de diverses notions précises susceptibles de recouvrir la notion intuitive d’algorithme. Mais, pour le moment, il nous faut proposer une définition de celle-ci. La voici :
On appelle algorithme une méthode générale pour la résolution d'une classe de problèmes, fixée en tous ses détails par des règles dépourvues de sens, de façon à ce qu'on puisse l'appliquer sans avoir à la comprendre.
Il convient de donner de suite un exemple :
L’algorithme d’Euclide pour la recherche du P.G.C.D. La classe de problèmes auxquels il s’applique est définie ainsi : étant donné deux entiers positifs m et n, trouver leur plus grand commun diviseur (c’est-à-dire le plus grand entier positif qui divise à la fois m et n).
- Diviser m par n. Soit r le reste (on a 0≤r<n) ;
- Si r=0, l'algorithme est terminé, la réponse est n ;
- Si r≠0 remplacer m par n, n par r et opérer comme en 1.
Voir ci-dessous l’exemple d’application de l’algorithme aux nombres m=165 et n=616
Déjà les arabes, sous l’influence des hindous, avaient développé des algorithmes.
Le mot « algorithme » lui-même est dérivé du nom de l’auteur d’un texte arabe : Abu Ja’far Mohammed ibn Mûsâ al-Khowârizmî (vers 825) (c’est-à-dire père de Ja’far, Mohammed, fils de Moïse, natif de Khowârîzm) (Khowârîzm est aujourd’hui la petite ville de Khiva en U.R.S.S.). Le mot algèbre lui-même est dérivé du titre de son livre « Kitab al jabr w’almuqabala » (Règles de restauration et de réduction) bien que le livre ne soit pas très algébrique.
Vers 1300, l’espagnol Raymond Lulle reprend les méthodes introduites par les arabes pour l'édification de son « Ars magna » qui devait être une méthode générale pour découvrir « toutes les vérités » à partir de combinaisons. Et c’est comme contribution à l'ars magna que Cardan publiera quelques deux cents ans plus tard ses formules et algorithmes algébriques. La « méthode » de Descartes a essentiellement pour but de permettre la résolution des problèmes de géométrie grâce à leur traduction algébrique et au traitement algorithmique de cette traduction (Descartes pensait manifestement que tous les problèmes algébriques pouvaient être traités algorithmiquement, ce qui s’est révélé faux par la suite). Leibniz a rêvé d’une « caractéristique universelle » permettant de résoudre tous les problèmes. Il est encore plus manifeste chez lui que chez Lulle que celle-ci doit être mise en œuvre par une machine. Il est l’un des premiers à construire une machine à calculer.
Reprenons maintenant la définition de la notion d’algorithme que nous avons posée au début et précisons-en quelques points.
- Un algorithme étant apte à la résolution d'une classe de problèmes, son énoncé doit comporter une description plus ou moins symbolique des données caractérisant cette classe (nous dirons que c'est son entrée ou sa source) et également une description plus ou moins symbolique des solutions de ces problèmes (nous dirons que c'est sa sortie ou son but). Par exemple, l'algorithme d'Euclide a pour source l'ensemble des couples d'entiers positifs non nuls (en écriture de base 10 par exemple) et pour but l'ensemble des entiers positifs non nuls.
- Un algorithme doit être fixé en tous ses détails. En particulier :
- les instructions doivent être d'une précision absolue. Une recette de cuisine bien qu'ayant une entrée (les « matières premières » : œufs, beurre, farine, etc.) et une sortie (gâteau d'anniversaire, etc.) ne peut être considérée comme un algorithme si elle comporte des instructions telles que « ajouter une pincée de sel » ;
- l'ordre d'application des règles doit être donné sans ambiguïté. Un organigramme constitué de boîtes d'instructions et d'aiguillages en rendra encore mieux compte que le langage ordinaire.
- Un algorithme doit être effectif : cela signifie que chacune de ses règles est suffisamment simple pour pouvoir être effectuée en un temps fini par un homme peut-être stupide et dépourvu de toute imagination mais parfaitement obéissant, muni d'un crayon (inusable) et d'un papier (indéfiniment prolongeable) et qui opère de façon purement mécanique sans réfléchir et sans se soucier du sens que pourraient avoir ces règles1.
On remarquera qu’en quelque sorte 3. implique 2. : si le conducteur de l’algorithme est dépourvu d’imagination, il sera incapable de suppléer au manque de précision ou à la défaillance d’une instruction.
On remarquera aussi que le conducteur de l’algorithme est censé effectuer ses calculs pas à pas, de manière discrète et déterministe sans avoir recours à des méthodes continues ou analogiques ou stochastiques.
Un algorithme ayant une source (classe de problèmes) et un but (énoncé de la solution) définit par là même une fonction que l’on dit calculable par l’algorithme. Par exemple, la fonction f définie par : « quels que soient les entiers positifs non nuls x,y:f(x,y)=P.G.C.D. de x et de y » est une fonction calculable par l’algorithme d’Euclide.
Il est très facile de se rendre compte que, si une fonction est calculable par un algorithme, il en existe d’autres grâce auxquels elle est également calculable. Et c’est un problème important que d’avoir des critères permettant de choisir, parmi ceux-ci, ceux qui réalisent les meilleures performances du point de vue économie de temps ou du point de vue d’autres critères tels que : facilité d’adaptation aux ordinateurs, simplicité, élégance… Il y a là un domaine nouveau à explorer : celui de l’optimalisation des algorithmes.
Il est moins facile de se rendre compte qu’il existe des fonctions qui ne sont pas calculables par un algorithme. Et c'était même là le sentiment erroné des mathématiciens des siècles précédents. Même la découverte de démonstration d’impossibilité de résolution de certains problèmes (par exemple : construction géométrique à l’aide de la règle et du compas, résolubilité des équations algébriques par radicaux) n’influença guère les mathématiciens dans cette croyance, car il s’agissait de la non résolubilité de problèmes grâce à des moyens déterminés mais non d’une impossibilité générale. La démonstration de l’existence de fonctions qui ne sont pas calculables par un algorithme suppose que l’on a défini de façon précise le concept d’algorithme puisqu’une telle démonstration fait appel à la classe de tous les algorithmes. En fait, le problème de la définition précise de la notion d’algorithme est lié étroitement à celui de la définition précise de fonction calculable : une fonction est calculable s’il existe un algorithme permettant de calculer f(n) quel que soit l’entier n. Réciproquement, la méthode d’arithmétisation de Gödel des mots d’une syntaxe permet de déduire le concept d’algorithme de celui de fonction calculable.
Et, historiquement, les recherches de définitions précises ont porté d’abord sur la notion de fonction calculable avec Skolem en 1923. L’idée de départ est de tenter de définir une fonction calculable comme une fonction qui puisse être obtenue à partir de fonctions très simples et manifestement calculables par un processus récursif, c’est-à-dire un processus où la valeur prise par la fonction, lorsqu’on donne à la variable la valeur n+1, est reliée à la valeur de cette même fonction lorsqu’on donne à la variable la valeur n. Précisons cela : désignons par ℱn l’ensemble des applications de ℕn dans ℕ, où ℕ désigne l’ensemble des entiers naturels, par ℱ l’union de tous les ℱn, par s et σ les deux éléments de ℱ1 définis par s(n)=n+1, σ(n)=0 et par Pn,1,…,Pn, n les éléments de ℱn définis par Pn,k(m1,…mn)=mk. Soient f1,…,fk∈ℱm et g∈ℱk. Nous désignerons par g(f1⇑…⇑fk) l'élément de ℱm défini par g(f1⇑…⇑fk) (x)= g(f1(x),…,fk(x)) pour tout x∈ℕm.
Enfin, soient f∈ℱm et g∈ℱm+2. Nous désignerons par frekg l'élément de ℱm+1 défini par :
frekg(0,x)=f(x)
frekg(n+1,x)=g(n,frekg(n,x),x)
pour tout x∈ℕm.
Nous désignerons par 𝒫 et nous appellerons ensemble des fonctions primitives récursives le plus petit sous-ensemble de ℱ contenant s,σ,Pn,1…Pn,m pour tout n et stable par composition et par récursion. Plus précisément, si 𝒫n=𝒫∩ℱn, 𝒫 est le plus petit sous-ensemble de ℱ satisfaisant aux trois conditions :
- s,σ∈𝒫1, pour tout n∈ℕ,Pn,1…,Pm,n∈𝒫n ;
- f1,…,fk∈𝒫m,g∈𝒫k→g(f1⇑…⇑fk)∈𝒫m ;
- f∈𝒫m,g∈𝒫m+2→frekg∈𝒫m+1.
Nous avons construit ainsi un ensemble 𝒫 de fonctions méritant d'être appelées calculables.
Mais, dès 1928, Ackermann donne un exemple très simple de fonction méritant d'être appelée calculable et n’appartenant pas à 𝒫. Il s’agit de la fonction f∈ℱ2 définie par :
f(0,n)=n+1 ;
f(n+1,0)=f(n,1) ;
f(n+1,m+1)=f(n,f(n+1,m)).
C’est Gödel qui va parvenir, en 1934, en utilisant un projet de Herbrand à « agrandir suffisamment 𝒫 » pour parvenir enfin à une définition satisfaisante de la notion de calculabilité. Ce 𝒫 agrandi que nous désignerons par R et que l’on appelle ensemble des fonctions récursives générales se définit en permettant la génération de fonctions nouvelles non seulement par composition et par récursion mais aussi par minimalisation. Voici quelles sont des définitions précises : soit f∈ℱm+1. On désignera par μ(f) et on appellera minimalisation de f l’application de D dans ℕ définie par :
μ(f)(x)=min(n∈ℕ/f(n,x)=0) pour tout x∈D, D désignant le sous-ensemble de ℕm constitué par les x∈ℕm pour lesquels il existe un n∈ℕ tel que f(n,x)=0.
Il est facile de montrer que la fonction de Ackermann appartient à R.
En 1936, Church et Kleene introduisent la notion de λ-définissabilité. Church et Rosser démontrent peu après qu’elle est équivalente à la notion de fonction récursive et Church formule alors sa célèbre thèse : toutes les fonctions réputées intuitivement calculables ou, selon ses propres termes, « effectivement calculables » sont λ-définissables ou, ce qui est équivalent, récursives générales.
Il s’agit bien d’une thèse et non d’un théorème puisque son énoncé propose d’identifier un concept intuitif imprécis à un concept précis. Elle ne peut être démontrée mais peut être étayée par de nouvelles démonstrations d'équivalence.
Le premier pas décisif dans le renforcement de la thèse est accompli par Turing, en 1936, qui introduit une notion de machine qui est le résultat d’une analyse des opérations élémentaires qu’accomplit le conducteur d’algorithmes, peut-être stupide, mais fort obéissant dont nous avons déjà parlé. Presqu’en même temps, et indépendamment, Post décrit, en 1937,une machine analogue. La thèse que Turing énonce alors : toutes les fonctions réputées intuitivement calculables sont celles calculables par la « machine de Turing », apparaît équivalente à celle de Church puisque Turing lui-même démontre l'équivalence de son concept de calculabilité avec la λ-définissabilité. Le concept de machine de Turing est important car il a permis de définir exactement le concept d’algorithme sans passer par la gödelisation et a permis d'étendre à toute une série de problèmes (en particulier au problème des mots en théorie des groupes et au problème de la décidabilité des prédicats) la démonstration de l’impossibilité de résoudre le problème de Thue pour les demi-groupes qui avait été donnée par Post et Markov en 1947.
C’est Markov en 1951 qui donne une première définition du concept d’algorithme sans passer par la gödelisation. La thèse qu’il formule alors : tout algorithme au sens intuitif du terme peut s'écrire sous forme d’algorithme de Markov, est renforcée par Detlovsk qui démontre, en 1958, l’identité de l’ensemble des fonctions récursives et des fonctions calculables par un algorithme de Markov.
Markov est parvenu à sa notion d’algorithme en s’apercevant que les démonstrations, les calculs, les transformations logiques consistent essentiellement à transformer certains mots en d’autres suivant diverses règles. C’est dire que sa formulation vient s’inscrire tout naturellement dans le cadre très général formulé par Post en 1943 et qu’on désigne maintenant sous le nom de « calcul de Post ».
- Les régions limitées par des traits pointillés sont censées représenter des concepts intuitifs plus ou moins vagues.
- Les régions limitées par des traits fermes sont censées représenter des concepts précis.
- Les traits doubles pointillés sont censés représenter des équivalences intuitives des « thèses ».
- Les traits doubles pleins sont censés représenter des équivalences précises, prouvées par des démonstrations mathématiques.
C’est également comme un cas très particulier de calcul de Post qu’apparaissent les grammaires de Chomsky en 1955. Elles fournissent un modèle fondamental pour l'étude non seulement des langues naturelles mais aussi des langages de programmation que d’autres conférenciers auront maintes fois l’occasion de définir et de développer dans leurs exposés.
1. Il est clair qu’il vaut mieux, pour la bonne conduite de l’algorithme, qu’un tel homme ne sache faire que cela et qu’un mathématicien aura quelque peine à oublier la signification des calculs qu’il effectue pour tenir convenablement un tel rôle pendant longtemps : le paysage le séduit trop. Ulysse se bouchait les oreilles pour ne pas entendre le chant des Sirènes !
Section : Informatique et technocratie
Dimanche 19 juillet 1970 (matin), intervention de Louis Pouzin, Délégation générale à l’informatique (pp. 429-435)
Intervention de Louis Pouzin
Peut-on être pour la technocratie ? Bien qu’il soit de bon ton d'être contre, n’est-ce pas un simple préjugé, d’autant plus mal fondé que l’on pourrait bien soi-même appartenir à une variété de technocrates retranchés dans l’informatique. Afin d’y voir plus clair, il paraît souhaitable de s’interroger sur ce que l’on entend par « technocrate ».
- La technocratie est-elle une forme d'existence contrôlée par des machines ? C'est un état de fait beaucoup plus fréquent que l'on ne se plaît à le reconnaître. La vie moderne est truffée de situations où le confort et la sécurité des personnes dépendent du bon fonctionnement de machines : air conditionné, ascenseurs, avions, etc., pour s'en tenir seulement à la lettre A. Les vols lunaires reposent totalement sur le bon fonctionnement d'un matériel extrêmement complexe. Mais alors on parle plutôt de science ou de technique, non de technocratie.
- La technocratie est-elle une forme de gouvernement par des techniciens ? En fait, il ne semble pas tellement que nous soyons gouvernés par des techniciens. L'inventaire des personnages ou institutions détenteurs de pouvoir ne révèle pas demodification radicale depuis plus d'un demi-siècle. On y retrouve traditionnellement les représentants du peuple, les chefs d'entreprise, les banquiers, les ministres, la police, l'église, les partis politiques, les syndicats… Rien de très nouveau.
- La technocratie est-elle une forme occulte de gouvernement par des techniciens derrière une façade de pouvoirs traditionnels ? Tous les pouvoirs ont toujours été plus ou moins assistés de conseillers divers, dont des techniciens. Il ne semble pas que le technicien ou le savant actuel soit beaucoup plus écouté ou respecté que son homologue des générations antérieures.
- Où trouve-t-on alors cette association de technique et de pouvoir ?
Peut-être pourrait-on déceler des traces du virus dans ces vocables nouveaux à effet certain tels que : techniques de la décision, préparation scientifique des décisions. Ce ne serait sans doute que colorations nouvelles plaquées sur des procédés anciens si le contexte n’impliquait le plus souvent l’utilisation d’ordinateurs. En d’autres termes, il y aurait là un phénomène nouveau dû à l'écrasante supériorité de la machine dans le domaine du traitement de l’information. Il semblerait, aux dires de certains, que l’on pourrait maintenant évaluer les conséquences des décisions de façon scientifique, quantifiée, objective, dénuée de tout facteur affectif, en compilant une masse suffisante d’information qu’aucun individu ne pourrait synthétiser par ses seuls moyens humains. Nous serions enfin bientôt débarrassés de ces décisions subjectives prises hâtivement sous la pression des circonstances. Mais pourquoi y aurait-il encore besoin de gens pour prendre ces décisions ? Si une machine est capable de produire le bilan quantitatif d’une alternative en traitant des masses considérables de données, on ne voit pas très bien ce qui empêcherait de pousser l’opération un pas plus avant et de produire la meilleure des alternatives. Si maintenant on prend une décision différente, c’est sans doute que la meilleure alternative était inapplicable, donc mal évaluée.
Est-ce là une attitude légitime de suspicion vis-à—vis du traitement mécanique de l’information ? Sert-il vraiment à quelque chose ? Ou bien ne jouons-nous pas la tragi-comédie de prendre des décisions dictées par des machines ?
De tout temps, les décisions ont été fondées notamment sur des « informations ». Tous les pouvoirs sécrètent des réseaux d’information, officiels ou non. Avec le temps et la conquête des libertés individuelles, les sociétés humaines ont développé des formes de pouvoir construites sur une collecte ouverte et organisée de l’information. C’est ce qu’on appelle une démocratie. Les opinions de chacun, recueillies au niveau le plus élémentaire, sont concentrées pour aboutir à une expression commune d’opinion générale. Sans être nécessairement partagée par tout le monde, elle devrait être au pire la moins mal partagée.
Il existe d’autres formes moins officielles de collecte d’information : les renseignements généraux, les services spéciaux, les études de marché, les sociétés de crédit, les gangs. Ces organisations collectent et traitent des informations par leurs moyens propres, afin de pouvoir prendre des décisions conformes à leurs intérêts particuliers. Une des techniques élémentaires du renseignement consiste à entourer de mystère ce que l’on sait réellement. La collecte d’information a donc le plus souvent lieu par des voies indirectes. Le processus n’est pas consultatif en ce sens que l’on n'éclaire pas 1e public sur les véritables facteurs que l’on désire connaître. Ceux-ci sont dissimulés soit par l’utilisation de moyens confidentiels, soit par des formes de collecte anonymes et peu explicatives. À quoi ou à qui servent, par exemple, les fiches de débarquement « obligatoires » que doit remplir tout passager français venant d’un aéroport étranger ? Le processus est également dénué d’aspect délibératif. Le public, n'étant pas informé de la véritable information recherchée, est encore moins convié à débattre du sujet.
On pourrait imaginer que tous ces réseaux d’information, occultes ou transparents, n’ont pour but que de rassembler le maximum d'éléments à partir desquels seraient évaluées des décisions judicieuses dans un environnement déterminé. Il n’est pas interdit de penser que cela se produise en effet. Mais il est différentes natures de décisions. Peut-on par exemple placer sur le même plan les mesures de dépannage d’un atelier après un incident technique, la fermeture d’une agence régionale d’une grande société, la fixation du taux d’intérêt de la Banque de France ou l’entrée de la Grande-Bretagne dans le marché commun ? La fermeture d’une agence régionale peut être la conséquence d’une opération de concentration de moyens. Elle peut aussi mettre en émoi des notables, des clients, des politiciens. Il est nécessaire de peser tous ces éléments avant d’en décider. Mais l’opération de concentration n’en est pas moins poursuivie, avec l’objectif de fermer un certain nombre d’agences. Les facteurs essentiels seraient très différents si l’agence était le seul établissement de la société.
Dans la pratique, les décisions sont prises à plusieurs niveaux, que l’on peut qualifier de stratégiques et tactiques. On pourrait dire aussi décision de pouvoir et de gestion, ou bien de politique et de logistique. Une décision prise à un niveau de pouvoir élevé ne peut être appliquée que par transformation en une cascade de décisions intermédiaires prises ultérieurement par un grand nombre de personnes. Traditionnellement, l’impossibilité pratique d'évaluer tous les facteurs pesant sur une décision de haut niveau conduit le plus souvent à décider d’abord, tenter d’appliquer ensuite. Si un réseau d’information est utile pour aider à prendre une décision de haut niveau, il est tout aussi apte à faciliter la prise des décisions subséquentes, qui sont les plus nombreuses, et d’autant plus ressenties par le public qu’elles atteignent un stade final d’application. Comme il existe souvent une multitude de voies pour aboutir à des objectifs généraux, les décisions intermédiaires ont surtout pour but de choisir des voies de moindre résistance. Un réseau d’information est alors un outil inséparable du pouvoir pour aboutir à la réalisation de ses objectifs.
L’information collectée et traitée par les seuls moyens humains est personnalisée. Les traits d’observation et de jugement des individus influent sur les résultats. La masse d’information est de plus limitée. En face de cela, un ordinateur peut absorber une quantité quasi-illimitée d’informations brutes. Il serait donc l’outil idéal pour remédier aux défauts inhérents aux moyens d’information humains, tant par sa puissance de synthèse que par son objectivité.
En réalité, une masse d’informations brutes est inutilisable, quelle que soit la manière d’additionner des faits élémentaires, car ils n’ont pas la même signification du point de vue de ce que l’on recherche. Pour obtenir des résultats utilisables, il faut traiter l’information, autrement dit utiliser des procédés d’analyse et de réduction des données qui les transforment selon des lois choisies avec plus ou moins de bonheur. Il peut apparaître à ce stade des distorsions involontaires ou non, conséquences d’erreurs techniques ou de coups de pouce délibérés. Il est courant de lire des résultats d'études donnant une pléthore de chiffres en apparence cohérente (la somme des pourcentages est 100) et qui ont la réputation de sortir des ordinateurs. On n’indique jamais de quelle manière ces résultats ont été obtenus. Ce serait d’ailleurs impraticable, car le traitement effectué peut être d’une telle complexité que sa compréhension est réservée aux seuls spécialistes.
L’ordinateur producteur d’information est communément crédité de cette neutralité qui fait tomber les passions et clôt les discussions. Or, le seul élément neutre se réduit à l’ordinateur. Les informations brutes ne sont pas neutres. Aussi nombreuses soient-elles, elles sont choisies parmi d’autres que l’on ne retient pas. Le traitement n’est pas neutre, c’est un programme qui reflète une méthode de certains experts. Les résultats ne sont pas neutres, car il est bien rare que l’on publie tout ce qu’il est possible d’obtenir. Mais l’ordinateur impavide sert de paravent commode. Il n’est plus possible de contester l’information dont personne n’est responsable. Tout au plus admet-on quelquefois une « erreur » d’ordinateur, autre paravent commode pour désigner une erreur humaine. Puisque les informations sont supposées neutres, cette qualité se transfère aussi aux décisions qui en découlent logiquement, disons fatalement. Il est humain d'être en désaccord avec des décisions prises par d’autres, et au besoin de s’en prendre aux auteurs. Si un pouvoir est jugé par trop contraignant, certaines personnes peuvent tenter de s’en saisir en en chassant d’autres. Prendre ou conserver le pouvoir sont des occupations qui impliquent nommément des individus. Faire passer l’ordinateur pour le véritable instrument de décision a pour effet de dépersonnaliser le pouvoir. C’est sans doute pour ceux qui le détiennent un moyen adroit de le conserver, car on ne voit pas très bien comment prendre un pouvoir qui n’est visiblement exercé par personne.
L’ordinateur paravent n’est pas seulement utile aux mains de ceux qui détiennent le pouvoir face à ceux qui ne l’ont pas. Habituellement, le pouvoir est en réalité un ensemble de clans, organismes, directions,… entre lesquels apparaissent des désaccords et des rivalités pour des positions plus dominantes. La connaissance des techniques informatiques est encore assez précaire dans les milieux dirigeants, dont la moyenne d'âge fait remonter la formation à une autre époque. Moyennant une présentation quelque peu différente, un homme de pouvoir est aussi neutralisé par des produits d’ordinateur qu’un homme sans pouvoir. À toutes fins utiles, il est prudent de s’entourer des meilleurs augures avant de prendre une décision comportant des risques. En cas d’ennui, la référence à l’ordinateur peut apporter des justifications ou échappatoires supplémentaires.
En résumé, l’informatique apporte de nouveaux instruments de pouvoir que nous ne savons pas encore bien utiliser ou neutraliser. Il se caractérisent par une présentation scientifique des informations et des décisions. La technicité et la dépersonnalisation apparentes des mécanismes utilisés les rend assez peu vulnérables à la contestation individuelle. La distinction entre les méthodes rigoureuses et les amalgames pseudo-scientifiques est encore assez peu perceptible dans la société actuelle, et le mythe de l’ordinateur se cultive aussi bien dans les milieux de pouvoir qu'à l’extérieur. L’invocation de l’ordinateur est un camouflage commode pour l’accomplissement de politiques occultes.
Sous la présidence de Mme Claudine Marenco, hormis les conférenciers, sont intervenus dans la discussion R. Cohen, F. Le Lionnais, R. Mesrine, J. Urvoy, J. Weinbach.
22.06.2015 à 02:00
TVL 2015 : attention, ça glisse !
Le Trail de la Vallée des Lacs est sans doute l’un des plus fun des trails du massif des Vosges, tant par son parcours que par les aléas climatiques qui caractérisent si bien nos vallées. Je ne pouvais repousser à une date ultérieure ma participation à ce trail. Pour cette première fois, je n’ai pas été déçu, ni par l’organisation ni par le parcours.
Descriptif
Ce fut un week-end assez particulier que ces 20 et 21 juin 2015. Le premier jour, dédié aux grands parcours des 55 et 85 km fut très difficile pour les coureurs, avec du vent et des pluies glaciales sur les crêtes vosgiennes. En les voyant redescendre, et même si la perspective de la ligne d’arrivée dessinait sur leurs visages un soulagement méritoire, on remarquait les stigmates que la course n’avait pas manqué d’imprimer sur les corps fatigués. Ce n’est pas tant la longueur ou les dénivelés qui sont les plus durs sur ce trail, mais bel et bien le terrain et le climat.
Le trail court du lendemain, avec ses 29 km (27 annoncés) et ses 1300 m D+ n’offrait qu’une petite partie des difficultés de la veille. Sous le portail du départ, avec la pluie et la fraîcheur revigorante du matin, tout le monde savait à quoi s’en tenir : des pistes glissantes et une boue bien grasse savamment préparées par les coureurs de la veille, ce qui ne devait pas aller en s’améliorant, surtout en fin de peloton. Ceux qui comme moi, avaient déjà reconnu le tracé, savaient aussi quels endroits plus techniques devaient retenir toute l’attention du traileur pour ne pas risquer la blessure.
L’organisation fut exemplaire : profitant chaque fois de l’expérience des sessions ultérieures, le balisage et les indications des bénévoles (forts courageux pour attendre des heures sous la pluie) furent largement appréciés. Aucune place à l’erreur.
Le départ fut donc donné avec les mises en garde de rigueur et la foule (plus de 500 coureurs) se mit en mouvement. Dans l’ensemble, le démarrage fut plutôt serein pour une mise en jambe profitable. Dès le premier single, le bouchonnage fut prévisible, avec presque aucune possibilité de dépassement. La situation devra se renouveler deux autres fois, dans les descentes vers le lac de Longemer, à la fois à cause du ravinage et de l’instabilité des sentiers. S’il fallait prendre de l’avance, c’est sur la première montée des pistes de la Mauselaine qu’il fallait le faire : un chemin bien large au dénivelé assez régulier permettait de prendre un rythme de croisière confortable.
Les montées les plus difficiles du parcours se situaient sur sa première moitié et juste un peu après le ravitaillement de mi-parcours. Des raidillons pas franchement longs mais assez éprouvants pour les jambes en particulier avec un terrain glissant. La difficulté principale de la seconde moitié du parcours tenait selon moi au terrain des chemins, avec à certains endroits des mares de boues qui mettent à l’épreuve nos capacités de saut en longueur. Au bout d’un moment, tout le monde abandonne l’idée de se salir le moins possible : on est là pour cela, après tout. Cependant, les rotules en prennent pour leur grade à chaque fois que, sous la boue, une pierre ou une racine fait perdre l’équilibre.
Les 5 derniers kilomètres ne furent toutefois pas aussi difficiles que prévu. Quelques rayons de soleil firent leur apparition à notre grande joie. Arrivés au camp de base, beaucoup de coureur ne résistèrent pas bien longtemps avant de plonger les jambes dans le lac pour ôter le plus gros des souvenirs forestiers incrustés sur les mollets… Vivement l’année prochaine !
Résultats et tracé
- Les résultats du trail sont consultables à cette adresse.
- Mon temps : 4:11:16
- Classement : Scratch 306/546 (90 V1H / 130 VEM)
Contrairement à ma reconnaissance du parcours, cette fois, le tracé est bel et bien exact. Vous pouvez aussi télécharger le fichier GPX (sur cette carte, cliquez sur « légende » puis « visualiser les données »).
30.05.2015 à 02:00
Entraînement trail, 6 châteaux
La sortie trail du jour m’a embarqué autour du Mont Sainte Odile, un des hauts lieux de l’identité alsacienne. Un parcours à éviter absolument le dimanche si vous ne voulez pas gêner les randonneurs. Côté repérage, la multitude de chemins balisés du Club Vogien a ceci de paradoxal qu’à la vitesse de course à pied, on en perd un peu le fil, donc carte obligatoire. Ce parcours me semble idéal si vous êtes de passage dans la région et si vous voulez visiter un maximum d’endroit en peu de temps. C’est parti, au rythme d’un car de touristes japonais frénétiques !
Description
L’objectif du jour était simple : cumuler un dénivelé positif d’au moins 1000 m tout en prenant plaisir à rallier différents points remarquables autour du Mont Sainte Odile. L’intérêt d’aligner sur un même parcours des monuments ou des rochers particuliers, c’est de rompre la monotonie. Ce fut plutôt réussi. Sans vouloir crâner, je pense que s’il y a un trail du côté de Barr, c’est ce parcours-là qu’il faudrait faire pour un trail court.
C’est donc à Barr qu’on est invité à laisser sa voiture, le cas échéant. Un emplacement intéressant est sur le parking de l’église St Martin, ce qui permet d’amorcer directement sur le GR 5 à la droite du cimetière. Pour lire la suite de ce billet, prenez une carte IGN, surtout si vous n’êtes pas un(e) habitué(e) des lieux.
Données du parcours : 28 km, 1285 m D+.
Le parcours en général est assez régulier et rapide. Les difficultés sont étalées tout au long du chemin. La première montée vers le Mont Ste Odile, est assez surprenante. On emprunte le GR pour rejoindre le château du Landsberg puis on est finalement assez vite rendu sur la Bloss puis le Maennelstein. Ensuite entre les replats et les descentes, on couvre très rapidement la distance jusqu’au Monastère, puis les ruines du Hagelschloss et le site du Dreistein (en réalité, à cet endroit, il y a trois châteaux, mais je n’en compte qu’un pour cette balade :) ). Jusqu’au Dreistein, honnêtement, je n’ai pas vu le temps passer. Par contre, la descente du Dreistein et la montée qui suit juste après pour rejoindre la maison forestière du Willerhof nécessite une petite préparation psychologique : le Saegmuehlrain marque la division du parcours en deux grandes parties : la première plutôt régulière et la seconde qui nécessite de bien jauger l’énergie disponible selon la difficulté.
Cette seconde partie est inaugurée par le château du Birkenfels puis, en passant par la Breitmatt, un très joli point de vue sur le rocher du Kienberg. Pour la faire courte, l’ascension du Kienberg (par la face sud) m’a fait apprécier mes bâtons ! Ensuite vient la grande descente, sur plusieurs kilomètres, jusque la Holtzplatz (fond de vallée). Méfiez-vous : repérez bien la nomenclature du Club Vosgien sinon il est très facile de se tromper et se retrouver directement à Barr. Ce serait dommage, puisque les deux derniers châteaux n’attendent que vous à condition d’accomplir la dernière montée NTM (Nique Tes Mollets, un groupe célèbre qui m’a trotté dans la tête tout le temps de cette montée). Cette montée débouche sur Hungerplatz, ce qui marque la fin des négociations de dénivelés, puisqu’entre le château du Spesbourg et celui d’Andlau, c’est une descente qui ne se terminera finalement qu’à Barr. La toute fin du parcours, au sortir de la forêt, surplombe les vignes côté sud.
Je récapitule rapidement les étapes du parcours :
- chateau du Landsberg,
- point de vue du Maennelstein,
- monastère de Ste Odile,
- chateau du Hagelschloss,
- château(x) du Dreistein,
- château du Birkenfels (en passant par Willerhof),
- Rocher du Kienberg,
- Carrefour du Luttenbach puis Holtzplatz et Hungerplatz,
- Chateau du Spesbourg,
- chateau d’Andlau,
- Les Trois Chênes puis retour à Barr par les vignes
Carte et profil altimétrique
La carte ci-dessous et son fichier GPX ne sont là qu’à titre indicatif. Cette précision est importante car à deux reprises, j’ai bricolé ma montre GPS et oublié de la remettre en route (!). Il y a donc deux lignes droites qui faussent un peu le parcours, mais à ces deux endroits, il suffit de suivre le sentier (suivre le sentier du Mur Païen, et le chemin forestier sur la commune de Barr).
24.05.2015 à 02:00
Loi Renseignement. Totalitarisme ou désespérance
Le projet de loi Renseignement, après avoir été voté avec une écrasante majorité à l’Assemblée nationale passe actuellement par les grilles du Sénat et se retrouvera cet été devant le Conseil constitutionnel à la demande d’une soixantaine de députés. Ceux qui ont suivi les débats et constaté l’extraordinaire ténacité des initiateurs de ce projet de loi, ne peuvent qu’être horrifiés de la manière dont furent imposés les arguments et le texte de la loi dans un dialogue de sourds. Ce dernier confrontait non pas les idées politiques entre élus représentants du peuple et sa diversité, mais entre la société civile et la classe politique conçus comme des Atrée et Thyeste que rien ne peut plus concilier. La dialectique entre sécurité et liberté dans le domaine de la surveillance des communications est un sujet qui laissait supposer qu’un tel texte devait faire l’objet d’analyse et d’expertise autrement plus poussées, en prenant le temps, loin des passions suscitées par le terrorisme. Une telle loi laisse-t-elle désormais planer l’ombre du totalitarisme en réponse à la peur et aux tensions mondialisées ? Sommes-nous subrepticement en train d’abandonner nos idéaux démocratiques et républicains ?
Dangers de la loi Renseignement
Je n’ai jamais aimé les mots en « isme ». Ils ont tendance à classer tout et n’importe quoi dans des catégories le plus souvent inappropriées au sujet de la discussion. Le totalitarisme se défini comme un système politique qui impose par le contrôle systématique l’adhésion à une idéologie incarnée par un parti unique censé représenter la communauté. Il n’y a pas d’idéologie unique derrière le projet de loi Renseignement, il y a plutôt une convergence de volontés diverses, allant de la logique ultra-sécuritaire à la défense d’intérêts de classe, ou personnels ou encore lobbyistes (on pourrait aussi qualifier cette loi d'anti-zadiste, par exemple). Donc passer du projet de loi Renseignement à la prédiction d’un totalitarisme qui vient, même déguisé, est une démarche inappropriée qui tend à voiler les problématiques en jeu. Néanmoins je voudrais ici m’interroger et explorer diverses voies et, en mobilisant mes maigres connaissances des auteurs classiques, tracer les contours d’une situation bien désavantageuse pour la démocratie.
Et la dictature ? Là, par contre, on se rapproche davantage de la réalité des faits. La dictature se défini d’abord comme un régime politique, donc avec des institutions qui peuvent la précéder et lui survivre, avec la concentration de tous les pouvoirs sur une personne ou un groupe bien identifié. À l’époque Romaine, la dictature était conçue comme un remède possible à une période de crise, c’est à dire une exception légale à la règle républicaine (une magistrature exceptionnelle). Là où les institutions sont supposées assez fortes pour pouvoir se permettre ce genre d’exception temporaire, une dictature peut théoriquement résoudre une situation de trouble à condition d’un retour à la norme que l’on espère rapide. Là où les institutions sont faibles, la dictature peut perdurer indéfiniment. Elle peut bien évidemment se doubler d’un système totalitaire, fondé sur une idéologie plus ou moins claire.
Voilà pour les définitions. Disons pour simplifier à l’extrême que le totalitarisme est d’abord idéologique là où la dictature est d’abord juridique. Pour revenir à nos moutons à propos de la loi Renseignement, il nous faut maintenant analyser les raisons pour lesquelles une telle loi nous rapproche dangereusement des plus mauvais souvenirs de l’histoire des régimes politiques. Car il s’agit d’une loi qui, du moins dans ses premières moutures, a la prétention d’organiser une surveillance de masse de nos communications, pour défendre des intérêts volontairement englobants et généralistes (comme les « intérêts économique majeurs »), une loi justifiée par la « lutte contre le terrorisme » et qui a finalement pour conséquence de restreindre à grande échelle le droit à la vie privée, la liberté d’expression et en général les libertés individuelles.
À titre d’illustration par anticipation des répercutions de cette loi utilisée par une idéologie totalitaire, on peut se pencher sur une tentative d’amendement relatée par Marc Rees, rédacteur en chef de Next Inpact :
Enfin, il y a le superbe amendement Apprentis chimistes (COM-193), signé par trois sénateurs UDI, MM. Guerriau, Kern et Longeot, qui proposent d’autoriser l’espionnage non seulement dans le domaine du terrorisme ou industriel mais également à « d’autres valeurs essentielles à la République », à savoir les intérêts « sanitaires, énergétiques, scolaires, administratifs, culturels, cultuels, sportifs ». Heureusement, ses auteurs l’ont finalement supprimé après quelques coups de téléphones bien sentis. Ouf !
Cette tentative a en effet de quoi inquiéter. Il serait exagéré de la monter en épingle pour dénoncer tout le projet de loi, néanmoins, pourquoi avoir retiré cet amendement si, après tout, ils est censé être le fruit d’une intense et mûre réflexion (hum !) de la part de ces élus de la République ? N’aurait-il pas dû être discuté au Sénat, quitte à exposer les véritables intentions populistes de certains, et faire l’objet éventuellement d’une motion tout à fait officielle ?
(Màj du 27/05/2015 : ) On pourrait tout aussi bien s’inquiéter de cette autre tentative d’amendement au projet de loi sur le Dialogue Social et l’Emploi, selon laquelle il s’agissait de faire surveiller les communications et les données de millions de chômeurs, sans contrôle judiciaire, dans le cadre de la lutte contre la fraude aux allocations. Un amendement qui, lui aussi, a été retiré une fois pointé du doigt par les journalistes.
En réalité, certains amendements proposés par les élus agissent comme des révélateurs d’un mécanisme malsain et latent, qui n’attendrait finalement qu’une occasion pour se montrer au grand jour. Les générations nées après guerre en France ont tendance à croire que la Déclaration des droits de l’homme et du citoyen et la Constitution de la République ont créé un mode de gouvernance normal et éternel que rien ne saurait remettre en question. D’où une confiance généralement aveugle envers les bonnes intentions des élus. Or, visiblement, il n’en est rien, et certains élus forment une classe dont l’objectif est de remettre systématiquement en cause les principes qui ont fait d’eux des représentants du peuple. C’est là qu’une part de ce qui constitue le totalitarisme entre en jeu. Une sorte de « côté obscur de la Force » finalement toujours présent dans n’importe quelle démocratie : le fait que les idéologies totalitaires soient le fruit d’un mouvement. C’est ce qu’avait très justement analysé Hannah Arendt dans son approche des Origines du totalitarisme : la réaction classique face à la faute totalitaire, c’est de vouloir identifier des responsables, des porteurs de croix ; or, ce qui caractérise vraiment cette faute, c’est la dilution des responsabilités à tous les niveaux y compris dans le peuple. Les fautes sont en effet partagées : d’un côté un mouvement latent, une peste qui couve et qui doit faire l’objet d’une vigilance permanente et, de l’autre, l’irresponsabilité, l’abandon des idéaux, et une majorité écrasante de citoyens qui ne se sentent plus concernés (d’aucun pourront argumenter avec raison qu’une part de cet abandon est aussi le fruit des vicissitudes des partis et des promesses électorales non tenues).
Et là, nous touchons à la principale cause de la prétendue non-réception des enjeux de la loi Renseignement auprès du grand public, malgré tous les efforts des associations et autres groupements les plus concernés, de La Quadrature du Net au Syndicat des avocats de France en passant par la Ligue des droits de l’Homme et Reporters Sans Frontières.
L’acceptation
La surdité du grand public peut s’expliquer selon plusieurs points de vue.
Complexité et dénigrement
Le fait que, de manière générale et pas seulement pour ce qui touche aux libertés numériques, il est toujours plus difficile d’expliquer en masse des idées complexes que des idées simples, en particulier lorsqu’il s’agit de réagir à la volonté de l’État. La cause de cette difficulté a déjà été expliquée par La Boétie dans son Discours de la servitude volontaire : c’est parce que le peuple a oublié sa liberté qu’il se soumet à l’absolutisme. Dans le cas qui nous concerne, les promoteurs de la loi Renseignement ont eu beau jeu de dénigrer les représentants pertinents de la société civile (mentionnés ci-dessus) qui leur opposaient de solides arguments techniques et juridiques, en les qualifiant de « geeks » séditieux (rappelant trop bien les « 5 gus dans un garage » de la loi Hadopi) et de colporteurs de fantasmes. Ils savaient parfaitement que les discours techniques et juridiques qu’ils avaient eux-mêmes des difficultés à comprendre, ne seraient pas entendus par le grand public non seulement à cause de leur complexité mais aussi et surtout parce qu’un travail de soumission de la population à la peur du terrorisme a été effectué en profondeur auparavant. On peut donc reconnaître que le discrédit systématique des détracteurs a été efficace non seulement auprès du grand public (passage télévision, radios nationales, etc.) mais aussi auprès des députés qui hésitaient encore malgré les invectives de leurs partis respectifs.
Unité, sécurité
Le fameux « esprit du 11 janvier » répété ad nauseam en guise de contre-argument à toute contradiction du parti majoritaire de l’Assemblée a aussi entretenu un discours de servitude : toute manifestation qui ne serait pas le fruit d’une communion générale et compassionnelle du peuple envers les dangers qui guettent la démocratie — dangers que seul le gouvernement serait à même de définir —, est comprise comme une atteinte aux intérêts de l’État et par conséquent peut même tomber sous le coup de la loi Renseignement. C’est là l’effet pervers de la dialectique faussée entre sécurité et liberté : en déplaçant l’enjeu sur le thème de la défense des citoyens au nom de la sécurité, le seul discours qui était alors acceptable devenait celui d’un choix artificiel entre le risque terroriste et la grande braderie des libertés. Tel fut en tout cas l’objet de certains sondages qui posaient la question « Êtes-vous prêts à restreindre un peu de votre liberté pour plus de sécurité ? ». L’impact de ces sondages fut dévastateur puisqu’une idée communément partagée en démocratie consiste à être persuadé que les élus du peuple ne feraient jamais rien qui puisse restreindre outre-mesure les libertés. Et nous revoici chez La Boétie.
Internet, c’est Google
Du côté des élus, il ne faudrait tout de même pas croire qu’un bloc monolithique a été formé en faveur de la loi. Une petite cinquantaine de députés a tout de même voté contre le projet. Mais parmi les élus il y a aussi une grande part des individus soumis comme tout le monde à la logique de la centralisation des données et aux mutations de la vie privée qu’implique l’économie numérique noyautée par les GAFAM (Google, Apple, Facebook, Amazon et Microsoft). Contrairement à l’analogie commune, il ne s’agit pas d’un Big Brother à la manière d’Orwell, mais plutôt, pour reprendre l’expression d’Alain Damasio, d’un Big Mother. Le Big Brother d’Orwell reflète la soumission des esprits à un contrôle totalitaire, alors qu’on ne peut qu’accepter de confier ses données privées à Big Mother en échange du bien-être qu’octroient tous ses services et son amour incommensurable. Par conséquent, si d’un côté les individus sont prêts à sacrifier leur anonymat et leur vie privée en échange des biens et services mercantiles, que ne le seraient-ils pas en échange de la sécurité de l’État ? C’est en tout cas l’approche régulière de beaucoup de nos députés qui, par un extraordinaire manque de compétence et d’analyse sont convaincus qu’Internet n’est autre qu’une somme de services proposés par les GAFAM et nullement l’outil aujourd’hui majeur de la liberté d’expression, de la créativité et du partage des connaissances et des techniques. Eux-mêmes sont donc soumis à Big Mother et, aveuglés par leur stupidité (qui, comme le disait Kant, n’est pas un mal mais un vice sans remède), n’en voient pas les dangers. Leur soumission doit alors s’imposer de la même manière à tous dans une sorte de résignation et d’indifférence générale.
Enfin, c’est aussi du côté de l’architecture d’Internet et de ses écosystèmes qu’il faut aussi effectuer un travail introspectif. C’est ce qu’a fait Eben Moglen lors d’une conférence intitulée « Pourquoi la liberté de pensée exige des médias libres ? ». L’Internet que nous voulons construire doit absolument intégrer la notion d’anonymat comme paramètre par défaut, contre les tentatives de contrôle. Tristan Nitot a sur ce point tout à fait raison lorsqu’il explique, à l’instar de Michel Foucault dans Surveiller et punir, la logique panoptique à laquelle nous devons désormais faire face : sans anonymat et avec une surveillance de masse (même potentielle, c’est la caractéristique panoptique) de nos données contrôlées par l’État, nous ne sommes plus capables de penser.
Déni démocratique
Alors quoi ? Le réquisitoire semble sans appel. Pour reprendre encore les mots de Hannah Arendt qui désigne l’origine du totalitarisme comme le fruit d’une « faillite du jugement et la démission de la conscience morale », tous les ingrédients semblent être réunis : incompétence des élus, simplification des débats et sophismes outranciers, dénigrement des experts et déni de démocratie (on passe la loi en procédure d’urgence pour couper court aux débats). Pourtant les consciences sont alertes : les associations ont effectué de belles tentatives d’explication aux élus (par mail et par téléphone) de manière organisée et argumentée. Et pourtant cette participation Ô combien civique des citoyens au débat public a été qualifié de « pressions » par le premier ministre lui-même. Il était alors certainement oublieux des représentants de consortiums industriels, pharmaceutiques et agro-économiques qui hantent les alcôves des bâtiments officiels et qui, eux, ont des moyens bien plus conséquents pour exercer leurs pressions et modeler les lois. Le simple fait de qualifier de « pressions » l’implication des citoyens, et parmi eux les plus experts en matière de technologies numériques et de réseaux, montre à quel point un fossé de plus en plus grand s’est ouvert entre élus et citoyens. Poncif. Tout le monde en avait déjà conscience. Mais ce qui est beaucoup plus curieux, c’est que ce fossé s’est aussi creusé entre les élus eux-mêmes. En effet, à chaque proposition d’amendement qui n’allait pas dans le sens des promoteurs du projet de loi, les mots du ministre de l’Intérieur furent tantôt sévères tantôt désobligeants, prétendant que les protagonistes n’avaient pas lu le texte ou se laissaient berner par des fantasmes. Accusations graves sur les bancs des députés, mais les réactions furent négligeables. Que dire en effet, lorsque toute contradiction est à ce point refusée ?
Le philosophe Paul Ricœur affirmait qu’on reconnaît une démocratie à partir du moment où elle peut intégrer ses propres contradictions. L’outil principal des dialogues contradictoires est justement la liberté d’expression sur la place publique. Or, si tout dialogue est refusé, que peut-on attendre d’autre d’une loi qui vise à restreindre la liberté d’expression au nom de la sécurité ? Le comportement du ministre de l’Intérieur n’était donc pas surprenant.
Vision simpliste de l’État
Il semble qu’à défaut de penchant totalitaire, nous ayons affaire à une forme de démagogie réactionnaire combinée à un abandon des responsabilités. Il serait trop simple, en effet, de faire appel au néologisme de démocrature, repris ici et là. La démocrature, en effet, est une démocratie tronquée : elle présente tout l’appareillage législatif d’une démocratie mais en pratique la classe politique ne ferait que promouvoir les intérêts de quelques uns. Concernant la loi Renseignement, on ne peut pas réduire la tentative de surveillance de masse à la défense d’intérêts particuliers (même si pour d’autres lois, on peut en effet se poser la question) : le projet de loi n’obéit ici qu’à trois principes :
- Donner un nouveau cadre à la lutte anti-terroriste (un mobile qui n’a jamais été remis en question par les détracteurs de la loi), et élargir cette lutte à d’autres « intérêts de l’État »,
- Organiser une surveillance de masse en prétendant que la sécurité (dont on n’évalue jamais le niveau d’efficacité) doit être assurée au prix d’une liberté d’expression limitée, c’est à dire un discours réactionnaire et paternaliste justifié par la croyance en l’insécurité permanente (« c’était mieux avant », « les temps ont changé, il faut s’adapter », « la récréation est terminée », etc.),
- L’abandon des responsabilités : les gouvernants s’en réfèrent à l’expertise (forcément biaisée) pour justifier les décisions, ce qui a pour effet de déresponsabiliser leur discours et de circonscrire toujours plus le rôle de l’État à la maintenance de l’ordre (la crise économique aidant, toute mesure de gouvernance est imposée par d’autres États auprès desquels il faut chercher modèle ; la sécurité est donc l’un des rares créneaux où nous pouvons agir par nous-mêmes).
Le Conseil de l’Europe fait la leçon
À l’approche de l’examen du projet de loi par le Sénat, le Commissaire aux Droits de l’Homme du Conseil de l’Europe s’est fendu d’une lettre claire et concise adressée aux membres du Sénat français. En substance, Nils Muižnieks rappelle que les droits de l’homme « ont subit les répercussions des mesures prises par divers états afin de lutter contre le terrorisme ». Il ajoute à l’intention expresse du Sénat français :
(…) Le rapport adopté par l’Assemblée parlementaire du Conseil de l’Europe le 21 avril dernier a ainsi mis en évidence les menaces que la surveillance de masse fait peser sur le droit au respect de la vie privée et familiale, le secret des sources journalistiques ou encore le secret professionnel des avocats.
À cet égard, le projet de loi relatif au renseignement suscite de nombreuses inquiétudes (…).
En premier lieu le champ d’application extrêmement vaste de ce projet de loi, qui dépasse largement la lutte contre le terrorisme, est insuffisamment clairement circonscrit et risque de viser des activités dont la nature ne justifie pas le recours aux moyens de surveillance prévus par ce texte. Ces moyens sont, en effet, particulièrement intrusifs (…)
La délivrance d’un simple avis par la Commission nationale de contrôle des techniques de renseignement, la possibilité d’y déroger en cas d’urgence ainsi que l’absence d’intervention de l’autorité judiciaire dans le processus décisionnel visant à la mise en œuvre des mesures de surveillance confèrent à l’exécutif une marge de manœuvre insuffisamment contrebalancée.
Quelle gifle ! En d’autres temps, nous nous serions rendus sur le pré en échangeant des politesses et des coups de sabres. Comment se fait-il qu’une aussi haute institution que le Sénat français fasse à ce point l’objet d’un tel rappel à l’ordre ? Tout ce se passe exactement comme si les idéaux de la Déclaration universelle des droits de l’homme et du citoyen, dont la France s’enorgueillit tellement, étaient dévoyés par nos élus. Serait-ce donc aussi has been que de s’assurer que les droits de l’homme soient respectés par les lois, alors même que notre Déclaration est le fruit de près d’un siècle de travail des philosophes les plus illustres des xviie xviiie siècles ? À moins que justement il s’agisse d’une conception de l’État pré-révolutionnaire, comme s’il n’y avait plus d’autre action possible que de sauvegarder un pouvoir qui s’étiole, en particulier face à la mondialisation des rapports économiques, belliqueux, ou technologiques. Une sorte de gesticulation motivée par la peur de l’impuissance et un retour à une conception hobbesienne de l’État.
Retour du Léviathan
Thomas Hobbes fut l’un des premiers à avoir théorisé le rôle de l’État. Ce dernier agit comme le mythique Léviathan, unique et absolu, détenteur du pouvoir ultime avec lequel les individus passent un contrat (social) en échangeant leur liberté naturelle, source de conflit et de chaos, contre l’ordre et la sécurité. Pourquoi une telle vision apocalyptique d’un monde sans État puissant ? Tout simplement parce que Hobbes pensait à la violente guerre civile dont l’Angleterre se remettait à peine. C’est la peur qui a guidé la plume de Hobbes, tout comme la peur de perdre leur autorité (donc celle de l’État) dicte le discours des promoteurs de la loi Renseignement. Dans ce contexte, il est donc très important peur eux de réduire au maximum le rôle de la loi Renseignement à la sauvegarde de l’ordre établi, comme une surcouche aux autres lois existantes. Ainsi furent déclinés les intérêts de l’État autres que la protection des citoyens contre le terrorisme, lui-même vu (érigé ?) comme un embryon de guerre civile. Le résultat est que les intérêts ainsi défendus au détriment des libertés sont bien trop englobants, et ne laissent plus de place aux contradictions démocratiques, ce que souligne justement le Commissaire au droits de l’Homme du Conseil de l’Europe.
Mais Hobbes n’a fait qu’initier une discussion qui s’est étalée sur plus d’un siècle. Quelques années après la parution du Leviathan, ce furent Jean-Jacques Rousseau et John Locke (pour ne citer qu’eux) qui eurent l’intelligence de s’intéresser à la connaissance et à la raison dont sont loin d’être dénués les individus. Si donc l’individu est doté de raison et de connaissance, et donc de jugement, l’État ne règne pas en maître sur des individus écervelés prêts à s’étriper pour une pomme tombée de l’arbre. Oui, les hommes sont capables d’auto-gouvernance et, en termes modernes, on traduit cela par la capacité de la société civile à à se faire entendre. La société civile est non seulement capable d’expertise mais les institutions démocratiques sont ainsi faites qu’il ressort même de l’obligation du citoyen de faire valoir ce droit à exercer ce civisme. La manière dont fut votée la loi Renseignement à l’Assemblée nationale a montré que nos élus n’en sont restés qu’à Hobbes, dans une surdité totale face aux arguments de ceux qui, pourtant, sont les mieux placés pour juger de la recevabilité ou non d’une telle loi. Retour aux classiques, au moins jusque 1789.
Conclusion
Pour le dire simplement, le discours paternaliste ambiant doublé d’une conception étriquée du rapport entre liberté et sécurité, est forcément source d’un schisme qui ne tardera pas à éclater entre le gouvernement et la société civile. Cette prédiction n’est pas forcément un bon signe dans la mesure où l’abandon et l’irresponsabilité des élus a provoqué autant de frustrations de tous ordres dans une société en crise. En d’autres termes le schisme en question risque de ne pas être révolutionnaire (et pacifique) mais conflictuel. Le processus de la loi Renseignement cristallise une partie des grands maux qui sclérosent la vie politique française. Les effets seront dévastateurs pour la démocratie. Parmi les détracteurs de ce projet de loi figurent ce qu’on appelle des leader d’opinion. Ceux-ci auront bien raison de souligner la manière dont l’État français considère les libertés et en particulier parce qu’une partie non négligeable de la liberté d’expression et la puissance fédératives des idées (démocratiques ou non) se concrétisent aujourd’hui par la voie numérique. L’Europe serait-elle une dernière niche où, malgré les lobbies, le dialogue démocratique reste possible ? Les voix y sont en tout cas entendues, comme l’ont déjà montré, bien qu’au prix d’énormes efforts, les mobilisations contre Acta et les atteintes à la neutralité d’Internet, et encore en ce moment même à propos de la réforme du droit d’auteur. L’avenir peut nous réserver de belle surprises. Concluons en tout cas sur cette note positive, à défaut d’un grand désarroi.
26.04.2015 à 02:00
Entraînement trail, Oberhaslach-Schneeberg
Dans ma recherche de parcours d’entraînement trail situés à une distance raisonable de Strasbourg et présentant néanmoins des dénivelés intéressants, j’ai testé ce tracé hier, par un temps quelque peu changeant mais qui n’a pas empêché le plaisir des yeux. Le tout pour 20 km de distance et environ 900 m D+.
Je vous propose donc cette petite virée du côté de Oberhaslach, une commune qui par ailleurs accueille le Trail de la Hasel dont la prochaine et troisième édition est prévue le 27 juin 2015. Cela dit, le parcours n’est pas du tout celui que je compte vous présenter ici.
Description
Depuis Strasbourg, se rendre à Oberhaslach est très simple. Il suffit de prendre l’autoroute direction Molsheim puis Schirmeck. Une fois sur la D1420, bifurquer vers Niederhaslach/Nideck par la D392 puis la D218, Dans le centre de Oberhaslach, prendre à droite juste avant la mairie et monter quelques 200 mètres en suivant l’indication du parking (voir plan ci-dessous). Il s’agit du parking de l’école du village où vous aurez l’embarras du choix pour vous garer. Notez au passage la présence de la fontaine près de la mairie, au cas où un coup de brosse devrait s’imposer pour vos chaussures au retour.
Pour le résumer simplement, le parcours consiste à longer la Hasel pour une mise en jambe agréable, puis monter au Nideck (par le Hirschfels), rejoindre le Schneeberg, puis retour par le Col des Pandours, le Petit et le Grand Ringenfels. La carte, le profil et les photos figurent en bas de ce billet.
En guise de préparation, pour une course de printemps, on pourra prévoir un coupe-vent pour contrer les effets du Schneeberg (culminant à 966 m). La totalité du parcours est plutôt à l’abri de la forêt. Il offre plusieurs points de vue et, en tout, le Hirschfels, le Nideck, le Schneeberg, les vestiges Gallo-Romains du Petit Ringelfels et les ruines du château du Grand Ringelfels.
Commentaires sur les sections
Le parcours peut se diviser en 5 sections :
- Après avoir quitté les rues bitumeuses d’Oberhaslach, on longe la Hasel avec un dénivelé très faible (quelques 50 m D+). Ce qui a pour effet de provoquer un échauffement dont on se félicitera dès la première montée.
- Au Café du Nideck, le parcours commence par une montée assez longue, pour moitié sur chemin forestier large qui se transformera ensuite en sentier ombragé. Mon conseil, sur cette section, est de vous dépenser le moins possible malgré les effets d’un sentier a priori facile par moments. La montée principale n’est pas celle-là !
- C’est la montée vers le Schneeberg, depuis la maison forestière du Nideck, qui fera sentir son dénivelé le plus important. Le sentier est fort agréable, pierreux par moments et relativement régulier.
- La descente du Schneeberg au Carrefours Anlagen (en passant par le Col des Pandours) débute sur sentier étroit mais est composé en majorité de chemin forestier large. Il ne présente aucune difficulté technique sauf un peu de longueur largement compensée par la section suivante.
- Les deux Ringelfels sont des petits sommets offrant les mêmes difficultés techniques de part et d’autre. Il s’agit d’un endroit très intéressant pour un entraînement à la descente. Ces dernières sont en effet assez raides, l’une pierreuse et l’autre moins, mais avec un rythme soutenu. La prudence est de mise ! Les deux montées n’ont rien de particulier, à ceci près qu’elles constituent d’excellents indicateurs sur votre capacité à doser vos efforts sur les sections précédentes (ha, ha, ha !).
Le balisage
Le parcours peut se faire presque sans carte (mais je conseille de vous y référer de temps en temps). Ceci grâce au balisage du Club Vosgien.
- On rejoint les rectangles rouges du GR53 dès le centre d’Oberhaslach (au niveau du gymnase, à la sortie du village, prendre à gauche et monter dans le petit quartier pour rejoindre le chemin qui longe la Hasel). Jusqu’au Schneeberg, vous ne quitterez presque pas le GR53 sauf au niveau du Nideck.
- Un éboulement est signalé aux chutes du Nideck dès le début du chemin au Café du Nideck. Dès lors, le GR effectue une déviation, dûment balisée, en passant par le Hirschfels. Aucune déception, ce détour ne rallonge guère en distance et des roches intéressantes jalonnent le chemin.
- Au Nideck, vous serez tenté de suivre le GR53. N’en faites rien. En effet, celui-ci vous mènerait sur la route (D218) et vous seriez obligé d’arpenter le bitume jusque la Maison Forestière du Nideck. Au lieu de cela, empruntez les cercles bleus, jusqu’à la maison forestière, puis rattrapez le GR53 pour monter au Schneeberg. Attention à rester attentif au balisage : dans une petite pépinière sombre, le chemin bifurque brusquement à votre droite.
- Au Schneeberg, redescendez vers le col des Pandours en suivant les croix rouges. Vous croiserez un refuge, et c’est devant sa porte que vous devrez passer pour trouver les indications et reprendre le chemin (sans quoi on est assez facilement tenté de poursuivre tout droit vers un très beau point de vue, mais non prévu). De même peu après le refuge, le chemin se sépare en une patte d’oie serrée : avec votre élan, n’allez pas embrasser un épicéa, mais contentez-vous de suivre les croix rouges.
- Au Col des Pandours, empruntez ensuite les rectangles jaunes et blancs jusqu’au Carrefour Anlagen. Légèrement sur votre droite, vous trouverez les cercles bleus qui vous mèneront sur les deux Ringelfels (la montée démarre aussitôt).
- Après le château du Grand Ringelfels, poursuivez sur les cercles bleus jusqu’à croiser un chemin forestier. Vous devrez alors emprunter les disques jaunes sur votre gauche en contrebas du chemin. Vous les suivrez jusqu’au village.
Conclusion
Il s’agit d’un parcours, comme d’habitude, assez touristique, mais qui permet de s’entraîner efficacement à la montée sur des sentiers. En général, le parcours compte moins de 30% de chemin forestier large et très peu de bitume (maximum 500 mètres), ce qui est plutôt appréciable dans les Vosges.
Carte, profil et photos
Voir en plein écran | Cliquer sur « Plus » à gauche puis l’icône d’export pour télécharger le fichier du tracé (gpx, kml, geojson).
21.04.2015 à 02:00
The Politics of Micro-Decisions
Be it in the case of opening a website, sending an email, or high-frequency trading, bits and bytes of information have to cross numerous nodes at which micro-decisions are made. These decisions concern the most efficient path through the network, the processing speed, or the priority of incoming data packets. Despite their multifaceted nature, micro-decisions are a dimension of control and surveillance in the twenty-first century that has received little critical attention. They represent the smallest unit and the technical precondition of a contemporary network politics - and of our potential opposition to it. The current debates regarding net neutrality and Edward Snowden’s revelation of NSA surveillance are only the tip of the iceberg. What is at stake is nothing less than the future of the Internet as we know it.
Sprenger, Florian. The Politics of Micro-Decisions. Edward Snowden, Net Neutrality, and the Architectures of the Internet. Meson Press, 2015.
Lien vers le site de l’éditeur : https://meson.press/books/the-politics-of-micro-decisions/
Disponible aussi ici : https://mediarep.org/handle/doc/1124
20.04.2015 à 02:00
Digital Platforms, Imperialism and Political Culture
In the networked twenty-first century, digital platforms have significantly influenced capital accumulation and digital culture. Platforms, such as social network sites (e.g. Facebook), search engines (e.g. Google), and smartphones (e.g. iPhone), are increasingly crucial because they function as major digital media intermediaries. Emerging companies in non-Western countries have created unique platforms, controlling their own national markets and competing with Western-based platform empires in the global markets. The reality though is that only a handful of Western countries, primarily the U.S., have dominated the global platform markets, resulting in capital accumulation in the hands of a few mega platform owners. This book contributes to the platform imperialism discourse by mapping out several core areas of platform imperialism, such as intellectual property, the global digital divide, and free labor, focusing on the role of the nation-state alongside transnational capital.
Jin, Dal Yong. Digital Platforms, Imperialism and Political Culture. Routledge, 2015.
Lien vers le site de l’éditeur : https://www.routledge.com/Digital-Platforms-Imperialism-and-Political-Culture/Jin-Curran/p/book/9781138859562
13.04.2015 à 02:00
Trail de printemps... vosgien
On le sent qui arrive ce fameux printemps, mais ce n’est pas toujours évident. J’avais déjà rangé mes mitaines et mes collants doublés, ressorti ma casquette fétiche et mes shorts. Et puis voilà, dans un dernier élan de témérité, je me suis lancé dans un dernier trail hivernal en ce début de mois d’avril. En bon vosgien qui se respecte, néanmoins, la méfiance l’a emporté. Voyant qu’il restait tout de même pas mal de neige sur les pistes de ski gérômoises, je m’attendais à progresser contre le climat hostile et rude. Ils étaient tous là au rendez-vous, ces fidèles amis : la neige sur laquelle on s’enfonce une foulée sur 3, la pluie froide et intermittente, le granit glissant, la boue provoquée par l’eau des fontes… Un dernier petit plaisir pour un nouveau parcours autour de Gérardmer avec trois points de vue différents.
Description
C’est un parcours d’une durée de 2h45 (moins si la météo est clémente) avec 945m D+ autour de la Perle des Vosges. En partie, ce parcours recouvre certains tracés de la station de trail mais le principal avantage, à mes yeux, est qu’il constitue un terrain d’entraînement figurant les principales difficultés du parcours du trail court de la Vallée des lacs (qui aura lieu en juin). Comme ce tracé était encore enneigé, le circuit n’étant pas ouvert, il fallait trouver une solution alternative. Par ailleurs, cela fait un parcours de rechange pour éviter de voir toujours le même paysage.
Les deux principaux avantages touristiques du parcours :
- Circuit autour de Gérardmer avec les points remarquables suivants : Le lac de Gérardmer, la Roche du Rain, les pistes de ski alpin (la Mauselaine, la Chaume Francis, le Poli), le Saut des Cuves, la Roches des Bruyeres, la ferme de Vologne, la Gorge des Roitelets, Kichompré (hameau), Chapelle de la Trinité, Miselle, Les Xettes, le Lac de Gérardmer.
- À chaque sommet, les points de vue porteront invariablement sur la vallée de Gérardmer avec vues Ouest, Nord et Est.
Les difficultés du parcours :
- Deux raides montées en sentier “single”, mais relativement courtes,
- Des montées et descentes assez longues en chemins forestiers larges mais pierreux,
- Une descente très fun mais délicate dans une gorge,
- Pour boucler en 20km, la fin est bitumeuse (sur 2km de descente) mais il est possible de faire une variante forestière en rallongeant un peu.
En quelques mots, le début du parcours reprend le tracé du trail de la Vallée des Lacs, mais s’en sépare du côté de Saint Jacques pour bifurquer sur les pistes du Poli. On remarquera au passage que la première montée du célèbre trail vosgien est particulièrement amusante mais un peu décevante car elle s’achève sur du bitume jusque la Mauselaine. On accusera au passage la bitumisation effrénée du site à des fins de locations touristiques. On admirera alors la vue de Gérardmer depuis les pistes de ski, en particulier celle du Tetras. La descente du Poli jusqu’au Saut des Cuves n’a rien d’exceptionnel mais la montée vers la Roche des Bruyères est un beau sentier pierreux et vraiment montagnard. La Roche présente une vue de toute la longueur de la vallée de Gérardmer jusqu’au lac. On pourra alors apprécier sur la droite, le prochain sommet à atteindre et, à gauche, un aperçu du parcours déjà accompli. La descente s’achèvera par les gorges du Roitelet, un petit ruisseau nerveux qui se jette ensuite dans la Vologne encore naissante à ce niveau. Le petit hameau de Kichompré et sa tranquillité reposeront un peu les jambes pour remonter ensuite assez sèchement jusque la Trinité puis Miselle. Le retour se fait dans la clarté d’un coteau ensoleillé (enfin… selon la météo).
## Quelques photos
Précision : ces photos ont été prises rapidement :)
08.04.2015 à 02:00
Scratch pour les kids
Vous avez certainement entendu parler de Scratch. Peut-être même, avec un peu de chance, un enseignant de l’école primaire ou du collège de vos enfants en a fait la promotion voire a organisé une séance d’initiation en salle informatique. Bon… ce serait dans le meilleur des mondes. Si l’Éducation Nationale se mettait vraiment à exploiter les solutions libres et efficaces d’apprentissage de l’informatique, on le saurait. Quoique cela c’est déjà produit ! Souvenez-vous du LOGO.
OK, ce n’était pas vraiment libre, mais cela provenait tout droit des années 1960, avant l’apparition des licences libres. J’y ai eu droit dans les années 1980, et cela a contribué énormément (fondamentalement) à ma connaissance des machines et la compréhension de la logique informatique. Depuis presque 10 ans, pourtant, un petit nouveau a fait son apparition, c’est Scratch. Et à utiliser avec les enfants, c’est un vrai bonheur ! Voici quelques réflexions à propos de Scratch et sur la récente parution de Scratch pour les Kids (en français), chez Eyrolles.
- Titre : Scratch pour les Kids
- V.O. : Super Scratch Programming Adventure, 2nd Edition
- Auteur : The LEAD Project
- Editeur : Eyrolles
- Date : 2015
- Nb. de pages : 160
- ISBN : 978-2-212-14111-5
Si vous voulez tester Scratch rapidement et en ligne, sans avoir besoin d’installer un programme sur votre machine, il suffit de vous rendre sur le site scratch.mit.edu (j’ai une préférence personnelle pour l’alternative Snap!). Vous pourrez disposer de l’interface et faire partie ainsi des millions d’utilisateurs qui s’échangent leurs projets. Vous aurez aussi droit à la toute dernière version de Scratch, même s’il est assez facile d’installer localement le programme, en particulier si vous devez l’utiliser sans connexion Internet (je préconise personnellement l’installation en local, qui donne l’opportunité aussi d’appréhender la question de la sauvegarde et de la gestion de fichiers).
Scratch, c’est quoi ? Il n’est pas très utile ici de développer une présentation en détail. Le site officiel est déjà très complet à ce propos. En gros, Scratch est dérivé de manière assez lointaine (mais évidente) du LOGO via un logiciel nommé Squeak. Il s’agit d’interpréter graphiquement du code pour faciliter son approche, ce qui permet de manipuler de manière très visuelle des blocs de code de manière à créer des projets-programmes. Aux yeux d’un enfant, le résultat est toujours immédiat : il peut voir ses scripts en action, même de manière indépendante les uns des autres, et s’amuser à contruire tout un projet, le partager, l’améliorer, etc. Par exemple, au Québec, où Scratch est largement utilisé dans le monde éducatif, vous pouvez trouver le site Squeaky MST qui a l’avantage de proposer des bouts de codes bien pratiques adaptés à différentes situations ainsi que des présentations et des tutoriels.
L’interface, quant à elle, est attrayante. Une fenêtre montre toujours le projet en action et l’outil principal est la souris qui permet de déplacer les blocs de scripts. Pour un adulte, la prise en main n’en est que plus rapide. Au bout de quelques essais, on en vient vite à comprendre le fonctionnement général. Mais une question se pose : n’est-on pas vite limité par nos propres connaissances de l’informatique en général ?
Il faut jouer carte sur table : soit vous laissez l’enfant s’amuser et s’approprier Scratch tout seul, soit vous l’aidez et montez des projets avec lui, et de manière pédagogique vous élevez progressivement le niveau d’exigence. Si vous préferez la première solution, c’est que peut-être vous même n’êtes pas à l’aise avec l’informatique. Ce n’est pas un reproche, mais je vous rends attentif au fait que, si pour vous il s’agit d’une question de choix (alors que c’est faux) vos enfants, eux, ne se posent pas la question d’avoir ou non le choix : les machines sont et seront leur quotidien.
Avant d’être assis devant un ordinateur en longueur de journée, comme c’est peut-être votre cas si vous faites un travail de bureau, par exemple, si vous aviez eu la possibilité d’apprendre l’informatique à l’école (et je parle d’informatique, pas de l’actuel B2i qui n’est qu’une forme d’utilisation superficielle de quelques logiciels), je suis certain que votre utilisation quotidienne d’une machine serait profondément différente. À l’école, je n’ai pas appris ce qu’est un protocole de communication, ni comment réaliser un site web, ni installer un système d’exploitation, etc. Rien de tout cela. J’ai juste appris à entrer quelques commandes avec le LOGO, le BASIC et, au collège, programmer des règles de calculs avec le Pascal. L’apprentissage de la programmation informatique (non, on ne dit pas « coder ») permet de rendre autonome, d’avoir de bons réflexes, essentiellement basés sur le partage de connaissances, la recherche de solutions et, j’en suis convaincu, sert à tous les niveaux et tous les types d’apprentissages.
Bref, si vous voulez vraiment bien accompagner votre enfant dans l’apprentissage de Scratch (et plus tard vers d’autres langages), il y a quand même un minimum de pré-requis, que vous vous pouvez acquérir en un minimum de temps, simplement en vous renseignant. L’essentiel est d’être à l’aise car si vous ne l’êtes pas, vous atteindrez vite les limites de tolérance de votre enfant, en particulier si à chaque étape que vous n’aurez pas anticipée, vous êtes obligé de vous arrêter, paniquer, perdre patience, et finir par laisser tomber. Ce serait dommage, non ?
Heureusement, Scratch ne fait pas partie de ces langages où, pour comprendre une fonction et l’utiliser, il faut en plus savoir comment elle sera interprétée par la machine. Non : on utilise des blocs, on les assemble, on peut y ajouter quelques variables, et on voit le résultat. C’est tout. Mais par où commencer ? Si a priori Scratch semble être un joyeux cliquodrome facile d’accès, sans un guide pour vous orienter, la frustration fini par être au rendez-vous. C’est là qu’intervient un magnifique petit ouvrage parfaitement adapté à une utilisation conjointe adulte/enfant : Scratch pour les Kids.
La présentation du livre a été pensée de manière très pédagogique. Il est divisé en 10 chapitres, appelés « niveaux », introduit par une petite bande dessinée. Chaque chapitre reprend les acquis précédents pour aller toujours plus loin dans l’apprentissage de Scratch. Si l’on peut appréhender, au départ, les longues phases de saisie, tout a néanmoins été fait pour que chaque script soit expliqué, partie après partie. C’est là qu’intervient un autre avantage de Scratch : chaque petit script est « jouable » indépendamment du reste du programme. L’enfant ne se lasse pas et l’adulte non plus ! Dès le niveau 2, c’est un jeu très visuel qui est créé. Il peut se lancer immédiatement mais la cerise, c’est que l’enfant a tout de suite envie d’y apporter des améliorations… comme il se trouve assez vite coinçé par manque de pratique, il va naturellement poursuivre le chapitre suivant.
Pour le mode d’emploi, l’ouvrage est déclaré « dès 8 ans ». Il est vrai que c’est à partir de cet âge, et même un peu avant, qu’on peut commencer à travailler avec le LOGO. Néanmoins, le bon maniement de la souris, l’autonomie face à la gestion des fichiers, le fait de rechercher la meilleure méthode pour organiser ses scripts, etc. tout cela m’oblige à dire qu’attendre 9 ans ne me paraît pas exagéré. Dans tous les cas, avant 12 ans, la meilleure solution est de travailler à deux, l’adulte et l’enfant. L’adulte pour expliquer certains termes, et aider l’enfant à créer ses scripts. L’enfant aux commandes, lisant l’ouvrage et appliquant les méthodes des différents niveaux. De même, faire deux niveaux d’un coup serait présumer de la concentration de l’enfant : mieux vaut bien comprendre un niveau et le laisser improviser sur la base des connaissances nouvellement apprises que d’enchaîner aussitôt au niveau supérieur. Pour finir, il sera ensuite temps de passer à la programmation proprement dite, en commençant par Python pour les kids, par exemple…
Pour utiliser Scratch, vous avez plusieurs solutions :
- Utiliser la version en ligne sur Scratch.mit.edu ou bien Snap!,
- Installer la version offline de la dernière version de Scratch (pour GNU/Linux, MacOS et Windows). Cela nécessite l’installation de Adobe AIR (dommage, ce n’est pas libre),
- Si vous êtes sous une distribution GNU/Linux, Scratch est sans doute dans vos dépôts. Attention, toutefois : la version de Scratch utilisée dans l’ouvrage est la version 2. Il y a de grandes chances que vos dépôts proposent une version différente.
Enfin, si vous optez pour l’installation en local, vous pouvez rapatrier les projets mentionnés dans l’ouvrage simplement en les téléchargeant depuis le site. Il suffit de se rendre sur la page du livre et télécharger les Compléments (env. 15 Mo). Il s’agit d’un fichier compressé contenant deux dossiers : le premier avec les fichiers des exemples du livre et les scripts, le second avec les exemples « nus », c’est à dire les images, les lutins, etc. et sans les scripts.
06.04.2015 à 02:00
Liberté, sécurité, Benjamin Franklin
« Ceux qui sont prêts à sacrifier une liberté essentielle, pour acquérir une petite sécurité temporaire, ne méritent ni la liberté ni la sécurité ». Cette citation attribuée à Benjamin Franklin résonne comme un slogan partout où la question des libertés individuelles et le droit à la vie privée sont menacés par des politiques publiques ou de nouvelles dispositions juridiques.
Après l’affaire E. Snowden, et aujourd’hui en France l’actuel projet de Loi Renseignement qui fait craindre un nouveau Patriot Act à la française, de nombreuses voix s’élèvent pour la défense de la justice et contre la surveillance de masse. On fait alors appel à de grandes figures de la défense des droits civils, parmi lesquelles Benjamin Franklin, un des Pères de la Constitution américaine et signataire de la Déclaration d’Indépendance. À la face des décideurs que l’on pense bien inspirés du modèle démocratique qui vit naître les pratiques honteuses de la NSA, retourner une citation chargée de l’histoire même de la naissance de cette grande démocratie américaine, revêt une couleur bien jubilatoire. « Tel est pris qui croyait prendre », aurait dit La Fontaine, mais pour qui exactement ? D’où vient cette citation ? et dans quel contexte a-t-elle été écrite ? Vous allez voir, c’est assez surprenant.
En fait, lors d’un débat, en particulier par écrit, je ne supporte pas de citer sans connaître la source d’une citation et m’assurer que je ne me fourvoye pas dans quelque impasse dont j’aurais toutes les difficultés à sortir. Je ne suis pas le seul, tous les Wikipédiens sont dans ce cas-là, ainsi que les chercheurs, toutes les professions obéissant à des règles de déontologie et de probité, et — oserai-je le dire ? — tout le monde, quoi, sauf les menteurs. Il ne s’agit pas tant de « ramener sa science » que d’être sûr de ce qu’on avance sous peine de se voir aussitôt discrédité. Cette citation de B. Franklin a de nombreux attraits mais elle m’a toujours étonné de la part d’un homme politique de son envergure, peu enclin à sortir des jugements à l’emporte-pièce tels qu’on en rencontre trop fréquemment chez nos policitiens français dont le niveau intellectuel est pourtant bien éloigné des monuments politiques révolutionnaires du xviiie siècle.
La citation elle-même, mentionnée sur la Statue de la Liberté, est souvent citée de manière transformée. Par exemple on trouve parfois une forme largement discutable du style : « un peuple qui serait prêt à sacrifier sa liberté pour obtenir la sécurité, ne mérite ni l’un ni l’autre ». Il est donc important de retrouver le texte original. Il existe une édition électronique des écrits de Benjamin Franklin, en accès gratuit (il faut toutefois accepter une licence), et on peut trouver le texte de 1755 : « Pennsylvania Assembly: Reply to the Governor. November 11, 1755 », in: Votes and Proceedings of the House of Representatives, 1755-1756 (Philadelphia, 1756), pp. 19-21. La citation en anglais est la suivante : « Those who would give up essential Liberty, to purchase a little temporary Safety, deserve neither Liberty nor Safety. »
Néanmoins, à la lecture du document, et sans connaître au moins quelques éléments clés de l’histoire de la Pennsylvanie, il est assez difficile de comprendre le sens de cette phrase située dans l’avant-dernier paragraphe. Toujours est-il que la lecture générale du texte semble nous amener sur un tout autre domaine que celui des considérations actuelles qui nous font citer B. Franklin à tour de bras. Même si, au fond, la problématique reste la même (liberté vs. sécurité), un commentaire s’avère nécessaire. Et ce commentaire, je l’ai trouvé chez B. Wittes, un chercheur de la Harvard Law School, dont je reproduis le propos ci-dessous, avec son aimable autorisation. Il s’agit d’un court texte qui renvoie à un article plus conséquent, cité en note. Je dois aussi remercier Valentin qui m’a soufflé cette référence dans un commentaire précédent sur ce blog.
Ce que Benjamin Franklin a vraiment dit
Par Benjamin Wittes, Lawfare, le 15 juillet 2011
Source : Lawfareblog
En faisant des recherches pour un article que je suis en train d’écrire à propos de la relation entre liberté et sécurité1, il y a un fait historique intéressant que j’ai creusé : cette célèbre citation de Benjamin Franklin, selon laquelle « ceux qui sont prêts à sacrifier une liberté essentielle, pour acquérir une petite sécurité temporaire, ne méritent ni la liberté ni la sécurité », ne signifie pas ce qu’elle semble vouloir dire. Pas du tout.
J’ai commencé à travailler sur cette citation car je m’attaque au problème de fond à propos de l’idée que la liberté et la sécurité participent d’une forme d'« équilibre » entre l’une et l’autre — et la citation est particulièrement illustrative de la thèse de l’équilibre. En effet, ces mots de B. Franklin sont peut-être les plus célèbres jamais écrits à ce propos. Une version est gravée sur la Statue de la Liberté. Ils sont cités à l’envi par ceux qui pensent que ces deux valeurs coexistent l’une et l’autre dans un état d’équilibre précaire, toujours changeant, et que les questions de sécurité menacent toujours de perturber. Tout étudiant en Histoire américaine les connaît. Et tout amoureux de la liberté les a entendu et sait qu’ils se rapportent à cette grande vérité à propos de la constitution d’un gouvernement civilisé — c’est-à-dire que nous autorisons un gouvernement à nous protéger dans un marché diabolique dont nous sortirons perdants sur le long terme.
Cependant, très peu sont ceux qui, citant ces mots, ont une idée de leur provenance ou de ce que B. Franklin a vraiment voulu exprimer lorsqu’ils les écrivit. Ce n’est pas du tout surprenant, car ils sont bien plus souvent cités qu’expliqués, et le contexte dans lequel on les trouve est une bataille politique qui suscite peu l’intérêt des lecteurs d’aujourd’hui. La plupart des biographes de B. Franklin ne les citent pas du tout, et aucun des textes que j’ai trouvé ne tente sérieusement de les expliquer au regard de leur contexte. Résultat : pour aller au fond de ce qu’ils signifiaient pour B. Franklin, on doit fouiller les sources des années 1750, avec une littérature biographique secondaire qui ne donne qu’un cadre à la discussion. Je suis toujours en train de paufiner les détails, mais ce que je peux dire avec certitude à ce stade, c’est que B. Franklin n’affirmait rien de ce que pensons lorsque nous citons ses mots.
Ils apparaissent originellement dans une lettre de 1755 que B. Franklin est censé avoir écrit au nom de l’Assemblée de Pennsylvanie à l’intention du gouverneur colonial durant la Guerre de Conquête. La lettre était une salve dans la lutte de pouvoir entre le gouverneur et l’Assemblée à propos du financement de la sécurité à la frontière, alors que l’Assemblée souhaitait taxer les terres de la famille Penn, qui gouvernait la Pennsylvanie de loin, de manière à lever des fonds pour la défense contre les attaques des Français et des Indiens. À la demande de la famille, le gouverneur émit son veto contre les actions de l’Assemblée. Donc pour commencer, B. Franklin n’écrivait pas dans la situation d’un sujet à qui il serait demandé de céder sa liberté à un gouvernement, mais en sa qualité de législateur à qui il est demandé de renoncer à son pouvoir de taxer des terres théoriquement sous sa juridiction. En d’autres termes, la « liberté essentielle » à laquelle se réfère B. Franklin n’est pas ce à quoi nous nous référons aujourd’hui à propos des libertés civiles mais, plutôt, au droit de l’auto-gouvernance d’un corps législatif dans l’intérêt de la sécurité collective.
De plus, l'« [obtention] d’une petite sécurité temporaire » que récrimine B. Franklin n’est pas la cession d’un pouvoir à un gouvernement Leviathan en échange de quelque promesse de protection envers une menace extérieure ; car dans la lettre de B. Franklin, le mot « acquérir » ne semble pas être une métaphore. En insistant pour assujettir les terres Penn aux impôts, l’Assemblée était accusée par le gouverneur de bloquer l’affectation des fonds pour la défense de la frontière — ce qui justifiait ainsi son intervention. Par ailleurs, la famille Penn offrit plus tard de l’argent pour la défense de la frontière aussi longtemps que l’Assemblée voulait reconnaître qu’elle n’avait pas le pouvoir de taxer ses terres. B. Franklin a donc contesté le choix qui s’imposait au corps législatif, entre d’un côté être capable de rassembler des fonds pour défendre la frontière et, de l’autre, conserver son droit à l’auto-gouvernance — et il critiqua le gouverneur d’avoir suggéré qu’on devait être prêt à renoncer au second pour obtenir le premier.
En somme, B. Franklin n’évoquait pas la tension entre le pouvoir du gouvernement et la liberté individuelle. Il faisait plutôt référence à l’auto-gouvernance efficace au service de la sécurité en tant que liberté même, réfractaire à la marchandisation. Nonobstant la manière dont la citation est arrivée jusqu’à nous, B. Franklin conçevait sur le même plan les droits à la liberté et à la sécurité de la Pennsylvanie.
04.04.2015 à 02:00
Nos imprimantes nous espionnent-elles?
En 2008, l'Electronic Frontier Foundation faisait une annonce pour le moins étonnante : les imprimantes nous espionnent ! Pour cette organisation internationale de défense de la liberté d’expression sur Internet, puissance incontournable de l’analyse et des actions juridiques relevant des libertés individuelles dans le contexte de notre monde numérisé, la question ne se limitait pas à ce que pouvaient ou non divulguer les imprimantes. En 2015, après les affaires Snowden (international) et en plein dans notre débat franco-français sur le projet de loi Renseignement, une nouvelle information a tendance à passer inaperçue : tous les fabricants majeurs d’imprimantes ont passé des accords secrets avec les gouvernements. Voici un petit retour in French sur l’action de l’EFF et cette révélation.
C’est déjà une affaire vieille de 10 ans. En 2005, déjà, alertée par des suspicions de pratiques de stéganographie cachée par les fabricants de certaines imprimantes couleur laser, l’EFF avait cracké le code des imprimantes Xerox Docucolor et publié la méthode. Pour l’EFF, même si on pouvait comprendre que ce genre de pratique s’inscrivait légitimement dans le cadre de la lutte contre la contrefaçon de monnaie, il s’agissait surtout de se demander quel pouvait être l’usage de ces informations, leur accès par des services gouvernementaux et les éventuels recours des citoyens. Si, en effet, vous imprimez un document et souhaitez le diffuser ou pour le compte de quelqu’un d’autre dont vous ignorez l’usage qu’il fera du document, le fait que l’on puisse vous identifier comme l’imprimeur est une violation caractérisée de la vie privée. Imaginez par exemple que l’on puise vous identifier comme étant celui qui a imprimé le tract d’appel à manifestation qui vient d’être affiché à la cantine ?
Voici, ci-dessous, une traduction des éléments majeurs de l’annonce de l’EFF en 2008 et des actions envisagées.
Et si, à chaque fois que vous imprimez un document, ce dernier comprenait un code secret permettant d’identifier votre imprimante — et potentiellement la personne qui l’utilise. On se croirait dans un épisode d’Alias, non ?
Malheureusement, ce scénario n’a rien d’une fiction. Dans sa soi-disante lutte contre la contrefaçon, le gouvernement américain a réussi à persuader certains fabricants d’imprimantes laser couleur d’encoder chaque page avec des informations d’identification. Cela signifie que sans que vous le sachiez ou sans votre consentement, vos actions privées peuvent devenir publiques. Un outil de communication quotidien peut devenir un outil de surveillance gouvernementale. Le pire, c’est qu’il n’y a pas de loi pour en prévenir les abus.
L'ACLU (American Civil Liberties Union) a récemment publié un rapport révélant que le FBI a récolté plus de 1100 pages sur l’organisation depuis 2001 ainsi que des documents concernant d’autres groupes non-violents dont Greenpeace et United for Peace and Justice. Dans le climat politique actuel, il n’est pas difficile d’imaginer que le gouvernement use de la possibilité de déterminer qui a pu imprimer ces documents, à des fins bien différentes que celle de la lutte contre la contrefaçon.
Pourtant, il n’y a aucune loi qui empêche les Services Secrets d’utiliser les codes des imprimantes pour tracer secrètement l’origine de documents n’ayant aucun rapport avec la monnaie ; seule la politique de confidentialité du fabricant de votre imprimante vous protège (si toutefois elle existe). Et aucune loi ne défini quels type de documents les Services Secrets ou toute autre agence gouvernementale nationale ou étrangère sont autorisés à demander pour l’identification, sans mentionner comment un tel outil de police scientifique pourrait être développé et implémenté dans les imprimantes.
En l’absence de loi sur les livres, il n’y a rien pour arrêter les violations de la vie privée que cette technologie permet. Pour cette raison, l’EFF rassemble les informations sur ce que révèlent les imprimantes et comment elles le font —une prospective nécessaire à toute contestation judiciaire ultérieure ou à une nouvelle législation visant à protéger la vie privée. Et nous pourrions avoir besoin de votre aide.
(…) Par ailleurs, afin de documenter ce que les imprimantes révèlent, l’EFF a déposé une demande relevant de la Freedom of Information Act (FOIA) et nous vous tiendrons au courant de ce que nous découvrirons. En attendant, nous vous invitons à passer le mot (…)
Peu de temps après, l’EFF publia une liste régulièrement mise à jour, recensant les imprimantes qui, d’après des tests, renvoyaient ou non des codes de traçabilité (en jaune) sur leurs sorties papier. Un nombre important de fabricants et d’imprimantes y sont mentionnés : cherchez bien, vous y trouverez peut-être votre matériel.
Et voici qu’en ce début de l’année 2015, les réponses à la demande FOIA sont révélées par l’EFF. Sur cette même page, un warning nous apprend :
(Ajouté en 2015) Plusieurs documents que nous avons préalablement reçu suite à notre requête FOIA suggèrent que tous les fabricants majeurs d’imprimantes laser couleur ont conclu un accord secret avec les gouvernements pour assurer une traçabilité permettant la recherche criminalistique. Bien que nous ne sachions pas encore si cela est correct, ou comment les générations suivantes de technologies traçantes pourront fonctionner, il est probablement plus sûr de supposer que toutes les imprimantes modernes laser couleur comprennent un moyen de traçabilité qui associe les documents avec leurs numéros de série.(…)
Pour conclure : dans le contexte actuel de mise en place de systèmes de surveillance généralisée, la traçabilité des documents imprimés prend une mesure que seule la lutte contre la contrefaçon ne suffit pas à justifier. Ne jetez pas encore vos vieilles machines à écrire et le papier carbone, il se peut que nous en ayons encore besoin ! Quant aux faits avérés par l’EFF, je dois dire que je suis davantage affolé par leurs implications que par le danger (bien réel, cependant) pour la liberté d’expression qu’ils représentent (eux aussi). D’une part, en effet, la liberté d’expression est bien plus menacée par des projets de lois qui cachent à peine les intentions des pouvoirs politiques en place. D’autre part, je m’interroge de plus en plus sur une société qui, découvrant peu à peu l’ampleur des atteintes à la vie privée que les démocraties organisent, commence à se figurer que les modèles démocratiques en place renient non seulement leurs principes mais dévoient aussi la confiance déjà chancelante que les citoyens leur accordent. Quelles sociétés et quels régimes politiques pourraient s’en accommoder encore longtemps ?
21.01.2015 à 01:00
La société automatique 1
Le 19 juillet 2014, le journal Le Soir révélait à Bruxelles que selon des estimations américaines, britanniques et belges, la France, la Belgique, le Royaume-Uni, l’Italie, la Pologne et les États-Unis pourraient perdre entre 43 et 50 % de leurs emplois dans les dix à quinze prochaines années. Trois mois plus tard, le Journal du dimanche soutenait que trois millions d’emplois seraient condamnés à disparaître en France au cours des dix prochaines années.
L’automatisation intégrée est le principal résultat de ce que l’on appelle « l’économie des data ». Organisant des boucles de rétroactions à la vitesse de la lumière (à travers les réseaux sociaux, objets communicants, puces RFID, capteurs, actionneurs, calcul intensif sur données massives appelées big data, smart cities et robots en tout genre) entre consommation, marketing, production, logistique et distribution, la réticulation généralisée conduit à une régression drastique de l’emploi dans tous les secteurs – de l’avocat au chauffeur routier, du médecin au manutentionnaire – et dans tous les pays.
Pourquoi le rapport remis en juin 2014 au président de la République française par Jean Pisani-Ferry occulte-t-il ces prévisions ? Pourquoi le gouvernement n’ouvre-t-il pas un débat sur l’avenir de la France et de l’Europe dans ce nouveau contexte ? L’automatisation intégrale et généralisée fut anticipée de longue date – notamment par Karl Marx en 1857, par John Maynard Keynes en 1930, par Norbert Wiener et Georges Friedmann en 1950, et par Georges Elgozy en 1967. Tous ces penseurs y voyaient la nécessité d’un changement économique, politique et culturel radical.
Le temps de ce changement est venu, et le présent ouvrage est consacré à en analyser les fondements, à en décrire les enjeux et à préconiser des mesures à la hauteur d’une situation exceptionnelle à tous égards – où il se pourrait que commence véritablement le temps du travail.
Stiegler, Bernard. La société automatique 1. L’avenir du travail. Fayard, 2015.
Lien vers le site de l’éditeur : https://www.fayard.fr/sciences-humaines/la-societe-automatique-9782213685656
08.01.2015 à 01:00
Demain, tous en garde à vue?
Cet article a été publié (et remanié) sur le célèbre Framablog à cette adresse.
Sale temps
Hier, c’était mon anniversaire, j’ai 40 ans. Hé bien, des jours comme ça, je m’en serais passé.
Hier, c’était la barbarie : c’est Cabu, Charb, Wolinksi, Tignous, Honoré, et d’autres acteurs de Charlie Hebdo (sans oublier les policiers) qui ont été lâchement assassinés dans les locaux du journal par deux gros cons, des beaufs, des salauds. Ils s’en sont pris à des dessinateurs qui ont largement contribué à la formation de ma propre pensée critique à travers la lecture régulière du journal. Des copains, nos copains.
Ce matin, j’ai la tête en vrac. J’ai à l’esprit ces mots de Ricoeur qui définissait la démocratie par le degré de maturation d’une société capable de faire face à ses propres contradictions et les intégrer dans son fonctionnement. Au centre, la liberté d’expression, outil principal de l’exercice de la démocratie. À travers nos copains assassinés, c’est cette liberté qui est en jeu aujourd’hui. Ils exerçaient cette liberté par le crayon et le papier. L’arme absolue.
Charlie Hebdo n’a pas vocation à incarner de grands symboles, au contraire, les dénoncer et faire tomber les tabous est leur principale activité. C’est justement parce que la mort de dessinateurs est aujourd’hui devenue un symbole qu’il va falloir s’en méfier, car dans cette brèche s’engouffrent les tentatives protectionnistes et liberticides.
La liberté est insupportable pour les pseudos-religieux sectaires — et pour tout dire, une grosse bande de connards — qui tentent de la faire taire à grands coups de Kalachnikov et de bombes sournoises. La liberté est insupportable pour les fachos et autres réacs qui ne manqueront pas de s’engouffrer dans le piège grossier du repli et de la haine. La liberté est insupportable pour celui qui a peur.
Nous vivons depuis des années sous le régime des plans vigipirate, des discours sécuritaires et du politiquement correct. Sous couvert de lutte contre le terrorisme, la surveillance généralisée de nos moyens de communication s’est taillé une belle part de nos libertés, sans oublier les entreprises qui font leur beurre en vendant aux États (et pas toujours les plus démocratiques) des « solutions » clé en main. Des lois liberticides au nom de l’antiterrorisme sont votées sans réel examen approfondi par le Conseil Constitutionnel. En guise de contre-pouvoir, on nous refourgue généralement des administrations fantoches aux pouvoirs ridicules, des « Conseils » et des « Hauts Comités » de mes deux. Mais le vrai contre-pouvoir, ce sont les copains de Charlie Hebdo et tous leurs semblables, journalistes ou caricaturistes, qui l’exercent, ou plutôt qui le formalisent pour nous, à travers leurs dessins et leurs textes. Le contre-pouvoir, c’est nous tous tant que nous n’oublions pas de penser et d’exprimer nos contradictions. Et pour maintenir la démocratie, nous devons disposer intégralement de nos moyens de communication dont il revient à l’État de garantir la neutralité.
Demain, nous risquons de nous retrouver tous en garde à vue et pas seulement à cause des terroristes. C’est là tout le paradoxe. La terreur est aussi bien instrumentalisée par les assassins que par certains membres de la classe politique, et pas seulement à droite. Tous sont prêts à réprimer notre liberté pour maintenir leurs intérêts électoraux, ou d’autres intérêts financiers. Leur contrainte, c’est l’obligation du choix : il faudrait choisir entre la liberté et la dictature, entre la liberté et la peur, entre la liberté et l’esclavage, avec à chaque fois un peu de nos libertés qui s’envolent.
Non ! Assez ! Stop ! je suis pour la liberté mais sans concession. Une liberté obligatoire, une liberté que l’on assène sans contrepartie. Je suis un radical du papier, un ayatollah de la liberté d’expression, un taliban des communications ouvertes, un nazi des protocoles informatiques libres, un facho de la révélation snowdenienne ! Du moins je voudrais l’être, nous devrions tous l’être. Et sans avoir peur.
Je suis né il y a 40 ans, et cela fait presque autant de temps que se sont développés autour de moi des supports de communication qui sont autant de moyens d’exercices de la liberté d’expression. Comme beaucoup, j’oublie souvent que rien n’est acquis éternellement, que nos libertés sont le fruit de luttes permanentes contre ceux qui voudraient nous en priver. La boucherie Charlie nous l’a cruellement rappelé hier.
15.11.2014 à 01:00
Entraînement trail : Rocher de Mutzig
Qui a dit que le mois de novembre ne se prêtait pas aux longues promenades dans notre belle forêt vosgienne ? Évidemment, on n’y rencontre pas beaucoup de monde : c’est l’occasion de prendre des sentiers habituellement fréquentés par les randonneurs et mesurer leur potentiel en entraînement trail ! Le parcours présenté ici est une découverte de la forêt alsacienne du côté de Lutzelhouse (vallée de la Bruche) à une trentaine de kilomètres de Strasbourg.
Description
La plupart des randonnées au départ de Lutzelhouse impliquent de rouler jusqu’aux parkings déjà fort avancés dans la forêt. En effet, les points remarquables (le Jardin des fées, le Rocher de Mutzig, la Porte de Pierre) sont accessibles pour les randonneurs sur des parcours assez longs, que tout le monde n’est pas prêt à assumer, en particulier en famille. En trail, cependant, la question des distances est toute différente. Nous partons donc depuis le village de Lutzelhouse.
Allez garer votre véhicule sur le parking de l’école (et du cimetière) de Lutzelhouse : vous y trouverez une fontaine qui sera fort utile à votre retour, pour nettoyer vos chaussures… Le départ et l’arrivée se situeront ici.
L’essentiel du parcours se concentre sur les deux montagnes dominant le village : le Langenberg et le Katzenberg. Voici les étapes et les points remarquables (voir les photos en fin de billet) :
- Les Deux Chênes
- Kappelbronn (en passant par le séquoïa)
- L’Enceinte du jardin des fées (ancien fort celtique)
- Col du Narion
- Rocher de Mutzig
- La Porte de Pierre
- Col du Wildberg
- Schmeerbuchs
- Waltersbach (village disparu)
- La Grotte du Loup
- Les deux Chênes (retour)
Il s’agit d’un massif très fréquenté par la section alsacienne du Club Vosgien. Le travail remarquable du Club Vosgien dans le balisage et l’entretien des parcours de randonnées trouve ici sa pleine mesure. Une pléthore d’indicateurs, directement visibles sur une carte IGN Top25, donnent une idée des solutions possibles pour atteindre ses objectifs. En trail, se repérer sur les balises du Club Vosgien est assez facile. Sur ce parcours, il faudra toutefois porter son attention aux différents changements de tracé et ne pas suivre inconsidérément les mêmes balises.
Description du parcours
Le parcours fait environ 21 km pour 850m D+. Il est de niveau technique moyen-supérieur pour une durée moyenne de 2h45 (moins ou beaucoup moins selon le niveau, bien entendu). L’idée générale fut d’éviter les grands chemins (routes forestières quasi inévitables à cet endroit) et préférer les « single ». Plusieurs variantes sont possibles, selon votre humeur et votre forme du moment.
Le départ s’effectue à alt. 273 m. Un échauffement sérieux est recquis au départ de manière à affronter la première montée assez raide. Après le 1er kilomètre, la montée s’adoucit de manière durable jusqu’au Kappelbronn (504 m alt.). Le principal passage technique vous attend au lieu bien-nommé « La Grande Côte », et vous mènera jusqu’au Jardin des Fées. Ensuite, jusqu’au Rocher de Mutzig (alt. 1010 m), la montée est continuelle et se termine par un raidillon. La descente est ensuite amorcée, d’abord sur sentiers (dont les bords sont parfois instables, donc prudence) puis sur chemin large en fin de parcours.
Dans l’ordre, voici les signes suivis (nomenclature du Club Vosgien) :
(Le tracé du parcours est par ici)
- Triangle rouge + Rectangle rouge barré de blanc
- Anneau rouge + Rectangle rouge barré de blanc
- Anneau vert
- Anneau jaune
- Rectangle rouge + anneau rouge
- Coix droite jaune
- Triangle rouge + rectangle jaune
- Triangle rouge
- Triangle rouge + Rectangle rouge barré de blanc
03.11.2014 à 01:00
Utiliser OpenTopoMap avec Turtlesport
Petit truc : voici la manière d’utiliser les fonds de carte OpenTopoMap avec Turtlesport.
Il suffit pour cela de se rendre dans Aide > Préférences > Carte / Fournisseur
. À cet endroit, il est possible d’indiquer le fond de carte que l’on souhaite utiliser. Pour OpenTopoMap, il faut entrer l’adresse suivante :
http://a.tile.opentopomap.org/#zoom#/#x#/#y#.png
Pour le zoom, le minimum est à 1 et le maximum à 17.
(Merci @Turtlesport qui m’a confié la bonne adresse)
20.10.2014 à 02:00
Manipuler des fichiers PDF
La manipulation de fichiers PDF sous GNU/Linux fut longtemps un problème a priori insurmontable. Même sous les autres systèmes d’exploitation, l’achat de logiciels de la marque Adobe était nécessaire. Certes, ces derniers logiciels fort complets permettent bien d’autres choses, propres en particulier dans le monde du graphisme et de l’édition, pourtant il importe de se pencher sur certains besoins : annoter des PDF, voire procéder à de menues modifications, extraire un certain nombre de pages d’un long PDF pour les communiquer ensuite, fusionner plusieurs PDFs, etc.
Xournal
Xournal est un logiciel de prise de note basé sur le même modèle que Gournal, NoteLab ou Jarnal.
Ces logiciels (dont il existe des versions pour GNU/Linux, Mac et MSWindows) sont normalement destinés à être utilisés via une tablette graphique ou un écran tactile, afin d’imiter la pratique de prise de note sur un bloc papier.
Xournal a ceci de particulier qu’il demeure tout à fait fonctionnel sans dispositif tactile. L’organisation des pages de notes est très simple à l’utilisation et la prise en main est rapide.
Comme les autres logiciels cités plus haut, un avantage de Xournal est la possibilité d’ouvrir des fichiers PDF, les annoter, insérer du texte, surligner, et exporter le fichier ainsi édité (en fait il s’agit d’un calque que vous pouvez soit garder comme calque, soit exporter un nouveau PDF intégrant le calque sur le PDF original).
Vous rêviez de pouvoir éditer un PDF? Que votre voeu soit exaucé! Xournal est conçu pour une interface utilisant GTK, ce qui permet une excellente intégration au bureau Gnome. Dans le fichier de configuration, vous pourrez de même modifier quelques réglages usuels, selon les particularités de votre matériel ou vos envies. Une liste des options du fichier de configuration est disponible dans le manuel de Xournal (section “Configuration File”).
Couper, extraire, fusionner : PdfTk et PdfMod
Pour les autres tâches, obéissant à la logique Unix selon laquelle un logiciel se destine à une tâche (“write programs that do one thing and do it well”), deux logiciels méritent toute notre attention : pdftk et Pdf Mod.
Pdftk fait partie de ces programmes très efficaces mais dont l’utilisation rebute souvent le néophyte mal à l’aise avec la ligne de commande. Pourtant les commandes de pdftk sont extrêmement simples : concaténation, extraction, et sortie de nouveau pdf sont les actions les plus couramment demandées mais pdftk est capable de bien des choses (la page de la documentation Ubuntu consacrée à pdftk est assez éloquente sur ce point).
Un second programme est sans doute plus abordable puisqu’il utilise une interface graphique. Pdf Mod permet l’extraction et l’import d’éléments dans un fichier pdf en n’utilisant que la souris. Élaboré en un en temps record par Gabriel Burt, contributeur de talent aux logiciels plus connus tels que Banshee et F-Spot, nul doute que les futures amélioration de Pdf Mod répondront à la majorité des besoins des utilisateurs.
- Xournal (Site officiel)
- pdftk (Site officiel)
- Doc. Ubuntu(pdftk)
- Exemples d’utilisation de pdftk
- PdfMod (site officiel)
- Blog de Gabriel Burt
- Article Pdf Mod sur Silicon.fr
06.10.2014 à 02:00
Station de trail de Gérardmer - Parcours 5
Le réseau des stations de trail est une initiative conjointe de la société Raidlight et d’acteurs territoriaux (voir l'historique). Depuis le printemps 2014, Gérardmer dispose de sa station de Trail et fait désormais partie du réseau. Au moins deux événements réguliers et célèbres se déroulent sur la station : l'Ultra-montée du Tetras et le Trail de la Vallée des Lacs. Mais la station propose plusieurs parcours et ateliers qui présentent un grand intérêt pour les coureurs, de passage ou habitant des environs, et permettent de découvrir la région de Gérardmer d’une manière originale…
Description
Se rendre à la station de trail est très simple. Arrivé à Gérardmer, suivez simplement les indications des pistes de ski alpin de la Mauselaine. Allez tout au bout du parking, c’est là que se situe le départ
Si toutefois vous souhaitez profiter des dispositifs de la station de trail (casier, douche, salle de repos) pour une somme modique (5 euros la journée), il vous faudra passer à l’Office du tourisme au préalable. Tout est expliqué sur le site de la sation.
Par ailleurs, cet article de Fredéric Flèche montre très bien, avec des photos, la configuration des lieux.
Une fois à la Mauselaine, rendez-vous au niveau des caisses de la station de ski, poursuivez le chemin en direction du télésiège sur une centaine de mètres. Vous trouverez un mur en béton sur lequel sont affichés les différents parcours et ateliers.
La signalétique est simple : vous choisissez votre parcours et vous suivez son numéro inscrit sur les balises. Plusieurs parcours empruntent parfois les mêmes balises, ce qui explique que celles-ci puissent être composées de plusieurs chiffres (par exemple 57 pour les parcours 5 et 7). Un code couleur (niveau de difficulté) est aussi disponible. Le mieux est de choisir votre parcours depuis chez vous sur le site de la station : vous pourrez ainsi consulter la météo (parfois fort capricieuse en ces lieux) et regarder de plus près le profil altimétrique.
Nous allons nous pencher plus précisément sur l’un des parcours de la station la Boucle des Écarts, le numéro 5.
Le parcours 5
Les parcours de la station n’ont pas seulement été élaborés en fonction des aspects techniques des entraînements. Ils ont aussi été imaginés par des amoureux de la Vallée des Lacs, soucieux de procurer au traileur les meilleurs souvenirs.
Au programme : des points de vues enchanteurs, une végétation changeante et des lieux parfois même trop peu connus des habitants.
Si le soleil est au rendez-vous, bien que discret dans les sous-bois, votre course sera d’autant plus agréable.
Avant tout, il faut expliquer pourquoi la Boucle des Écarts porte ce nom. Un écart, dans les Hautes Vosges, est une petite prairie isolée sur les hauteurs d’une vallée, souvent dotée d’une ou plusieurs fermes. Au fil du parcours, vous allez donc croiser des lieux forts anciens. La plupart du temps, en l’absence d’élevage, vous ne verrez que des épicéas. Mais à l’époque, tous ces endroits étaient fortement défrichés et servaient de pâturages.
Dans l’ordre du parcours, les noms des principaux écarts sont les suivants : La Mauselaine (avant d’être une station de ski), la Rayée, le Grand Étang, Les Bas Rupts, La Poussière, la Basse du Rôle, l’Urson, la Grande Mougeon, Le Phény, Mérelle (étang), Ramberchamp, Le Costet.
Passons au vif du sujet. Le parcours est dans l’ensemble un bon entraînement aux montées, bien que celles-ci soient assez courtes. La distance est de 16 km pour 762m+, ce qui ne demande pas un haut niveau technique.
La morphologie du terrain comporte du sentier (50%, dont deux passages pierreux en descente), du chemin forestier (35%) du bitume (15% surtout en ville). Les bâtons ne sont pas du tout nécessaires. Sur l’ensemble du parcours le balisage est très clair et les balises ne manquent pas (même si on peut toujours améliorer l’existant déjà de très bonne qualité). Par ailleurs, l’état du parcours est normalement indiqué sur le site de la station de Trail qui insiste bien sur ce point : se renseigner avant de partir !
Si vous partez depuis le mur des parcours, à la Mauselaine, redescendez quelques foulées en direction du parking : le parcours débute par l’ascension d’une piste de ski (là où se situent les petits téleskis)…
Retournez-vous de temps en temps pour admirer le point de vue sur Gérardmer. Sur la totalité du parcours on peut recenser quelques montées et descentes remarquables (plus ou moins techniques).
Je vous conseille d’imprimer le topo disponible sur le site de la station, avec le profil altimétrique. Il y quatre passages qui selon moi méritent d’être mentionnés :
- La première montée, sur une piste de ski herbeuse et parfumée… Cette manière de débuter un parcours n’est pas forcément ultra-confortable, alors on y va doucement car la montée est assez longue. Cette partie du parcours est néanmoins originale, et aucune pierre ne vient vous gâcher la foulée.
- La montée depuis le Col du Haut de la côte (km 4 à 6): il s’agit d’un chemin forestier très roulant en faux-plat qui se termine par une côte raide à travers les épicéas. Là, il faut savoir monter sans précipitation, mais cette difficulté reste assez courte.
- La descente depuis Mérelle jusqu’au lac de Gérardmer (km 11 à 12): un sentier assez pierreux sur lequel il faut absolument rester attentif aux promeneurs. Attention par temps de pluie aux pierres glissantes.
- La dernière montée, depuis les rues de Gérardmer jusqu’à la Mauselaine en passant par la Roche du Rain et le Costet (km 14 à 16): sachez garder un peu d’énergie sous la semelle car il est facile de se laisser aller à quelques accélérations en fin de parcours et se retrouver à sec lorsqu’il faut dépenser encore de l’énergie jusqu’à l’arrivée.
Lorsque vous arrivez au pied de la Tour de Mérelle, et si vous ne connaissez pas cet endroit, je vous conseille fortement d’appuyer sur la touche STOP de votre chrono et de gravir la centaine de marches de la tour : une splendide vue sur la vallée de Gérardmer vous y attend! S’il n’y a aucun visiteur, ne vous arrêtez pas et considérez cette ascension comme une partie du parcours, cela ajoutera un peu de dénivelé (mais ne descendez pas les marches en courant, c’est trop dangereux).
Enfin, vous aurez noté que le parcours passe sur les bords du lac de Gérardmer puis dans le centre ville… Suivant l’heure de la journée, vous risquez de vous retrouver à slalomer entre les passants, ce qui peut ne pas être agréable, surtout en fin de parcours.
Le bord du lac, en particulier au niveau de la passerelle du complexe nautique, figure parmi les endroits les plus fréquentés en saison et les week-end: enfants en vélo, poussettes, sorties familiales, etc. Essayez donc plutôt de passer derrière le complexe nautique pour rejoindre directement la D486, même si cela vous oblige à arpenter du bitume.
Vous pouvez aussi éviter les trottoirs du centre ville de la manière suivante : si vous passez par la D486, vous tomberez sur un rond-point. Prenez à droite (Rue du 29e BCP), montez et prenez la deuxième rue à gauche (Rue Haute) : vous évitez le centre ville et arriverez derrière la mairie. Vous pouvez alors rattraper le parcours à cet endroit.
Le tracé en lien ci-dessous n’est pas le parcours normal : pour moi, le début se situe à Gérardmer. Mais vous pouvez voir comment j’évite le centre ville.
01.10.2014 à 02:00
Trail : créez et partagez votre parcours en 5 minutes avec OpenStreetMap
Se livrer à son sport favori avec des outils libres, ce n’est pas toujours évident. L’un des obstacles à franchir est de travailler avec des fonds de cartes libres et pouvoir en faire à peu près ce qu’on en veut.
Ce petit tutoriel rapide à propos de Umap va sûrement vous être utile! Vous venez de faire votre parcours (ou vous en projetez un) et vous brûlez d’envie de partager le tracé avec vos amis? Il existe pour cela plusieurs solutions :
- Vous disposez d’un appareil qui se charge pour vous de téléverser votre tracé et une flopée de données personnelles sur un site de partage. Là, tant pis pour vous et la confidentialité de vos données, c’est un choix.
- Vous prenez une carte, vous scannez et dessinez ensuite le parcours par dessus… un peu laborieux, non?
- Vous téleversez votre tracé sur un site qui offre des fonds de carte et un éditeur prêts à l’emploi. Généralement un fond de carte IGN (issu de Géoportail) est accessible. C’est là aussi un choix, mais votre carte ne sera toujours pas libre.
- Vous travaillez avec Umap.
C’est quoi Umap ? Il s’agit d’une application en ligne utilisant plusieurs fonds de cartes issus du projet OpenStreetMap. Comme il s’agit de cartographie libre vous pouvez alors en disposer à votre guise pour afficher vos parcours sur votre site ou partout ailleurs sans contrevenir à des questions de copyright. Vous pouvez même choisir la licence sous laquelle votre tracé pourra être partagé. Étape par étape, voici comment faire pour obtenir le tracé ci-dessous, c’est à dire permettre à d’autres de visualiser une zone de carte sur laquelle on a tracé quelque chose.
Étape 1
- Rendez-vous à l’adresse umap.openstreetmap.fr et ouvrez un compte (soit sur OpenStreetMap, ou en vous connectant avec vos comptes Github ou même Twitter si vous en avez).
- Cliquez sur “créez une carte”.
L’interface est relativement simple mais son aspect dépouillé (au profit de la cartographie) peut paraître déroutant.
En gros, à gauche vous disposez des outils vous permettant d’interagir avec le site et l’interface. À droite, vous disposez des outils d’édition. Ce sont ces derniers que nous allons voir de près.
L’idée générale est de partager un ou plusieurs calques sur un fond de carte. En termes clairs : je dessine quelque chose sur un calque et je partage ce calque pour l’afficher avec le fond de carte de mon choix. Les trois premiers boutons sont très faciles a) insérer un marqueur, b) tracer une ligne ou une c) forme. Pour chaque éléments que je dessine, qu’il s’agisse de ligne, de forme ou de parcours, je pourrai lui assigner des propriétés : un nom, un descriptif, des couleurs et d’autres propriétés (épaisseur de trait, interactivité, etc.) Ensuite, dans l’ordre d’apparition des boutons : d) importer des données, e) modifier les propriétés de la carte, f) changer le fond de carte, g) centrer la carte sur la zone que l’on est en train de travailler, h) gérer les permissions (possibilité de rendre l’accès privé).
Étape 2
- Importez vos données (outil d) soit depuis votre machine (bouton “parcourir”) soit depuis une url. Choisissez le format utilisé (par exemple GPX) et cliquez sur Importer.
- Sitôt importé, le tracé se dessine sur la carte qui se centre automatiquement sur la zone concernée.
- En double-cliquant sur le tracé du parcours, chaque point pourra être édité.
Étape 3
- Allez ensuite dans les paramètres (bouton e).
- Donnez un nom à votre carte et un descriptif.
Étape 4
- Ajoutez un ou plusieurs marqueurs pour définir des points remarquables de votre parcours : le départ, l’arrivée, un point de vue, etc.
- À chaque marqueur vous pourrez définir son nom (s’affichera au survol de la souris), un descriptif. Dans les propriétés avancées, vous pouvez définir sa couleur, sa forme. Dans les coordonnées, vous pouvez affiner si besoin en modifiant la latitude et la longitude.
Étape 5
Revenez aux paramètres de la carte (bouton e), puis:
- dans les Options d’Interface, cochez les boutons dont vous laisserez l’usage à vos lecteurs. Les paramètres par défaut peuvent suffire dans un premier temps.
- Les propriétés par défaut vous permettent de valoriser les éléments de votre carte en particulier le tracé. Choisissez par exemple une couleur bien tranchée (un rose fushia!)
- Dans notre exemple, nous avons choisi une opacité de 0.5 points et une épaisseur de 8 points.
- Bien d’autres options sont disponibles, vous pourrez y revenir plus tard.
Étape 6
- Cliquez sur enregistrer le zoom et le centre actuel (bouton g). Cela permettra à vos lecteurs d’accéder directement à la zone sur laquelle vous travaillez.
- Dans la partie crédit : renseignez les crédits que donnez à votre carte. Ici, nous plaçons la carte sous licence libre CC-By-SA.
Étape 7
- Cliquez sur le bouton f pour afficher les différents fonds de carte disponibles.
- Si vous courrez en ville, le fond de carte par défaut (OSM-Fr) devrait être suffisant. Si par contre vous courrez en nature (montagne, campagne, etc), et pour obtenir un affichage plus proche de ce que vous connaissez habituellement, choisissez le fond Open Topo Map
- Cliquez sur Enregistrer, en haut à droite.
Étape 8
- Allez sur les outils de gauche et cliquez sur le bouton exporter et partager la carte.
- Vous avez alors votre disposition le code l’iframe que vous pourrez coller sur votre site web ou ailleurs. Les options d’export vous permettent de régler la hauteur, la largeur et autres options que vous laissez à l’usage de vos lecteurs (à savoir: le lien “plein écran” permettra au lecteur d’afficher la carte ne grand sur le site Umap).
- L’autre solution étant tout simplement de copier l’url de votre carte (dans la barre de votre navigateur) et de l’envoyer à vos correspondants.
26.09.2014 à 02:00
Internet, pour un contre ordre social
Les bouleversement des modèles socio-économiques induits par Internet nécessitent aujourd’hui une mobilisation des compétences et des expertises libristes pour maintenir les libertés des utilisateurs. Il est urgent de se positionner sur une offre de solutions libres, démocratiques, éthiques et solidaires.
Voici un article paru initialement dans Linux Pratique num. 85 Septembre/Octobre 2014, et repris sur le Framablog le 5 septembre 2014.
Téléchargements :
26.09.2014 à 02:00
Faut-il libérer aussi le droit d'auteur ?
Qui conteste aujourd’hui à un auteur le droit de tirer les bénéfices de la vente de son œuvre ? Personne. Pourtant, que ce soit dans le domaine de la musique, du cinéma ou de la littérature, le discours des éditeurs tend à soutenir le contraire, à savoir que les actes de piratage vont avant tout à l’encontre des auteurs et l’accès libre aux ressources culturelles signifierait avant tout la mort de l’Auteur. Mais de quoi s’agit-il exactement ? Le nœud du problème, au delà de l’acte de piratage qui demeure un vol, c’est la question de la cession exclusive du droit de diffusion et de vente. Ces derniers temps, des éléments très concrets illustrent parfaitement les limites de la propriété d’une œuvre et le danger des monopoles de la culture. Pour ces derniers, un auteur vivant ou mort, collectif ou individuel, ce n’est plus qu’une question de rentabilité.
Sans droit d’auteur ?
Récemment publié en français, le livre de J. Smiers et M. van Schijndel intitulé Un monde sans copyright… et sans monopole a au moins le mérite de poser les jalons d’une réflexion de fond sur les modèles économiques de la culture. Il dénonce avec force les monopoles culturels et la conception de l’œuvre comme une propriété qu’un auteur cède en totalité ou en partie à un tiers, l’éditeur de bien culturel, lui même en position dominante sur le marché. Les méfaits de cette situation sont clairement énoncés : inégalités de revenus entre les auteurs (sans rapport avec la qualité de leur œuvre), exercice de monopole et priva(tisa)tion des droits (notamment par rapport aux pays les plus défavorisés, voir ce que sont les ADPIC).
Le copyright est une notion anglo-saxonne et le droit du copyright est utilisé dans beaucoup de pays, signataires de la Convention de Berne mais qui ne font pas la distinction radicale entre le droit moral, par nature inaliénable, et les droits patrimoniaux de l’œuvre. En France, quelle que soit l’œuvre et sa diffusion, un auteur conserve quoi qu’il arrive un droit moral sur elle, qui la protège de toute atteinte à son intégrité et à celle de son créateur. Dans le monde de l’édition livresque, la plupart du temps, un auteur signe un contrat avec une maison d’édition, et cède une partie - conséquente - de son droit patrimonial (la diffusion, la vente et le bénéfice) en échange ou non d’une rémunération basée, par exemple, sur le nombre de vente des exemplaires de son ouvrage. Comme il s’agit de droit patrimoniaux, les héritiers de l’auteur peuvent en disposer (dans certains pays, ils peuvent les vendre une fois pour toute), modulo certaines dispositions que le législateur a cru bon de définir, comme la durée maximum de l’usage de ces droits, au delà de laquelle l’œuvre est déclarée comme appartenant au domaine public. Pour un synthèse claire et complète de ces enjeux, voir Option Libre, de Benjamin Jean.
J. Smiers et M. van Schijndel proposent la possibilité d’une alternative, non pas tellement à l’exercice du droit d’auteur, mais à l’usage qui est fait de la notion de propriété d’une œuvre, une propriété “transférable” et source à la fois de richesse, de pauvreté et d’inégalité d’accès à la culture. Faut-il pour autant nier le fait que l’exercice du droit d’auteur est avant tout un moyen de protection de l’œuvre et de son auteur? Si les conclusions de Smiers et van Schijndel tendent à la polémique, il n’en demeure pas moins que certains événements récents donnent sérieusement à réfléchir.
La mésaventure de François Bon
François Bon est un écrivain, lauréat de nombreux prix littéraires (le dernier, en 2004, pour le livre remarquable intitulé Daewoo) . Il a notamment mis en œuvre, en 1997, le site remue.net, l’un des premiers sites web francophones dédiés à la littérature. Il a de même fondé le site publie.net, un site consacré à l’édition de textes numériques. Fort de ses capacités littéraires, François Bon a consacré beaucoup de temps à une nouvelle traduction du célèbre livre d’Ernest Hemingway Le vieil homme et la mer. L’unique traduction francophone de J. Dutourd, actuellement publiée par les Éditions Gallimard, laisse en effet à désirer à plus d’un point. Si F. bon a jugé qu’il pouvait en proposer une, c’est que, au Canada, une œuvre est déclarée comme appartenant au domaine public 50 ans après la mort de l’auteur, et Hemingway est mort en 1961. Ainsi, en ce mois de février 2012, via le site publie.net, François Bon proposait sa traduction dans une édition numérique. Très peu de temps après, les Éditions Gallimard faisaient savoir qu’ils étaient les seuls à pouvoir proposer une traduction française de l’ouvrage, ordonnaient l’arrêt de toute distribution du travail de F. Bon, et menaçaient de demander des dommages et intérêts pour les 22 exemplaires numériques déjà vendus à 2,99 euros pièce.
Comme le résume Eric Loret, sur Ecrans.fr :
Qui a raison ? François Bon savait que le texte du Vieil Homme et la Mer était dans le domaine public au Canada. Il croyait qu’il en était de même aux Etats-Unis, ce qui aurait rendu la plainte de Gallimard obsolète, le copyright ne pouvant être plus long en France que celui du pays d’origine de l’auteur. Hélas, comme l’a expliqué Cécile Dehesdin sur Slate.fr, les droits du Vieil Homme auraient pu tomber en 1980, soit vingt-huit ans après sa publication, si la dernière épouse de Hemingway n’avait eu la bonne mauvaise idée de les prolonger, soit jusqu’en 2047) Mais comme le copyright français, c’est soixante-dix ans après la mort de l’auteur, même si les droits courent encore dans son pays d’origine, la libération du texte de « Papa » serait plutôt vers 2032. En revanche, François Bon peut vendre sa traduction en ligne au Canada, à condition que le site marchand empêche les Français de se procurer le livre litigieux.
Gallimard, qui ne veut pas endosser le rôle du méchant, a fini par déclarer que « si on suit strictement la règle, nous sommes en effet les seuls à pouvoir publier une traduction de cette œuvre. Mais, vis-à-vis de la succession Hemingway, […] nous sommes tenus contractuellement de faire respecter ces droits. François Bon n’avait probablement pas connaissance de ces accords contractualisés. »
On comprend ici non seulement que le texte sera dans le domaine public en France en 2032 (à moins qu’une extension du temps d’exploitation ne soit votée d’ici là), mais aussi que Gallimard, propriétaire des droits d’édition du livre dans sa version française élaborée par Dutourd, est aussi dépositaire de tout droit d’une œuvre dérivée de The Old Man and the Sea sur le territoire français.
Que peut-on tirer de cette histoire? Certes, les héritiers d’Hemingway ont sûrement toutes les bonnes raisons du monde pour avoir négocié (et continuer de le faire) avec Gallimard les conditions de l’usage de l’œuvre originale en France. Et Gallimard a très certainement toute l’expérience juridique pour exercer ce monopole… même si la traduction n’est peut-être pas à la hauteur de l’œuvre originale. Mais tout est une question de point de vue : peu de gens, en dehors de chez Gallimard, justement, sont à même de pouvoir juger de la pertinence de la traduction de Dutourd, et encore moins d’élus sont donc censés proposer une traduction créative et plus en phase avec l’intention originelle de l’auteur… (quand on pense au nombre de traductions différentes de Platon, d’Aristote ou de Kant, toutes comparables et permettant aux lecteurs d’approfondir leurs connaissances de ces auteurs, cela laisse rêveur…).
Des lois américaines
Mais laissons-là l’ironie. Si l’on se penche sur les récents avancements juridiques outre-Atlantique, on s’aperçoit assez vite que se multiplient les freins au domaine public et à la diffusion des connaissances. Les raisons de ces limitations et de ce lobbying sont bien évidemment économiques.
Vers la fin de l’année 2010, j’avais publié sur le Framablog un texte intitulé « Pour libérer les sciences ». Ce texte avait pour objectif de synthétiser les problèmes liés à la centralisation de l’information scientifique et au monopole des éditeurs de revues, ceci dans le but d’abonder dans le sens d’un accès véritablement ouvert à l’information scientifique et promouvoir un modèle privilégiant la diffusion des sciences qui doit, à mon sens, passer par l’adoption des licences libres. J’étais loin de me douter alors que la tension était à ce point palpable dans le monde anglo-saxon.
Récemment, en janvier 2012, T. Gowers (médaille Fields en mathématiques) a lancé un appel au boycott scientifique contre Elsevier (éditeur de plus de 2000 revues) en mettant en cause les tarifs prohibitifs pratiqués par cette firme. Je ne signerai pas cette pétition car, à mon avis, focaliser uniquement sur les coûts masque totalement le principal problème : le fait que les connaissances soient soumises à un monopole d’éditeur et que ce monopole est lui-même accrédité par les scientifiques eux-mêmes qui cèdent leurs droits d’auteur à des revues sans que le public, qui pourtant a financé les recherches en question, ne puisse profiter de ces connaissances gratuitement comme un juste retour sur investissement. Je ne parle pas non plus des effets de ce monopole à la fois tarifaire et intellectuel contre les pays qui, eux, n’ont pas la chance de pouvoir accéder à ces revues faute d’en avoir les moyens financiers suffisants pour leurs universités.
Néanmoins, toujours aux États-unis, ce sont bien les éditeurs de revues scientifiques (Springer et Elsevier en tête) qui ont manœuvré pour soumettre en décembre 2011 à la Chambre des Représentants un projet de loi intitulé le Public Research Works Act (PRA). S’il est promulgué (mais en 2008 et 2009 déjà deux tentatives de cet ordre ont eu lieu), ce texte comportera des clauses visant à interdire l’accès libre (open access) aux informations scientifiques résultant de recherches pourtant menées sur les fonds publics. Tout l’intérêt de cette loi serait donc de centraliser l’information scientifique de manière exclusive dans les revues scientifiques qui verraient donc leur monopole de fait renforcé par un monopole de droit. Un chercheur n’aurait donc plus la possibilité de diffuser son texte par d’autres canaux que celui de la revue, et si possible, l’une de celles détenues par les grands groupes. Cela dit, tout n’est pas perdu dans les couloirs où les lobbies s’affrontent : une autre proposition de loi, la Federal Research Public Access Act of 2012 a été déposée en février 2012. Elle fait suite à d’autres tentatives (sans doute répondant aux tentatives précédentes des gros éditeurs), et entre pleinement en désaccord avec la PRA en proposant qu’au contraire les résultats publiables des recherches financées sur les fonds fédéraux soient systématiquement en accès libre.
Bien sûr, nous ne parlons pas ici de littérature (quoi que les livres scientifiques soient bien souvent dotés de bonnes feuilles à rendre jaloux certains lettreux). Ce qui est en question, c’est la notion de bien commun. La particularité des bien culturels, qu’ils soient scientifiques ou artistiques, c’est que tous sans exception ont une part de l’humanité qui devrait revenir sans restriction aucune au public. L’exercice des monopoles culturels repose uniquement sur le talon d’Achille de l’exclusivité de la diffusion ou de l’extorsion de la propriété intellectuelle d’un auteur (en faisant croire que l’auteur n’a de compte à rendre ni à lui même ni au public, même si ce dernier a financé ses recherches ou si la culture de l’auteur est elle même issue d’une culture plus large qui le dépasse à titre individuel). Qu’apporte réellement un éditeur si ce n’est un savoir faire dans la fabrication d’un ouvrage et dans sa diffusion, bref un support ? Pourquoi ce support serait-il censé donner une quelconque légitimité à la privation de l’œuvre, en décidant qui a le droit de la lire et qui n’en a pas le droit, ou en privant l’auteur lui-même de sa propre volonté de diffusion ? En somme : comment pourrions nous dénier toute notion de bien commun culturel au profit exclusif du capital financier ?
Oui, il faut pirater
Dans certains cas, le piratage me semble être la seule solution envisageable. De fait, cette pratique est beaucoup plus courante et ancienne qu’on se l’imagine (souvenez vous du slogan « le photocopillage tue le livre », affiché au dessus des photocopieuses françaises à la demande des « syndicats » du livre… qui pourtant semblent se porter très bien aujourd’hui). Pour reprendre le cas des scientifiques, c’est même une pratique jugée normale. Un chercheur publie un article dans une revue à grand tirage pour plusieurs raisons : 1) parce que le système du publish or perish l’y oblige, 2) parce qu’il est fier (et a bien raison de l’être) d’avoir mené ses recherches, 3) parce qu’il veut que la communauté scientifique et plus généralement le public ait connaissance de ses recherches et 4) parce que, une fois publiées, ses recherches seront discutées et participeront à l’avancement des sciences. Les deux dernières raisons ne peuvent souffrir aucune espèce de restriction. Or, l’article ou le livre, avant même d’être publié, a déjà fait l’objet d’une circulation à l’intérieur de la communauté scientifique (le chercheur a besoin de l’avis de ses collègues), et même après la publication, l’auteur accède volontiers (en raison de l’impératif supérieur de l’intérêt de la Recherche) aux demandes de ses collègues qui voudraient se procurer un exemplaire ou, une fois que la revue est parue et presque oubliée, l’auteur diffuse son texte a qui veut le lire, et ses collègues font de même. J’ai moi-même un nombre assez impressionnant de textes scientifiques parus dans des revues et que je distribue ou qui m’ont été distribués, tout simplement parce que ces textes sont d’abord des outils de travail. Dans la mesure où l’auteur signe un contrat d’exclusivité avec la revue, cette situation ne devrait pas exister : c’est bel et bien du piratage généralisé et même institué en pratique. Je dirais même, pour en finir avec cet exemple, qu’il s’agit là de bien commun et qu’une œuvre intellectuelle (de l’esprit) ne devrait jamais être soumise à quelle exclusivité que ce soit, au même titre que les logiciels libres (qui irait breveter un algorithme : iriez vous breveter « 2+2=4 » ?… ha si, Microsoft l’a fait, et n’est pas le seul), et au contraire des brevets végétaux, par exemple.
Pour le reste, ce sont les États eux-mêmes qui, influencés par les multinationales de l’industrie culturelle, sont amenés à réguler les conditions de versement dans le domaine public en dépit du bon sens. Cela constitue en réalité un véritable appel au piratage, car dans ce jeu, personne n’est dupe : c’est uniquement pour satisfaire les intérêts lucratifs des acteurs des marchés culturels. Durant ces dernières décennies, dans à peu près tous les pays signataires de la Convention de Berne, la durée de protection du droit d’auteur n’a cessée d’augmenter, reculant d’autant plus le moment où une œuvre est déclarée comme faisant partie du domaine public. Si la Convention de Berne obligeait les signataires à adopter les mesures nécessaires pour une protection minimale de 50 ans, elle empêchait nullement l’adoption d’une durée plus longue, si bien que, dès lors que la durée de protection n’est pas harmonisée, les pays ayant le plus d’intérêts économiques entraînaient mécaniquement les autres à adopter des durées plus longues. Ainsi le Copyright Term Extension Act voté aux États Unis en 1998 et soutenu notamment et médiatiquement par la Walt Disney Company, allongeait de 20 ans la durée de protection, en la passant à 70 ans. Quelques années après, en avril 2009, le Parlement Européen décida d’emboîter le pas aux États-Unis, cette fois dans le domaine du disque et des artistes-interprètes. La décision du Parlement fut cependant retardée par une majorité de pays s’opposant à cette décision pourtant remise chaque année au vote. C’est en 2011 qu’elle fut finalement entérinée.
Jusqu’à aujourd’hui, les augmentations successives de la durée de protection n’ont fait qu’aggraver les effets de l’Uruguay Round Agreements Act (URAA), adopté en 1996, et qui a des répercutions directes et complètement absurdes sur le statut des œuvres étrangères aux États-Unis. Comme il est fort bien résumé sur le blog de Wikimedia France :
Avec l’URAA, les États-Unis ont protégé des œuvres étrangères « pour la durée de protection restante dont l’œuvre aurait bénéficié si elle n’était jamais passée dans le domaine public aux États-Unis ». Or, la loi des États-Unis donne aux œuvres publiées entre 1924 et 1978 une protection de 95 ans après la date de publication. Cela provoque des situations absurdes : les États-Unis ne reconnaissant pas la « règle du terme le plus court », ces œuvres ont beau entrer dans le domaine public dans leur pays d’origine, elles restent protégées aux États-Unis.
… Ce qui ne va pas sans poser problème pour la Wikimedia Foundation et, donc, l’encyclopédie Wikipédia, qui héberge de nombreuses œuvres et reproductions d’œuvres du domaine public dans certains pays alors même que les serveurs sont sur le sol américain.
Le domaine public, qui jusqu’à présent était considéré comme le panthéon juridique des biens culturels, est donc fortement remis en cause. L’exemple du rôle joué par Gallimard, dans l’épisode que nous avons mentionné plus haut, montre aussi que la législation américaine en la matière a des impacts cruciaux au niveau international. Les lobbies mondiaux des industries culturelles vont jusqu’à imposer aux États de se doter d’un appareillage juridique et technique afin de surveiller les usages des outils de communication, principaux vecteurs modernes de la diffusion des œuvres. Tels sont les principes de SOPA (aux États-Unis) et ACTA (en Europe).
Dans un article récent, Jérémie Nestel dénonce ces mésusages du droit d’auteur et pointe du doigt la mort annoncée du domaine public. La question qu’il pose est aussi le titre de son article : « Pourquoi investir sur des auteurs vivants quand les morts sont aussi rentables ». Car, au delà de tous les exemples où le droit d’auteur est dévoyé au service des intérêts financiers par le truchement de lois toutes aussi absurdes les unes que les autres, il y a la question de l’encouragement à la création, bientôt relégué au second plan. Les monopoles de la cultures semblent davantage se mobiliser pour la protections de leurs intérêts qu’en faveur de la création culturelle.
Son affirmation sera aussi la conclusion de cette partie :
À ceux qui arguent que le piratage nuit à l’économie de la culture, « nous » répondrons que c’est l’allongement toujours plus excessif des droits d’auteurs.
On peut effectivement se demander si le piratage de certaines œuvres ne revient pas, tout simplement, à leur faire prendre le chemin du domaine public, à contre-pied des abus des monopoles culturels. Une œuvre de salut public, en quelque sorte.
Tout le monde s’octroie des droits
Les œuvres d’auteurs disparus ne sont pas les seules à se trouver au centre des intérêts marchands. Il y a aussi les œuvres livresques disparues, toujours placées sous le régime de la protection du droit d’auteur, mais jugées trop peu rentables pour être publiées. Là aussi, on pourrait se demander pourquoi, dans la mesure où ces œuvres ne trouvent pas suffisamment de lecteurs et/ou d’investissements pour être publiées par les maisons d’édition, les auteurs eux mêmes ne pourraient pas les placer sous licence libre, ou, à tout le moins, profiter simplement des offres d’impression à la demande. Mais dans certains cas, c’est impossible car les maisons d’édition ont acquis les droits de diffusion pour une longue durée, ou parce que les auteurs ont disparus et que les œuvres se trouvent orphelines sans toutefois appartenir au domaine public.
En novembre 2011, le Sénat Français a proposé une loi visant à permettre l’exploitation numérique des livres indisponibles au XXe siècle. Pour l’AFUL, dont le communiqué sonnait manifestement très juste, cette loi n’a pour autre effet que de « bloquer la politique européenne d’ouverture de la culture et des savoirs et à faire subventionner les éditeurs par les collectivités territoriales et par l’État ». Pour preuve, en ce mois de février 2012, la BNF annonce en trompettes qu’après avoir construit leur base de donnée, elle aura le privilège de numériser plus de 500.000 œuvres ne figurant pas dans le domaine public mais seulement indisponibles à la vente. Quant aux auteurs, ils pourront faire prévaloir leur droit de retrait du processus de numérisation mais à aucun moment on ne leur demandera la permission a priori. Nombre d’entre eux, pourtant, pourraient très bien refuser ou préférer voir leurs œuvres diffusées sous format numérique de manière gratuite ou profiter de cet épuisement de ventes pour les placer sous licence libre. Néanmoins, cette préemption de la BNF — organisme public — sur le droit d’auteur ne s’arrête pas à de telles considérations : le processus de numérisation se fera sur une partie des fonds récoltés par le Grand Emprunt, et une fois cet investissement effectué sur des fonds publics par un organisme public, les bénéfices tirés de la vente de ces livres numériques seront partagés, via une gestion collective paritaire, entre les éditeurs et les auteurs (voir le communiqué de presse). Oui vous lisez bien : une rémunération des auteurs (normal) ET une rémunération des éditeurs, ceux-là même qui ont organisé la rareté des œuvres et cessé leurs publications faute de satisfaire aux exigences de rentabilité ! L’État français va donc numériser et publier des œuvres à la place des éditeurs pour ensuite les rémunérer sous prétexte qu’ils en détiennent encore les droits. C’est une magnifique entourloupe rendue possible à la fois par les opportunités que laissent les contrats de cession exclusive de droit et par la cupidité (où les intérêts bien compris de certains fonctionnaires).
Il y a quelques temps, en juillet 2011, Hachette et Google avaient signé un accord de partenariat portant sur les mêmes principes: Google numérise et diffuse, les intérêts de l’éditeur et du diffuseur sont partagés. Au moins, le partenariat restait privé, même si on peut se poser la question de la durée de leur protection une fois les œuvres dans les mains d’un acteur américain. Or, la BNF qui a si longtemps fustigé les principes de Google, participe aujourd’hui exactement aux mêmes travers et, au lieu de favoriser la diffusion ouverte d’œuvres et rémunérer exclusivement les auteurs, assure tout le travail à la place des éditeurs, sur les deniers publics, et va en plus leur reverser des dividendes. Le citoyen français payera donc deux fois. Il ne reste plus qu’à attendre l’arrivée d’une taxe sur les FAI et les contenus téléchargeables pour un jour payer une troisième fois. Ne parlons pas des procédés de type DRM qui vont être imposés aux lecteurs, utilisant une pléthore de logiciels privateurs et de formats incompatibles.
La guerre des formats et de la circulation des biens culturels ne fait que commencer.
09.09.2014 à 02:00
THK: premier trail à ambiance médiévale
Le trail du Haut Koenigsbourg ! Il était temps que je cesse enfin de faire l’ours solitaire au fond des bois pour courir une épreuve organisée. Il y en aura peu, car décidément j’aime bien être seul, mais pour cette première, un petit récit de course s’impose, d’autant plus que l’organisation fut extraordinaire…
Nous étions 500 et par un prompt renfort… !
07h00 du matin le 07 septembre 2014, arrivée à Kintzheim, petite bourgade alsacienne charmante tout juste sortie du brouillard matinal.
J’arrive pile au top départ de la version 54km du Trail du Haut Koenigsbourg, juste à temps pour taper la claque aux courageux qui s’élancent dans la fraîcheur des vignes. Une heure après, ce sera mon tour, le temps d’un petit échauffement et quelques étirements dans le quartier qui se réveille doucement.
Pour sa 4e année, le trail du Haut Koenisgbourg offrait pas moins de 4 épreuves dans la même matinée : 12km (350m+), 24km (850m+), 54km (2020m+) et 84km (3284m+).
Si on lit un peu les témoignages ici et là sur les réseaux sociaux, l’organisation fut exemplaire et c’est peu dire. L’accueil et la gestion d’un total de 1664 coureurs (non, ce n’est pas le trail du Haut Kronenbourg, relisez bien) ne fut pas une mince affaire, mais ajoutez-y, en vrac :
- un balisage ultra clair, avec de jolies pancartes parfaitement visibles
- un parcours littéralement enchanteur, avec des points de vue variés
- un passage aménagé dans le château du Haut Koenigsbourg, si!
- et en prime des ménestrels avec de la musique médiévale, et des châtelains pour nous encourager,
- un énorme camion-douche, des ravitaillements sympas et complets, et pour couronner le tout, une chaude ambiance au départ comme à l’arrivée.
Voilà pour poser le cadre de cette course. Autant dire qu’on ne peut pas regretter de s’être inscrit. Du coup, la barre est placée très haut pour ce premier trail : ca va être dur de s’inscrire à d’autres courses!
C’est parti, ca s’accroche derrière
07h40 : Antoine me rejoint. Le collègue n’en est pas à son premier trail, loin de là. Il est à l’aise, lui… Moi, un peu intimidé par tout ce monde, je ne sais pas trop où me placer. Devant, n’y pensons même pas. Tout derrière? pourquoi pas… ou bien dans le gros de la troupe…
Peu importe, en définitive, car les 4 premiers kilomètres devraient servir à étirer au maximum le cortège, enfin, presque…
08h00 : le départ des 24km est donné par Môssieur l’maire de Kintzheim en personne. Quelques 800 coureurs s’élancent en direction des vignes. Diantre! ca part vite! Ha zut, ma montre qui ne capte pas le satellite… bidouillage…
« – tu captes, toi? – non, pas de réception! – ha si, ca vient. Hé mais c’est quoi ce cardio de malade? Elle délire c’te montre. »
En fait, le cardio se stabilisera en milieu de course. Il faut dire que c’est mon principal repère (quand d’autres regardent plutôt leur vitesse): donc soit on est vraiment parti très vite, soit le cardio déconnait, plutôt un peu des deux… Je n’en saurai pas plus. Ca monte dans les vignes, terrain bitume/béton pour commencer. On se réchauffe néanmoins au soleil rasant, dans une lumière typiquement alsacienne, juste au dessus des vignes encore un peu brumeuses, avant d’entrer dans la forêt du Hahnenberg.
Premier passage single après le premier ravitaillement… ca bouchonne… et un peu de déception…. J’avais fait le parcours en solo le 22 août, et à cet endroit, on peut courir… enfin, trottiner, quoi. Tant pis, c’est sympa, on monte au Hahnenberg file indienne, youkaïdi, youkaïda.
- Je perds complètement Antoine de vue
- il me dira plus tard avoir tapé une grosse accélération pour doubler plusieurs coureurs. Moi, je n’ai pas osé de crainte de devoir bousculer, et puis je discutais du parcours avec mes collègues de devant…
Arrivé à ce premier sommet, la course commence vraiment. Pas le temps d’admirer le paysage (et pourtant une très belle vue sur la plaine d’Alsace) : je décide de descendre aussi vite que possible. Finalement, je n’aurai pas gagné énormément de temps : la descente n’est pas longue et on se retrouve ensuite sur un chemin assez roulant.
Mon dossard fait des siennes, il joue au Sopalin avec la sueur : mauvaise qualité (beaucoup de coureurs sont dans le même cas, cela arrive). Je le remets, il se re-déchire… Tant pis, je le sortirai au besoin… direction mon slip.
A partir du parking de la Montagne des Singes (km 9), je commence seulement à prendre mon rythme de croisière. Le passage dans le sous-bois moussu est un enchantement. Un ravitaillement marrant au Refuge Pain d’Epices (on nous distribue… du pain d’épices, donc) et on commence l’ascension vers le château du Haut Koenigsbourg.
C’est sans doute la partie la plus pénible du parcours : un long chemin forestier ascendant, du genre où tu marches plus vite que tu ne cours, mais pas systématiquement…
Et là arrive la récompense (km 18)! le sommet ? non! le château : d’abord une châtelaine m’invite à emprunter une poterne le long du mur d’enceinte…. des escaliers (fabriqués exprès pour nous?) puis on se met à courir sur le chemin de ronde du château.
« Attention la tête! » Hé oui, les médiévaux étaient en moyenne plus petit que nous autres… enfin, pour ce qui me concerne avec mon 1,68m je n’étais pas vraiment concerné. Et là, j’ai pensé aux grands coureurs de devant, qui avaient franchi la ligne d’arrivée depuis longtemps… Après tout, un trail, c’est technique, et il faut courir aussi avec la tête. Ici, au sens propre comme au sens figuré.
Après le château, la descente vers Kintzheim. Enfin, une descente… qui comprend tout de même une assez longue partie sur un replat entre les deux sommets. C’est la particularité des Vosges. Donc rythme de croisière, on pense à autre chose. Je vois pas mal de gens avec des sales crampes en train de faire des étirements… je décide de ne pas forcer. De toute façon, l’arrivée n’est pas loin…
Arrivée et conclusion
10 minutes avant l’arrivée. Avant une dernière pente bétonnée (où je préfère marcher quelques mètres), je me retrouve un peu seul, j’en profite pour faire le point sur le temps de parcours : je mettrai finalement le même temps qu’en solo: 3h05. Compte-tenu du fait que les 8 premiers kilomètres ont été plutôt laborieux, j’ai plutôt bien couru dans l’ensemble, ce qui me laisse une belle marge de progression pour le prochain trail.
Évidemment, j’ai pris un rythme plutôt ronflant : le plus difficile aura été de courir en groupe et composer avec le rythme des autres dans les passages étroits. Beaucoup de temps peut être gagné si l’on est seul, par conséquent, il faut être un peu plus stratégique sans toutefois se précipiter.
Enfin l’arrivée! Je retrouve mon collègue qui m’a précédé d’une dizaine de minutes. Bah! il a fait la photo, merci !
17.07.2014 à 02:00
Questions de sécurité démocratique
Le jour même de la série d’assassinats terroristes à Charlie Hebdo et Porte de Vincennes en ce mois de janvier 2015, plusieurs politiciens ont proposé, au nom de la sécurité collective, de revoir l’équilibre entre les libertés individuelles et la sécurité. Sur ce blog, j’ai eu l’occasion, le lendemain des faits, de signaler le paradoxe qu’il y avait à former, au nom de la liberté d’expression, une union politique autour des questions de sécurité collective dans une guerre contre le terrorisme. Dès lors il me semble important de se pencher sur les discours politiques qui ont et qui vont scander la vie publique cette année 2015.
Dans tous les cas où la sécurité publique est abordée de manière politique, le choix est imposé entre une définition de la démocratie et l’équilibre entre les droits individuels et la sécurité. Or, de tous les concepts, celui de sécurité est au mieux défini de manière floue (ce qui n’empêche pas la bienveillance, lorsque par exemple la santé ou la défense des salariés sont reconnues comme des formes de sécurité) et au pire complètement dévoyé pour servir des intérêts divergents.
Les études de cas ne manquent pas autour de la notion de sécurité démocratique, telle cette étude de C. Da Agra intitulée « De la sécurité démocratique à la démocratie de sécurité : le cas Portugais » (dans Déviance et Société, 25, 2001), ou encore cette étude sur le cas colombien. L’Unesco défend l’idée que la question de la sécurité démocratique devrait être conçue « comme une matrice au sein de laquelle les questions relevant de la sécurité pourraient être abordées de façon permanente par l’ensemble des acteurs de la société » (voir ici), de manière à éviter d’être accaparée par quelques uns et les conflits d’intérêts. Telle est la problématique soulevée par cet article sur le cas colombien, justement.
L’annonce d’une conférence qui se tiendra prochainement à l’Université de Strasbourg (voir le programme) m’a fait connaître une partie des travaux de Liora Lazarus, professeure de droit à l’Université d’Oxford. Cette dernière travaille depuis longtemps sur les questions relatives au droit et à la sécurité. Un texte de sa part, rédigé en 2010 et publié en 20121, intitulé « The Right to Security – Securing Rights or Securitising Rights » (Le droit à la sécurité – sécuriser les droits ou sécuritariser les droits) m’a semblé tout particulièrement visionnaire, lorsqu’on le lit à la lumière des récents événements terroristes sur le sol français.
Je ne résiste pas à vous livrer ici la traduction personnelle (et donc perfectible) d’une section de son article, intitulée Rhetorical expressions of the right to security (les expressions rhétoriques du droit à la sécurité).
Rhetorical expressions of the right to security
Les lecteurs ne seront pas surpris d’apprendre que le droit à la sécurité est souvent mentionné dans les discussions relatives à la « guerre contre le terrorisme ». On recourt au droit pour justifier les mesures coercitives anti-terroristes, tant à l’intérieur qu’à l’extérieur des États-Unis, ou même pour justifier l’invasion militaire ou les réponses en Afghanistan2, au Kosovo3, au Pakistan4, et dans le cas de la Colombie, en Équateur5. Il y a beaucoup d’exemples, mais deux d’entre eux démontrent particulièrement bien ce point. Lors de l’exposé de la politique anti-terroriste de l’Union Européenne, Franco Frattini déclara : « Notre objectif politique reste à trouver le juste équilibre entre le droit fondamental à la sécurité des citoyens, qui est en premier lieu le droit à la vie, et les autres droits des individus, y compris le droit à la vie privée et les droits procéduraux »6. De même au Royaume-Uni, à propos de politique anti-terroriste en 2006, John Ried, ancien ministre de l’Intérieur, déclara : « Dans la mesure où nous sommes confrontés à une menace d’assassinat de masse, nous devons accepter que les droits individuels dont nous jouissons devront s’équilibrer avec le droit collectif à la sécurité, à la protection de la vie et de l’intégrité physique que nos citoyens exigent. »7
Les hommes politiques ne sont pas les seuls à tenir ce langage. Les citoyens aussi articulent le droit à la sécurité par rapport à la « guerre contre la terreur ». Comme l’écrit Emily Cochrane dans le Carstairs Courier en Alberta :
« Le Canadian Charter of Rights and Freedoms…, déclare le droit à la sécurité des personnes. Lorsque des membres d’une organisation terroriste Taliban firent s’écraser des avions dans une attaque stratégique contre l’Amérique le 9/11, en tuant 2,973 personnes, ceux qui ont soutenu ces actions et ceux qui les ont abrité, ont perdu leur droit à la sécurité tout comme ils ont causé la perte de la vie de tant d’autres personnes. Le peuple des États-Unis a un droit à la sécurité – de vivre sans peur, et le seul moyen d’y parvenir était de neutraliser la menace à la source. »8
Ces références nous apprennent deux choses importantes : premièrement que le droit à la sécurité est mentionné pour renforcer la rhétorique politique dans une situation de conflit militaire et de guerre contre le terrorisme, d’une manière subtile et importante. Ce processus de légitimation (et peut-être de désinfection) par référence au discours sur les droits est ce que nous pourrions appeler une « conformation de la sécurité au droit » (righting security). Le cadrage du droit sur la sécurité permet aux politiques de faire passer leurs actions coercitives comme le corrélat nécessaire d’un droit. En d’autres termes, la recherche de la sécurité n’est pas seulement un choix politique en vertu d’un bien public, c’est l’accomplissement d’un devoir imposé à l’État par le droit fondamental de chaque individu à la sécurité.
De manière toute aussi cruciale, présenter de telles actions de l’État comme ayant été motivées par notre droit fondamental est au cœur de la rhétorique du « rééquilibrage » entre la sécurité et les droits de l’homme. Cette langue du rééquilibrage oppose de manière générale le droit à la sécurité de la majorité aux droits des minorités qui pourraient être violés.
L'« altérité » intrinsèque dans ce rééquilibrage rhétorique est bien illustré par l’ancien Procureur général Lord Goldsmith, qui a fait valoir qu’il est difficile de trouver un « calcul utilitaire simple pour trouver l’équilibre entre le droit à la sécurité du plus grand nombre et les droits de quelques uns »9. Néanmoins, les politiques sont en désaccord quant à l’importance du droit à la sécurité, et donc savoir où situer l’équilibre entre la sécurité et les droits de la défense qui lui sont rivaux. Alors que John Reid croit que « le droit à la sécurité, à la protection de la vie et de la liberté, est et doit être le droit fondamental sur lequel tous les autres doivent s’appuyer »10, Sir Menzies Campbell11 note que tandis que le public « a un droit à la sécurité », il « a aussi un droit à la sécurité contre la puissance de l’État »12. Pourtant, une telle définition de la sécurité comme un droit de la défense contre l’intervention d’État est, dans la rhétorique politique, moins couramment utilisée que la dimension positive du droit issue des devoirs coercitifs de l’État.
Ces idées divergentes à propos du droit à la sécurité, et son poids dans la balance entre sécurité et liberté, joue directement sur la manière dont les gouvernements renforcent les pouvoirs de police et évaluent l’activité militaire devant une menace sécuritaire. Il y a très peu de clarté ou de conseil sur la manière d’équilibrer le droit à la sécurité là où il est invoqué pour légitimer la force de l’État aussi bien dans le contexte national qu’international. Cette situation est problématique parce que la portée du droit à la sécurité, son poids par rapport à d’autres droits, ses limites admissibles, et les devoirs corrélatifs qu’il impose à l’État, sont toutes des questions auxquelles il faut répondre avant de savoir comment les « équilibres » pourraient être atteints.
-
Voir Liora Lazarus, « The Right to Security – Securing Rights or Securitising Rights », dans : Rob Dickinson et al., Examining Critical Perspectives On Human Rights, Cambridge : Cambridge Univ. Press, 2012, p. 87-106. ↩︎
-
E. Cochrane, Troops deserve our support, Carstairs Courier (Alberta), 6 November 2007. ↩︎
-
The Vancouver Sun, "Yeltsin’s final fling: The Russian leader, often portrayed in the West as a boorish drunk, had substance that belied his unvarnished style", 27 January 2001: "The Kosovo conflict demonstrated the worst political tendencies and double standards of modern Europe. It was claimed, for example, that human rights were more important than the rights of a single state. But when you violate the rights of a state, you automatically and egregiously violate the rights of its citizens, including their rights to security". ↩︎
-
The Press Trust of India, "Pak should give firm assurance against abetting terrorism", 30 December 2001: "Stating that terrorism had crossed the lakshman rekha (the limit of patience) with the December 13 attack on Indian Parliament, Advani said, no sovereign nation which is conscious of its right to security can sit silent. It has to think as to what steps need to be taken to check this menace."" (Quoting India’s Federal Home Minister L. Advani in a programme on national broadcaster, Doordarshan). ↩︎
-
BBC Worldwide Monitoring, "Colombia defends its incursion into Ecuador" 23 March 2008: Communique issued by the Presidency of the Republic in Bogota on 22 March. "The Colombian Government hereby expresses:. 1/ Its full observance of the decisions adopted by the OAS. 2/ Reminds the world that the camp of alias Raul Reyes was a site of terrorists who acted. ↩︎
-
European Commissioner responsible for Justice, Freedom and Security "EU counter-terrorism strategy" European Parliament, 5 September 2007, Speech/07/505. ↩︎
-
J. Reid, "Rights, security must be balanced", Associated Press Online, 16 August 2006. ↩︎
-
Cochrane, Troops deserve our support. ↩︎
-
Full text of speech reported by BBC News “Lord Goldsmith’s speech in Full” 25 June 2004, available at news.bbc.co.uk (accessed 14 September 2010). ↩︎
-
- Full text of speech reported by BBC News “Reid urges human rights shake-up”, 12 May 2007, available at news.bbc.co.uk (accessed 14 September 2010).
-
(NdT.:) député au parlement du Royaume-Uni, voir notice Wikipedia. ↩︎
-
Speech made in the House of Commons debates into extending the limits of pre-charge detention, 25 July 2007, HC Deb., vol. 463, col. 851. Ironically, this framing of security as a defensive right against state action was part of the rationale behind the Second Amendment of the US Constitution which allowed for an armed citizenry to defend against abuses by undemocratic government (L. Emery, "The Constitutional right to keep and bear arms" 28(5) Harvard Law Review (1915) 473, 476). ↩︎
17.07.2014 à 02:00
Entraînement trail, autour de Gérardmer
Au cas où parmi les lecteurs de ce blog certains ne sauraient pas où aller courir, je compte proposer quelques parcours de trail que j’ai testé au moins deux ou trois fois. Aujourd’hui, une cuvée personnelle sur les hauteurs de Gérardmer. Vous aurez de même l’occasion de croiser les pistes de la station de trail gérômoise, dont j’aurai l’occasion de parler ultérieurement. Ce parcours a une vocation à la fois touristique et sportive. Il est adapté au traileurs débutants qui, sans forcer dans les montées où les passages peuvent être techniques, pourront assez facilement arriver au bout. Il vous mènera vers les « écarts » gérômois. Vous admirerez quelques anciennes fermes remarquables ainsi que des points de vues originaux et peu fréquentés.
Commentaires
-
- **Km 0 - 2,5—** Le parcours débute doucement en guise d'échauffement. Depuis le Square Briffaut, on longe la rive du lac de Gérardmer, en passant par le sentier du Tour du Lac. Toutefois, attention aux promeneurs au km 2 : le passage est rocheux et étroit. Si cette solution ne vous tente pas, il est possible de passer par la route, légèrement en amont.
- **Km 2,5 - 3,5—** Montée de la Cascade de Mérelle. Sur un chemin romantique (assez humide et glissant par moment) on remonte le ruisseau de Mérelle, jusque sa cascade. Au delà de cette dernière, il est possible de reprendre la course progressivement pour enchaîner jusqu'au sommet. Cette section est assez technique : sol rocailleux et humide.
- **Km 3,5 - 6—** Une section typique des hauts gérômois avec trois écarts remarquables : Frémont, Le Pré Chaussotte, Noirupt. Le chemin monte progressivement jusqu'au premier sommet du parcours. Aucune difficulté de terrain, chemin large.
- **km 6 - 9,5—** Descente jusqu'au Col de Sapois, puis jonction jusqu'au Col du Haut de la Côte. Une section très rapide au début, si on pousse un peu le rythme de la descente, il sera possible ensuite de récupérer doucement sur le chemin de l'Urson. Pas de difficulté, on peut en profiter pour se nourrir un peu.
- **km 9,5 - 12,7—** L’endurance est la clé de cette section longue et progressive. On emprunte les pistes de ski nordique de Gérardmer jusqu'au lieu-dit les Hautes Vannes. Garder de l'énergie sous la semelle pour enchaîner la section suivante.
- **km 12,7 - 13,9—** La montée vous mènera jusqu'au chalet-refuge de la Croix Claudé. Le chemin est tantôt rocailleux, herbeux et humide. Les plus aguerris pourront courir, au moins par moment, mais attention à la longueur... et le parcours n'est pas fini...
- **km 13,9 - 15,6—** La crête la plus sympathique du parcours puisque, en cas de beau temps et à partir de la Roche des Bioqués, on pourra admirer la superbe vue sur la vallée du Chajoux, l'une des deux vallées de la commune de La Bresse. Le sentier est terreux et rocailleux, et se termine en pente douce jusqu'à la reprise vers le sommet de Grouvelin
- **km 15,6 - 17,3—** Montée puis descente du sommet de Grouvelin vers la ferme de Grouvelin. N'hésitez pas à marquer un arrêt au sommet, à la table d'orientation (1137m)!
- **km 17,3 - 21,3—** Sur chemin large, descente vers la Mauselaine à travers les piste de ski alpin de Gérardmer. Vue sur la vallée de Gérardmer... Attention aux cuisses!
- **km 17,3 - 22—** Après un peu de bitume (inévitable), descente assez technique par la Roche du Rain. Attention aux promeneurs en sens inverse (ou aux traileurs qui terminent l'un des parcours de la station de Trail!). Sentier rocailleux et terreux.
- **km 22 - fin—** Retour dans la ville de Gérardmer, en évitant le centre, jusqu'au Square Briffaut.
- Longueur : 23,56 km
- Denivelé positif cumulé : 998 m
- Denivelé négatif cumulé : 991 m
- Altitude maxi : 1129 m
- Altitude mini : 659 m
- Voir la carte du parcours
Infos
14.07.2014 à 02:00
Faire du sport librement avec Turtle Sport
Après avoir cherché un cardio-fréquencemètre + GPS fiable et qui ne nécessite pas de connexion à un réseau social quelconque, il faut aussi avoir un bon logiciel capable de lire les traces et utiliser les informations récoltées durant la course. Sous GNU/Linux, un logiciel qui fait parler de lui, c’est Turtle Sport.
Qu’est-ce que Turtlesport ?
Turtlesport est un logiciel sous licence GNU LGPL. Il n’est pas exclusivement réservé à GNU/Linux et tourne aussi bien sous MSWindows que sous MACOS. Un logiciel sympathique, donc, puisque, en profitant d’une communauté élargie, il est traduit en 9 langues.
Pour reprendre son descriptif, Turtle Sport est « un logiciel pour communiquer avec les produits Garmin fitness (forerunner and edge) ». En réalité, il est capable de lire des formats de fichiers comme .fit
, .gpx
, .tcx
, .xml
. etc. Donc, si vous avez un dispositif capable de produire de tels fichiers et que vous pouvez les récupérer, il suffit ensuite de les importer. Turtlesport peut néanmoins communiquer avec les dispositifs Garmin de manière assez efficace, d’autant plus que les distributions GNU/Linux sont capables de le faire même nativement. Pour ce qui me concerne, je connecte ma montre Garmin Forerunner et Turtle Sport me liste les courses effectuées.
Le reste est à l’avenant : on navigue entre les courses par exemple sur le mode d’un agenda, et après avoir entré vos données personnelles (fréquence cardiaque max, taille, poids, etc) vous pouvez commencer à travailler les aspects statistiques et les performances. Les fonds de cartes, quant à eux sont au choix : de Google Map à OpenStreetMap…
Enfin, si vous désirez partager votre course avec un de vos correspondants, il est possible de la lui envoyer par courriel par exemple sous la forme d’un fichier GPX (exporté) ou d’un lien Googlemap en un clic directement depuis Turtle Sport. Cela présente aussi l’avantage de disposer du fichier GPX qui, lui, est lisible sur de nombreux sites dédiés au partage de tracés : ainsi vous choisissez ce que vous voulez partager sur Internet…
23.05.2014 à 02:00
Vosges opération libre
Vosges Opération Libre : voilà, c’est fini… et c’était formidable ! En commençant ce projet, je n’aurais jamais parié sur autant d’enthousiasme de la part des participants et des visiteurs !
Le week-end des 17 et 18 mai 2014, près de 200 visiteurs sont venus se joindre aux membres du collectif d’associations et de SSLL qui présentaient à Gérardmer un panel très complet du Libre, de ses enjeux et de ses applications dans les domaines de la culture, de la technique et des données ouvertes. Profitant au mieux du cadre ensoleillé de la Villa Monplaisir et de l’Espace Lac, les visiteurs ont pu assister à des conférences de premier ordre, adaptées au Grand Public, et consulter sur leurs stands plusieurs associations et SSLL, et même participer à des ateliers thématiques. Le partage et la collaboration furent à l’honneur, qu’il s’agisse des données cartographiques, de la connaissance, et jusque dans les domaines les plus techniques de l’impression 3D, de la scannerisation, des réseaux…
Le public aura de même apprécié le grand dynamisme contagieux qui règne dans le Libre. Le symptôme est une prédiction: attendez-vous dans les prochaines saisons à d’autres événements fortement liés à cette première session introductive! Pari gagné !
31.03.2014 à 02:00
La renaissance des communs
De nombreux domaines de notre patrimoine commun sont actuellement en état de siège : l’eau, la terre, les forêts, les pêcheries, les organismes vivants, mais aussi les œuvres créatives, l’information, les espaces publics, les cultures indigènes… Pour proposer une réponse aux multiples crises, économiques, sociales et environnementales, que connaît la notre société actuelle, David Bollier invite à revenir sur cette notion de « communs », un ensemble de pratiques sociales collectives que la modernité industrielle a fait progressivement disparaître. Aujourd’hui, les communs doivent être appréhendés non comme des ressources dont tout le monde aurait la libre jouissance, mais comme un système de coopération et de gouvernance permettant de préserver et de créer des formes de richesse partagée. L’auteur montre comment ils peuvent remédier à nos maux économiques en. Car Cette approche, mettant en avant une théorie plus riche de la valeur que l’économie conventionnelle, implique de nouveaux modèles de production, des formes plus ouvertes et responsables de participation des citoyens ainsi qu’une culture d’innovation sociale. C’est ce dont témoignent les actions et initiatives des différents mouvements des « commoneurs » à travers le monde, déterminés à construire des alternatives vivantes et fonctionnelles à l’étau des grandes technocraties publiques et privées.
Cet ouvrage devrait permettre d’éclairer et de promouvoir l’enjeu des communs aussi bien auprès des universitaires et des élus que des militants associatifs et autres citoyens engagés.
Bollier, David. La renaissance des communs: pour une société de coopération et de partage. Traduit par Olivier Petitjean, C. L. Mayer, 2014.
Lien vers le site de l’éditeur: http://www.eclm.fr/ouvrage-364.html
02.02.2014 à 01:00
Pour tout résoudre, cliquez ici !
Pour tout résoudre cliquez ici ! dénonce le discours employé par les entreprises et les chantres de la Silicon Valley qui veulent nous faire croire que grâce à l’Internet et aux nouvelles technologies tous les aspects de notre vie seront améliorés et la plupart des problèmes du monde disparaîtront.
Evgeny Morozov démontre qu’il n’y a pas une « application » comme réponse simple et immédiate à tous les enjeux sociétaux ni même à nos problèmes individuels. Il met en lumière deux concepts-clés, le solutionnisme et « l’Internet-centrisme », qui permettent de comprendre les schémas de pensée à l’œuvre derrière la révolution numérique.
Cet ouvrage porte un regard neuf et salutaire sur le numérique et sur nos usages. Il nous met en garde contre la croyance en un miracle technique et en un un monde à l’efficacité sans faille où chacun serait contraint de revêtir la camisole de force numérique de la Silicon Valley.
Morozov, Evgeny. Pour tout résoudre, cliquez ici ! L’aberration du solutionnisme technologique. Traduit par Marie-Caroline Braud, Fyp, 2014.
Lien vers le site de l’éditeur : http://www.fypeditions.com/resoudre-laberration-du-solutionnisme-technologique-evgeny-morozov/
01.02.2014 à 01:00
Digital disconnect
Celebrants and skeptics alike have produced valuable analyses of the Internet’s effect on us and our world, oscillating between utopian bliss and dystopian hell. But according to Robert W. McChesney, arguments on both sides fail to address the relationship between economic power and the digital world.
McChesney’s award-winning Rich Media, Poor Democracy skewered the assumption that a society drenched in commercial information is a democratic one. In Digital Disconnect, McChesney returns to this provocative thesis in light of the advances of the digital age. He argues that the sharp decline in the enforcement of antitrust violations, the increase in patents on digital technology and proprietary systems and massive indirect subsidies and other policies have made the internet a place of numbing commercialism. A handful of monopolies now dominate the political economy, from Google, which garners a 97 percent share of the mobile search market, to Microsoft, whose operating system is used by over 90 percent of the world’s computers. Capitalism’s colonization of the Internet has spurred the collapse of credible journalism and made the Internet an unparalleled apparatus for government and corporate surveillance and a disturbingly antidemocratic force.
In Digital Disconnect, Robert McChesney offers a groundbreaking critique of the Internet, urging us to reclaim the democratizing potential of the digital revolution while we still can.
McChesney, Robert Waterman. Digital disconnect. How capitalism is turning the internet against democracy. The New Press, 2014.
Lien vers le site de l’éditeur : https://thenewpress.com/books/digital-disconnect
20.10.2013 à 02:00
La politique Framabook
Voici un texte publié sur Framablog avec Benjamin Jean, à propos des licences libres et de la question de leur choix dans la collection Framabook. Ce texte est aussi le prétexte pour une mise au point démontrant les limites du choix des licences interdisant les usages commerciaux ou les modifications d’une œuvre. Nous avons voulu montrer que le modèle éditorial de la collection Framabook est non seulement viable, éthique et pertinent, mais aussi qu’il est transposable pour toute forme de diffusion d’œuvre dans une logique de partage. Ainsi les publications scientifiques, tout particulièrement, devraient adopter ce modèle.
La « politique » Framabook et les licences libres
Par Christophe Masutti et Benjamin Jean
Version 1.1 – 16 octobre 2013
Texte placé sous LAL 1.3 ; GNU FDL 1.3 ; CC-By-SA 3.0
Christophe Masutti est docteur en histoire des sciences et des techniques, chercheur associé au SAGE (Société, Acteurs, Gouvernements en Europe, Université de Strasbourg), responsable des affaires européennes à la Direction Générale des Hôpitaux Universitaires de Strasbourg. Président de l’association Framasoft depuis janvier 2012.
Benjamin Jean est membre de l’équipe du CUERPI (Centre Universitaire d’Enseignement et de Recherches en Propriété Intellectuelle) co-fondateur de la société Inno3, consultant au Cabinet Gilles Vercken et maître de conférence à Science Po. Co-fondateur de l’association Veni, Vidi, Libri et du cycle de conférences European Open Source & Free Software Law Event (EOLE).
Initié en mai 2006, Framabook est le nom donné au projet de collection de livres libres édités par Framasoft1. Basée sur une méthode de travail collaborative entre l’auteur et des bénévoles de l’association, la collection dispose d’un comité de lecture et d’un comité éditorial. Elle propose des manuels, des essais et même des bandes dessinées et des romans en lien avec le logiciel libre ou la culture libre en général. Le choix des licences qui les accompagnent les inscrit dans la culture libre et la participation aux biens communs.
Depuis que Framasoft a choisi de devenir éditeur de sa collection, nous avons tant bien que mal travaillé à la construction d’un modèle alternatif et collaboratif d’édition. Dans nos discussions avec les auteurs, la question des licences acceptées pour la diffusion des projets est récurrente (pour ne pas dire systématique). Ce sujet relativement technique a mobilisé le débat de nos assemblées générales, se poursuivant parfois tard en soirée et sur nos listes de discussion, pour des réponses finalement toujours similaires (« des licences libres et seulement des licences libres »).
Nous nous sommes aperçus que cette recherche répétée de consensus résultait surtout du manque d’exposition claire des principes auxquels adhère la collection Framabook. C’est pour y remédier que cet article a été écrit. Il cherche à exposer les principes de la politique éditoriale du projet Framabook tout en rassemblant les différents éléments de discussion issus des archives de nos listes et qui concernent précisément les licences libres. D’une certaine manière, il témoigne aussi d’une réflexion devenue mature et qui nous semble valider la pertinence d’un modèle d’édition ouverte. Nous destinons aussi ces quelques lignes aux auteurs et éditeurs, afin de les aider à cerner les enjeux du choix d’une licence pour une œuvre destinée à être publiée dans la collection Framabook ou ailleurs.
Nous avons conscience que ce choix n’est pas anodin et peut même être difficile, tant d’un point de vue culturel après presque trois siècles d’histoire du droit d’auteur, que d’un point de vue économique et éthique, dans le contexte d’une économie de la culture qui multiplie les abus en tout genre. Nous ne cherchons pas non plus à prétendre que ce modèle devrait remplacer les modèles existants, nous souhaitons seulement démontrer qu’il peut être viable et, surtout, qu’il ne génère pas tous les risques et déviances qu’on lui rattache fréquemment. Bien que l’un de nos ouvrages compte désormais comme une référence en la matière (Benjamin Jean, Option Libre. Du bon usage des licences libres)2, certaines subtilités nécessitent à la fois une connaissance du droit d’auteur, une connaissance du domaine de l’édition et une connaissance des licences libres. L’ensemble est néanmoins à la portée de tous et n’excède pas les quelques minutes de la lecture à laquelle nous vous invitons, sous la forme de questions fréquemment posées (QFP)…
Sous quelle licence dois-je placer mon œuvre dans la collection Framabook ?
Le premier postulat de notre collection est que les auteurs sont absolument libres d’utiliser les licences qu’ils souhaitent pourvu qu’elles soient « libres », c’est-à-dire qu’elles assurent à l’utilisateur une libre utilisation, copie, modification ou redistribution de l’ouvrage ou de ses dérivés (ce qui exclut donc toutes les licences Creatives Commons limitant l’usage commercial « NC » ou la modification « ND », ainsi que nous allons le développer plus loin).
Dans l’esprit du Libre auquel nous adhérons, cette définition n’exclut pas les licences dites copyleft qui imposent la pérennité des libertés assurées à l’utilisateur (garantissant à l’auteur que le livre ne pourra être exploité que librement). Ce choix n’est pas neutre puisque ce type de licences permet d’alimenter un « pot commun » auquel tout le monde peut puiser à condition d’y reverser à son tour ses propres contributions. En d’autres termes, un Framabook pourra être aussi bien sous Licence Art Libre 1.3, sous licence CC-By-SA 3.0, que sous licence CC-By 3.0 (« tout court ») voire sous CC-03. Vous serez toujours libre de réutiliser ces ouvrages (même commercialement), mais à votre charge de respecter les obligations que ces licences contiennent.
Par exemple – Si quelqu’un rédige un texte incluant un passage substantiel (en termes qualitatifs ou quantitatifs) tiré d’un Framabook, et même si cet usage dépasse le cadre délimité du droit de citation, la licence libre associée par l’auteur lui accordera les droits nécessaires (à condition que soient parallèlement respectées les contraintes qu’elle impose). Au titre de ces contraintes, certaines licences copyleft imposeront que toutes modifications apportées à ce texte soient diffusées selon la même licence, voire que l’intégralité de l’œuvre utilisatrice soit distribuée selon la même licence (ce qui, contrairement à la première hypothèse, limite grandement le type d’exploitation possible). Ainsi qu’indiqué précédemment, cette obligation permet d’assurer une relative pérennité au projet initial et s’ajoute aux obligations classiques telle que l’obligation d’attribuer la paternité de l’œuvre initiale à nos auteurs (et ceux-ci seulement ; vous serez pour votre part auteur de votre propre version dérivée).
Pourquoi utiliser des licences libres ?
Avant toute autre considération, le Libre procède d’une volonté de partage. Si vous placez une œuvre sous licence libre, c’est que vous désirez la partager avec le plus grand nombre d'« utilisateurs » ou de contributeurs possible. Importante dans le monde physique, cette notion de partage se révèle encore plus évidente dans le monde immatériel (celui de la propriété intellectuelle) où l’acquisition par un individu n’implique pas l’aliénation ou la perte par l’autre (bien au contraire)4. Ainsi, « Libre » ne signifie donc pas « libre de droits » (notion qui n’a aucune valeur juridique) et les licences libres sont là pour traduire et sécuriser juridiquement la relation souhaitée5. Le projet Framabook repose donc sur :
- l’usage de licences libres par lesquelles les auteurs exploitent leurs droits. C’est grâce à ce contrat que toutes les autorisations indispensables à l’évolution et à la diffusion de l’œuvre sont données (en l’absence de licence, rien ne serait permis).
- le respect du droit d’auteur dans sa globalité, et notamment des prérogatives morales (droit de divulgation, droit de paternité, droit au respect de l’intégrité de l’œuvre, etc.) qui protègent l’auteur en raison des liens étroits qu’il entretient avec son œuvre. Ajoutons qu’il n’y a pas de remise en cause de ces prérogatives morales par les licences libres ; bien au contraire, celles-ci les rappellent (et parfois renforcent) systématiquement.
- sur le respect des conditions relatives au prix de vente des livres. La loi Lang (81-766 du 10 août 1981 modifiée 2008) sur le prix unique du livre doit toujours être respectée quelle que soit la politique éditoriale choisie (ces règles s’appliquent aussi sur la vente des versions numériques – même si un prix différent du prix papier peut alors être décidé).
Ainsi, l’utilisation d’une licence libre est indispensable pour assurer aux utilisateurs les libertés proclamées par l’auteur et par la collection.
N’est-ce pas contradictoire avec la commercialisation des livres ?
L’adage « libre ne signifie pas gratuit » s’applique parfaitement pour ce qui concerne la collection Framabook.
La politique de la collection consiste à proposer un modèle économique du livre basé à la fois sur la primauté de la diffusion et la juste rémunération des auteurs. Puisque nous vendons les livres « papier » et encourageons d’éventuelles rééditions, nous ne voulons pas utiliser de clause de licence interdisant à priori la vente (pas de -NC dans le cas des licences Creative Commons).
Bien que la clause NC puisse être légitimée, il y a un contexte propre à la collection Framabook. Framasoft est un réseau d’éducation populaire dédié au Libre qui s’appuie sur une association d’intérêt général à but non lucratif. De cette orientation découle toute l’importance de la diffusion au plus grand nombre.
C’est pour cela que nous avons fait le choix de distribuer gratuitement les versions numériques des ouvrages. Mais elles auraient pu aussi bien être vendues au même titre que les livres « papier ». Quoi qu’il en soit, les sources (les fichiers originaux servant à la composition de l’œuvre) étant elles aussi disponibles, tout le monde peut les utiliser afin de diffuser à son tour gratuitement ou non. Par essence, la clause de type -NC contrevient au principe de libre diffusion et de partage, à moins de lever à chaque fois cette clause pour chaque cas particulier (et, même dans cette situation, nous nous placerions dans une situation privilégiée qui serait contre-productive compte tenu du partage qui nous motive).
Certaines maisons d’édition effectuent ainsi une sorte de « Libre-washing » en profitant de leur position de monopole sur l’œuvre pour lever cette clause temporairement moyennant une rémunération que l’auteur ne touche pas obligatoirement. L’idée est de prétendre une œuvre libre mais en conservant le monopole et en exerçant des contraintes indues. Nous pensons que dans la mesure où une maison d’édition désire rééditer un Framabook, moyennant les conditions exposées à la question numéro 4, elle devrait pouvoir le faire indépendamment de Framasoft, en directe relation avec l’auteur. Nous n’avons donc pas à fixer un cadre non-commercial et encore moins fixer un prix pour ces rééditions.
L’exemple typique est le besoin d’une réédition locale hors de France afin d’économiser des frais de port parfois exorbitants : soit il s’agit d’une réédition, soit il s’agit d’une simple ré-impression, mais dans les deux cas, nous n’avons aucun profit à tirer puisqu’il s’agit de toute façon d’un territoire ou d’un secteur dans lequel nous ne sommes pas présent ou actif. Au contraire, une telle diffusion par un tiers (partenaire ou non) est créateur de valeur pour ce tiers, pour la collection ainsi que pour l’auteur (qui, selon nous, mérite un intéressement bien que les négociations ne nous regardent pas).
Par ailleurs, ne bénéficiant que d’une simple cession de droits non exclusive de la part de nos auteurs, nous assumons pleinement le risque d’être concurrencés dans notre rôle d’éditeur si jamais nous ne remplissions pas nos engagements (éthiques ou économiques).
Dans le cas d’une traduction, l’usage d’une licence contenant une clause -NC interdirait à priori la vente de l’œuvre traduite (et donc modifiée). En faisant une nouvelle voie d’exploitation, des maisons d’édition proposent parfois de lever la clause pour cette traduction moyennant une somme forfaitaire sur laquelle l’auteur peut le plus souvent ne rien toucher puisque son contrat ne le lie qu’à la première maison d’édition. Par ailleurs, comme le contrat de cet auteur est généralement exclusif, il ne peut contracter librement avec la maison d’édition qui édite la traduction, sauf accord préalable avec la première.
Nous pensons au contraire que non seulement les contrats d’édition ne doivent pas « lier » (au sens premier) un auteur avec sa maison d’édition mais aussi que celle-ci doit prendre la mesure de sa responsabilité éditoriale sans exercer de monopole et signer avec l’auteur des contrats non exclusifs qui lui permettent d’être contacté par une maison d’édition cherchant à traduire son œuvre à lui, sans pour autant passer par un intermédiaire rendu obligatoire uniquement pour des raisons mercantiles (il peut y avoir des raisons tout à fait acceptables, cependant)6.
Concernant les livres « papier », nous avons fait le choix de ne pas (tous) les vendre à prix coûtant. Il y a deux raisons à cela:
- Depuis 2011, Framasoft a choisi de devenir son propre éditeur. À ce titre nous passons directement des contrats d’édition avec les auteurs, comprenant une rémunération à hauteur de 15% du prix de vente de chaque exemplaire. Ce pourcentage est toujours négociable, mais nous essayons d’en faire une règle, sans quoi il influe trop sur le prix de vente. Nous avons bien conscience que ce pourcentage est nettement plus élevé que ce qui se pratique habituellement dans le monde de l’édition. Il nous semble en effet important que nos auteurs qui ont fait le choix et le pari de la licence libre avec nous s’y retrouvent financièrement et bénéficient ainsi du modèle contributif dans lequel s’inscrit la collection7.
- Framasoft est composé de bénévoles mais repose sur une association qui compte aujourd’hui plusieurs permanents8. À ce titre, le budget de tout projet doit être le plus équilibré possible. Or, éditer un livre suppose de nombreux coûts : le prix de vente est basé sur la fabrication, les frais de port et les frais annexes (administration, BAT, pertes, dons de livres, commission de l’association EnVentelibre.org qui se charge de la vente, des livraisons, de la charge TVA, etc.). Dans les frais annexes, nous pouvons aussi inclure les livres qui sont vendus à prix coûtant (afin de maintenir un prix « acceptable »9). Ainsi, en faisant en sorte de rester en deçà des prix habituellement pratiqués et gardant comme objectif de favoriser la diffusion des connaissances dont elle est responsable, l’association Framasoft perçoit une somme forfaitaire à chaque vente qui lui permet de contribuer à faire vivre les projets éditoriaux de l’association10.
Ainsi, l’usage d’une licence qui autorise les usages commerciaux est à la fois conforme à nos objectifs internes (et à la mission d’intérêt général que revêt Framasoft) et constitutive d’un modèle d’édition ouvert qui tire plein profit des opportunités de notre société numérique et internationale.
Puis-je rééditer un Framabook ?
Oui, c’est même encouragé, sans quoi le modèle économique que nous défendons n’aurait pas de sens. Cependant, n’oubliez pas que les licences libres imposent certaines contraintes ! En plus de celles-ci, pour ce qui concerne les Framabooks, il y a d’autres éléments à prendre en compte.
- Toute réédition doit bien sûr respecter la licence de l’ouvrage à la lettre, à défaut de quoi elle serait non autorisée et donc contrefaisante (cela couvre les obligations en matière de mentions légales – respect de la paternité, indication du Framabook d’origine, de la licence, etc. –, mais plus largement toutes les autres obligations de la licence – et donc notamment lorsqu’elle se présente la clause share alike/copyleft à laquelle est parfois associée l’obligation de livrer la version source du fichier publié).
- Les auteurs des Framabook ont signé des contrats d’édition. Soumis par le Code de la propriété intellectuelle à un régime dédié, les contrats d’édition sont particulièrement protecteurs des intérêts des auteurs (et un éditeur ne peut y déroger)11. Les contrats conclus par Framasoft avec les auteurs ne couvrent que notre propre collection et sont dits « non exclusifs » (n’empêchant donc pas un auteur de publier une réédition ailleurs). Toute nouvelle édition de l’ouvrage devra donc donner lieu à un nouveau contrat d’édition signé par le ou les auteurs (avec ou sans un intéressement à la vente, selon les négociations).
- Toute réédition d’un Framabook consiste à utiliser le contenu d’un livre (en le modifiant ou non) pour le diffuser par une autre maison d’édition, avec un nouvel ISBN. Il ne s’agit donc pas seulement de revendre un Framabook déjà édité par Framasoft. Dans ce cadre, hors accord spécifique avec l’association Framasoft, toute réédition ne doit pas réutiliser l’identité de Framasoft (ou son dérivée Framabook) qui est une marque déposée. Naturellement, Framasoft doit être mentionné dans les crédits (« Première édition : Framasoft (année) »).
Alors, tout le monde pourrait modifier mon œuvre et je n’aurais rien à dire ? Ne devrais-je pas plutôt utiliser une licence comme CC-BY-ND (sans modification) ?
La réponse mérite un développement. Certaines personnes, et c’est en particulier le cas de Richard M. Stallman, affirment que dans le cas d’œuvres dites « d’opinion », la pensée de l’auteur ne devrait pas pouvoir être déformée12. Ces œuvres constitueraient donc autant de cas où une licence doit pouvoir empêcher toute modification de l’œuvre13.
En réalité, le droit d’auteur14 est bien plus subtil que ne laisse paraître ce genre de posture. Premièrement, Richard M. Stallman confond le fond et la forme : le droit d’auteur protège la forme que donne l’auteur à certaines idées, en aucun cas il ne protège les idées ou l’opinion d’un auteur (celles-ci n’étant, en tant que telles, génératrices d’aucun droit). À partir de là, apposer sur la forme une licence qui limite la réutilisation qui peut en être faite apparaît comme une limitation qui empêche in fine (pour un auteur) d’utiliser une certaine matière (les écrits, tournures, etc.) sans pour autant apporter de garantie quant à la réutilisation (ou non) des idées ou opinions qu’elle contient. Cela est d’autant plus dommage que la société actuelle donne une place de plus en plus grande au « mashup », ainsi qu’à tous ces processus de créations utilisant des œuvres premières comme matière, et qu’une licence qui interdit les dérivations s’oppose frontalement à cet usage. Aussi, jamais une licence libre (qui ne porte donc que sur le droit d’auteur – l’expression, la forme) n’autorisera de modifier une œuvre de telle sorte que cette modification porte atteinte à l’intégrité de l’œuvre.
Dans le cadre d’une œuvre conçue par son auteur comme ouverte et collaborative, la modification par un contributeur est par principe entièrement respectueuse de l’intégrité de l’œuvre. Néanmoins, s’il était porté sur l’œuvre une modification manifestement non conforme à la représentation qu’en avait son auteur, il serait tout à fait valable qu’un auteur agisse sur le fondement de ses droits moraux pour faire cesser cette atteinte (de la même façon qu’il pourrait le faire en l’absence de licence libre), en particulier si l’œuvre était utilisée pour véhiculer des messages manifestement contraires à l’intention de l’auteur.
Au-delà du champ du droit d’auteur, ajoutons qu’il reste bien entendu interdit de publier toute version dérivée qui serait présentée de telle sorte qu’elle véhiculerait une idée fausse : soit que l’auteur initial de l’œuvre en serait aussi l’auteur, soit qu’il ait écrit certaines choses de certaines façons, etc. Ce type de comportement serait tout à fait sanctionnable d’un point de vue civil comme pénal. Il n’est bien sûr pas inutile de le rappeler, mais en revanche nul besoin d’utiliser une « licence verbatim » (interdisant toute modification) à cette seule fin.
Dans le cas des Framabooks, une clause de type -ND (ou toute autre clause de la même famille) est donc superflue. La suite va nous montrer qu’elle peut même être gênante.
Le second argument concerne la réédition. En effet, une modification de l’œuvre n’a d’intérêt que pour la diffuser. Il s’agit dans ce cas d’une réédition. Comme il est expliqué dans la question numéro 4, toute réédition d’un Framabook est soumise à certaines conditions. Parmi celles-ci, le contrat d’édition signé par l’auteur : puisque le contrat est « nommé », il lie l’auteur à son œuvre de manière formelle. Ainsi, il resterait toujours possible pour un imprimeur de réaliser des copies papiers « à la demande » dès lors qu’il ne rentrerait pas dans une démarche similaire à celle d’un éditeur et toute nouvelle édition serait nécessairement rattachable à un auteur (soit l’auteur initial de l’œuvre s’il choisit de souscrire à un nouveau contrat et dès lors que ce nouveau contrat ne souffre pas de la non exclusivité accordée à Framasoft ; soit l’auteur d’une version dérivée dès lors que les apports de chacun des auteurs sont clairement identifiés).
Le troisième argument, « l’absence de risque », est sans doute le plus important. Une licence sans clause -ND (ou autre clause du même genre) aura seulement pour conséquence :
- de permettre des créations nouvelles empruntant pour partie à l’œuvre initiale, mais : a) en attribuant l’œuvre initiale et b) en se dissociant de façon non équivoque. C’est le cas par exemple de traductions ou des « mises à jour » de l’œuvre ;
- de permettre des « grandes citations » (ou toute autre réutilisation qui dépasserait le seul cadre des exceptions prévues par la Loi) au sein d’une autre œuvre.
Ainsi, dans la mesure où notre objectif premier est celui de la diffusion, une clause interdisant toute modification fait obstacle à l’apparition de nouvelles créations susceptibles de devenir le support second de cette propagation.
En guise d’illustration, nous pouvons citer deux extraits du préambule de la Licence Art Libre, mise à disposition pour des œuvres artistiques :
Avec la Licence Art Libre, l’autorisation est donnée de copier, de diffuser et de transformer librement les œuvres dans le respect des droits de l’auteur (…) L’intention est d’autoriser l’utilisation des ressources d’une œuvre ; créer de nouvelles conditions de création pour amplifier les possibilités de création. La Licence Art Libre permet d’avoir jouissance des œuvres tout en reconnaissant les droits et les responsabilités de chacun.
Cet esprit est d’autant plus présent dans la LAL que le texte distingue l’original de la copie : les droits portant sur les copies de l’original (qui pour sa part ne peut être modifié sans autorisation de son auteur et qui doit être mentionné comme tel).
Pour revenir au contexte d’édition dans lequel nous nous situons, le choix d’une licence entièrement libre est aussi une assurance pour le projet et ses contributeurs : même si l’auteur se désengage et ne souhaite ou ne peut assurer de nouvelle version, d’autres pourront prendre le relais (comme ce fut le cas pour le premier Framabook Utilisez Thunderbird 2.0!).
Et si je décide de ne pas m’encombrer les neurones ?
Les raisons esthétiques ci-dessus ne s’appliquent que peu aux ouvrages de la collection Framabook, mais restent néanmoins discutables dans le cadre d’une démarche de partage libre. À contrario, nous pouvons signaler que certains ouvrages de la collection sont, eux, sous licence CC-Zéro. C’est-à-dire qu’il s’agit de ce que l’on pourrait appeler le « domaine public volontaire ».
Certes, nous avons dit plus haut qu’il était impossible pour un auteur, du point de vue légal et dans beaucoup de juridictions, de renoncer à tous ses droits d’auteurs (en particulier les droits moraux). Cela dit, les choses peuvent aussi s’envisager d’un point de vue beaucoup plus pratique : le fait de déclarer que non seulement l’œuvre est libre mais aussi qu’elle a pour vocation de suivre son cours en pleine autonomie, un cours que l’auteur s’engage à ne pas influencer (à ne pas exercer son droit d’auteur qui pourtant lui colle à la peau).
La licence CC-0 cherche à traduire ces effets au sein d’un contrat qui propose alternativement et successivement : une renonciation aux droits, une cession de tous les droits patrimoniaux et moraux ou une cession des seuls droits patrimoniaux. En d’autres termes, les droits de Propriété Intellectuelle (et régimes associés) étant territoriaux, la licence CC-0 fonctionne différemment selon que l’auteur peut renoncer à ses droits, céder ses droits moraux ou non. Dans les faits, la licence confère ainsi à l’œuvre le statut juridique s’approchant le plus de la volonté de l’auteur (en France, un statut très proche de la CC By : une cession très large des droits patrimoniaux avec une obligation de citer l’auteur – sauf si ce dernier souhaite rester anonyme). C’est notamment le cas du roman Le Cycle des NoéNautes, par Pouhiou15. Nous pouvons le citer :
Dès aujourd’hui, je fais passer Les Noénautes dans le domaine public volontaire. Cela veut dire que tu as le droit d’en faire ce que tu veux. Tu n’as aucun compte à me rendre. Tu peux éditer et vendre cette œuvre pour ton propre compte, tu peux la réécrire, l’adapter, la recopier, en faire de la pub ou des navets… Tu es libre. Parce que légalement, cette œuvre est libre. La loi Française imposerait que tu fasses mention de l’auteur malgré tout : OSEF, j’irai pas t’attaquer ! J’avoue que si tu fais quelque chose de tout cela, ça m’amuserait que tu me tiennes au jus. Mais tu n’as plus d’autres obligations que celles que tu te crées. »16
— Pouhiou
Conclusion
Elle s’exprime en une phrase : la collection Framabook édite des livres sous licence libre, sans clause non commerciale ou empêchant toute modification de l’œuvre. Voici des exemples de licence qui peuvent être utilisés :
- GNU FDL – Issue du projet GNU, elle est au départ adaptée aux manuels de logiciels. C’est une licence très permissive ;
- CC-By – Creative commons – paternité (obligation de nommer l’auteur pour toute redistribution avec ou sans modification) ;
- CC-By-SA – Creative commons – Paternité – Partage à l’identique (share alike) : toute redistribution doit être partagée sous les mêmes termes de licence ;
- LAL – Licence Art Libre, conçue comme une adaptation de la GNU GPL au domaine de l’art ;
- CC-Zéro – il s’agit du versement volontaire de l’œuvre dans le domaine public.
Cette liste n’est pas limitative et nous nous ferons un plaisir de vous accompagner si vous souhaitez discuter de la pertinence de toute autre licence. Le choix de la licence de la part de l’auteur doit être un choix éclairé et mûrement réfléchi. Il entre dans une démarche de partage et en même temps dans un circuit éditorial. Il n’échappe néanmoins pas à la juridiction du droit d’auteur.
– Framasoft, le 15 octobre 2013
-
La collection est coordonnée par Christophe Masutti. ↩︎
-
Nous avons également publié un essai qui propose, lui, de se passer complètement du droit d’auteur : J. Smiers, et M. van Schijndel, Un monde sans copyright… et sans monopole. ↩︎
-
De manière plus complexe, certains de nos ouvrages sont soumis à plusieurs licences libres : tel l’ouvrage précité « Option Libre » qui est diffusé sous triple licence CC-By-SA 3.0, Licence Art Libre 1.3, GNU FDL 1.3. ↩︎
-
Lorsque je souhaite donner un fichier, je fais une copie, ce qui devient du partage : ce principe est évidemment contrarié par la pléthore de dispositifs de surveillance et de protection de la part des ayants droits (type DRM, ou lobbying législatif) qui visent à empêcher le partage pour des raisons plus ou moins défendables. ↩︎
-
Il est en effet admis, au moins en Europe, qu’un auteur ne peut décider d’élever de lui-même une œuvre dans le domaine public (un tel acte serait certainement sans valeur juridique et l’auteur ou ses ayants droit pourraient valablement revenir dessus plusieurs années plus tard). ↩︎
-
Nous avons récemment rencontré le cas avec la traduction d’un chapitre de l’ouvrage de C. Kelty, tiré de Two Bits. The Cultural Significance of Free Software (http://twobits.net), que nous souhaitions intégrer dans le Framabook Histoires et cultures du Libre. Bien qu’ayant l’accord de l’auteur, son livre étant sous licence CC-BY-NC-SA, c’est l’éditeur seul qui pouvait lever temporairement la clause NC, moyennant une rétribution (certes faible, de l’ordre d’une centaine de dollars), afin que nous puissions inclure ce chapitre dans l’ouvrage destiné à la vente. La clause -SA posait aussi un grave problème pour l’ensemble de l’ouvrage. Nous l’avons donc inclus uniquement dans la version numérique gratuite. ↩︎
-
Pour les ouvrages où il n’y a pas de contrat d’auteur, les bénéfices sont reversés à Framasoft et entrent dans le cadre de l’équilibre budgétaire (en principe, lorsque celui-ci peut être atteint). ↩︎
-
Framasoft compte trois permanents à ce jour, affectés à la gestion des multiples projets de l’association ainsi qu’à son administration. ↩︎
-
C’est par exemple le cas des bandes dessinées GKND pour lesquelles nous avons fixé un objectif de prix (pas au-delà de 12 euros la version imprimée). Ce prix permet à l’auteur de toucher un intéressement, mais ne couvre pas les frais annexes (stockages, frais de port pour les approvisionnements, etc.). Cela peut bien entendu changer si nous empruntons une autre voie plus économique pour la production. ↩︎
-
L’essentiel des revenus de l’association étant composé des dons faits à l’association. Les revenus provenant de la vente des ouvrages permet d’avoir à disposition un fonds de roulement permettant d’acheter des stocks d’imprimés. ↩︎
-
Voir article L132-1 du CPI : « Le contrat d’édition est le contrat par lequel l’auteur d’une œuvre de l’esprit ou ses ayants droit cèdent à des conditions déterminées à une personne appelée éditeur le droit de fabriquer ou de faire fabriquer en nombre des exemplaires de l’œuvre, à charge pour elle d’en assurer la publication et la diffusion ». Constitue une faute de la part de l’éditeur le fait de n’avoir pas passé un contrat d’édition avec une personne à laquelle il reconnaissait la qualité d’auteur (Paris, 4^e^ chambre, 22 novembre 1990). ↩︎
-
R.M. Stallman affirme en effet : « Selon moi, les licences non libres qui permettent le partage sont légitimes pour des œuvres artistiques ou de divertissement. Elles le sont également pour des œuvres qui expriment un point de vue (comme cet article lui-même). Ces œuvres ne sont pas dédiées à une utilisation pratique, donc l’argument concernant le contrôle par l’utilisateur ne s’y applique pas. Ainsi, je ne vois pas d’objection à ce qu’elles soient publiées sous licence CC BY-NC-ND, qui ne permet que la redistribution non commerciale de copies identiques à l’original. » ↩︎
-
Dans le même registre, et pour des motifs tout à fait recevables selon l’usage, certaines licences libres – une principalement : la GNU Free Documentation License – permettent d’identifier des passages spécifiques d’une œuvre comme invariants (cela notamment afin d’assurer une plus grande diffusion des textes philosophiques et/ou politiques annexer à une documentation). ↩︎
-
Le droit d’auteur se décompose entre droit moral et droit patrimonial : en vertu du droit patrimonial, l’auteur a la possibilité d’exploitation son œuvre (par des contrats de cession telle qu’une licence libre) ; en vertu du droit moral, l’auteur peut limiter certains usages préjudiciables pour son œuvre ou le lien qu’il entretient avec cette dernière. ↩︎
-
Ainsi que Joost Smiers et Marieke van Schijndel, op. cit. ↩︎
-
Voir noenautes.fr. ↩︎
03.08.2013 à 02:00
Histoires et cultures du Libre
Fruit de la collaboration inédite d’auteurs provenant d’horizons disciplinaires différents, par des approches thématiques et des études de cas, cet ouvrage propose une histoire culturelle du Libre non seulement à travers l’histoire de l’informatique, mais aussi par les représentations sociales, philosophiques, juridiques et économiques qu’a cristallisé le mouvement du logiciel libre jusqu’à nos jours.
À l’aide de multiples clés d’analyse, et sans conception partisane, ce livre dresse un tableau des bouleversements des connaissances et des techniques que ce mouvement a engendré. Le lecteur saura trouver dans cette approche ambitieuse et prospective autant d’outils pour mieux comprendre les enjeux de l’informatique, des réseaux, des libertés numériques, ainsi que l’impact de leurs trajectoires politiques dans la société d’aujourd’hui.
Paloque-Berges, Camille, et Christophe Masutti, (éds.). Histoires et cultures du Libre. Des logiciels partagés aux licences échangées. Lyon, Framasoft, 2013.
Lien vers le site de l’éditeur : https://framabook.org/histoiresetculturesdulibre/
15.06.2013 à 02:00
Histoires et cultures du Libre
Une récente parution dans la collection Framabook a fait l’objet d’un billet du Framablog que je reproduis en partie. J’ai en effet eu le plaisir, avec Camille Paloque-Berges, de co-diriger un ouvrage qui a fait l’objet d’une sortie très officielle lors du séminaire HINT (Histoires de l’Internet) à l’Institut des Sciences de la Communication (ISCC / CNRS, Paris). Il est possible d’auditionner la plus grande partie de cette séance sur le site de l’ISCC. Histoires et cultures du Libre n’est pas seulement ouvrage interdisciplinaire : il cherche à rendre compte de l’idée que le Libre représente pilier (historique, économique, juridique…) incontournable des pratiques numériques et de l’échange d’information aujourd’hui. Ce livre parle de partage et de liberté.
Présentation
- Titre : Histoires et cultures du Libre. Des logiciels partagés aux licences échangées
- Direction : Camille Paloque-Berges et Christophe Masutti
- Licences : Creative Commons CC-By
- Prix (papier) : 25 €
- ISBN : 978-2-9539187-9-3
- Première édition : Mai 2013, Framasoft
- Format : broché, 14,5 x 21 cm
- Poids : 830 gr.
- Nombre de pages : 580 (dont xxiii)
- Téléchargement et vente sur Framabook.org
Sous un titre ambitieux, ce livre est néanmoins dans l’air du temps. Ces derniers mois, on n’a jamais autant parlé des acteurs qui ont créé l’Internet d’aujourd’hui. L’excellent site/portail/documentaire Une contre-histoire d’Internet par Arte.tv est une belle illustration de ce besoin de rétrospective, de s’arrêter un moment non seulement sur ce qu’est Internet (on parle tout de même d’un 8e continent) mais aussi sur les valeurs et les pratiques qui y circulent et se diffusent mondialement. Pourquoi ce besoin? Je crois, toujours pour coller à l’actualité, que l’arrivée du récent rapport Lescure est les désillusions qu’il porte sont un bel exemple du choc culturel que représentent les pratiques de partage et de coopération numériques et du manque d’intégration par les modèles économiques dominant les marchés, de manière volontaire ou non.
On a longtemps parlé d’une « culture underground » ou, pour reprendre l’expression de T. Roszak, d’une contre-culture plus ou moins aux « origines » d’Internet ou du logiciel libre en général. C’est en partie vrai. En partie seulement parce que les enjeux « contre-culturels » que l’on retrouve aujourd’hui autour de la neutralité du Net, de la lutte contre la cybersurveillance, du partage du savoir et des connaissances, de la liberté d’expression, du droit d’auteur, etc., font que justement les histoires d’Internet, du logiciel libre, de l’informatique et de la circulation de l’information numérique sont vues de manière rétrospective, un peu comme si toutes les étapes de leur construction, depuis la fin des années soixante, tendaient vers cette île d’Utopia de la résistance contre l’oppression ou de l’émergence de « nouveaux modèles » (économiques, politiques, sociaux, etc.). Tout cela est néanmoins juste et l’on ne peut nier que des valeurs communes sont partagées et se développent de manière positive dans la société.
Dans la mesure où il s’agit d’en fait une analyse historique, on ne peut pour autant nier qu’il y a dans tout ceci une certaine dose de folklore populaire. C’est tout à fait normal. Il y a toujours un besoin latent d’identification une fois que des acteurs sortent du lot. Qui a lu la biographie de Richard Stallman ne peut s’empêcher, en plus d’adhérer à son éthique du Libre, d’avoir envie de le rencontrer, d’échanger et surtout d’espérer et oeuvrer avec lui pour un monde (plus) libre. Et vous avez remarqué comment l’on passe facilement de l’histoire d’Internet à ces questions de liberté et de logiciel libre ?
Je pense qu’il faut préciser ce que nous entendons par Libre, avec un grand L. C’est, au delà de la divergence méthodique entre logiciel open source et logiciel libre (relativement secondaire par rapport à l’histoire générale que nous racontons ici), ce qui fait que l’ensemble des modèles et des conditions socio-techniques du logiciel libre deviennent justement culturels et ainsi s’appliquent à d’autres domaines, comme aujourd’hui le matériel informatique ou agricole, la musique ou les arts en général, les connaissances et les sciences en particulier, etc. L’un des vecteurs principaux est Internet, l’outil de partage par excellence, mais aussi l’ensemble des licences libres, et même l’économie qui peut nous montrer comment la culture Libre est porteuse de référents suffisament solides pour constituer une approche sociale différente. L’une des bases de ce développement, c’est l’abolition de la frontière entre l’ingénieur et l’utilisateur, entre le créateur et le spectateur, bref l’apparition de la possibilité de casser la division sociale des rôles (par exemple la division du travail) en permettant une approche coopérative de la société. Un autre pilier, c’est le fait que la création est elle-même le véhicule des valeurs qu’elle traduit : ces idées de partage se transcrivent dans l’invention de nouveaux langages informatiques (par exemple LISP), dans l’arrivée de systèmes d’exploitation « ouverts » pour travailler à plusieurs sur des grosses machines, par les protocoles de communication (Internet, en général), et par tout ce qui pouvait circuler, à la fois l’organisation et la création. En somme, ce sont toutes ces pratiques des hackers (ainsi qu’il se reconnaîtront plus tard, sans toutefois former une classe sociale à part, puisque nous sommes tous des hackers), en informatique et au delà de l’informatique, que le livre Histoires et cultures du Libre tente de raconter… sans toutefois être exhaustif.
Étant donné la pluralité des approches possibles, il fallait que cet ouvrage soit un collectif et il a toute sa place dans la collection Framabook, entre la biographie de Richard Stallman et Option Libre de Benjamin Jean. Avec Camille Paloque-Berges, nous avons donc lancé en mai 2012 un appel à publication en tâchant de résumer la problématique d’une approche historique du libre. Rien ne laissait présager que cet appel allait intéresser autant d’auteurs. 27 ont été selectionnés par Camille, Benjamin et moi sur la quarantaine de résumés reçus. Il s’agissait avant tout de donner de la cohérence entre les parties de l’ouvrage (en six parties). La très grande majorité présentaient des approches riches, variées et pertinentes. Nous avons tâché d’équilibrer nos choix et, finalement, avons laissé carte blanche aux auteurs quant au nombre de pages tout en essayant de les orienter au mieux par rapport à la problématique de départ. Beaucoup d’allers et retour avec les auteurs ont donc eu lieu. L’appui du comité éditorial du projet Framabook a été décisif : sans les relecteurs, la cohérence de l’ouvrage aurait été fortement compromise. Quant aux coquilles… sur 580 pages cela donne une idée de l’enfer.
Et ce n’est pas fini. Nous avons livré pour l’instant un Framabook disponible en PDF (gratuit) et à la vente en version papier (pour les vacances d’été, vous pourrez le lire sur la plage ou à la montagne si vous avez de la place dans votre sac à dos, le premier qui parvient à emmener ce pavé à plus de 2500 mètres d’altitude, à pied, pas en avion, photographie à l’appui, gagne un second Framabook !). Il faut maintenant en produire des versions HTML et e-pub rigoureuses. C’est là que ca se complique : le texte est en LaTeX, avec une gestion bibliographique par chapitre avec biblatex. Or, la transformation ne peut se faire en un clic. Avis, donc, aux amateurs : nous serons ravis de les accueillir dans le groupe Framabook qui a bien besoin de bras. Par ailleurs, l’objectif serait de pouvoir en faire une traduction au moins en anglais. Là encore, si des spécialistes (aguerris) sont partants…
20.04.2013 à 02:00
Hackers : au cœur de la résistance numérique
Communiquer, partager, s’informer librement : c’était l’utopie des pionniers du Net. Quarante ans après ses premiers balbutiements, les gouvernements et les grands acteurs privés contrôlent toujours plus étroitement les échanges, rongent liberté d’expression et droit à la vie privée. Le Réseau est une extension du domaine de la lutte politique.Ils sont nés avec un ordinateur dans les mains, ont grandi sur la Toile, connaissent tous les avantages et les pièges de la vie en ligne. Ils ont soutenu WikiLeaks et les cyberdissidents des printemps arabes, se sont mobilisés contre les lois sécuritaires, exfiltrent des témoignages de répression, échangent avec les Indignés du monde entier. Ils créent des réseaux alternatifs. On les retrouve jusque dans les Parlements européens. Ils réinventent la politique. Amaelle Guiton a interviewé ceux qui, sous le masque Anonymous ou à découvert, sont les artisans d’un Internet libre. Elle livre une enquête passionnante au cœur de la résistance numérique, pour savoir ce que « hacker » veut dire.
Guiton, Amaelle. Hackers: au cœur de la résistance numérique. Au diable Vauvert, 2013.
Lien vers le site de l’éditeur : https://audiable.com/boutique/cat_document/hackers/
05.04.2013 à 02:00
Sécurité informatique: le CAS plaide pour l'ouverture
En matière de sécurité informatique, on ne le répétera jamais assez, les internautes sont bien souvent de vraies billes. Des mots de passe trop simples, utilisés pour tout type de connexion et n’importe quel site, utilisation de services Web gratuits mais peu respectueux des données personnelles… Sur un mode paranoïaque (mais sans exagération et en toute objectivité), tous ces usages inconsidérés concourent à la création d’un Internet policier digne des pires dictatures. Le Centre d’Analyse Stratégique a produit récemment une note intéressante en faveur d’un Internet ouvert et d’une informatique ouverte. Une analyse un peu à contre-courant du refrain habituel des politiques au service de l’industrie logicielle…
Cessons d’en douter, nos mauvaises habitudes sur nos outils informatiques sont dangereuses à la fois pour nous mêmes mais aussi pour la sécurité nationale, à commencer par les réseaux sociaux gratuits, première forme d’intrusion pour le cyberespionnage. L’utilisation de nos portables personnels (le plus souvent sans cryptage et sans mot de passe à l’ouverture) à des fins professionnelles sont aussi des techniques très faciles qui favorisent l’intrusion. Ces dernières années de multiples services et dispositifs informatiques se sont multipliés dans nos vies, et la diffusion de nos données personnelles ou professionnelles, que ce soit à des fins commerciales, de surveillance, ou d’espionnage (les trois étant souvent fortement liées) n’ont jamais été aussi faciles d’accès.
Nous faisons confiance à des société privées pour stocker nos données, nous faisons confiance à des sociétés privées pour utiliser des logiciels dont nous ignorons tout de la manière dont ils traitent nos données personnelles et professionnelles. Mais “nous” ne sommes pas les seuls. Les services de l’État sont eux-mêmes victimes de réflexes inconsidérés, comme le montrent par exemple les contrats passés avec des firmes privées (en particulier Microsoft) pour exploiter des services “clé en main”. Sur bien des points, des pans entiers du Service Public ont cédé au confort de la déresponsabilisation consistant à reporter l’engagement de sécurité des données sur des firmes privées, comme si des chartes et des contrats de papier apportaient à eux seuls le minimum de garantie. Qu’il s’agisse des logiciels privateurs utilisés sur nos machines personnelles ou ces mêmes logiciels utilisés à l’intérieur de l’administration publique, la fermeture du code et la boîte noire des brevets logiciels reportent fatalement la sécurité des données sur la seule garantie de la transaction, du contrat, de la bonne foi… et pas sur ce qui devrait être diffusé : le code. La séparation entre les utilisateurs et les concepteurs en matière d’informatique, surtout élevée aux plus hauts niveaux des besoins de sécurité, est une grossière erreur. Le constat est le même du côté des entreprises, qu’il s’agisse de celles qui exploitent nos données à des fins commerciales ou celles qui figurent parmi les plus innovantes et qui, pourtant, prennent bien plus de précaution.
Dans sa Note d’Analyse 324 de mars 2013, le Centre d’Analyse Stratégique fait une synthèse des questions actuelles de cybersécurité. La conclusion est la suivante :
Pour élever le niveau de sécurité, tout en tirant profit des avantages d’un Internet ouvert et décentralisé, les organisations doivent adopter une démarche rationnelle d’analyse de risques afin de mettre en œuvre une réponse adaptée sur le plan technique et organisationnel. L’offre nationale de solutions de sécurité doit également se structurer pour permettre une meilleure valorisation des compétences technologiques françaises et garantir un plus haut degré de souveraineté.
Laissons de côté la question d’un “Internet Policier”, qui n’est finalement pas le centre du rapport et concentrons-nous sur l’idée que la sécurité doit tirer avantage d’un “Internet ouvert décentralisé”. Tout est dans ces deux mots: “ouvert” et “décentralisé”. Bien évidemment! Il suffisait d’y penser! Sauf que cela fait des années que les Internautes les plus éclairés, les hackers et avec eux tout le mouvement du logiciel libre prônent cette ouverture et cette décentralisation. Qu’est-ce que cela veut dire exactement ?
Du point de vue de nos usages personnels, la décentralisation signifie que nous devons absolument cesser d’utiliser la pléthore de services gratuits pour stocker nos données tout en acceptant des conditions d’utilisation que nous ne lisons même pas. En gros : accepteriez-vous que, avant de les placer dans votre boîte, le facteur apporte d’abord vos lettres au magasin de meuble de votre quartier afin que celui-ci sache de quelle publicité vous avez besoin et dresse votre profil de consommateur? C’est pourtant exactement ce qui se passe chaque fois que vous recevez un courriel via votre compte gracieusement hébergé par des firmes bien connues. Videz-vous souvent le cache de votre explorateur ? Accepteriez-vous que ces mêmes firmes privées, qui s’approprient vos données, acceptent de donner à l’État l’historique de vos transfert de données afin que des firmes vous poursuivent (c’est le rôle d’Hadopi) ou afin de démontrer vos agissements en faveur de davantage de démocratie dans votre pays (voir l’exemple de Yahoo! en Chine). Décentraliser les données signifie donc que nous devons rester maîtres et possesseurs de nos données, savoir à tout moment où elles se trouvent et par qui elles peuvent être lues, et donc pour cela utiliser des outils adéquats: héberger ses propres données sur son propre serveur à la maison (auto-hébergement), pour le mail comme pour votre page personnelle ou votre Cloud, savoir crypter ses courriels (PGP), etc.
Du point de vue des entreprises (et en particulier, par exemple, les journalistes) ou des services publics, la décentralisation revient à appliquer ces mêmes principes, présents depuis le début de l’Internet et DES réseaux. Dans leur grande majorité les responsables sont des personnes très informées sur ces questions et savent exactement comment optimiser la sécurité. Seulement, voilà, il existe des obstacles, ceux mentionnés par le CAS, et qui ont la particularité d’être finalement les mêmes que ceux rencontrés par les utilisateurs individuels.
Du point de vue de l’ouverture, la situation est encore plus simple : il ne saurait être acceptable d’utiliser des logiciels dont nous ne savons rien de la manière dont ils traitent nos données. Les sur-couches utilisées par les firmes pour “faciliter notre expérience utilisateur” sont, à 99% des cas, des verrous qui nous empêchent de maîtriser nos données. Une belle illustration réside dans les “stores”, qui nous obligent, en tant qu’utilisateurs, à ne pouvoir utiliser que des logiciels au préalable agréés par la firme qui produit le système d’exploitation que nous utilisons : fermeture du code, impossibilité d’adapter le code à nos besoins, obligation d’accepter qu’en échange une partie de nos données personnelles soient envoyées, stockées et utilisées à des fins commerciales… ou moins avouables.
Tous ces verrous mis en place ces dernières années l’ont été de manière insidieuse, en échange de biens et de services auxquels nous n’avions jamais rêvé auparavant : se rapprocher de ses “amis” en utilisant un réseau social, obtenir “enfin” de la publicité ciblée, télécharger toujours plus vite des morceaux musicaux (sans pouvoir se les approprier vraiment), bref tout ce qui a fait qu’Internet est passé dans les représentations d’un moyen décentralisé de communication (de pair à pair) à une sorte de grosse télévision collective sans que nous puissions le moins du monde influencer les programmes.
Je m’éloigne du sujet ? non. car il est temps maintenant de divulguer les 4 paragraphes les plus importants de cette analyse du CAS (page 11):
Des blocages juridiques dommageables pour la sécurité Le cadre juridique français crée de nombreux blocages susceptibles d’affecter la sécurité des systèmes d’information :
- la loi Godfrain de 1988(55) réprime les comportements informatiques “agressifs” : appliquée de manière stricte, elle condamne pénalement le fait de divulguer publiquement une faille de sécurité jusque-là inconnue (sécurité par transparence ou full disclosure) alors que cela incite les éditeurs de logiciels à concevoir des correctifs ;
- la rétroingénierie, qui consiste à étudier un objet pour en déterminer son fonctionnement interne ou sa méthode de fabrication, est interdite lorsqu’elle est effectuée pour des raisons de sécurité informatique(56). C’est pourtant le seul moyen d’évaluer le degré de sécurité de produits propriétaires ;
- des mesures techniques de protection (57) d’œuvres numériques peuvent créer des vulnérabilités dans les systèmes d’information. Ainsi, le système de protection XCP installait automatiquement un logiciel contenant des failles de sécurité lors de la lecture d’un CD audio. Or le contournement de ces mesures est interdit par la loi relative au droit d’auteur et aux droits voisins dans la société de l’information (DADVSI, 2006) ;
- les brevets logiciels offrent la possibilité d’obtenir un monopole sur des techniques algorithmiques, y compris lorsque celles-ci sont nécessaires pour assurer la sécurité. L’article 52 de la Convention sur le brevet européen de 1973(58) exclut les “programmes d’ordinateur” du champ des inventions brevetables, mais l’Office européen des brevets (OEB) délivre en pratique des brevets logiciels en raison d’une interprétation extensive de la Convention et d’un modèle économique et de gouvernance discutable.
Si on interprète dans l’ordre des 4 points, cela donne :
- Point 1 : ne pas séparer utilisateurs et programmeurs. Les premiers doivent pouvoir faire remonter plus facilement les améliorations des logiciels et les second doivent pouvoir s’approprier les commentaires… Dans ce cas de figure les utilisateurs doivent pouvoir eux-mêmes contribuer aux programmes en remontant les correctifs. Cela implique que le code doit être accessible.
- Point 2 : le code doit être ouvert et accessible (donc modifiable) de manière à évaluer son degré de sécurité (son adaptation au besoin). Cette évaluation du code ne doit pas être faite uniquement par le concepteur (c’est un peu comme si vous demandiez à vote concessionnaire automobile si la voiture qu’il veut vous vendre est une bonne voiture, c’est pourtant ce qu’il se passe même aux plus hauts niveaux décisionnels).
- Mettre fin aux dispositifs de verrous numériques qui provoquent eux-mêmes des failles de sécurité au nom de l’intérêt des firmes. Ce point ne nécessite pas de commentaires, c’est le simple bon sens qui est à l’oeuvre.
- Mettre fin aux brevets logiciel qui imposent un black-out total sur le code au nom de la propriété intellectuelle. Ce point ne devrait pas être négociable lorsqu’il s’agit de sécurité des données… or c’est presque toujours de la sécurité des données qu’il s’agit. Donc briser les brevets logiciels devrait être une mesure qui s’impose partout et tout le temps.
En conclusion: l’utilisation des logiciels libres devrait s’imposer partout de manière à augmenter l’efficacité des mesures de sécurité (et donc la protection des données) grâce à l’accès aux programmes. Cela n’empêche nullement les firmes de travailler et d’innover, bien au contraire, puisque l’innovation serait une œuvre concertée vers plus d’efficacité dans les produits, et donc plus de sécurité, plus de respect des libertés (des individus, des services de l’État, des entreprises). C’est bien le but recherché, non ?
01.02.2013 à 01:00
L’éthique des hackers
Qui aurait cru qu’une poignée de hackers binoclards seraient à l’origine de la plus grande révolution du XXe siècle ? Le livre culte de Steven Levy, histoire vraie de l’équipe de geeks qui ont changé le monde.
Précision : un « hacker » n’est pas un vulgaire « pirate informatique ». Un hacker est un « bricoleur de code ». Son truc : plonger dans les entrailles de la machine.
Bill Gates, Steve Jobs, Steve Wozniak, Mark Zuckerberg ont commencé leurs brillantes carrières comme hackers… La plupart ne paient pas de mine mais tous partagent une même philosophie, une idée simple et élégante comme la logique qui gouverne l’informatique : l’ouverture, le partage, le refus de l’autorité et la nécessité d’agir par soi-même, quoi qu’il en coûte, pour changer le monde.
C’est ce que Steven Levy appelle l’Éthique des hackers, une morale qui ne s’est pas exprimée dans un pesant manifeste, mais que les hackers authentiques ont mise en pratique dans leur vie quotidienne. Ce sont eux qui ont œuvré, dans l’obscurité, à la mise en marche de la révolution informatique.
Depuis les laboratoires d’intelligence artificielle du MIT dans les années 1950 jusqu’aux gamers des années 1980, en passant par toutes les chambres de bonne où de jeunes surdoués ont consacré leurs nuits blanches à l’informatique, Steven Levy les a presque tous rencontrés. Voici leur histoire.
Levy, Steven. L’éthique des hackers, Globe, 2013.
Lien vers le site de l’éditeur : https://www.editions-globe.com/lethique-des-hackers/
18.11.2012 à 01:00
Eben Moglen: nous n'avons pas intégré l'anonymat quand nous avons construit le Net
La liberté de penser, voilà un concept que tout le monde est prêt à défendre. Seriez-vous prêt à le défendre bec et ongle, et même donner votre vie pour cette cause? Cette question n’est pas subtile… parce que les enjeux sont beaucoup plus subtiles que ce que tout le monde imagine. La question est plutôt de savoir jusqu’où vous êtes prêt à sacrifier un peu de cette liberté pour obtenir des services et des biens qui vous donnent l’impression de pouvoir vous exprimer librement ? La génération actuelle des utilisateurs d’Internet a la possibilité aujourd’hui de corriger le principal biais du système nerveux mondial qu’est Internet: la surveillance totale de la société humaine. Voilà pourquoi “nous avons besoin de logiciels libres, de matériels libres et de bande passante libre”. Voyons un peu ce qu’en dit Eben Moglen…
Prenez-le temps de regarder cette vidéo… (qui est Eben Moglen ?)
Le 20e siècle a connu les pires atrocités (aussi bien physiques que psychologiques), des guerres durant lesquelles le silence des esprits était aussi meurtrier que les obus. La censure était cependant visible (du moins, certains l’ont dénoncée) et l’expression était condamnée au moment où elle franchissait les limites de ce que le pouvoir avait décidé. C’était le cas dans les dictatures modernes de l’Allemagne nazie au Chili de Pinochet, en passant par la Chine et l’Iran. Mais pensez-vous que la censure tombe avec les dictateurs ? Ce serait bien naïf. On sait depuis quelque temps déjà qu’en démocratie aussi les opinions publiques se manipulent, ce que certains ont appelé la “fabrique du consentement”. Aujourd’hui, depuis que l’Internet est devenu un outil de communication de masse, le pouvoir des États est de plus en plus investi d’une mission de surveillance totale par les groupes d’intérêts, y compris les lobbies politiques, dont les intérêts vont radicalement à l’encontre de la diffusion des connaissances, de l’information et de la liberté d’expression. La question Hadopi en France est une illustration convaincante de ce que l’industrie du divertissement peut exiger d’un État pour qu’il espionne ses citoyens.
Aujourd’hui, Eben Moglen (voir sa fiche sur Wikipedia) part d’un constat assez grave : « Nous n’avons pas intégré l’anonymat quand nous avons construit le Net ». C’est entièrement vrai. Internet s’est construit sur la base des échanges d’informations à l’intérieur de petites communautés de programmeurs et de chercheurs, sur des bases de confiances et une croyance positive en ce que l’Internet allait changer le monde. Cet enthousiasme a sans doute effacé des esprits le fait que plus vous proposez aux individus des moyens de se cultiver et d’échanger des informations, plus le pouvoir des États perd de l’influence sur ces mêmes individus. Cela est d’autant plus vrai que les turpitudes des hommes politiques sont levées au grand jour par des groupes d’expression libre ou lorsque s’organisent à grande vitesse des résistances ou des révolutions grâce à ce réseau ultra rapide qu’est Internet.
Sur la dangerosité des réseaux sociaux, la question n’est évidemment pas de savoir si diffuser la photo de son chien est dangereux ou pas. La question est de savoir si il est acceptable que l’on puisse profiler votre identité de manière aussi fine que le peuvent les réseaux sociaux, et que cela soit analysé à la fois par les États et des groupes commerciaux dont les collusions avec les États sont évidentes. Comme le dit Eben Moglen, et sans exagérer :
La Stasi ne coûterait plus rien si elle revenait, car Suckerberg fait le boulot à sa place. […] Donc, la forme primaire de collecte qui devraient nous inquiéter le plus est que les médias nous espionnent pendant que nous les utilisons. Les livres qui nous regardent les lire, la musique qui nous écoute en train de l’écouter. Les moteurs de recherche qui surveillent ce que nous recherchons pour ceux qui nous recherchent et ne nous connaissent pas encore.
La plupart des citoyens ont du mal à comprendre ce genre de réflexion car cela les dépasse d’un point de vue technique : ils utilisent des technologies qu’ils ne comprennent pas. On peut toujours rétorquer que la plupart des conducteurs d’automobiles ne savent pas comment fonctionne un moteur à explosion. C’est vrai, mais l’analogie n’est pas la bonne. On ne parle pas ici de la manière dont est construit un ordinateur, on parle de la manière dont sont perçues, enregistrées et traitées les informations que vous transmettez grâce à lui. Par exemple, tout le monde peut comprendre qu’indiquer son nom et son adresse comme condition préalable à l’utilisation d’un logiciel que venez d’installer sur votre machine n’est pas du tout nécessaire pour faire fonctionner ce programme. De la même manière tout le monde peut s’interroger sur le fait qu’acheter un livre à lire sur une tablette Kindle ou un fichier musical sur votre IPhone devrait être une opération irréversible (ce livre ou ce fichier musical sont censés vous appartenir) et que, par conséquent, si vous avez envie de les prêter à quelqu’un, vous devriez pouvoir le faire. Par contre tout le monde n’a pas étudié d’assez près le fonctionnement des systèmes informatiques pour comprendre comment ces barrières ont été rendues possibles et comment certains acteurs économiques et politiques peuvent désormais connaître et décider le contenu des informations qu’ils partagent et comment ils les partagent.
Prenons enfin un cran plus haut. L’espace dans lequel nous évoluons avec Internet a besoin de sécuriser la liberté d’expression avant que l’espionnage de nos vies interdise les usages de cette liberté. Est-il acceptable que l’enregistrement (éternel) de vos recherches sur Google ou vos « amis » sur Facebook puisse devenir un élément à charge contre vous si votre pays devient une dictature et si vous n’avez pas glissé votre bulletin dans la bonne urne ? Souvenez vous cet épisode de l’affaire Tarnac où la seule présence d’un livre (L’insurrection qui vient) dans la bibliothèque de Mr Coupat était devenu une preuve d’intention terroriste: qui pensait que le délit de lecture pouvait être de retour en France ? Vérifiez vite les e-book que vous avez téléchargé dans votre liseuse !
Cet espionnage est justifié de multiples manière : la protection des droits d’auteurs, la lutte contre la pédopornographie, la lutte anti-terroriste, les « dangers d’Internet » pour les enfants, etc. Chacun de ces combats est justifiable politiquement et recouvre à chaque fois un peu plus de nos espaces de liberté… jusqu’à ne laisser de place sur le marché que pour les firmes proposant des « applications » calibrées et centralisées à la sauce Apple, avec lesquelles il deviendra impossible d’être anonyme ou de partager quoique ce soit.
C’est pour ces raisons, de manière à construire des médias libres, que « nous avons besoin de logiciels libres, de matériels libres et de bande passante libre ». Eben Moglen cristallise ici la question fondamentale que pose le Libre depuis ses débuts : sommes nous prêts à utiliser des logiciels ou des services, aussi performants et séducteurs soient-ils, en échange de nos libertés ? La réponse est « non », elle doit être « non ».
21.10.2012 à 02:00
Aux sources de l’utopie numérique
Stewart Brand occupe une place essentielle, celle du passeur qui au-delà de la technique fait naître les rêves, les utopies et les justifications auto- réalisatrices. Depuis la fin des années soixante, il a construit et promu les mythes de l’informatique avec le Whole Earth Catalog, le magazine Wired ou le système de conférences électroniques du WELL et ses communautés virtuelles. Aux sources de l’utopie numérique nous emmène avec lui à la découverte du mouvement de la contre-culture et de son rôle déterminant dans l’histoire de l’internet.
Turner, Fred. Aux sources de l’utopie numérique. De la contre-culture à la cyberculture : Stewart Brand, un homme d’influence. C&F éditions, 2012.
Lien vers le site de l’éditeur : https://cfeditions.com/utopieNumerique/
16.10.2012 à 02:00
Le plagiat, les sciences et les licences libres
Ces 5-6 dernières années, la question du plagiat dans les sciences est devenu un thème de recherche à part entière. On peut saluer le nombre croissant de chercheurs qui s’intéressent à cette question à double titre: d’abord parce que le plagiat est un phénomène social, mais aussi parce que ce phénomène (pourtant très ancien) illustre combien les sciences ne constituent pas cet édifice théorique et inébranlable de l’objectivité qu’il serait étonnant de voir un jour s’effriter.
Qu’est-ce que le plagiat ?
Parmi ces chercheurs, on remarquera plus particulièrement Michelle Bergadaà, de l’Université de Genève, qui a créé en 2004 le site responsable.unige.ch. Elle fut l’un des premiers chercheurs à recueillir une multitude d’informations sur des cas de plagiat et à dresser une typographie des plagiats scientifiques. Elle a montré aussi que la reconnaissance des cas de plagiat ne peut manifestement pas se contenter d’une réponse juridique, mais qu’il appartient à la communauté des chercheurs de réguler des pratiques qui vont à l’encontre des principes de la recherche scientifique, en particulier la nécessité de citer ses sources et d’éviter la redondance au profit de l’avancement des sciences.
En 2012, Michelle Bergadaà a publié un article bien documenté et accessible, intitulé « Science ou plagiat », dans lequel elle montre que la conjonction entre le peer review process, qui fait des revues non plus des instruments de diffusion de connaissance mais des « instruments de prescription et de référencement à l’échelle mondiale » (comprendre: le système du publish or perish), et le web comme outil principal de communication et de diffusion des productions des chercheurs, cause l’opposition de deux modes de rapports au savoir:
Un malentendu s’installe entre ceux qui restent fidèles au savoir scientifique véhiculé par les revues traditionnelles et ceux qui défendent le principe des licences libres inscrites dans une logique de savoir narratif. Cette tension apparaît dans la manière dont est compris et souvent envisagé le modèle de production des Creative Commons ou licences libres, issues du monde du logiciel. Ce modèle vise d’abord à partager l’information, à l’enrichir, et non la rendre privative. Il est possible de copier et de diffuser une œuvre, à condition de respecter la licence choisie ; de la modifier à condition de mentionner la paternité de l’œuvre. Il correspond donc précisément aux pratiques canoniques de la recherche scientifique : publier et diffuser les connaissances le plus largement possible permettant de s’appuyer sur les résultats et les productions des autres chercheurs pour faire avancer le savoir.
Cette analyse assimile le web à un endroit où se partagent, de manière structurée, les productions scientifiques, que ce lieu de partage est fondamentalement différent des lieux « traditionnels » de partage, et que donc les défenseurs de ces lieux traditionnels ne comprennent pas leur propre miroir numérique… Je parle de miroir car en effet, ce que M. Bergadaà ne fait que sous entendre par le terme « malentendu », c’est que les licences libres permettent de remettre en cause l’ensemble du système de production, diffusion et évaluation scientifique. Elles démontrent même que le sens du plagiat n’est pas le même et ne questionne pas les mêmes valeurs selon qu’on se situe dans une optique ou dans l’autre. C’est une accusation radicale du système d’évaluation scientifique qu’il faut porter une fois pour toute et la « lutte » contre le plagiat est, à mon sens, l’un des premiers pas de cette étape réflexive. Il est donc important de bien situer ce « malentendu », et la question du plagiat est un bon levier.
Qu’est-ce que le plagiat, aujourd’hui? N’est-il pas le « côté obscur » du sentiment légitime que les connaissances appartiennent à tous ? Dans le domaine du logiciel libre, prendre du code et le diffuser sans porter le crédit du créateur originel, même lorsqu’on modifie une partie de ce code, cela s’appelle le resquillage. Selon la législation nationale du pays où se déroule le resquillage, cette attitude peut se condamner devant les tribunaux. De même, du point de vue du droit d’auteur, reprendre à son compte des pans entiers voire la totalité d’une oeuvre sans citer l’auteur, c’est interdit et va à l’encontre du droit (moral) d’auteur.
Au-delà du droit d’auteur
Mais tant que l’on en reste là, c’est à dire à la question du droit d’auteur, on passe à côté du vrai problème de la diffusion des connaissances scientifiques: dans la mesure où un chercheur publie le résultat de recherches menées sur fonds publics (et même privés, dirai-je, mais cela compliquerait notre réflexion à ce stade) comment peut-on considérer un instant que le texte qu’il produit et les analyses qu’il émet puissent être l’objet d’un droit d’auteur exclusif ? c’est là qu’interviennent les licences libres: qu’un droit d’auteur doive être reconnu, en raison de la paternité de l’oeuvre (ou même de la découverte), mais que ce droit soit protégé tout en permettant la diffusion la plus large possible.
Ce qui pose donc problème, ce n’est pas le droit d’auteur, c’est l’exclusivité ! Lorsqu’un texte scientifique est plagié, aujourd’hui, qui est réellement lésé et en quoi ?
- L’auteur ? dans la mesure où il est censé publier pour la postérité et dans le but de diffuser les connaissances le plus largement possible, ce qui lui pose alors problème est sa fierté et le fait que l’oeuvre dérivée ne reconnaisse pas sa paternité. Il s’agit-là d’un point de vue personnel, et un auteur pourrait prendre cela de manière plus ou moins heureuse. Par contre, cela pose problème dans le cadre de l’évaluation scientifique : moins d’impact factor à son crédit. On touche ici un des nombreux points faibles de l’évaluation de la recherche.
- La revue? très certainement, dans la mesure où elle a les droits exclusifs de l’exploitation d’une oeuvre. Ici, ce sont les aspects purement financiers qui sont en cause.
- La communauté des chercheurs et, au delà, l’humanité ? c’est sans doute le plus important et ce qui devrait passer au premier plan ! Tout resquillage en science revient à fouler aux pieds les principes de l’avancement scientifique: la production de connaissances nouvelles.
Mais alors, d’où vient le malentendu ? Tout le monde s’accorde pour reconnaître que les productions des chercheurs doivent être diffusées le plus largement possible (on pourra se questionner sur l’exclusivité d’exploitation des revues et les enjeux financiers). De même, tout le monde s’accorde sur le fait que la paternité d’un texte doit être reconnue à travers le droit d’auteur. Par conséquent, puisque les licences libres doublent le droit d’auteur de conditions permissives d’exploitation des oeuvres par l’humanité entière, d’où vient la réticence des défenseurs du système traditionnel de la publication revue par les pairs face aux licences libres (et peut-être au web en général) ?
Lorsqu’on discute avec ces traditionalistes de la production scientifique évaluée par les copains, les poncifs suivants ont tendance à ressortir:
- l’absence d’évaluation dans cette jungle du web dont Wikipédia et consors représentent le pire des lieux de partage de connaissances forcément faussées puisque les articles sont rarement écrits par les « spécialistes » du domaine ;
- la validation du travail de chercheur passe exclusivement par l’évaluation de la part de « spécialistes » reconnus. Cela se fait grâce aux revues qui se chargent de diffuser les productions pour le compte des chercheurs (notamment en s’attribuant le copyright, mais là n’est pas la question) ;
- il faut éviter que des « non-spécialistes » puisse s’autoriser à porter un jugement sur mes productions scientifiques, cela serait non seulement non recevable mais présenterait aussi un danger pour la science qui ne doit être faite que par des scientifiques.
À ces poncifs, on peut toujours en rétorquer d’autres :
- Comment définir un « spécialiste » puisqu’il n’y a que des degrés de compétences et que tout repose sur l’auto-évaluation des pairs à l’intérieur d’une seule communauté de chercheurs. Ainsi, les spécialistes en biologie du Bidule, ne sont reconnus que par les spécialistes en Biologie du Bidule. Et en cas de controverse on s’arrange toujours pour découvrir que Dupont était en réalité spécialiste en biologie du Machin.
- Les évaluateurs des revues ([voire les revues elles mêmes](http://www.the-scientist.com/?articles.view/articleNo/27376 « The Scientist. L’affaire Merck »)) ont bien souvent des conflits d’intérêts même s’ils déclarent le contraire. En effet, un conflit d’intérêt est souvent présenté comme un conflit qui ne concerne que les relations entre un chercheur et les complexes industriels ou le système des brevets, qui l’empêcheraient d’émettre un jugement fiable sur une production scientifique qui remettrait en cause ces intérêts. Or, que dire des évaluateurs de revues (ou d’appel à projet) qui ont eux-mêmes tout intérêt (en termes de carrière) à être les (presque) seuls reconnus spécialistes du domaine ou, d’un point de vue moins individualiste, donner toutes les chances à leur propre laboratoire ? le monde de la recherche est un territoire de plates-bandes où il ne fait pas bon venir sans avoir d’abord été invité (demandez à tous les doctorants).
- Enfin, relativisme extrême: pourquoi la fameuse « société civile » ne pourrait porter un jugement sur les productions scientifiques? Parce que, ma bonne dame, c’est pour cela qu’on l’appelle « société civile » : à elle Wikipédia et à nous la vraie science. Après tout c’est à cause de ce relativisme qu’on en vient à réfuter le bien fondé des essais nucléaires ou la salubrité des OGMs.
Privilégier la diffusion
Il faut dépasser ces poncifs…. je réitère la question : d’où vient ce malentendu ? Il vient du fait qu’on doit aujourd’hui considérer que les limites entre les communautés scientifiques entre elles (les « domaines de compétence ») et avec la « société civile » deviennent de plus en plus ténues et que, par conséquent, les licences libres impliquent que les scientifiques soient prêts à assumer trois choses :
- privilégier la diffusion des connaissances sur leur distribution protégée par l’exclusivité des revues, car cette exclusivité est un rempart contre les critiques extérieures à la communauté (voire extérieures aux cercles parfois très petits de chercheurs auto-cooptés), et aussi un rempart financier qui empêche l’humanité d’avoir un accès total aux connaissances, grâce au web, ce qu’elle réclame aujourd’hui à grands cris, surtout du côté des pays où la fracture numérique est importante ;
- que les scientifiques – et nombreux sont ceux qui ont compris cette évidence –, ne peuvent plus continuer à produire des connaissances à destination exclusive d’autres scientifiques mais bien à destination du Monde: c’est à dire qu’on ne produit des connaissances non pour être évalué mais pour l’humanité, et que ce principe doit prévaloir face à la gouvernance des sciences ou à l’économie de marché;
- que le plagiat ne doit pas être condamné parce qu’il est malhonnête vis à vis de l’auteur, mais parce qu’il est tout simplement immoral, tout autant que la course à la publication et la mise en concurrence des chercheurs. Plus cette concurrence existera, plus la “société civile” la remplacera par d’autres systèmes de production scientifique: imaginez un monde où 50% des chercheurs publient leurs articles sur leurs blog personnels ou des sites collaboratifs dédiés et ouvert à tous (pourquoi pas organisés par les universités elles-mêmes) et où l’autre moitié des chercheurs accepte cette course au peer review pour gagner des points d’impact. Qui osera dire que la première moitié des productions ne mérite pas d‘être reconnue comme scientifique parce qu’elle n’est pas évaluée par des pairs à l’intérieur de revues de catégorie A, B, ou C ?
Voici le postulat: il est préférable de permettre aux pairs et au monde entier d’apprécier une oeuvre scientifique dont on donne à priori l’autorisation d’être publiée, que de ne permettre qu’au pairs d’évaluer cette production et ne donner l’autorisation de publication (exclusive) qu’à postériori.
Les licences libres n’interviennent que de manière secondaire, pour asseoir juridiquement les conditions de la diffusion (voire des modifications).
La conséquence, du point de vue du plagiat, c’est que l’oeuvre est connue à priori et par le plus grand nombre : cela diminue radicalement le risque de ne pas démasquer le plagiat, en particulier grâce aux moteurs de recherche sur le web.
Par ailleurs, dans ces conditions, si l’oeuvre en question n’est pas « scientifiquement pertinente », contient des erreurs ou n’obéit pas à une méthodologie correcte, c’est toute la communauté qui pourrait alors en juger puisque tous les agents, y compris les plus spécialistes, seraient en mesure de publier leurs évaluations. Il appartient donc aux communautés scientifiques, dès maintenant, de multiplier les lieux où l’exercice de la recherche scientifique pourrait s’accomplir dans une transparence quasi-absolue et dans une indépendance totale par rapport aux revues comme aux diktat de l’évaluation à tout va. C’est le manque de transparence qui, par exemple, implique l’anonymat des évaluateurs alors même que ce sont des « pairs » (j’aime l’expression « un article de pair inconnu »): ne serait-il pas juste qu’un évaluateur (comme le ferait un critique littéraire) ne se cache pas derrière le nom de la revue, afin que tout le monde puisse juger de son impartialité ? Voilà pourquoi il faut ouvrir à priori la diffusion des articles : les évaluations publiques seront toujours plus recevables que les évaluations anonymes, puisqu’elles n’auront rien à cacher et seront toujours potentiellement discutées entre lecteurs. Là encore les cas de plagiat seraient très facilement identifiés et surtout discutés.
Il se pourrait même que le modèle économique du logiciel libre puisse mieux convenir à l’économie de la Recherche que les principes vieillissants du système dominant.
27.01.2012 à 01:00
Il faut libérer les sciences
Ce billet fait suite à mon texte de 2010 intitulé « Pour libérer les sciences », au risque de paraître quelque peu redondant. En effet, en cette fin de mois de janvier 2012, le mathématicien Timothy Gowers (Cambridge + Médaille Fields 1998) a lancé un appel au boycott de l’éditeur Elsevier, un des grands poids lourds de l’édition scientifique et en particulier les éditions papier et en ligne vendues par abonnement aux Universités. Cet appel au boycott repose sur le même reproche fait depuis des années sans que rien ne bouge à propos des tarifs exorbitants des ces firmes (Elsevier en tête mais on peut aussi citer Springer et d’autres), sans aucun rapport avec le coût effectif des supports de diffusion ainsi proposés à la vente. Faut-il boycotter Elsevier et, comme T. Gowers, inciter les scientifiques à ne plus soumettre leurs publications aux revues détenues par Elsevier, ne plus faire partie des comités de lectures, etc. ?
Des connaissances libres et gratuites
Selon moi, un tel appel au boycott n’a que peu de chance de réussir. En effet, la pression de l’évaluation tout-azimut est telle sur les scientifiques qu’ils se trouvent bien obligés de participer à la mascarade collective consistant à s’auto-évaluer et se plier au racket organisé. Mais la question dépasse largement ces aspects. En effet, qu’est-ce qu’une publication scientifique? C’est un ensemble de connaissances (nouvelles) exposées selon des règles et une méthodologie claire et dont l’objectif est d’être diffusée le plus largement possible. Dans la mesure où cette publication est le produit de l’effort collectif à la fois des scientifiques et des citoyens qui, par leurs impôts, subventionnent la recherche scientifique, les connaissances produites sont censées être consultables par tous, et comme un juste retour sur l’investissement public, cela implique selon moi un accès libre et gratuit.
Libre, parce que la priorité doit être donnée à la diffusion des sciences et que chacun devrait pouvoir utiliser un texte scientifique : le lire, le partager, identifier les auteurs et proposer éventuellement des modifications en leur écrivant, bref, en disposer de manière démocratique et dans un esprit de partage. Libre est ici utilisé dans le même sens que dans “licence libre”, c’est à dire que les texte scientifiques devraient être soumis à de telles licences. Quant au droit d’auteur, si l’on s’en réfère à la législation française (je ne parle pas de copyright), il reste bien sûr inaliénable (droit moral) et la paternité d’un texte sera toujours reconnue quoiqu’il arrive. Dès lors, la conclusion s’impose d’elle même : un texte scientifique, produit grâce à des subsides publics, ne doit en aucun cas faire l’objet d’une cession exclusive des droits de diffusion. En effet, on devrait considérer que si le droit moral sur l’oeuvre appartient bien à l’auteur, ce dernier ne devrait pas être détenteur d’un droit patrimonial dans la mesure où son oeuvre appartient au public en premier lieu. L’évaluation de cette oeuvre par les pairs lui confère sa validité scientifique, fruit du métier de chercheur, et consiste à la reconnaître comme une véritable production de la recherche publique.
Gratuit, parce que rien n’oblige à réaliser des bénéfices sur la production scientifique, mais pour autant, cela doit rester possible. Cette gratuité peut s’obtenir d’une manière très simple : aujourd’hui, un texte scientifique est produit de manière électronique, il peut donc, pour un coût proche de zéro, être diffusé par voie électronique. La publication au format papier ou dans un format électronique spécial peuvent certes être payantes, dans la mesure où un effort est fait par un éditeur pour produire un support. Mais, quoi qu’il advienne, un chercheur devrait pouvoir garder la main sur n’importe quel moyen de diffusion qui lui semble opportun et laisser gratuitement à disposition du public ses productions scientifiques.
C’est la raison pour laquelle je ne suis pas favorable à un boycott d’Elsevier ou de toute autre maison d’édition. Si l’on part du principe que toute production scientifique est censée être libre et gratuitement disponible quelque part, rien n’empêche une maison d’édition de s’emparer d’un texte et participer à sa diffusion via n’importe quel support. Dans ce cas, c’est un service qui est vendu… pourquoi le condamner?
Le système est aberrant, il faut le changer
Les problèmes ne sont donc pas là où l’on pense d’emblée les trouver. Les scientifiques en ont pourtant l’habitude. La question réside dans l’exercice d’un monopole, lui même soutenu de manière politique. Preuve en est que Elsevier et d’autres ont récemment soutenu le Research Works Act qui vise explicitement à limiter voire interdire l’accès libre aux productions scientifiques ! En d’autres termes, le rêve d’Elsevier et consors est d’obtenir un monopole sur la connaissance. C’est inacceptable. Surtout si l’on relève quelques petits scandales de Elsevier sur le montage de vrais-faux journaux pharmaceutiques, au service de quelques firmes.
Face aux pratiques douteuses de ces groupes de l’édition scientifique, l’un des premiers réflexes des scientifiques est de se tourner vers des solutions de type open access. Au risque de répéter ce que j’ai déjà affirmé précedemment, cette solution n’est valable qu’à la condition que ces productions scientifiques soient véritablement libres et soumises à des licences libres. Si l’on prend l’exemple de HAL (Archives ouvertes) qui se targue d’être un accès “libre” garantissant la propriété intellectuelle des auteurs, on est encore loin du compte. Le fait de placer un texte sur HAL et autres serveurs est souvent soumis à des conditions bien particulières, dont la plus importante est d’obtenir l’autorisation préalable de l’éditeur de la revue dans laquelle le texte est censé être initialement diffusé. Tout part du principe qu’une publication scientifique passe obligatoirement par une revue au sens classique du terme. Certaines revues ont depuis longtemps fait le pari des licences libres, mais c’est loin d’être le cas de toutes les revues. Or, rien n’oblige les chercheurs à accepter de telles conditions ! Qui plus est, cet engouement pour les archives ouvertes a été perçu par certains éditeurs comme une occasion de racketter encore plus les auteurs (et leurs labos) : si vous voulez publier, il faut payer et si, en plus, vous voulez obtenir l’autorisation de placer votre texte sur l’un ou l’autre support d’archives ouvertes, il faut encore payer (très cher).
En somme, si je parle de racket, c’est bien parce qu’un texte, produit sur des fonds publics, à la sueur du front d’un chercheur, ne donnera qu’un retour limité sur l’investissement public de départ, sera centralisé dans une revue (sclérosant ainsi la diffusion), moyennant des tarifs de publication, et revendu aux institutions publiques sous forme d’abonnement… Les membres des comités de lecture, qui prennent de leur temps de chercheur (là encore: fonds publics) pour évaluer les articles de ces revues, sont très rarement indemnisés (et s’il le sont, c’est de manière personnelle, aucune somme n’est versée à leur institution). Quant au travail d’éditeur, il se réduit ni plus ni moins qu’à imprimer un texte fourni de manière électronique par le chercheur déjà mis en page et corrigé par lui-même selon les maquettes fournies, c’est à dire un travail éditorial proche de zéro (surtout sans indemniser les comités de lecture). Comment un tel système a-t-il pu se mettre en place ? c’est une aberration.
Que faut-il faire ?
Les solutions sont très simples à mettre en oeuvre, mais très difficiles à accepter. Il faut tout d’abord s’inspirer de l’existant : ArXiv et Wikipedia sont selon moi deux systèmes parfaitement adaptés. Il faut en effet inverser la tendance : les éditeurs doivent accepter le fait que ce qu’ils publient est d’abord issu du pot commun “connaissance de l’homme”, et que leur travail est d’abord un service rendu sous forme de support. Les productions scientifiques peuvent aujourd’hui être évaluées par les pairs de manière transparente sur des serveurs en ligne adaptés. Elle peuvent être publiées et/ou référencées en ligne avec un coût nul et toucher des milliards de personnes, sans obliger le lecteur au fin fond d’une zone rurale d’un pays du tiers-monde à posséder un abonnement Elsevier. Et si ce dernier n’a pas Internet, un de ses correspondants plus chanceux devrait pouvoir avoir la possibilité la plus morale qui soit à imprimer le texte et le lui envoyer par courrier.
Recette à méditer, reposant sur le principe de la décentralisation des données et de la priorité de la diffusion des connaissances :
- Chaque chercheur (ou simple quidam) produit des textes qu’il héberge soit depuis chez lui, soit sur un emplacement qui lui est personnellement réservé sur un serveur au sein de son université de rattachement.
- Les universités hébergent toutes des duplicata des bases de données dont l’alimentation se fait via une technologie peer-to-peer. Les bases de données sont les suivantes : 1) la liste et les adresses des textes produits par les chercheurs et hébergés partout dans le monde 2) le descriptif de ces textes, leur domaines, suivant une nomenclature commune 3) les commentaires et les critiques de ces textes, produits de manière anonyme ou non.
- Les revues ont accès (comme le reste du monde) à ces données et peuvent choisir celles parmi les meilleures publications (système de popularité) qui peuvent être inclues dans leurs collections. Elles font alors pour cela appel à leurs comités de lecture. En retour, d’autres comités de lecture issus des communautés scientifiques (associations internationales de chercheurs, prix de travaux scientifiques, membres de comités d’institutions publiques, etc) peuvent aussi participer à un système de notation.
- Les systèmes de notation doivent être indépendants les uns des autres, parfaitement identifiés, et peuvent être multiples. Par exemple, l’Association des Joyeux Mathématiciens du Wyoming peut éditer mensuellement ou annuellement, toujours en ligne, un classement des productions les plus pertinentes. Ce classement pourra être différent pour les referees des médailles Fields. Et encore différent pour des institutions comme le CNRS. Il peut donc y avoir consensus ou différence : c’est bien là l’objectif des théories scientifiques que d’être discutables, non? Mais ces classements multiples permettraient de hiérarchiser la qualité des travaux selon des tendances, et permettrait aussi des notations “en contexte” : si un chercheur doit être évalué, c’est à l’instance qui l’évalue qu’il revient de noter ses productions. Ainsi par exemple en France : l’AERES, au lieu de ne se référer qu’à des évaluations de revues complètement absconses, pourrait faire l’effort de lire les publications des membres des labos et elle-même attribuer une note au labo, note qui compterait alors dans la popularité des articles référencés.
- Le chercheur qui produit un texte peut toujours le faire en vue de le proposer dans une revue bien précise mais il le dépose en ligne et le rend accessible à tous : la revue peut alors utiliser ce texte, comme initialement prévu, mais d’autres revues peuvent très bien l’utiliser aussi : par exemple pour le traduire et favoriser sa diffusion, ou le rendre disponible dans des endroits ne disposant pas d’accès Internet (on peut imaginer une autre ambition aux éditeur consistant à publier des versions papiers des meilleurs articles dans un but humanitaire…Ceci en vertu d’une absence d’exclusivité de la diffusion.
Et alors, où serait le problème ? Les auteurs ne sont de toute façon pas censés toucher de revenus sur leurs propres publications scientifiques. Les institutions feraient des économies substantielles. Tout le monde aurait accès à ces connaissances. La fiabilité des informations ainsi produites serait mesurée à l’aune des méthodes de ceux qui se donneront la peine d’effectuer ces évaluations. L’ensemble pourrait très bien reposer sur un modèle Wikipedia… Avec l’avènement du tout numérique et de l’Internet, il faut aussi que nos chers éditeurs adaptent leurs modèles hérités du début du XXe siècle (Elsevier est même plus ancien) et comprennent que leur rôle n’est plus autant indispensable qu’il l’était hier, surtout si leur jeu consiste à imposer un modèle de monopole et brider la diffusion des connaissances.
01.01.2012 à 01:00
Occupations
Voici quelques éléments biographiques à propos de Christophe Masutti (voir la photo). Ils ne sont ni exhaustifs ni définitifs.
En résumé
Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft. Sport à haute dose (VTT, natation, trail). Histoire, sociologie, philosophie des sciences et des techniques.
J’ai un job que j’aime beaucoup aux Hôpitaux Universitaires de Strasbourg. Il m’est cependant indispensable de poursuivre mes activités militantes en faveur des libertés numériques. En même temps, ce sont aussi mes compétences d’historien des sciences et des techniques qui sont souvent mobilisées… et j’écris des textes. Pour décompresser de tout cela, je pratique mon sport de prédilection, le VTT, que je complète par deux autres sports, le trail (et l’endu en salle de sport) et la natation.
Trucs officiels
- Attaché aux affaires Européennes et transfrontalières, Hôpitaux Universitaires de Strasbourg, dep. fév. 2008. — Coopération, coordination de projets, recherche clinique, évaluation, gestion scientifique et technique, développement de l’activité
- Co-administrateur, Association Framasoft, Dep. janv. 2010 — Membre de différents comités, administration de l’association
- Chercheur associé, SAGE, UMR 7363, Dep. sept. 2012 — (Sociétés, acteurs, Gouvernement en Europe)
- Post-doctorat, INSERM, Institut national de la santé et de la recherche médicale, janv. 2008 — janv. 2009 — Histoire et politiques de santé, France / Allemagne
- Post-doctorat, La Charité Universitätsmedizin Berlin, févr. 2007 – janv. 2008 — Développement réseau DRUGS (histoire de l’industrie pharmaceutique)
- Attaché d’enseignement et de recherche, Faculté des sciences économiques, Université de Strasbourg, 2004 — 2006. — Histoire des sciences et des technologies, Histoire économique
- Doctorat (allocataire-moniteur de recherches), IRIST, Université de Strasbourg, 2001 — 2004. — Histoire des sciences et des technologies (72), Sciences politiques (04), Histoire moderne et contemporaine (22)
- DEA, IRIST, Université de Strasbourg, 2000 — 2001. — Sciences, Technologies et Société (STS)
- Maîtrise/master, Université de Strasbourg, 1999. — Discipline : Philosophie
01.01.2012 à 01:00
Clefs publiques
Clefs à télécharger
-
Clef publique pour affaires Framasoft et libertés numériques : clepubliqueframasoftframatophe.asc
-
Clef publique personnelle (pour messages personnels) : clepubliquepersochristophe.asc
Explications
Voir cette page Wikipedia
20.04.2011 à 02:00
Option libre
Quel est le cadre légal associé aux aux créations de l’esprit, et comment les licences libres changent-elles la donne ? Quels sont les bons usages des licences libres ? Dans ce livre, Benjamin Jean nous présente ce nouveau paradigme des licences libres et l’équilibre du système qu’elles structurent. Tout en évitant la simple exposition de règles et de normes, c’est de manière méthodique que seront abordées les notions juridiques, les exemple pratiques et les principaux écueils à éviter.
Jean, Benjamin. Option libre. Du bon usage des licences libres. Framasoft, 2011.
Lien vers le site de l’éditeur : https://framabook.org/optionlibre-dubonusagedeslicenceslibres/
21.01.2011 à 01:00
Réseaux sociaux
La dissémination des technologies numériques dans toutes les couches sociales de tous les pays industrialisés transforme inexorablement les relations entre les individus, les groupes, les générations et les nations. La croissance spectaculaire des réseaux sociaux affecte tous les milieux, et vient transformer les règles du jeu socio-économique dans son ensemble, tant pour les individus que pour les entreprises et organisations, et dans tous les domaines de la vie. Or – en première analyse – ces nouveaux réseaux peuvent sembler des réseaux non sociaux, voire même antisociaux. Ils sont en effet généralement coupés de ce qui caractérisait jusqu’alors le social : lié à un territoire, à une langue, à un héritage (religieux, politique ou culturel au sens le plus large), légué par des générations d’ascendants, et qui précède en principe le social comme son passé, comme un sol commun.
Cet ouvrage, dirigé par Bernard Stiegler, propose les meilleures contributions aux Entretiens du Nouveau Monde Industriel sur les réseaux sociaux. Il montre comment ces technologies relationnelles bouleversent non seulement les règles traditionnelles de l’économie et de l’industrie, mais également, et plus profondément, le processus d’individuation psychique et collective. Il propose une analyse approfondie des conditions sociologiques et psychologiques qui président à la constitution de ces réseaux sociaux.
Il étudie leurs conséquences économiques et organisationnelles, et identifie les opportunités d’innovation sociale, les enjeux politiques et les menaces afférents à cette émergence du « social engineering ».
Enfin, il explore les règles de constitution et de développement des réseaux sociaux du web 3.0 (alliance du web sémantique et du web social), et également les conditions économiques et éthiques d’administration de ces nouveaux milieux, c’est-à-dire les questions de la gestion, du contrôle, de la transparence et de l’e-démocratie, ainsi que les technologies et les stratégies industrielles déjà mises en oeuvre ou à venir.
Avec les contributions de : Bernard Stiegler, Alexander R. Galloway, Yann Moulier-Boutang, Annie Gentès, François Huguet, Christian Fauré, Richard Harper, Antoine Masson, Elizabeth Rossé, Kieron O’Hara, Aristea M. Zafeiropoulou, David E. Millard et Craig Webber, Alain Mille, Olivier Auber
Stiegler, Bernard, éditeur. Réseaux sociaux. Culture politique et ingénierie des réseaux sociaux. FYP éditions, 2011.
Lien vers le site de l’éditeur : https://www.fypeditions.com/bernard-stiegler-et-al-reseaux-sociaux/
11.01.2011 à 01:00
À propos de Mutt
Pour résumer simplement, Mutt est une sorte de navigateur de fichiers en mode texte spécialisé dans la lecture de boites courriel (comme le format mbox par exemple). Ainsi, à l’aide d’un “récupérateur” de courriel (comme fetchmail ou procmail) vous pouvez télécharger vos courriels, les stocker dans un dossier et les lire avec Mutt. Cela dit, Mutt est tellement bien qu’il peut lire des dossiers distants, en utilisant le protocole IMAP notamment. En d’autres termes si vous utiliser IMAP, Mutt peut (presque) se suffire à lui tout seul. De plus, Mutt n’a pas d’éditeur de texte intégré, et il s’utilise dans un terminal. Si vous voulez écrire un courriel, il vous faut configurer Mutt de manière à utiliser l’éditeur de votre choix. Et si vous voulez des couleurs, ce seront celles dont est capable d’afficher votre terminal. Ce billet vise à faire le point sur l’utilisation de Mutt et montre combien ce petit logiciel peut s’avérer très puissant.
S’il est si petit, pourquoi utiliser Mutt?
Mutt est un programme dans la droite lignée des programmes Unix. C’est un petit programme, réalisé pour effectuer un seul type de tâche, mais il le fait bien. Ainsi pour utiliser convenablement Mutt, il faudra tout de même un peu de débrouillardise et de bon sens, surtout dans la mesure où Mutt est dit “hautement configurable”. Sa puissance vient tout simplement de ce que vous même avez configuré. C’est pour cela que Mutt est sans doute le client de courriel le plus efficace.
Voici deux exemples rapides:
– Je possède un compte courriel sur un serveur et je veux y accèder en IMAP. Le processus est assez simple. Après avoir correctement configuré Mutt pour l’accès à mon compte, Mutt lira les dossiers sur le serveur, me renverra les en-têtes, me permettra de lire les courriels et si je désire envoyer un message, Mutt ira le placer dans la boîte d’envoi. De ce point de vue, Mutt effectue un travail de rapatriement de données, le serveur IMAP fait le reste.
– Je possède un compte courriel et j’y accède en POP. A l’aide d’un “récolteur” de courriel, comme procmail ou fetchmail, je rapatrie mes données dans un dossier local et je configure Mutt pour qu’il lise les éléments de ce dossier. Le tri, les règles de stockage et classement reposent sur la configuration du “récolteur” que j’ai décidé d’utiliser (notez que fetchmail ou procmail sont de même “hautement configurables”). Vous pouvez lire cette page du manuel de formation Debian pour en apprendre davantage sur ce système
Comment utiliser Mutt?
Il vous faudra d’abord le configurer. Pour ce faire, le principe est simple: après avoir installé le programme via les dépôts de votre distribution, créez un fichier .muttrc dans votre /home. Ensuite il existe toute une série de commandes que vous pouvez renseigner pour faire fonctionner Mutt. Ces commandes concernent les modalités de connexion à un compte, les règles d’affichage des messages et de leurs en-tête, les règles de rédaction, les règles de tri et d’envoi, la personalisation des en-têtes des messages envoyés, les jeux de couleurs, l’éditeur de texte choisi, etc, etc. Bref, tout ce qui permet à Mutt de faire ce que vous lui demandez tout en coopérant avec d’autres programmes selon vos besoins.
Le seul bémol est qu’il vous faudra sans doute passer du temps à comprendre et implémenter ces commandes dans le fichier de configuration. En contrepartie, Mutt sera capable de faire tout ce que vous lui demandez et l’éventail des fonctionnalités est particulièrement grand et malléable. Mutt est vraiment un logiciel libre!
Barre latérale
Certains utilisateurs préfèrent avoir sous les yeux la liste des dossiers dans lesquels ils trient leurs messages. Lorsqu’un nouveau message arrive, il est signalé présent dans l’un des dossiers et l’utilisateur peut naviguer entre ces derniers. Nativement, Mutt n’intègre pas une telle barre latérale. Il faut alors patcher Mutt dans ce sens. Pour cela, certaines distributions, outre le fait de proposer Mutt dans les dépôts, proposent aussi le paquetage mutt-patched. Si ce n’est pas le cas, il faut alors se rendre sur le site officiel de ce patch.
Imprimer avec Mutt?
Imprimer avec Mutt, c’est déjà beaucoup dire. En fait, lorsque l’on configure Mutt en éditant .muttrc, il suffit d’ajouter cette commande
set print_cmd="lpr -P nom_de_l_imprimante"
pour pouvoir imprimer (touche “p”) l’entrée courante. Mutt envoie alors le texte… tout le texte visible.
De même, selon l’éditeur de texte que vous utilisez avec Mutt pour écrire vos courriels, il possède sans aucun doute une fonction d’impression. Mais il ne s’agit que d’imprimer le texte que vous entrez.
Vous aimeriez peut-être pouvoir formater l’impression et gérer la mise en page des courriels que vous imprimez. Pour cela Muttprint est un petit utilitaire configurable (lui aussi!) qui vous rendra de bien grands services, ne serait-ce que pour limiter l’impression aux en-têtes les plus utiles comme date:, à:, et de:. Certaines distributions proposent le paquetage muttprint, il vous suffit alors de l’installer en quelques clics depuis les dépôts.
Configurer Muttprint se fait de manière similaire à Mutt. Vous avez cependant le choix entre soit éditer directement le fichier /etc/Muttprint (donc en mode root), soit créer et éditer un fichier .muttprintrc dans votre /home, à coté de .muttrc.
Dans .muttrc, au lieu de spécifier l’imprimante, vous devez alors dire à Mutt d’appeler Muttprint à la rescousse:
set print_command="muttprint"
Et dans muttprintrc, il vous suffit de renseigner les commandes, en particulier celle-ci:
PRINT_COMMAND="lpr -P nom_de_l_imprimante"
Le fichier /etc/Muttrc qui se crée lors de l’installation de Muttprint servira de modèle (à défaut d’être directement modifié lui-même). Il a l’avantage de voir chaque commande explicitée, ce qui le rend très facile à configurer.
Petite astuce: si dans l’en-tête que vous imprimez, vous désirez voir figurer un petit manchot linuxien, il vous suffit d’installer le paquetage ospics qui ira placer une série de petit dessins dans /usr/share/ospics/. Il reste à faire appel à l’un d’entre eux (format .eps) pour égailler un peu vos impressions (mais vous pouvez très bien utiliser un autre fichier .eps de votre choix, comme le logo de votre labo, une photo de votre chien, etc.).
Gestion des profils
Vous aimeriez peut-être utiliser plusieurs adresses courriel et signatures, selon vos destinataires ou les listes auxquelles vous êtes abonné. Pour cela il y a au moins deux possibilités.
La première est de partir de l’idée que vous rapatriez plusieurs boites courriel, par exemple avec fetchmail. Et que selon les boites que vous consultez et répondez aux correspondants, vous devez passer par un serveur smtp différent, avec une connexion (mot de passe) différente, une clé GPG différente, etc. Le petit utilitaire Muttprofile est là pour gérer ce type de situation. Depuis Mutt, on peut alors passer d’un profil à l’autre via une série de macro adéquates. Certaines distributions proposent le paquetage muttprofile dans leurs dépôts.
Cela dit, le système précédent est un peu lourd à gérer (opinion personnelle de l’auteur de ces lignes). Il présente néanmoins le grand avantage de se prêter parfaitement à l’utilisateur qui héberge son propre serveur de courriel, où à celui qui tient vraiment à avoir une configuration relative à ses profils. Pour l’utilisateur qui souhaite fonctionner plus simplement, le mieux est encore de rapatrier toutes les boites courriel dans une seule depuis les serveurs (généralement, vous pouvez configurer cela depuis l’interface webmail de votre boite) et finalement ne consulter avec Mutt qu’une seule boîte. Il s’agit donc de ne passer que par un seul serveur au lieu de plusieurs. Mais dans ce cas, comment gérer ses profils?
Hooks
Une fonctionnalité formidable de Mutt, ce sont les “hook”. Il s’agit de fonctions de type “si … alors” qui sont très précieuses.
Par exemple, si j’ai besoin de spécifier une adresse en fonction d’une adresse d’un expéditeur ou d’une liste à laquelle je suis abonné, je peux écrire dans mon .muttrc la séquence suivante :
send-hook olivier.durand@machin.com my_hdr From: Patrick Dupont
Cette séquence permet de répondre à Olivier Durant en utilisant l’adresse Patrick Dupont (lorsque j’écris un message, Mutt repère la chaîne “olivier.durand” dans le champ To: et place ce que je lui ai demandé dans le champ From:).
Autre exemple: si je souhaite utiliser une adresse courriel précise lorsque je me situe dans un dossier (par exemple le dossier dans lequel je rapatrie les messages provenant de mon compte secondaire), alors je peux utiliser ce type de commande:
folder-hook laposte my_hdr From: Jean Dugenou
qui permet d’utiliser l’adresse Jean Dugenou lorsque je me situe dans le dossier /laposte (cela marche aussi bien en IMAP).
Il y a beaucoup d’autres possibilités ouvertes par le système des “hook”, et, au fil du temps, vous finirez par constituer une suite de règles variées correspondant exactement à vos besoins. C’est aussi la raison pour laquelle vous avez tout intérêt à sauvegarder en lieu sûr une copie de votre .muttrc, histoire de ne pas avoir à tout refaire si vous perdez la première…
Commandes et variables
Une autre particularité de Mutt est que l’apprentissage consiste essentiellement à comprendre son .muttrc et comparer avec celui des autres utilisateurs. Pour cela, il est possible de trouver sur internet des exemples bien faits de .muttrc, en particulier sur le site officiel (qui propose aussi un wiki). La liste des commandes et variables pour la configuration de Mutt se trouve sur cette page du manuel en ligne et sa traduction en français sur le site de Cedric Duval.
L’éditeur de texte
Comme nous l’avons précisé plus haut, Mutt ne fait que naviguer dans votre courriel. Il ne permet pas d’écrire. Pour cela, il lui faut faire appel à un éditeur de texte. Le principe est, là encore, assez simple: lorsque vous écrivez un message, vous entrez le texte sous les en-têtes définies par Mutt (et que vous pouvez modifier “à la main”), vous quittez l’éditeur et Mutt reprend la main pour envoyer le message.
Avec Mutt, vous pouvez utiliser n’importe quel éditeur de texte de votre choix. Après l’installation, la configuration par défaut utilise l’éditeur par défaut de votre système. Si vous souhaitez en changer, il suffit de le déclarer dans .muttrc. En pratique, Vim ou Emacs sont sans doutes les éditeurs les plus appropriés, Mutt ayant une apparence par défaut se rapprochant plutôt de Vim. Nano, un gentil petit éditeur de texte qui a aussi sa cohorte d’admirateurs, pourra de même combler vos attentes.
Pour ceux qui désirent utiliser Vim, là encore, de manière optionnelle, vous pouvez créer un fichier .vimrc dans votre /home, de manière à configurer Vim pour une utilisation avec Mutt, entrer vos propres commandes par exemple. L’une d’entre elles (syntax on
) vous permettra d’utiliser un jeu de coloration syntaxique se rapprochant de Mutt (quoi que cela dépende des couleurs que vous avez configuré dans .muttrc).
[Attention, utilisateurs de Ubuntu, la version de Vim installée par défaut est Vim-Tiny. Il vaut mieux installer Vim dans sa version complète pour pouvoir faire ce que vous voulez avec .vimrc].
Lire les messages en HTML
Pour des raisons diverses (et pas toujours justifiées) certaines personnes aiment envoyer des courriel au format HTML, parfois même accompagnés d’images à l’esthétique douteuse censées “embellir” le message. Avec Mutt, il faut donc faire appel à un logiciel capable de lire le HTML. Il existe au moins plusieurs navigateurs en mode texte: Lynx, W3m, Elinks, Links, Links2…
Il s’agit en fait d’utiliser les entrées mailcap pour reconnaitre le type d’information à traiter et faire appel au bon logiciel pour les afficher. Dans le fichier .muttrc, il faudra donc entrer le code permettant de faire appel au fichier .mailcap que vous devez créer dans votre /home:
set implicit_autoview auto_view text/html application/x-pgp-message set mailcap_path="~/.mailcap" set mailcap_sanitize=yes
Puis, dans .mailcap, au choix :
- Si vous désirez utiliser Lynx*:
text/html; lynx -dump -force-html -assume_charset %{charset} -localhost %s; copiousoutput
- Si vous désirez utiliser W3m:
text/html; w3m -dump %s; copiousoutput; nametemplate=%s.html
- Si vous désirez utiliser Links ou Links2:
text/html; links2 -dump %s; nametemplate=%s.html; copiousoutput
- Si vous désirez utiliser Elinks:
text/html; elinks -default-mime-type text/html %s; needsterminal;
- Dans le cas Lynx, vous noterez la séquence
-assume_charset %{charset}
. Elle vise à tirer avantage de la configuration de Lynx utilisant le paramètre assume_charset afin de lire correctement la majorité des messages et leur encodage.
L'option -dump permet l'affichage dans le même processus que Mutt, c'est à dire dans la même fenêtre. Si vous désirez utiliser les navigateurs de manière autonome, puis, en les quittant, revenir automatiquement à Mutt:
text/html; Lynx %s; nametemplate=%s.html
text/html; w3m %s; nametemplate=%s.html
text/html; links2 %s; nametemplate=%s.html
Attention: si votre système est configuré en UTF8 (Locales), c’est cet encodage qui sera utilisé par le navigateur que vous aurez choisi. Un avantage de Links(2) est que si le “content-type” du courriel envoyé n’est pas ou mal renseigné, ou si l’encodage n’est pas le même que le vôtre, alors ce navigateur gèrera les défauts d’affichage (par exemple les lettres accentuées) en trouvant des solutions permettant une lecture agréable du courriel.
Le Carnet d’adresses
Les alias, mode classique
Mutt intègre un système de répertoire d’adresses très simple. Un fichier d’adresse est créé dans lequel vous enregistrez vos contacts.
Ainsi, dans votre .muttrc, vous pouvez indiquer ceci :
#CARNET ADRESSES set alias_file = ~/.mutt/adresses source ~/.mutt/adresses
Cela aura pour effet d’enregistrer vos alias dans /.mutt/adresses
et de rechercher ces alias dans ce même fichier (source).
Utilisation de Abook
Abook est un petit programme de gestion de contacts fait pour fonctionner avec Mutt. Plus élaboré que le systèmes des alias (cf. ci-dessus), il permet notamment l’import et l’export de carnets d’adresses dans différents formats et surtout il présente une interface graphique et stocke davantage d’informations sur vos contacts.
Abook doit certainement être disponible dans les paquets de votre distribution. Le site du projet se trouve à cette adresse.
Pour utiliser Abook avec Mutt, il suffit de configurer votre .muttrc ainsi:
# Abook set query_command= "abook --mutt-query '%s'" macro index,pager A "abook --add-email-quiet" "Ajouter l'expediteur dans abook"
Cela aura pour effet de permettre à Mutt de faire appel à Abook, deux deux manières : en tapant A (au lieu de a, utilisé pour les alias), l’expéditeur sera ajouté au carnet de Abook. Et pour utiliser Abook “à l’intérieur de Mutt”, c’est à dire dans le même terminal, il suffira de faire CTRL+t lors de l’entrée du destinataire. La liste des contacts de Abook apparaîtra alors.
Le logo de Mutt affiché en haut à gauche n'est pas le logo officiel (mais il est très joli). Il a été créé par Malcolm Locke. Vous pouvez vous le procurer ici, ainsi que sa licence (creative common).
01.01.2011 à 01:00
Quelques publications libristes
— À part ce qui suit, il y a aussi une thèse (et un livre), et on peut trouver mes publications académiques par ici.
Des livres
- Christophe Masutti, Affaires Privées. Aux sources du capitalisme de surveillance, Caen, C&F Editions, mars 2020. Lien.
- Richard M. Stallman, Sam Williams, Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, Paris, Eyrolles, 2011. Liens : Eyrolles (2eéd.), Framabook.
- Camille Paloque-Berges et Christophe Masutti (dir.), Histoires et cultures du Libre. Des logiciels partagés aux licences échangées, Lyon/Framasoft, Framabook, 2013. Lien.
- Christophe Masutti, Libertés numériques. Guide de bonnes pratiques à l’usage des DuMo, Lyon/Framasoft, Framabook, 2017. Lien.
- Christophe Masutti (trad. et adaptation de Bruce Byfield), LibreOffice Writer, c’est stylé !, Lyon/Framasoft, Framabook, 2018. Lien.
Des articles (liste non exhaustive)
-
Christophe Masutti, « La valeur lucrative des données est une vieille histoire », Alternatives Économiques, 05/22, Lien.
-
Christophe Masutti, « Encore une autre approche du capitalisme de surveillance », La Revue Européenne des Médias et du Numérique, automne 2021, Lien.
-
Maud Barret Bertelloni, « La surveillance est un mode du capitalisme » – Entretien avec Christophe Masutti, Le Vent se Lève, 25/09/2020, Lien.
-
Romain Haillard (interview par), « La lutte contre la surveillance est un anticapitalisme », Politis, 29/04/2020, Lien.
-
Anouch Seydtaghia (interview par), « Les résistants du logiciel libre », Le Temps, 11/10/2018. Lien.
-
Christophe Masutti, « Le capitalisme de surveillance », Vers l’Éducation Nouvelle, num. 571, 2018.
-
Christophe Masutti, « Vie privée, informatique et marketing dans le monde d’avant Google », document de travail, HAL-SHS, 2018. Lien.
-La série Anciens et Nouveaux Léviathans parue sur le Framablog. Lien :
- Les Nouveaux Léviathans IV « La surveillance qui vient ».
- Les Nouveaux Léviathans III. « Du capitalisme de surveillance à la fin de la démocratie ».
- Les Nouveaux Léviathans II « Surveillance et confiance ».
- Les Nouveaux Léviathans I « Histoire d’une conversion capitaliste ».
- Les Anciens Léviathans I « Le contrat social fait 128 bits… ou plus ».
- Les Anciens Léviathans II « Internet. Pour un contre-ordre social ».
Christophe Masutti, « Du software au soft power » , dans Tristan Nitot et Nina Cercy (éds.), Numérique, reprendre le contrôle, Framabook, 2016, pp. 99-107. Lien.
Christophe Masutti, « Ingénieurs, hackers : naissance d’une culture », in : Camille Paloque-Berges et Christophe Masutti (dir.), Histoires et Cultures du Libre. Des logiciels partagés aux licences échangées, Lyon/Framasoft, Framabook, 2013, pp. 31 – 65.
Christophe Masutti, « Internet, pour un contre-ordre social », Linux Pratique, num. 85 Septembre/Octobre 2014. Lien.
C. Masutti, Benjamin Jean, Préface, in : J. Smiers et M. van Schijndel, Un monde sans copyright… et sans monopole, Paris, Framabook, 2011. Lien.
Christophe Masutti, « Pour libérer les sciences », Framablog, 15 décembre 2010. Lien.
30.12.2010 à 01:00
Pour libérer les sciences
L’objectif de ce texte est de faire valoir l’intérêt d’une diffusion décentralisée et libre des connaissances scientifiques. En partant de l’idée selon laquelle l’information scientifique n’a d’autre but que d’être diffusée au plus grand nombre et sans entraves, je montrerai les limites du système classique de publication à l’ère du format numérique, ainsi que les insuffisances des systèmes d’archives « ouvertes ». J’opposerai le principe de la priorité de la diffusion et à l’aide de quelques exemples, j’aborderai la manière dont les licences libres Creative Commons permettent de sortir de l’impasse du modèle dominant.
« Pour libérer les sciences » by Christophe Masutti est mis à disposition selon les termes de la licence Creative Commons Paternité - Partage des Conditions Initiales à l’Identique 2.0 France.
(Màj) : Ce texte a été écrit en 2010, et publié sur le Framablog. Disponible uniquement en PDF à l’époque, je le reproduis ici en entier.
Christophe Masutti (IRIST – Université de Strasbourg), Pour libérer les sciences, 2010.
Merci à Jean-Bernard Marcon pour sa (re)lecture attentive.
Introduction
En juillet 2010, l’Organisation européenne pour la recherche nucléaire fit un communiqué apparemment surprenant. Déclarant supporter officiellement l’initiative Creative Commons, elle annonça que les résultats publiables des recherches menées au LHC (Large Hadron Collider – l’accélérateur de particules inauguré en 2008) seraient diffusés sous les termes des licences libres Creative Commons, c’est-à-dire1 :
En réalité, la surprise était en partie attendue . En effet, le CERN2 fut pour beaucoup dans l’apparition de l'Internet et le rôle qu’y jouèrent Tim Berners Lee et Robert Cailliau, inventeurs du système hypertexte en 1989, fut décisif. Le fait de diffuser les résultats du LHC sous licence libre obéit donc à une certaine logique, celle de la diffusion et de l’accessibilité de l’information scientifique sous format numérique. La dématérialisation des publications scientifiques et leur accessibilité mondiale, pour un coût négligeable grâce à Internet, permet de se passer des mécanismes de publication par revues interposées, avec cession exclusive de droit d’auteur, et réputés lents, coûteux, et centralisés. Dans ce contexte, le CERN a opté pour une diffusion décentralisée (en définissant a priori les conditions d’exercice des droits d’exploitation favorisant le partage) tout en garantissant la paternité et l’intégralité (les droits moraux) des travaux scientifiques.
Plus récemment encore, en novembre 2010, M. P. Rutter et J. Sellman, de l’Université d’Harvard, ont publié un article intitulé Uncovering open access 3, où ils défendent l’idée selon laquelle le libre accès aux informations scientifiques permet de resituer le lien entre savoir et bien commun. Pour amorcer leur argumentaire, l’étude de cas – désormais classique en histoire de la génétique – de la redécouverte des expérimentations de Gregor Mendel sert à démontrer à quel point les sciences sont assujetties à la diffusion . Là encore, il s’agit de mettre en perspective la question de la disponibilité des informations scientifiques à travers les systèmes centralisés de publications. L’exemple des accords difficiles entre le Max Planck Institüt et le groupe Springer pour l’accès à quelques 1200 revues est illustratif de la tension permanente entre le coût des abonnements, les besoins des chercheurs et l’idée que les connaissances scientifiques devraient être accessibles pour tous.
Dans un monde où la production et la diffusion des connaissances dépendent essentiellement de l’outil informatique (production et communication de données dans toutes les disciplines), la maîtrise des technologies de stockage et du web sont des conditions essentielles pour garantir le transfert et l’accessibilité. Aujourd’hui, en profitant des plus récentes avancées technologiques, tout un chacun est capable d’échanger avec les membres de sa famille et ses amis un grand volume de données en tout genre via Internet. Il devrait donc logiquement en être de même pour les travaux scientifiques, pour lesquels l’échange d’information est d’une importance vitale. Ce n’est toutefois pas le cas.
La centralisation
La production, la diffusion et l’accès à nos connaissances scientifiques sont formalisés par les outils informatiques :
-
la production : nul chercheur ne saurait aujourd’hui travailler sans Internet et encore moins sans un ordinateur dans lequel il classe, construit et communique ;
-
la diffusion : aujourd’hui, un article scientifique peut rester, de sa production à sa lecture finale, dans un circuit numérique sans jamais en sortir ;
-
l’accès : nous profitons tous des multiples services qui nous permettent, notamment par Internet, d’accéder rapidement à l’information, beaucoup plus rapidement qu’il y a à peine vingt ans. Le rythme de la recherche s’accélère et la numérisation des connaissances n’y est pas pour rien.
Pour rendre cohérent ce système de production et de diffusion, l’ingénierie informatique a joué un rôle fondamental dans la création des moyens par lesquels nous ordonnons nos connaissances : le système hypertexte, l’introduction de la logique booléenne, les outils d’indexation de données, etc. De même, la réduction du temps de transmission de l’information, grâce, par exemple, aux nanotechnologies ou encore au clustering de serveurs, joue un rôle primordial dans l’efficacité de nos systèmes d’échanges d’informations. Ces innovations ont donc produit quelque chose de très positif dans la mesure où, profitant de ces avancées techniques majeures, nous réduisons de plus en plus les délais de communication des données scientifiques, ce qui optimise la production de nouvelles connaissances.
La production, la diffusion et l’accès à nos connaissances ont donc épousé un ordre numérique hautement performant, et l’on pourrait redouter que la maîtrise de cet ordre soit avant tout une maîtrise des moyens. Il s’avère que non. Excepté pour les expérimentations nécessitant, par exemple, l’utilisation de supercalculateurs, la maîtrise des outils informatiques en général ne préjuge pas du rendement scientifique, elle ne fait qu’optimiser la communication des résultats. Les maîtres du nouvel ordre numérique ont donc déployé une stratégie qui a toujours fait ses preuves : centraliser les données et conditionner leur accès.
C’est ce qui s’est produit dans le cas d’Internet : alors même qu’Internet est d’abord un système décentralisé où chacun communique des données avec tous les autres, la possession des données et le calibrage de leur accès par les acteurs de l’économie du web a transformé Internet en un gigantesque Minitel 2.04, c’est à dire une logique d’accès individuel à des serveurs spécialisés.
Dans le cas des connaissances scientifiques, leur stockage et leurs conditions d’accès, c’est ce modèle qui fut repris : une optimisation du potentiel de communication mais un accès restreint aux données. En effet, les supports de la publication scientifique, que sont notamment les revues, proposent un service de stockage, payant ou non. Le problème, c’est qu’en maîtrisant ainsi le stockage et l’accès aux productions scientifiques, le potentiel technologique censé accélérer la diffusion et la réception de données est réduit aux contingences de rendement et aux capacités des services qui centralisent ces connaissances.
En fait, les revues scientifiques ont toujours fonctionné sur ce mode centralisé qui avait, au départ, deux objectifs : a) garantir la fiabilité de la production scientifique et la protéger par le droit d’auteur et b) regrouper les connaissances pour en assurer la diffusion, afin que les scientifiques puissent externaliser leur communication et rendre visibles leurs travaux. Cette visibilité, à son tour, permettait d’asseoir la renommée des chercheurs, de valoriser et évaluer leurs recherches au sein d’un champ disciplinaire, et surtout de permettre une forme de démocratie scientifique où les connaissances peuvent être discutées et critiquées (même si un peu de sociologie des sciences montre vite les limites de cette apparente démocratie). Aujourd’hui, la centralisation que proposait chaque revue, dans chaque discipline, est devenue d’abord une centralisation de moyens. Les revues se regroupent, des consortiums naissent et proposent, cette fois, de centraliser l’accès en plus des données. Or, le coût du support de la production scientifique est devenu presque nul puisque chaque chercheur est en mesure de communiquer lui-même sa production au sein de la communauté et même au monde entier grâce à Internet.
De même, les mécanismes de diffusion, encouragés par la rigidité de l’évaluation scientifique qui raisonne presque exclusivement en termes de classement de revues, sont aujourd’hui centralisés et conditionnés par le savoir-faire des organisations ou conglomérats en termes de stockage des données de classement et d’indexation. À tel point que ces acteurs (les regroupement de revues), conditionnent eux-mêmes les outils d’évaluation des instances publiques (comme la bibliométrie) qui définissent le ranking des chercheurs et des publications elles-mêmes. Nous avons donc confié aux professionnels de la publication les bases matérielles qui nous permettent de juger les productions scientifiques, et, ainsi, de produire en retour d’autres connaissances. La centralisation s’est alors doublée d’un enjeu de pouvoir, c’est à dire une stratégie permettant non seulement de décider qui a accès aux données, mais aussi comment et selon quels critères. Cette stratégie est devenue protectionniste : alors même que l’informatique et Internet permettraient de changer de système de diffusion et garantir le libre accès de chacun à l’information scientifique, le système de centralisation à créé des monopoles de moyens, et de la commercialisation des données.
De leur côté, les chercheurs - auteurs n’ont pas récupéré la maîtrise de la diffusion de leurs propres productions et la centralisation est devenue de plus en plus incontournable puisque le savoir-faire technique inhérent au stockage et à la diffusion en masse est possédé par quelques groupements ou conglomérats. Qu’importe, après tout, si une partie de ces moyens de diffusion et d’accès appartiennent à des conglomérats privés comme Google, Springer ou Elsevier ? Les impératifs de rendement et de rentabilité expliquent-t-ils à eux seuls la recherche de contenus toujours plus imposants de Google ou faut-il envisager un élan humaniste encore jamais rencontré dans l’histoire ? Dans quelle mesure le classement des revues conditionne-t-il en retour la rentabilité de leur diffusion numérique pour une firme comme Elsevier? Quel est le degré de neutralité de ces services de diffusion de contenus scientifiques ? Ce ne sont que quelques exemples frappants. Plus généralement, dans quelle mesure les parts de marché et les contraintes économiques jouent-elles un rôle dans la diffusion des connaissances, et, par conséquent, dans leur accès et leur production ?
Je n’apporterai pas de réponse à cette question, qui nécessiterait une étude approfondie sur les mécanismes du marché de la diffusion électronique et des supports. Je me contenterai simplement de souligner le hiatus entre d’un côté les multiples études sur l’économie de la connaissance et, d’un autre côté, le manque d’analyse sur l’appropriation concrète des moyens de diffusion par les agents. Car l’idée selon laquelle les agents sont tous rationnels masque le fait que les auteurs comme leurs lecteurs ne maîtrisent pas les conditions de diffusion et s’en remettent entièrement à des tiers.
Un exemple récent : sur la pression du gouvernement américain, Amazon.com a cessé d’héberger sur ses serveurs le site Wikileaks, suite aux révélations de ce dernier sur la face caché de la diplomatie internationale (Le Monde, 1er décembre 2010). Certes, le service de diffusion et de vente de livres d’Amazon.com n’a que peu de relation avec son service d’hébergement de sites, mais dans la mesure où un gouvernement peut ordonner la fermeture d’un site sur ses serveurs, comment assurer la neutralité du service de diffusion de livres de cette même multinationale ? Un gouvernement pourrait-il faire pression sur Elsevier-Science Direct si l’une des publications diffusées par ce groupe divulguait des données pouvant être censurées ?
L’accès gratuit
Pour ce qui concerne les services d’accès gratuit, comme le service d’archives ouvertes HAL, inscrit dans le cadre de l’Open Archive Initiative (OAI), l’accès aux productions scientifiques correspond bel et bien à une volonté de diffusion globale et libérée des contraintes économiques. Mais il ne s’agit que de l’accès à certaines productions, sous réserve de l’acceptation préalable des détenteurs des droits de diffusion que sont les revues, et uniquement si l’auteur accomplit la démarche.
Si HAL et les principes de l’OAI permettent aussi le dépôt de textes produits directement par leurs auteurs, et favorise en cela la diffusion par rapport à la publication, c’est une part importante des connaissances qui est effectivement en accès gratuit. Néanmoins, comment comprendre cette différence de traitement ? À qui appartiennent les connaissances ? À celui qui les produit, qui cède une partie de ses droits d’auteur (et justement ceux qui conditionnent la diffusion), ou à celui qui les diffuse et met à portée du public les moyens considérables auxquels nous accédons aujourd’hui grâce aux circuits numériques ? Si nous ajoutons à cela le besoin inconsidéré d’être évalué, d’améliorer le ranking des chercheurs et de publier dans les revues cotées, pouvons-nous raisonnablement croire que le dépôt spontané de la part des auteurs dans un système d’archives ouvertes rétablisse cette inégalité de traitement dans l’accès et la diffusion des connaissances ?
Le système de dépôt ArXiv.org reste pourtant un modèle5, car il est inscrit dans une certaine tradition de la communauté des chercheurs qui le fréquentent et y déposent presque systématiquement leurs productions. Il a ses limites, tout comme l’ensemble des initiatives d’accès gratuit aux ressources : aucun n’a de politique véritablement claire à propos du droit d’auteur.
Les politiques éditoriales
Le projet Sherpa est une source d’information très utile pour connaître les politiques éditoriales des maisons de publications. La liste Romeo, en particulier, recense les possibilités et les conditions de dépôt des productions dans un système d’archives ouvertes. Selon les revues et les conditions imposées par les éditeurs, il est possible pour un auteur d’archiver une version preprint ou postprint de son article. Un classement des revues par couleur (blanc, jaune, bleu et vert) signale les niveaux d’autorisation donnés aux auteurs afin qu’ils puisse disposer de leur travail après avoir toutefois cédé une partie de leurs droits d’auteur.
Le fait que la majorité des revues scientifiques aient des politiques de droit d’auteur différentes n’est guère surprenant. Outre les grandes revues classées dans les premiers rangs mondiaux, on trouve parfois des centaines de revues spécialisées selon les disciplines, apparaissant (et parfois disparaissant) selon la vie des communautés de chercheurs. Un peu d’histoire des sciences nous apprend que lorsqu’une discipline ou un champ d’étude apparaît, le fait que la communauté puisse disposer d’un espace de publication propre marque souvent les débuts d’une forme d’institutionnalisation de ce champ d’étude et, donc, une forme de reconnaissance par le reste de la communauté scientifique. La longévité et la fréquence de parution des revues peuvent être considérées comme des indicateurs de croissance de ce champ d’étude au cours de son histoire. Par conséquent, la multiplicité des revues, dans la mesure où se trouvent des groupes de chercheurs assez motivés pour les maintenir en termes de moyens techniques, humains et financiers, est plutôt un élément positif, signe d’une bonne santé de l’activité scientifique, et une forme de garantie démocratique de l’accès aux connaissances. Si toutes ces revues ont des politiques de droit d’auteur différentes c’est aussi parce qu’elles ont des moyens divers de subsistance, et, bien souvent, la seule vente des exemplaires papier ne suffit pas à couvrir les frais de publication.
Un autre élément qui conditionne en partie les politiques éditoriales, c’est le flux des publications scientifiques. Paradoxalement, le nombre actuel des revues ne saurait suffire à absorber les productions scientifiques toujours plus nombreuses6. Outre les phénomènes de compétitions entre pays, ce nombre est principalement dû aux politiques de recherche et à la culture de l’évaluation des chercheurs selon laquelle le nombre de publications est devenu un indicateur de qualité de la recherche, faute d’avoir des évaluateurs capables de (et autorisé à) juger précisément de la pertinence et de la valeur scientifique du contenu des publications. Or, ces politiques d’évaluation de la recherche impliquent pour les chercheurs la nécessité de publier dans des revues dont le classement, établi par ces mêmes évaluateurs, préjuge de la qualité scientifique du contenu.
Toutes les revues ne sont pas classées, à commencer par les petites revues connues dans les champs d’étude émergents et qui sont bien souvent les principaux supports de communication des recherches les plus novatrices et des nouvelles niches intellectuellement stimulantes. Finalement, les revues classées, et surtout celles qui disposent d’un classement élevé, ne peuvent absorber tout le flux des productions. Cette pression entre le flux et les capacités concrètes de publication implique une sélection drastique, par l’expertise (les reviewers ou referees), des articles acceptés à la publication. Comme cette sélection est la garantie a priori de la qualité, le classement se maintient alors en l’état. On comprend mieux, dès lors, pourquoi ces revues tiennent non seulement à ce que les auteurs leur cèdent leurs droits pour exploiter les contenus, mais aussi à ce que ces contenus soient le moins visibles ailleurs que dans leur propre système de publication et d’archivage. Nous revenons au problème de la centralisation.
Propriété et pénurie
Si nous mettons en perspective la croissance des publications scientifiques, le besoin d’évaluation, la nécessité (individuelle de la part des chercheurs, ou concurrentielle au niveau des universités et des pays) du ranking qui privilégie quelques revues identifiées au détriment des plus petites et discrètes, et l’appropriation des moyens de diffusion par les conglomérats du marché scientifique, nous assistons à l’organisation d’une pénurie maîtrisée de l’information scientifique.
J’évacue aussitôt un malentendu. Cette pénurie est maîtrisée dans le sens où l’information scientifique est en général toujours accessible, mais ce sont les conditions de cette accessibilité qui sont discutables.
Prenons un cas concret. Jstor (Journal Storage) est une organisation américaine à but non lucratif, fondée en 1995, dans le but de numériser et d’archiver les revues académiques. Créé pour permettre aux Universités de faire face à l’augmentation des revues, Jstor sous-traite l’accessibilité et le stockage de ces revues, assurant ainsi un rôle de gardien de la mémoire documentaire scientifique. Le coût de l’abonnement à Jstor est variable et ne figure certainement pas parmi les plus chers. En revanche, dans le cadre de l’archivage et des conditions d’accessibilité, des accords doivent se passer entre les revues détentrices des droits de publication et Jstor. Ainsi, la disponibilité des revues est soumise à une barrière mobile (moving wall) qui détermine un délai entre le numéro en cours de la revue et le premier numéro accessible en ligne. Quel que soit ce délai, un article scientifique devra toujours être payé : soit en achetant la revue au format papier, soit en achetant l’article au format électronique sur le site de la revue en question, soit en achetant un abonnement auprès de Jstor dans le cas où le numéro de la revue en question y est accessible.
Dans d’autres cas de figure, les articles scientifiques peuvent être trouvés et vendus au format numérique sur plusieurs espaces à la fois : sur le site de la revue, sur un site de rediffusion numérique (comme par exemple le service Cat.Inist du CNRS), ou en passant par le service d’abonnement d’une institution (Jstor, Elsevier…).
Jamais auparavant on n’avait assisté à une telle redondance dans l’offre de publication du marché scientifique. En conséquence, surtout avec l’arrivée du service de vente d’articles à l’unité, jamais le marché de la publication scientifique n’a obtenu un tel chiffre d’affaire. Est-ce synonyme d’abondance ? Pas vraiment. L’inégalité de traitement entre les revues est toujours un obstacle qui prive les nombreuses petites revues (qui peuvent toutefois être célèbres mais dont le marché n’a bien souvent qu’une dimension nationale) de participer à l’offre. Dans la plupart des cas, les articles scientifiques publiés dans ces conditions sont donc archivés d’une manière ou d’une autre, mais sur un marché séparé, parfois sur le site internet propre à la revue, parfois sur les serveurs d’un regroupement non lucratif de revues, géré la plupart du temps par des institutions publiques, comme par exemple Revues.org.
Par ailleurs, un autre obstacle est préoccupant : le temps de latence variable d’une revue à l’autre entre la publication papier et l’accès aux versions numériques. Ce temps de latence est dû à deux écueils qu’il me faut maintenant longuement développer.
Le premier est la conception rigide que l’on a du format numérique, à savoir que la version numérique d’un document est considérée comme une copie de la version papier. Ce n’est pas le cas. Fort heureusement, la plupart des maisons d’éditions l’ont compris : un article peut être mis sous format HTML, avec un rendu dynamique des liens et de la bibliographie, par exemple, ce qui lui apporte une dimension supplémentaire par rapport à la version papier. Or, c’est cette conception du document-copie numérique qui prime, par exemple, dans le cas de Jstor, ou encore dans celui de certains projets de numérisation de la BNF, car l’objectif est d’abord de stocker, centraliser et d’ouvrir l’accès. Certes, la numérisation de fonds anciens ne peut transformer les articles en pages dynamiques (quoique les récentes avancées dans le domaine de la numérisation de fonds tendrait à montrer le contraire). En revanche pour les numéros plus récents, qui de de toute façon ont été rédigés de manière électronique par leurs auteurs, la barrière mobile implique bien souvent que pendant quelques années un article ne sera disponible qu’au format papier alors que rien ne l’y contraint techniquement. Cela représente une perte considérable dans notre monde numérique ! Dans le cas d’une revue bi-annuelle à faible tirage, il devient très difficile de se procurer un numéro un ou deux ans après sa parution (phénomène qui pourrait être mieux contrôlé avec les systèmes d’impression à la demande dont il sera question plus tard). Et il faut attendre sa mise à disposition sur Internet (gratuitement ou non), pour que cet article touche enfin le potentiel immense du nombre de lecteurs à travers le monde…à ceci près qu’il y a toujours un temps de latence et qu’en moins de deux ans, un article peut voir très vite son intérêt scientifique diminuer, et avec lui l’intérêt de la mise en ligne, si ce n’est uniquement pour son archivage. Ce temps de latence, cette barrière mobile , peut très facilement disparaître pour peu que l’on s’interroge sur le réel intérêt de la cession des droits d’auteur (de diffusion) des articles scientifiques.
C’est ce qui m’amène au second écueil : la question des droits d’auteur et de diffusion. Pour qu’une revue papier soit rentable, ou du moins qu’elle résiste à la pression entre l’investissement et les frais de fonctionnement, il faut qu’elle puisse vendre un certain nombre de copies. Pour que cette vente puisse se faire, tout le monde part du principe que les auteurs doivent céder une partie de leurs droits à l’éditeur (une cession exclusive). Avec l’apparition des licences libres de type Creative Commons, nous verrons que ce n’est nullement là une condition nécessaire. L’autre aspect de cette cession de droit est que l’auteur ne peut plus disposer de son travail (son œuvre) comme il l’entend. La diffusion de cette œuvre est donc soumise à la politique éditoriale de la revue qui ne s’engage pas obligatoirement à en garantir l’accessibilité numérique. En revanche, la cession des droits permet aux revues de réaliser une plus-value supplémentaire dans le cadre de la diffusion numérique, par exemple en passant des accords avec un grand distributeur de revues électroniques. Là encore, le biais est à redouter dans la mesure où les abonnements ont un coût bien souvent prohibitif pour les institutions qui les payent, ce qui fait souvent l’objet de discussions serrées.
Avec l’émergence des premiers périodiques électroniques, les éditeurs ont massivement investi dans l’économie numérique, en répercutant ces coûts sur les abonnements. Pour donner un exemple, le prix annoncé par l’Université de Poitiers pour un abonnement à Elsevier-Science Direct est de 37556 euros pour l’année 2007, un coût apparemment raisonable mais qui ne cesse d’augmenter et doit être multiplié par le nombre d’abonnements différents d’une même université7. Pour pallier ces frais toujours croissants les institutions se sont organisées en consortia, de manière à mutualiser ces coûts. Mais cela ne vaut que pour les groupements capables de faire face aux éditeurs. En effet, certains pays se heurtent à une réduction des fonds publics dédiés à la recherche, et d’autres pays, comme ceux en voie de développement, n’ont bien souvent pas les moyens de payer ces abonnements. En fait, il y a là encore une différence de traitement dans l’accès à l’information scientifique, et sans doute la plus révoltante : dans la mesure où l’accès aux ressources numériques représente bien davantage, d’un point de vue technique et de traitement de l’information, qu’un simple accès à un abonnement papier , comment peut-on concevoir qu’une partie loin d’être négligeable des informations scientifiques sous forme électronique puisse ne pas être accessible à certaines parties du monde ? Et au sein d’un même pays, comment accepter qu’il puisse exister une inégalité d’accès entre les différentes institutions, entre celles qui ont les moyens financiers suffisants et les autres, ou entre celles qui, faisant partie de tel consortia, n’ont pas accès aux mêmes revues que les autres ?
Certes, on me rétorquera que les abonnements aux revues papier ont toujours été chers eux aussi, de même que le stockage de ces revues. Ce à quoi je réponds :
-
le format numérique ne coûte rien à la production (les revues externalisent les coûts de mise en page chez les auteurs eux-mêmes, et ont tendance à ne jamais payer les auteurs ni les membres des comités de sélection des articles), c’est le stockage et la gestion sur les serveurs privés d’un conglomérat qui représente un coût,
-
ce stockage en un seul endroit dont l’accès est payant n’apporte rien de plus à la qualité de l’information scientifique,
-
classement et ordonnancement de l’information scientifique dépendent du distributeur, et ne sont donc pas neutres scientifiquement (certaines revues disparaissent ou apparaissent dans les catalogues suivant les transactions ou les intérêts du moment),
-
les productions scientifiques devraient donc circuler librement dans les communautés scientifiques sans dépendre de services tiers, du moins non publics.
Il ressort de tout cela que l’accès à l’information scientifique souffre gravement d’un manque d’efficacité. Les mouvements du type archives ouvertes se contentent finalement de transformer l’information en archive, justement, c’est à dire la forme la moins exploitable de l’information scientifique. En effet, dans la mesure où l’accessibilité à l’information sous forme numérique en temps et en heure dépend d’un marché de diffusion fermé, dont sont exclus des pans entiers de la connaissance (les revues papier et parfois numériques mais dotées de peu de moyens ou n’appartenant pas à un conglomérat), on traite l’article scientifique au format numérique comme une copie de sa version validée , parfois plusieurs années après, au titre d’archive de la connaissance. En somme, on fait de la mémoire documentaire, au lieu d’assurer la diffusion des connaissances au moment où elles se créent. Or, si un groupe comme Elsevier Science Direct regroupe environ 2000 périodiques, comment est assurée la diffusion des autres revues ? Nous avons vu leur inégalité de traitement. La barrière mobile séparant, pour un article, sa publication de son archivage, crée donc une grande inégalité entre les articles pouvant être diffusés par les revues cotées ou appartenant à des groupements de diffusion, et ceux des revues moins cotées, sachant que la rareté induite par les mécanismes de classement (on ne peut classer toutes les revues) est aussi une cause de cette inégalité de traitement et de fermeture du marché. Ma conclusion, pour cette partie, tient en une seule affirmation : il faut rendre la priorité à la diffusion sur la publication. Mais sous quelles conditions ?
Principe de priorité de la diffusion
Je voudrais opposer à ce modèle centralisé, privatif et inégalitaire le principe de priorité de la diffusion, c’est-à-dire le fait de diffuser la connaissance avant que de la publier par le moyen des revues, des livres ou des publications numériques nécessitant une obligation d’abonnement. En somme, diffuser avant de vendre.
Ce n’est pas une nouveauté. Ce principe est déjà agréé par tous les chercheurs. En effet, toute production scientifique a pour but premier d’être diffusée. Avant même sa publication, un article est diffusé à l’intérieur du réseau de la communauté de chercheurs à laquelle appartient l’auteur : ses collègues qui l’aident à rédiger et apportent leurs avis, le laboratoire ou institut auquel il appartient et auquel il demande éventuellement l’autorisation pour pouvoir publier, les membres du comité d’évaluation de la revue qui sont censés appartenir à sa communauté (sans quoi ils ne pourraient juger de la pertinence scientifique de l’article), et enfin, la plupart du temps, les spécialistes de son domaine d’étude à qui il a spontanément envoyé ses travaux ou qui le lui ont demandé8. Il s’avère pourtant que ces pratiques vont à l’encontre du contrat de cession de droits que l’auteur a conclu avec l’éditeur.
Il peut aussi arriver, dans certains cas, que la revue ne propose même pas de contrat de cession exclusive, et que la diffusion par l’auteur lui-même est considérée comme un manque de fair-play de sa part, produisant ainsi un manque à gagner pour la revue souvent elle-même dans un équilibre financier précaire. Dans ce cas bien particulier, courant dans le domaine des sciences humaines, et pour de petites revues communautaires , il importe alors de se demander quelle peut bien être l’utilité d’une revue qui n’a, ainsi, aucun autre but que de centraliser l’information scientifique, organiser sa faible diffusion, et confirmer la pertinence scientifique d’un travail déjà diffusé dans une partie de la communauté de spécialistes. En fait, l’intérêt est évident : il s’agit d’ajouter une ligne à la liste des publications d’un chercheur et donc de son institut ou laboratoire, même si la revue en question n’est pas classée. La comptabilité du nombre de publications est tenue à des fins d’évaluation et démontre la productivité en termes quantitatifs. Les petites revues qui émergent donc des champs scientifiques ont pour premier rôle de participer à l’amortissement du flux croissant de publications scientifiques. Toutefois, je resterai prudent : cela n’altère en rien leur qualité scientifique, bien au contraire, puisque la plupart du temps elles rassemblent la production scientifique d’une communauté établie et qui valide les recherches menées selon le principe de l’évaluation par les pairs.
La vraie raison d’être de certaines revues serait-elle donc l’évaluation et non la diffusion ? C’est un aspect qu’il faut prendre en compte. Les revues scientifiques sont spécialisées et s’adressent toujours à une communauté de chercheurs bien identifiée. La meilleure preuve est qu’il appartient aux revues de vulgarisation scientifique, à grand tirage, d’effectuer un travail de veille et de reformulation afin de rendre accessibles les informations scientifiques importantes à un public de non spécialistes, qu’il soit grand public ou un public composé de spécialistes d’autres disciplines. À l’exception des revues scientifiques généralistes avec un haut niveau d’évaluation (une cohortes d’experts de disciplines différentes) comme Nature ou Science, par exemple, toutes les revues, qu’elles aient un ranking élevé ou non, s’adressent à la communauté de chercheurs qui les font exister. Elles sont en quelque sorte les vitrines de ces communautés et en montrent le dynamisme. Publier dans ces revues n’a donc pour autre objectif que d’être un acte hautement individuel visant à optimiser son évaluation par les instances et les pairs. Par conséquent, l’évaluation et la centralisation sont les causes premières de l’existence des revues, qui entrent d’ailleurs en concurrence (économique et intellectuelle) lorsqu’elles appartiennent à un même champ scientifique.
Nous avons vu que la centralisation est néfaste pour la diffusion. Nous avons vu aussi que lorsqu’un article arrive à publication, c’est qu’il a été validé et diffusé auparavant dans la communauté ou du moins dans une partie significative de cette communauté, au regard du niveau de spécialisation des travaux en question. Donc, dans les pratiques des chercheurs, au jour le jour, c’est la diffusion qui prime sur la publication, et, dans la mesure où le but d’une information scientifique est d’être diffusée, la publication devrait être considérée à sa juste place : un acte accessoire motivé par d’autres raisons que l’avancement des sciences.
Trois exemples
Plusieurs revues et institutions ont choisi d’opter pour le principe de la priorité de la diffusion de manière formelle. Ce type de choix est de plus en plus courant et alterne entre l’archivage avec accès gratuit (généralement appelé archives ouvertes ) et l’adoption de licences libres de type Creative Commons. Les trois exemples suivants me permettront d’illustrer la différence entre ces deux possibilités.
Un premier exemple concerne la revue Medical History. Cette revue, supportée par le Wellcome Centre for History of Medicine (University College London), est publiée de manière classique depuis 1957. Il y a quelques années, le comité éditorial, en phase avec la politique du Wellcome Trust en faveur de l'open access, a décidé de porter la revue en ligne (y compris ses archives) avec un accès gratuit, l’hébergement étant assuré par PubMed Central (PMC), le service d’archives gratuites de la Bibliothèque nationale de médecine aux États-Unis9. Effort louable dans la mesure où les abonnements, loin de s’amenuiser comme on aurait pu le craindre, ont au contraire augmenté suite à la visibilité nouvelle de cette excellente revue, se déclarant par la même occasion comme une référence incontournable du champ de l’histoire de la médecine.
Medical History a donc privilégié la diffusion sur la publication. Les articles sitôt évalués, acceptés et publiés sont accessibles facilement et gratuitement pour l’ensemble de la communauté des chercheurs. Les droits d’auteurs, eux, sont soumis à la politique de copyright de PubMed Central, sous la juridiction du gouvernement américain ou des pays étrangers d’où sont issus les articles. Ainsi, le copyright d’un article dans Medical History est toujours celui de l’auteur de l’article, protégé par le droit national.
Le principal biais de cette configuration est que l’auteur, s’il est effectivement rassuré sur la conservation de ses droits, n’est pas en mesure de décider a priori de la manière dont peut être utilisé son article.
Par exemple, un utilisateur de l’article ne peut lui-même partager l’article sans demander d’abord l’autorisation à l’ayant droit. Qu’arrive-t-il à la mort de l’auteur ? C’est un véritable parcours du combattant que de retrouver alors les ayants droits de l’œuvre. Et, bien entendu, cette question ne touche pas seulement les publications scientifiques, mais toutes sortes de productions soumises au droit d’auteur. Si Medical History a pu changer sa politique éditoriale sans se soucier de ce problème pour les articles les plus anciens, c’est parce que les auteurs on procédé à une cession de droits à l’époque où ils ont écrit l’article. Du moins, je l’espère... Sinon, les ayants droit actuels peuvent retirer l’œuvre de la collection d’archive.
Sans être aussi pessimiste pour l’auteur, projetons-nous dans un futur proche et imaginons un instant qu’un riche mécène féru d’histoire de la médecine dispose des moyens techniques pour transformer l’ensemble de la collection de Medical History au format e-book, à destination des chercheurs souhaitant en disposer sur leurs liseuses électroniques, et même éventuellement en proposant de payer pour le service rendu. Pourquoi devrait-il attendre une quelconque autorisation des ayants droit ? Là encore on peut se demander à qui appartient la connaissance scientifique : n’est-elle pas destinée d’abord à être diffusée ?
En fait, il en va de l’intérêt commun que de spécifier dès le départ les conditions sous lesquelles l’œuvre peut être diffusée, partagée et même vendue, c’est en cela que les licences Creative Commons sont une amélioration du principe du droit d’auteur.
Un second exemple, le cas des publications du LHC, déjà mentionné dans l’introduction, nous montre un autre point de vue sur les limites de la notion de propriété. En effet, ce qui motive essentiellement un tel choix, c’est avant tout une forme d’injustice. Un texte est produit et validé par la communauté des chercheurs. Pourquoi l’éditeur, détenant les droits d’auteurs nécessaires, devrait-il le revendre au prix fort, sans que jamais (sauf pour de rares exceptions) les retombées économiques soient profitables à la communauté ? Au contraire, elle est amenée à payer pour accéder aux informations qu’elle a elle-même produites.
Je suis caricatural. Dans plusieurs cas de figure, bien entendu, l’éditeur fait un véritable travail éditorial, consistant à corriger le texte et le mettre en page…quoique les corrections proposées le sont en fait bien souvent par un relecteur appartenant à la communauté de chercheurs, et rarement payé pour le faire (seule sa renommée y gagne). Si bien que, dans le cas fort compréhensible où les lecteurs préféreraient une version papier de la revue, il serait normal d’en payer les frais d’impression et de tirage, c’est à dire un coût bien moindre que celui proposé pour des abonnements numériques, surtout lorsque les fournisseurs de services ne sont pas eux-mêmes les éditeurs, mais de simple revendeurs exerçant un monopole sur le stockage des informations.
Certes, ce ne sont pas les raisons principales du soutien actif du CERN en faveur des licences Creative Commons, mais ces arguments sont bel et bien présents et jouent un rôle décisif dans la volonté de choisir un système de diffusion plus juste.
Un troisième exemple me permet de montrer de quelle manière le choix des licences libres peut être assumé par une revue scientifique. Non Linear Processes in Geophysics, sous titrée An open access Journal of the European Geosciences Union a décidé de placer chaque article sous licence CC-BY (Creative Commons – Paternité), c’est-à-dire que vous pouvez :
-
reproduire, distribuer et communiquer cette création au public,
-
modifier cette création (dans notre contexte : l’auteur ou l’utilisateur peuvent améliorer l’article et en corriger éventuellement certains aspects après sa publication),
-
à condition de citer le nom de l’auteur original de la manière indiquée par l’auteur de l’œuvre ou le titulaire des droits qui vous confère cette autorisation (mais pas d’une manière qui suggèrerait qu’ils vous soutiennent ou approuvent votre utilisation de l’œuvre).
En d’autres termes, vous pourriez aussi vendre l’œuvre. Choquant ? Pas tant que cela. Je fais encore appel à vos capacités imaginatives. Imaginons qu’en l’honneur d’un chercheur décédé (décidément, mes exemples n’ont rien de réjouissant!), ses collègues désirent compiler toutes ses œuvres dans un volume publié et vendu à l’occasion du dixième anniversaire de sa mort. Et bien, dans le cas de la licence CC-BY, ils le pourraient sans avoir à demander d’autorisation spécifique.
Les licences Creative Commons favorisent la création là où le droit d’auteur sous sa forme classique a tendance à la freiner voire l’annihiler. Cependant, certains pourront soulever aux moins deux arguments à l’encontre de cet exemple.
Premier argument : le droit d’auteur (le copyright – je rappelle plus loin la différence entre les deux) est d’abord l’expression d’une propriété. Pourquoi la veuve de notre camarade ne pourrait-elle pas bénéficier des royalties générées par la vente de l’ouvrage dont nous venons de parler, ou même s’opposer à sa publication ? Il y a plusieurs réponses :
-
La première est que nous parlons de science10. Comme nous l’avons vu, nous devons avant tout favoriser la diffusion de l’information scientifique qui ne saurait être la propriété de qui que ce soit (la méthode de résolution d’une équation mathématique peut-elle être la propriété de quelqu’un ? C’est un vaste débat qui nous mène tout droit à la question de la brevetabilité et de la propriété intellectuelle, mais ce n’est pas notre propos ici).
-
Deuxièmement, rien n’empêche les diffuseurs et vendeurs de l’ouvrage de reverser des royalties à la veuve (même si elle n’est pas l’auteur et que ce n’est pas son travail, elle peut contractualiser, par exemple, la mise à disposition de manuscrits appartenant à l’auteur). De plus, elle peut elle-même diffuser et vendre à son tour.
-
Troisièmement, l’auteur lui-même aurait pu, de son vivant, utiliser une licence n’autorisant pas la vente de ses œuvres (dans le cas des Creative Commons, il s’agirait de la licence CC-By-NC).
Second argument : si tout le monde peut diffuser et modifier un article scientifique tiré de la revue Non Linear Processes in Geophysics, le risque serait grand de nuire à l’intégrité ou à la moralité de l’auteur, voire de distribuer des versions de l’article néfastes à l’avancement scientifique. Là encore, il y a plusieurs réponses :
-
les licences Creative Commons permettent à l’auteur de conserver quoi qu’il arrive ses droit moraux, notamment le droit de paternité et le droit au respect de l’intégrité de l’œuvre (c’est pourquoi les modifications sont toujours proposées à l’auteur et non imposées à l’oeuvre, au risque de contrevenir au droit d’intégrité).
-
L’obligation de citer l’auteur implique de citer aussi la source de l’article modifié. Étant donné que la communauté scientifique se reportera systématiquement à cette source (nous sommes toujours dans le cadre d’une revue clairement identifiée), la diffusion d’un article falsifié sera marginale.
-
La possibilité de modifier l’article s’adresse en premier lieu à l’auteur lui-même ! En cédant ses droits de diffusion, toute modification qu’il peut faire dans son article après une première publication est vouée au silence. En utilisant une licence Creative Commons, il peut non seulement modifier et améliorer son article, mais aussi le diffuser ; et la revue peut très bien intégrer un système de mises à jour. C’est là tout l’avantage de la diffusion numérique des articles scientifiques, et nous verrons plus loin comment le système d’impression à la demande peut aussi y trouver sa justification.
Droit d’auteur
Un obstacle a donc été identifié : c’est au nom des droits d’auteur que l’on centralise et handicape la diffusion des œuvres scientifiques. Il semblerait bien que la pratique de cession de droits d’auteur et l’emploi du copyright (même à titre de mise à disposition gratuite des travaux scientifiques) soient compris en premier lieu et exclusivement comme des moyens d’autoriser l’exploitation de la propriété de l’auteur. Dans tous les cas de figure, comme les droits d’auteur ne nécessitent aucune démarche particulière pour être automatiquement attribués à l’auteur, c’est dans ce cadre juridique que sont exploitées les œuvres scientifiques, mais la plupart du temps sans que soit proposé à l’auteur de déroger aux pratiques (injustes) en vigueur.
Qu’est-ce que le droit d’auteur ? Il s’agit des droits exclusifs dont dispose l’auteur sur ses œuvres de l’esprit originales. Ces droits sont de deux sortes :
-
le droit moral, qui protège la paternité de l’œuvre et au nom duquel l’intégrité de l’œuvre est garantie,
-
et le droit patrimonial qui donne a priori l’exclusivité de l’exploitation (économique) de l’œuvre à l’auteur et qui varie en durée selon les législations nationales.
Dans certains pays qui appliquent une législation jurisprudentielle, comme aux États-Unis, le droit d’auteur est nommé copyright. Généralement, le copyright accentue l’importance du droit de propriété par rapport au droit moral, ce qui explique l’apparente synonymie entre le droit d’auteur et la propriété intellectuelle. Cette dernière regroupe le droit d’auteur (œuvres de l’esprit), mais aussi la propriété industrielle (y compris les brevets et les marques).
Un chercheur de la Stanford Law School, Mark Lemley décrit bien cela dans un article de 200511. En faisant une étude sur le nombre d’occurrences trouvées dans les textes de lois américains, Lemley démontre que l’expression de propriété intellectuelle a peu à peu remplacé les expressions de droit d’auteur et droit des brevets. Pour lui, cette distorsion tient à deux choses : la première est la création en 1967 de l’Organisation mondiale de la propriété intellectuelle (OMPI) qui représente en une seule institution les intérêts des ayants droit dans les trois domaines du droit d’auteur, des brevets et des marques déposées. La seconde raison, c’est que parler de propriété intellectuelle permet d’unifier deux domaines disciplinaires traitant des droits exclusifs à l’information immatérielle. En d’autres termes, si le droit des brevets vise à encourager la publication d’idées et à imposer une limitation de monopole sur ces idées, le droit d’auteur peut suivre la même voie et imposer la restriction de l’information au nom de la défense de la paternité de l’œuvre ou de son intégrité. Autrement dit, le droit d’auteur peut être amené à servir d’autres intérêts que ceux pour lesquels il a été créé : freiner, voire empêcher la diffusion des idées reconnues d’abord comme propriété exclusive.
C’est dans ce cas de figure que les licences libres s’opposent à l’idée de propriété intellectuelle , notamment dans le cas des logiciels libres. Concernant ces derniers, les licences libres proposent de défendre le droit d’auteur pour les logiciels envisagés comme des productions de l’esprit, mais en encadrant la diffusion et l’utilisation d’un logiciel libre de trois manières :
-
positive (vous avez le droit de diffuser et modifier tant que vous respectez la paternité de l’oeuvre),
-
durable (il faut garder la même licence dans toutes les versions modifiées),
-
et profitable (tout le monde peut utiliser le code et produire à son tour du logiciel libre).
Tout cela s’oppose bien sûr à la logique des brevets, mais permet aussi d’encourager la créativité tout en proposant un modèle économique plus juste. Dans son livre Internet et Création12, Philippe Aigrain s’inspire du modèle du libre dans l’économie de l’immatériel et démontre l’intérêt d’une licence globale pour favoriser le partage des œuvres, du moins sous format numérique.
Pour revenir à la question des droits d’auteur dans le contexte de la diffusion de travaux scientifiques, il s’avère que la notion de propriété est devenue la seule référence dans le cadre de leur exploitation, numérique ou non. Deux solutions sont alors envisagées :
-
l’auteur garde la propriété exclusive et se débrouille pour diffuser lui-même ses travaux. Une revue peut cependant l’y aider dans le cadre d’un projet d’archives ouvertes, ou en publiant les articles sous licence libre, tout en offrant un service d’évaluation par les pairs ;
-
soit c’est la revue qui possède les droits de reproduction et d’exploitation, par cession (exclusive ou non) de la part de l’auteur. Même si l’auteur ne profite pas des éventuelles royalties générées par l’exploitation de son œuvre, il n’est pas pour autant lésé, dans la mesure où son œuvre sera bel et bien publiée à destination de la communauté. C’est cette dernière qui se trouve lésée, nous l’avons vu, par les différents aspects de la centralisation et de la restriction de diffusion des informations (même à titre gratuit).
Il faut en conclure que les droits d’auteur sont ici considérés comme un instrument au service de la diffusion des œuvres scientifiques. Puisqu’il s’agit d’instruments encadrant les droits patrimoniaux et moraux, il appartient à l’auteur de choisir la manière dont son œuvre sera exploitée et diffusée. Soit il s’en remet à un tiers, soit il s’en remet à la communauté. Pourquoi ne pas directement autoriser la communauté à exploiter et diffuser l’œuvre en fixant par avance les conditions au nom, justement, du droit d’auteur ? Après tout, même les éditeurs de revues font partie de la communauté et pourraient profiter eux aussi des autorisations d’exploitation…mais pas de manière exclusive.
Universalisme et liberté
Parmi les solutions envisagées pour favoriser la diffusion et la créativité dans le cadre du partage des biens intellectuels ou artistiques, la plus radicale semble être la plus simple : supprimer le droit d’auteur…ou plutôt supprimer le copyright, ce dernier étant envisagé essentiellement sous son aspect de droit patrimonial. C’est l’idée explorée par Joost Smiers et Marieke van Schijndel dans Imagine there is no copyright and no cultural conglomerate too13. Ce livre propose un nouveau modèle économique où le copyright n’a plus de raison d’être. Dans leurs études de cas, qui concernent la littérature, la musique, le cinéma et les arts graphiques, la notion de droit d’auteur est envisagée uniquement sous l’angle du droit moral. Cela implique de nouvelles formes d’organisation des marchés dans lesquelles tout serait fait pour que chaque acteur soit gagnant. La principale caractéristique en est que toute forme de monopole doit être proscrite en raison même de la centralisation des coûts et donc de la privatisation des œuvres.
Il s’agit bien sûr d’une utopie. Mais l’un de ses intérêts est d’adresser quatre objections au système de licences Creative Commons :
-
Les Creative Commons ne forment pas un système économique capable de garantir les revenus de tous les auteurs-créateurs.
-
Elles ne remettent pas en cause le droit d’auteur, mais créent de la propriété qui devient libre .
-
Rien n’oblige les conglomérats culturels à y participer.
-
La propriété reste le pivot des licences libres, or la propriété n’est pas une condition nécessaire à l’appréciation et à la réception d’une œuvre par le public.
Il serait fastidieux ici d’exposer tous les avantages des licences Creative Commons. Pour cela, j’invite le lecteur à parcourir Culture Libre14, écrit par leur initiateur Lawrence Lessig, professeur de droit à Stanford, ainsi que la page Wikipédia qui leur est consacrée. Pour l’essentiel, elles sont le résultat d’un véritable tour de force consistant à adapter une certaine compréhension du droit d’auteur au modèle économique dominant, dans lequel nous vivons. Loin d’être une utopie, les même préoccupations à l’encontre des monopoles se retrouvent mais dans le cadre du libre choix et de la responsabilité individuelle pour faire vivre les biens communs intellectuels et artistiques.
Un autre aspect des licences Creative Commons est leur universalisme. Bien sûr, il faut à chaque fois adapter les termes de la licence aux caractéristiques juridiques du pays concerné en matière de droit d’auteur. Cependant, cela a pour effet de proposer un modèle commun censé s’appliquer en tout lieu.
Je prends l’exemple du projet DASH à Harvard, cité par M. P. Rutter et J. Sellman dans leur article Uncovering Open Access (cf. introduction). DASH est l’acronyme de Digital Access to Scholarship at Harvard. Ce système a été adopté par l’université d’Harvard afin de mettre à disposition au public, au titre d’archives documentaires gratuites, l’ensemble des articles écrits par les membres de la faculté. La formulation du projet fut la suivante : chaque membre d’une faculté accorde au président et ses collaborateurs de l’université d’Harvard la permission de rendre disponibles ses articles universitaires et d’exercer le droit d’auteur pour ces articles . Cela implique que tout travail universitaire à Harvard est par défaut gratuitement disponible pour tous. C’est un excellent exemple du principe de priorité de la diffusion, et sur le fond, peu de critiques peuvent être adressées, sauf les suivantes.
En premier lieu, cette disposition concerne exclusivement l’université d’Harvard. Un article publié dans une autre université ne peut être livré dans le dépôt central DASH. Les termes d’utilisation sont plutôt flous quant à l’éventualité d’une diffusion par un tiers (par exemple dans le cas où plusieurs scientifiques d’Harvard et d’ailleurs écrivent un article, déposé dans le DASH, mais qu’un des auteurs décide de le diffuser à son tour dans son pays ou dans son université d’origine). Qu’arrive-t-il si un jour le projet DASH cesse ses activités ? Il faudra apporter des modifications substantielles aux conditions d’utilisation (Harvard Open Access Policy15) pour qu’une autre université reprenne la gestion du dépôt. Mais que se passerait-il en cas d’arrêt total ?
En somme, là encore, il subsiste des contraintes qui seraient rapidement levées avec l’adoption des licences Creative Commons. En effet, ce serait aux auteurs, et non à l’université et ses représentants, de définir quels sont les usages qui peuvent être faits de leurs articles. Il est possible de rendre systématique le dépôt des travaux sur un serveur, mais dans ce cas, il n’y a pas de relation nécessaire entre le lieu du dépôt et la diffusion de l’œuvre. Le système DASH reste prisonnier alors que les licences Creative Commons permettent une diffusion décentralisée des œuvres tout en conservant leurs droits et sans préférence pour leur provenance.
La Déclaration de Berlin
Enfin, puisqu’il vient d’être question des systèmes d’archives ouvertes, deux choses sont regrettables. La première est la multiplication des dépôts. Les universités ou autres institutions qui ont décidé d’installer à leurs frais de tels dépôts ont répondu à un besoin croissant de la part des chercheurs à pouvoir disposer de leur mémoire documentaire. Elles ont aussi répondu à l’augmentation croissante des coûts d’abonnements aux revues dont nous avons vu le caractère monopolistique. En revanche, chacun de ces dépôts possède une politique de diffusion propre, avec des conditions d’utilisation particulières. L'Open Archive Initiative tend à harmoniser cet ensemble, mais là encore l’utilisation des licences libres, à caractère universel, permettrait d’éviter cette tâche fastidieuse.
Le second regret concerne la traduction de open en libre , du moins dans les exemples francophones de dépôts d’archives. Si les archives sont déclarées ouvertes, c’est parce que de tels système s’inspirent du modèle de développement des logiciels open source. Or, dans ce contexte, libre et gratuit ne signifient pas la même chose16. Nous avons vu que les licences libres sont dites libres parce qu’elle garantissent la liberté de l’auteur de disposer de ses droits, ainsi que celle de l’utilisateur dans le cadre du contrat passé avec l’auteur qui définit les conditions de cette liberté d’utilisation. Les archives ouvertes ne sont donc pas un accès libre aux ressources , comme on peut parfois le lire ici et là : rien n’indique dans ces archives le caractère libre des documents mis gratuitement à disposition des utilisateurs. La preuve en est que dans la plupart des cas, la mise à disposition d’articles publiés dans ces archives ouvertes est soumise à autorisation préalable de la part des revues au regard de leurs politiques éditoriales. Tel est le prix.
Pourtant, un texte célèbre fut quelque peu oublié par le mouvement des archives ouvertes, et aurait permis d’éviter ce flou conceptuel entre libre et ouvert. Suite à un congrès organisé par la Société Max Planck pour le Développement des Sciences en 2003 à Berlin, un appel fut rédigé : la Déclaration de Berlin sur le libre accès à la connaissance en sciences exactes, sciences de la vie, sciences humaines et sociales17. Cet appel a reçu à ce jour presque 300 adhésions de la part de différentes institutions académiques. Dans ce texte, qui encourage les enseignants-chercheurs et toutes les institutions à favoriser la mise à disposition des publications scientifiques en libre accès, la première18 condition propose une définition claire d’un texte en libre accès :
Pour rappel, les premières versions des licences Creative Commons ont été publiées en 2002 et on ne peut s’empêcher de corréler la définition d’un texte en libre accès par la Déclaration de Berlin et la définition d’une œuvre libre par les Creative Commons. La première fait explicitement référence à la seconde, sans toutefois la mentionner. Certes, le mouvement des Creative Commons était encore jeune à cette époque, mais il n’en demeure pas moins que le texte de la Déclaration de Berlin, s’inscrivant dans le mouvement des Archives Ouvertes, marque une distance que j’ai déjà mentionné précédemment et que j’approuve pleinement : une publication scientifique doit être libre et pas seulement ouverte.
En qualifiant une œuvre d’ouverte, on ne peut signifier que deux choses : qu’elle peut être en accès gratuit (c’est le cas la plupart du temps) et que l’on s’est arrangé avec les politiques éditoriales. On peut alors se demander pourquoi des auteurs placent eux-mêmes leurs textes en archives ouvertes lorsqu’ils n’ont pas (ou pas encore) été publiés : c’est une manière de donner sans donner, de verser dans le bien commun en gardant la possibilité de retirer à tout moment sous la pression d’une revue. Les licences Creative Commons, elles, permettent à l’auteur de se réserver le droit de changer d’avis mais la version de l’œuvre libérée auparavant reste libre à jamais (les personnes disposant de cette œuvre sous licence libre peuvent continuer à en faire usage sous les conditions dans lesquelles ils l’ont reçue initialement).
Si la Déclaration de Berlin n’est guère citée, c’est parce que les initiatives d’archives ouvertes disposent d’une meilleure visibilité dans les lieux fréquentés par les chercheurs et rassurent les revues en proposant une politique d’archivage sous autorisation. Il nous faut au contraire défendre une certaine éthique de la recherche et laisser le soin aux archives ouvertes de publier les œuvres non libres, c’est-à-dire organiser une forme de récupération (mais ô combien importante) en échange d’un peu de liberté. Même si rien n’empêche un auteur de déposer un travail sous licence libre dans un dépôt d’archives ouvertes, le mélange des genres est selon moi peu recommandé, à moins d’ouvrir des sections spécifiques aux licences libres.
Aspects pratiques
Pour terminer ce texte, j’aimerais aborder quelques aspects pratiques, même si les exemples cités plus haut sont assez clairs. La question des livres et de l’évaluation de la qualité des documents doivent néanmoins faire l’objet de quelques précisions. J’aborderai en dernier lieu, mais sans chercher à être exhaustif, la forme des échanges scientifiques, une question qui mériterait d’être beaucoup plus approfondie.
Et les livres ?
Nous n’avons parlé jusqu’à présent que des articles scientifiques mais les mêmes réflexions s’adaptent parfaitement à tous les domaines de l’édition scientifique. En réalité, nous pouvons considérer que revues, monographies, rapports et ouvrages collectifs peuvent tous utiliser les licences Creative Commons.
Il est très courant, dans le cadre d’un projet de recherche subventionné par une instance publique, que le groupe de chercheurs utilise une partie des fonds pour publier un ouvrage collectif de référence. Dans ce cas de figure, il s’adresse souvent à une maison d’édition qui non seulement s’engage à mettre le livre ou la revue à disposition dans son catalogue, mais demande aussi une certaine somme d’argent pour faire imprimer un minimum d’exemplaires et éventuellement (parfois ce n’est même pas le cas) effectuer un travail éditorial et de mise en page. Il est anormal que des fonds dédiés à la recherche soient utilisés pour publier à perte un nombre conséquent d’ouvrages destinés à prendre la poussière dans un placard.
La mise à disposition et la diffusion de tous types d’ouvrage sous forme numérique permettrait de couvrir un large public (souvent il est difficile de se procurer un livre d’une petite maison d’édition depuis un pays étranger). Si le livre au format papier est estimé nécessaire ou répond à un besoin de la part des utilisateurs (car il est souvent plus agréable de lire sous ce format), les systèmes d’impression à la demande existent, et fonctionnent avec des machines de reproduction numérique. Les cas de I-kiosque et de In Libro Veritas, par exemple, méritent d’être mentionnés. Il est curieux que le monde scientifique n’utilise pas davantage de telles solutions impliquant des coûts bien moindres.
Et l’évaluation ?
Si tout le monde peut publier n’importe quoi, il n’y a plus de crédibilité . Cette affirmation est vraie, bien entendu. Mais j’ai passé du temps à démontrer que l’essentiel de la publication scientifique, de l’évaluation à la diffusion, est assuré en majeure partie par la communauté des chercheurs. Qui évalue les projets d’ouvrage au profit des maisons d’édition, si ce ne sont des pairs que l’on charge, pour l’occasion, de la responsabilité d’une collection ?
Revues et collections d’ouvrages peuvent fonctionner sur le même mode : une sélection d’articles ou d’ouvrages, parmi les plus pertinents pour les thèmes choisis, et leur agrégation dans un ensemble cohérent. Pourquoi cela devrait-il se faire obligatoirement sous l’égide d’une maison d’édition et de son nom ? Surtout si les efforts de mise en page et de corrections sont externalisés chez les auteurs. En fait, ce qu’apportent aujourd’hui les maisons d’édition classiques aux publications scientifiques se réduit bien souvent à un nom (une marque) et un catalogue de diffusion…en échange d’un contenu sérieux et vendable. Si l’auteur souhaite toucher des royalties, il peut très bien le faire dans le cadre de l’impression à la demande et si la licence Creative Commons choisie autorise la diffusion commerciale19.
La communauté scientifique dispose aujourd’hui des moyens nécessaires et suffisants pour gérer ses propres revues ou collections. En fonction de leur importance, des moyens humains peuvent être mis à disposition par les universités, par exemple, tout en vendant des exemplaires papier publiés à la demande. Cela représente certes un coût qui doit être internalisé par les instances académiques, mais il sera bien moindre que le coût engendré par les multiples abonnements. Il se trouve que, déjà, une grande partie de des coûts de production revient aux institutions (en temps de travail de la part des scientifiques, ou en subventionnant indirectement des publications, ou encore en hébergeant des maisons d’édition comme les Presses Universitaires de…).
Et les serveurs ?
Permettez-moi ici de revenir sur nombre de dépôts d’archives ouvertes : il serait bien plus efficace de les transformer en autant de nœuds accueillant indifféremment n’importe quel article, quelle que soit sa provenance, et placé sous licence Creative Commons. Par conséquent il y a plusieurs avantages à favoriser ainsi la décentralisation de la distribution des œuvres :
-
la diffusion de pair à pair est possible,
-
la redondance (un même article sur plusieurs serveurs) permet d’optimiser la disponibilité de l’article,
-
l’accès est moins soumis aux contraintes techniques et – parfois – idéologiques inhérentes aux réseaux et la couverture mondiale serait mieux assurée (certains pays soumis, par exemple, à une dictature, peuvent restreindre les accès à des serveurs d’autres pays plus démocratiques : la possibilité de copier et diffuser à l’intérieur de ces pays des œuvres libres est un pas de plus vers la démocratie).
Et les formats ?
Aujourd’hui, la plupart des articles diffusés sous forme numérique sont accessibles en HTML et PDF. Les conglomérats du marché n’ont généralement pas rendu totalement privateurs les formats sous lesquels les articles peuvent être disponibles au téléchargement payant. Il importe d’être attentif à d’éventuelles transformations dans ce domaine. Le format HTML est de loin le meilleur rendu adapté à la fois à la lecture et à la diffusion. Aujourd’hui, dans la mesure où tous les articles scientifiques sont produits sous format numérique par leurs auteurs, rien n’empêche la mise en ligne sous ce format. L’utilisation du format PDF, s’il permet un confort différent, peut aussi être soumis à l’emploi de DRMs et autres verrous numériques visant à empêcher la diffusion ultérieure ou permettant la lecture pour un temps donné sous réserve de paiement. La recherche du profit dans le cadre de l’exercice d’un monopole peut prendre des formes variées auxquelles la communauté scientifique se doit de rester attentive. Voyez la page Wikipédia consacrée aux formats libres garantissant l’interopérabilité.
-
Le Conseil Européen pour la Recherche Nucléaire fut créé en 1952 et a changé de nom deux ans plus tard. L’acronyme fut toutefois conservé. ↩︎
-
Pour une traduction française, voir le billet du Framablog (11 décembre 2010). ↩︎
-
Nous empruntons cette expression à Benjamin Bayart, dans cette célèbre conférence intitulée Internet libre ou minitel 2.0 ? (juillet 2007). ↩︎
-
On peut se reporter à la thèse de Nathalie Pignard-Cheynel, La communication des sciences sur Internet. Stratégies et pratiques, Université Stendhal Grenoble 3, 2004 (lien), en grande partie consacrée au système Arxiv. ↩︎
-
Voir le rapport biennal de l'Observatoire des Sciences et des Techniques qui a analysé la part de production scientifique de la France de 1993 à 2006. En 1993, la France a contribué à la publication de 31618 articles, contre 39068 en 2006, ce qui représente respectivement 5,2% et 4,4% en parts de publications mondiale. Il faut prendre en compte deux éléments importants dans cette analyse : premièrement il s’agit de contributions, car un article scientifique peut avoir été écrit de manière collaborative entre plusieurs chercheurs de pays différents. D’un autre côté, l’OST ne traite que des parts de publication pour 7 champs disciplinaires : mathématiques, biologie, chimie, physique, sciences de l’univers, recherche médicale, sciences pour l’ingénieur. Il est impossible d’évaluer le nombre de publications scientifique au niveau mondial, car toutes les revues ne seraient jamais recensées. Il faudrait de même faire un travail d’analyse toutes disciplines confondues. En revanche si on considère que la France a maintenu un niveau supérieur à 4% compte tenu de la montée des puissances comme la Chine et l’Inde, on peut en conclure que le rythme de publications français n’a cessé de croître ces dernières années, et que ce n’est pas le seul pays dans ce cas. ↩︎
-
On peut consulter la réponse à la question Combien coûte un abonnement électronique sur le portail documentaire de l’UPMC. ↩︎
-
La plupart du temps, il est vrai, après la publication. Mais il n’est guère aimable (ni stratégique du point de vue de la renommée personnelle) de refuser à un cher collègue la communication d’un article dont on est l’auteur, et de le prier d’aller débourser quelques euros en commandant le numéro de la revue en question (surtout si cette revue ne profite pas du support des Elsevier et Springer, auquel cas, la commande peut souvent devenir un parcours long et pénible). ↩︎
-
UK PubMed Central est un site miroir de PMC. ↩︎
-
Ou d’art, en général. C’est la question des biens communs qui est soulevée ici. En publiant un article sous licence Creative Commons, on verse les connaissances dans le bien commun, c’est un acte altruiste qui peut toutefois être conditionné : possibilité de commercer ce bien, possibilité de l’améliorer ou le modifier (sans que cela nuise à l’auteur ou à l’œuvre elle-même. ↩︎
-
Mark A. Lemley, Property, Intellectual Property, and Free Riding , Texas Law Review, 83, pp. 1031, 2005. ↩︎
-
Philippe Aigrain, Internet et Création, Paris : In Libro Veritas, 2008. ↩︎
-
Joost Smiers et Marieke van Schijndel, Imagine there is no copyright and no cultural conglomerate too, Amsterdam : Institute of Network Cultures, 2009. Accès libre. ↩︎
-
Lawrence Lessig, Free Culture, How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity, New York: The Penguin Press, 2004 (http://www.free-culture.cc). Placé sous licence libre, ce livre a été traduit en plusieurs langues, y compris en français. ↩︎
-
Le guide destiné aux auteurs se trouve sur le site du service de documentation. On peut aussi consulter cet article du Harvard Magazine (mai-juin 2008) ↩︎
-
le mouvement du logiciel libre, initié par Richard M. Stallman propose une éthique là où le mouvement open source propose un principe d’efficacité. Si, pour des logiciels, la question peut-être discutée, je ne pense pas qu’elle puisse l’être concernant les connaissances sicentifiques. Pour comprendre la différence, je vous invite à lire : Richard Stallman, Christophe Masutti, Sam Williams, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, Paris: Eyrolles (Framasoft - Framabook), 2010. ↩︎
-
Le texte en français peut être téléchargé à cette adresse : http://oa.mpg.de/… (ainsi que la liste des signataires). ↩︎
-
La seconde concerne le format et l’accessibilité de l’œuvre. ↩︎
-
Pour un modèle de collection de livres (non académiques) sous licences libre, avec partage de royalties entre auteurs et éditeur, voyez Framabook.org. ↩︎
21.10.2010 à 02:00
Richard Stallman et la révolution du logiciel libre
Né en 1953, Richard Stallman est un programmeur américain hors pair considéré comme le « père » du logiciel libre.
Son héritage est unanimement reconnu et son influence toujours plus grande sur nos sociétés actuelles de l’information et de la communication. Ses conférences en français débutent invariablement ainsi : « Je puis résumer le logiciel libre en trois mots : liberté, égalité, fraternité… ».
Cette biographie éclaire sans complaisance la vie de ce personnage autant décrié qu’encensé qui a révolutionné l’histoire du logiciel en particulier en initiant le projet GNU. À travers cet ouvrage, nous pouvons mieux connaître le parcours et les combats de cet homme hors du commun.
Williams, Sam, Masutti, Christophe et Stallman, Richard. Richard Stallman et la révolution du logiciel libre. Une biographie autorisée. Eyrolles / Framasoft, 2010.
Lien vers le site de l’éditeur : https://framabook.org/richard-stallman-et-la-revolution-du-logiciel-libre-2/
31.03.2010 à 02:00
Le Web collaboratif
LeWeb 2.0 – ou Web collaboratif – est aujourd’hui présenté comme une évolution culturelle majeure, voire même comme le fondement d’une nouvelle ère politique et sociétale. Dans les versions les plus optimistes, on assisterait à l’émergence d’une nouvelle culture participative, basée sur les interactions libres entre « usagers générateurs de contenus » sur le réseau Internet, et à l’effacement du rôle central occupé jusqu’à présent par les industries de la culture et de la communication.
Face à ces représentations dominantes, l’ouvrage propose une analyse critique du phénomène, à la fois sur le plan socio-économique et en termes de production idéologique. Il interroge tout d’abord la notion même deWeb 2.0 et les questions qu’il pose aux catégories d’analyse des industries de la culture et de la communication. Les auteurs illustrent comment les discours et les dispositifs propres au Web collaboratif s’inscrivent dans le cadre de profondes transformations des rapports entre médias, économie et politique. Cette approche permet de mieux comprendre la place spécifique du Web collaboratif au sein des mutations du capitalisme, dans les industries de la culture et de la communication.
Bouquillion, Philippe, et Jacob Thomas Matthews. Le Web collaboratif: mutations des industries de la culture et de la communication. Presses universitaires de Grenoble, 2010.
Lien vers le site de l’éditeur : https://www.pug.fr/produit/756/9782706115936/le-web-collaboratif
31.03.2009 à 02:00
Propaganda
LE manuel classique de l’industrie des relations publiques » selon Noam Chomsky. Véritable petit guide pratique écrit en 1928 par le neveu américain de Sigmund Freud, ce livre expose cyniquement et sans détour les grands principes de la manipulation mentale de masse ou de ce que Bernays appelait la « fabrique du consentement ». Comment imposer une nouvelle marque de lessive ? Comment faire élire un président ? Dans la logique des « démocraties de marché », ces questions se confondent. Bernays assume pleinement ce constat : les choix des masses étant déterminants, ceux qui parviendront à les influencer détiendront réellement le pouvoir. La démocratie moderne implique une nouvelle forme de gouvernement, invisible : la propagande. Loin d’en faire la critique, l’auteur se propose d’en perfectionner et d’en systématiser les techniques, à partir des acquis de la psychanalyse. Un document édifiant où l’on apprend que la propagande politique au XXe siècle n’est pas née dans les régimes totalitaires, mais au cœur même de la démocratie libérale américaine.
Bernays, E. L., & Baillargeon, N. (2009). Propaganda : Comment manipuler l’opinion en démocratie (O. Bonis, Trad.). Lux.
Lien vers le site de l’éditeur: https://www.editions-zones.fr/lyber?propaganda
21.04.2008 à 02:00
Two bits
In Two Bits, Christopher M. Kelty investigates the history and cultural significance of Free Software, revealing the people and practices that have transformed not only software, but also music, film, science, and education.
Free Software is a set of practices devoted to the collaborative creation of software source code that is made openly and freely available through an unconventional use of copyright law. Kelty shows how these specific practices have reoriented the relations of power around the creation, dissemination, and authorization of all kinds of knowledge after the arrival of the Internet. Two Bits also makes an important contribution to discussions of public spheres and social imaginaries by demonstrating how Free Software is a “recursive public” public organized around the ability to build, modify, and maintain the very infrastructure that gives it life in the first place.
Drawing on ethnographic research that took him from an Internet healthcare start-up company in Boston to media labs in Berlin to young entrepreneurs in Bangalore, Kelty describes the technologies and the moral vision that binds together hackers, geeks, lawyers, and other Free Software advocates. In each case, he shows how their practices and way of life include not only the sharing of software source code but also ways of conceptualizing openness, writing copyright licenses, coordinating collaboration, and proselytizing for the movement. By exploring in detail how these practices came together as the Free Software movement from the 1970s to the 1990s, Kelty also shows how it is possible to understand the new movements that are emerging out of Free Software: projects such as Creative Commons, a nonprofit organization that creates copyright licenses, and Connexions, a project to create an online scholarly textbook commons.
Kelty, Christopher. Two bits. The cultural significance of free software. Duke University Press, 2008.
Lien vers le site de l’éditeur : https://twobits.net/
01.02.2005 à 01:00
L’avenir des idées
L’hostilité de Lawrence Lessig à l’égard des dérives monopolistiques et des excès de la réglementation, notamment celle du droit d’auteur, ne se fonde pas sur des présupposés idéologiques, mais sur une analyse précise, illustrée par de nombreuses études de cas, des conséquences catastrophiques pour l’innovation et la créativité que ne manqueront pas d’avoir les évolutions récentes de l’architecture d’Internet. De plus en plus fermée, propriétarisée et centralisée, celle-ci est en train de stériliser la prodigieuse inventivité à laquelle l’Internet a pu donner lieu à ses débuts. Historien scrupuleux des trente années de développement de ce moyen de communication interactif, d’échange de connaissances, de création de richesses intellectuelles sans précédent, Lawrence Lessig pose le problème en juriste, mais aussi en philosophe et en politique. C’est une certaine idée du partage des savoirs et de la création artistique qui est en jeu dans les tendances actuelles qui dénaturent les principes démocratiques de l’Internet originel. Cette étude parfaitement documentée est aussi un pressant cri d’alarme.
Lessig, Lawrence. L’avenir des idées: le sort des biens communs à l’heure des réseaux numériques, Presses universitaires de Lyon, 2005.
Lien vers le site de l’éditeur : http://presses.univ-lyon2.fr/produit.php?id_produit=731
01.02.2004 à 01:00
Culture libre
Dans la préface de Culture Libre, Lessig compare ce livre avec un de ses précédents, Code et autres lois du cyberespace, qui avançait alors l’idée que le logiciel fait effet de loi. Le message de Culture Libre est différent car « son sujet n’est pas Internet en soi. Le sujet en est plutôt ses effets sur l’une de nos traditions, ce qui est bien plus fondamental et plus difficile à comprendre, que ce soit pour les passionnés d’informatique et de technologies que pour les autres, car bien plus importants. »
Lawrence Lessig analyse la tension qui existe entre les concepts de piratage et de propriété intellectuelle, dans ce contexte qu’il appelle « le système législatif désespérément corrompu », et qui évolue dans chaque pays grâce à des entreprises plus intéressées par l’accumulation d’un capital que par le libre échange des idées.
Le livre rend aussi compte du procès qui opposa Éric Eldred (éditeur de livre appartenant au domaine public) à John Ashcroft, qui allongea la durée du copyright de certaines œuvres de 20 ans, et la tentative de Lessig de développer à ce moment-là une loi Eldred, aussi connue sous le nom de Loi d’amélioration du domaine public (Public Domain Enhancement Act ou Copyright Deregulation Act).
Lessig conclut son livre en écrivant que maintenant que notre société évolue en une société de l’information, il faut décider si la nature de celle-ci doit être libre ou féodale. Dans la postface, il suggère que le pionnier du logiciel libre Richard Stallman et le modèle de la Free Software Foundation de créer des contenus disponibles ne sont pas dirigés contre le capitalisme (qui permet à des entreprises comme LexisNexis de faire payer les utilisateurs pour des contenus étant principalement dans le domaine public), mais qu’il faut proposer des licences telles que celles créées par son organisation Creative Commons.
Il argumente également en faveur de la création d’une période plus courte pour le renouvellement du copyright et une limitation de ses dérives, telles que le fait de stopper, pour un éditeur, la publication de l’ouvrage d’un auteur sur Internet pour un but non commercial, ou de créer un régime de licence obligatoire pour assurer aux créateurs d’obtenir des royalties sur leurs œuvres directement en fonction de leurs usages.
(Source : Wikipédia)
Lessig, Lawrence. Culture libre. Comment les médias utilisent la technologie et la loi pour vérouiller la culture et contrôler la créativité. Freeculture.cc, 2004.
Lien vers le site de l’éditeur : http://www.free-culture.cc/
Téléchargement : https://www.ebooksgratuits.com/details.php?book=2198
31.03.2002 à 01:00
Confessions d’un voleur
L’essor des intelligences artificielles réactualise une prophétie lancinante : avec le remplacement des êtres humains par les machines, le travail serait appelé à disparaître. Si certains s’en alarment, d’autres voient dans la « disruption numérique » une promesse d’émancipation fondée sur la participation, l’ouverture et le partage. Les coulisses de ce théâtre de marionnettes (sans fils) donnent cependant à voir un tout autre spectacle. Celui des usagers qui alimentent gratuitement les réseaux sociaux de données personnelles et de contenus créatifs monnayés par les géants du Web. Celui des prestataires des start-ups de l’économie collaborative, dont le quotidien connecté consiste moins à conduire des véhicules ou à assister des personnes qu’à produire des flux d’informations sur leur smartphone. Celui des microtravailleurs rivés à leurs écrans qui, à domicile ou depuis des « fermes à clics », propulsent la viralité des marques, filtrent les images pornographiques et violentes ou saisissent à la chaîne des fragments de textes pour faire fonctionner des logiciels de traduction automatique. En dissipant l’illusion de l’automation intelligente, Antonio Casilli fait apparaître la réalité du digital labor : l’exploitation des petites mains de l’intelligence « artificielle », ces myriades de tâcherons du clic soumis au management algorithmique de plateformes en passe de reconfigurer et de précariser le travail humain.
Chemla, Laurent. Confessions d’un voleur. Internet : la liberté confisquée. Denoël impacts, 2002.
Lien vers le site : http://www.confessions-voleur.net
21.05.2001 à 02:00
Il était une fois Linux
Il y a aujourd’hui dix ans, un étudiant finlandais nommé Linus Torvalds s’enfermait plusieurs mois, dans sa chambre, rideaux tirés, pour un long tête-à-tête avec son ordinateur. Le résultat : un nouveau système d’exploitation. Qu’allait-il en faire ? Le garder pour son usage personnel ? Le vendre à une société de logiciels? Rien de tout cela. Linus décide de rendre le fruit de son travail librement accessible sur Internet en invitant toute personne intéressée à l’améliorer. L’UNIX libre de Linus, baptisé Linux, était né et avec lui, une nouvelle manière de concevoir les logiciels qui allait bouleverser le monde de l’informatique.
La suite des événements fera date dans l’histoire. Linus Torvalds est devenu la figure emblématique du monde du logiciel libre. Son puissant système d’exploitation est aujourd’hui un acteur de tout premier plan de l’industrie informatique. La méthode de conception utilisée, nourrie de passion volontaire, fait de Linux le plus vaste projet de création collective qui ait jamais existé.
Pour la première fois, Linus Torvalds raconte, dans ce livre, son étonnant parcours : sa fascination, tout enfant, pour la calculatrice de son grand-père, professeur de statistiques à l’Université d’Helsinki, sa première rencontre en 1981 avec un ordinateur, un Commodore VIC-20 et bien sûr les circonstances de la création du noyau Linux, le composant essentiel du système GNU.
Torvalds, Linus, et David Diamond. Il était une fois Linux. L’extraordinaire Histoire d’une révolution accidentelle. Eyrolles Multimédia, 2001.
Lien vers le site de l’éditeur : https://www.eyrolles.com/Informatique/Livre/il-etait-une-fois-linux-9782746403215/
20.04.2001 à 02:00
L’éthique hacker et l’esprit de l’ère de l’information
Himanen présente les termes de l’éthique hacker selon trois pôles, en l’opposant à l’éthique protestante caractéristique du capitalisme : l’éthique du travail, l’éthique de l’argent, et la néthique ou éthique du réseau. Dans l’éthique protestante du travail, il s’agit de vivre pour travailler. Le moteur principal de la mise au travail des hackers du logiciel libre consiste dans le plaisir, dans le jeu, dans l’engagement dans une passion. Pour Linus Torvalds « Linux a largement été un hobby (mais un sérieux, le meilleur de tous). »
Le deuxième plan qui caractérise l’éthique hacker porte sur l’argent. Le mobile de l’activité du hacker n’est pas l’argent. Un des fondements même du mouvement du logiciel libre, initié par les hackers, consiste précisément à rendre impossible l’appropriabilité privée de la production logicielle et donc la perspective d’en tirer profit. Là encore, on trouve comme mobiles qui président à l’engagement dans le travail coopératif volontaire la passion, la créativité, et la socialisation.
Un point particulier mentionné par Himanen, qui porte sur l’organisation et la coordination du travail chez les hackers, les hackers parviennent à s’affranchir du recours à l’autorité hiérarchique pour coordonner leurs activités, en lui substituant comme modalité principale la coopération directe.
L’éthique hacker selon Himanen, est « une nouvelle éthique du travail qui s’oppose à l’éthique protestante du travail telle que l’a définie Max Weber. » Elle constitue une innovation sociale susceptible d’avoir une portée qui dépasse largement les limites de l’activité informatique.
(Source : Wikipedia)
Himanen, Pekka. L’éthique Hacker et l’esprit de l’ère de l’information. Exils, 2001.
Lien vers le site de l’éditeur : http://www.editions-exils.fr/exils/l-ethique-hacker-et-l-esprit-de-l-ere-de-l-information
01.02.1994 à 01:00
The electronic eye
Every day precise details of our personal lives are collected, stored, retrieved, and processed within huge computer databases belonging to big corporations and government departments. Although no one may be spying, strangers do know intimate things about us, often without our knowing what they know, why they know it, or who shares this information. This is the surveillance society. In The Electronic Eye, David Lyon looks into our mediated way of life, where every transaction and phone call, border-crossing, vote, and application registers in some computer, to show how electronic surveillance influences social order in our day. The increasing impact of computers on modern societies is seen by some as very promising, but by others as menacing in the extreme. The Electronic Eye is a genuine contribution to the understanding of modern institutions in an era of globalizing electronic communication.
Lyon, David. The electronic eye: the rise of surveillance society. Polity Press, 1994.
Lien vers le site de l’éditeur : https://www.upress.umn.edu/book-division/books/the-electronic-eye
- Persos A à L
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Blogs persos du Diplo
- LePartisan.info
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Romain MIELCAREK
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Timothée PARRIQUE
- Thomas PIKETTY
- PLOUM
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- Numérique
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD