LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Christophe MASUTTI
Hospitalier, (H)ac(k)tiviste, libriste, administrateur de Framasoft

STATIUM


▸ les 167 dernières parutions

07.11.2016 à 01:00

Surveillance://, par T. Nitot

Un récent essai de Tristan Nitot est intitulé Surveillance://. Les libertés au défi du numérique : comprendre et agir. Un livre pertinent, qui atteint ses objectifs. On ne cherchera donc que la petite bête sur quelques détails du point de vue du fond et de la méthode.

Surveillance://. Les libertés au défi du numérique : comprendre et agir. C&F éditions (2016). Couverture

Surveillance:// de Tristan Nitot est un ouvrage contextuel. Il appartient à une désormais assez longue tradition d’essais « tout public » sur le fichage des populations, la protection de la vie privée, et la défense des libertés individuelles à l’ère du tout-numérique.

On peut citer pour mémoire en 1994 l’enquête de C-M. Vadrot et L. Gouverne, Tous fichés (1994) qui alertait sur l’usage des mémoires embarquées (en particulier les cartes à puces). Plus récemment, L’homme nu. La dictature invisible du numérique par M. Dugain et C. Labbé (2016) se livrait au déballage angoissant des hauts faits de la surveillance de masse à l’ère post-Snowden.

L’ouvrage Surveillance:// se démarque néanmoins par son projet pédagogique qui cherche à la fois à expliquer les concepts-clé des mécanismes de contrôle et les solutions pratiques pour s’en prémunir. Si bien que l’ouvrage se place aussi dans une autre tradition, celle qui met en perspective les risques informatiques. Il faut alors remonter plus loin dans le temps.

Déjà en juillet 1970, lors du Colloque de Cerisy-La-Salle « L’homme devant l’informatique », on s’interrogeait sur les nouvelles formes de pouvoir qu’apporterait l’informatique dans les processus de prise de décision publique. Un basculement a néanmoins eu lieu dans cette tradition réflexive. Alors que la Révolution Informatique questionnait le rapport que nous avons avec nos données informatisées, les années 1990 ont vu se modeler différents pouvoirs par l’utilisation des données personnelles ou collectives. Le rapport entre pouvoir et collection de données se questionnait surtout selon le prisme de la notion de contrôle (institutionnel), et s’envisageait essentiellement du point de vue des libertés individuelles. Les années 2000 et la consolidation des grands monopoles du web (les GAFAM) et la pléthore de services permettant de collecter des quantités inédites de données à l’échelle mondiale, ont amené une nouvelle forme de questionnement sous l’angle, cette fois, de la surveillance. La surveillance comme fin, et non comme moyen : si la collecte et l’analyse de données est un moyen pour prendre des décisions économiques (ciblage marketing), la surveillance est une activité qui cherche à se rendre socialement acceptable et conforme les comportements, jusqu’à modeler le marché (j’ai eu l’occasion d’en traiter différents aspects, en parlant du capitalisme de surveillance dans d’autres articles de ce blog.

Dans sa première partie, le livre de Tristan Nitot établit un état des lieux de la captation et la centralisation des données. Il se fait ainsi l’écho de multiples enquêtes et ouvrages traitant des « dangers de la surveillance », avec un focus plus important sur les firmes Google et Facebook, dont l’un des principaux attraits pour les gouvernements est de réduire le nombre d’interlocuteurs dans les requêtes de renseignements sur les utilisateurs. Ainsi, on comprend que l’affaire Snowden n’a pas seulement montré que les États surveillaient leurs citoyens en masse, mais aussi que l’apparition de grands silos centralisés de données tenus par quelques firmes facilitaient grandement la tâche des gouvernements souhaitant généraliser la surveillance.

Il faut néanmoins attendre la section 7 de cette première partie pour aborder un point central : « L’impact de la surveillance sur la société », qui sera décliné encore dans la seconde partie. On regrette, bien que le public visé soit assez large, que T. Nitot prenne d’emblée la décision d’aborder la question sous l’angle exclusif du contrôle institutionnel en reprenant la référence de Michel Foucault à Jeremy Bentham, le panoptique et la prison (cf. M. Foucault, Surveiller et punir, 1975). Les références subséquentes à Glenn Greenwald (journaliste ayant publié les révélations d’E. Snowden sur la NSA) et Bruce Schneier (une pointure en matière de chiffrement et sécurité informatique), en restent néanmoins à l’analyse sociologique de la surveillance comme instrument de contrôle des populations, soit par une forme institutionnalisée (l’État surveille), soit par l’effet panoptique (l’individu se contrôle lui-même parce qu’il se sent surveillé et conforme ses comportements).

L’un des enseignements qu’on tire néanmoins de la lecture de Bruce Schneier, c’est justement que la surveillance n’est pas un instrument de contrôle. Elle ne le devient que dans la mesure on l’on prête une intention à l’institution capable de contrôle et d’action (l’État, en l’occurrence, y compris par l’intention des firmes de manipuler des opinions selon les intérêts politiques du moment, comme T. Nitot le montre à propos de Facebook dans la seconde partie). Bruce Schneier a montré que la surveillance est d’abord un modèle économique (cf. « Surveillance is the Business Model of the Internet », 2014). Si l’on se concentre uniquement sur un questionnement utilitariste de la surveillance globale des masses par les firmes (et par les États en contrat avec ces firmes), les clés d’analyse se restreignent à l’individu, son rapport à la liberté et ses droits, l’exercice de la démocratie, bref, on se focalise sur le contrat social. Or, comme il y a une perte de confiance générale envers les États depuis l’affaire Snowden, la solution adoptée par beaucoup est libertaire, consiste à prôner le moins d’État pour plus de libertés… mais moins de protection contre les firmes ; dès lors, qui garantirait le contrat de confiance entre l’individu et la firme ? (question autrement posée  : qui peut garantir l’exercice de la justice ?).

Ce sera mon seul point de désaccord avec T. Nitot : il est important de comprendre aujourd’hui que la surveillance comme modèle économique n’est un problème d’État qu’à la marge ! Quand le ministre B. Cazeneuve fait voter en catimini le fichage général de 60 millions de français le 30 octobre 2016, ce n’est pas un problème de surveillance qui est posé mais un problème constitutionnel (comment une démocratie peut-elle laisser de telles décisions se prendre de manière unilatérale ?). C’est tout le paradoxe des « dangers de la surveillance » : on ne peut plus appréhender le capitalisme de surveillance avec des concepts inhérents aux démocraties qui ont produit ce nouveau capitalisme, car il s’en échappe. Le capitalisme de surveillance conforme les individus sociaux, mais conforme aussi l’organisation socio-politico-économique et la production. Le changement est radical en ce début du XXIe siècle, l’analyse politique doit l’être aussi.

Là où je rejoins T. Nitot, c’est sur l’essentiel, après tout : pour appréhender cela à l’échelle gigantesque des GAFAM, on ne peut plus se contenter de pointer la surveillance d’État même si elle utilise de fait les acquis des GAFAM. C’est le modèle économique entier d’Internet qu’il faut revoir, d’autant plus que Monsieur Dupuis-Morizeau n’est qu’un simple utilisateur qui n’envisage ces questions que du point de vue individuel dans ses pratiques quotidiennes.

C’est justement cette surveillance de la quotidienneté qui est alors en question durant tout le reste de l’ouvrage, après avoir brillamment vulgarisé les mécanismes de la surveillance et expliqué sur quels plans se confrontent les modèles informatiques. Rien qu’après cette lecture, l’utilisateur moyen pourra situer aisément ses propres pratiques numériques. Si l’on peut reprocher à T. Nitot d’avoir légèrement raccourci les enjeux économiques et politiques de la surveillance, il n’en demeure pas moins que l’essentiel de son ouvrage atteint le but recherché : informer l’utilisateur sur les techniques de surveillance et les moyens pratiques de s’en prémunir tout en promouvant un monde numérique décentralisé. Le maître mot est la confiance. Comment renouer la confiance dans l’usage des réseaux alors que les firmes qui proposent les plus célèbres services ne respectent pas les utilisateurs et leurs intimités numériques ? Pour Tristan Nitot, l’essentiel d’un Internet respectueux des utilisateurs repose sur quelques principes évidents qu’il résume à la section 21 :

  • utiliser des logiciels libres ;
  • pratiquer l’auto-hébergement ;
  • chiffrer ses communications ;
  • trouver un modèle économique qui ne repose pas sur le marketing (et l’extraction / exploitation sauvages des données des utilisateurs).

Restent enfin les aspects pratiques de l’auto-défense numérique. Dans un tel ouvrage, qui prétend brosser un aperçu général de ces problématiques, la liste des solutions ne saurait être exhaustive. Néanmoins, T. Nitot nous démontre ici un excellent niveau d’expertise, acquis tant chez Mozilla que chez CozyCloud, en identifiant les éléments les plus significatifs de la protection numérique. Pour cela il faut évidemment faire quelques concessions : on ne change pas du jour au landemain des habitudes prises par des millions d’internautes. Ainsi, au risque de rendre cette partie de son ouvrage trop vite obsolète, T. Nitot va même jusqu’à expliquer comment paramétrer les services de Google (Twitter, Facebook) auxquels ont a souscrit pour pouvoir espérer ne pas y abandonner trop de données personnelles. « Entre deux maux, choisissons le moindre » : est-ce une bonne approche ? Ceci pourrait être discuté longuement, mais il faut avant tout confronter les pratiques.

Abandonner des services performants sous prétexte qu’ils ne respectent pas nos intimités numériques, cela revient à imposer un changement organisationnel et technologique motivé par un choix éthique ou moral. Si l’utilisateur individuel peut très bien effectuer le basculement sur cette seule base, il n’en va pas de même pour des organisations, ainsi par exemple des entreprises ou des associations qui utilisent des services gratuits mais qui ne tombent jamais ou presque jamais en panne, dont l’usage est ergonomique et bien pensé, etc. On regrette un peu que T. Nitot ne prend pas davantage de temps pour expliquer comment un service gratuit ou payant (le plus souvent à bas prix) et à la fois éthique permettrait de construire une économie de la confiance et par conséquent ouvrirait aux utilisateurs de nouvelles perspectives. La question est certes abordée çà et là, en mentionnant les alternatives proposées notamment par certains membres du collectif CHATONS, mais sans une réelle approche systémique (trop complexe pour être résumée en deux pages de toute façon).

Cette économie de la confiance représente aujourd’hui l’alternative crédible au capitalisme de surveillance, mais uniquement dans la mesure où les choix technologiques sont assumés et compris par les utilisateurs. Cette compréhension est bien ce à quoi s’attaque le livre Surveillance://, ce qui explique sans doute quelques choix facilitatifs au profit d’une approche épurée et concrète, facilement assimilable par un public désormais averti.

PDF

21.10.2016 à 02:00

Paul Magnette, l'Europe et le CETA

J’interviens peu sur ce blog à propos de politiques européennes, alors qu’on pourrait s’y attendre étant donné que j’y suis plongé régulièrement dans le cadre de mes fonctions professionnelles. Je suis néanmoins particulièrement touché par le discours récent de Paul Magnette, le 16 octobre 2016, devant le parlement Wallon.

Dans ce discours (vidéo en bas de ce billet) d’une durée approximative d’une vingtaine de minutes, Paul Magnette explique de manière claire et précise les raisons pour lesquelles la Wallonie refuse(ra), dans son état actuel, l’accord économique et commercial global (AECG), mieux connu sous son acronyme anglais Comprehensive Economic and Trade Agreement (CETA). Ce dernier, pour être adopté, doit être accepté par toutes les parties prenantes, c’est à dire les 10 provinces canadiennes et les 28 États-membres de l’UE. Or, pour que la Belgique fédérale puisse valider son accord, il faut auparavant que le gouvernement Wallon puisse donner le sien, au même titre que les autres régions Belges (région Flamande et région Bruxelloise).

Et voilà que la Wallonie refuse, ce qui implique l’impossibilité pour la Belgique de donner son accord. Pour en comprendre rapidement le contexte on peut lire l’article de Pierre Kohler et Servaas Storm paru dans le Moinde Diplomatique le 14 octobre 2016. Je ne m’étendrai pas davantage : il est clair que les grands accords commerciaux dont il est question depuis ces dernières années posent des problèmes de souveraineté des États, en particulier du côté européen, et que les modèles d’équilibres sociaux, sanitaires, environnementaux et normatifs de ce côté de l’Atlantique risquent de basculer dans une foire au moins-disant néo-libéral.

Ce n’est pourtant pas dans ce registre (uniquement) qu’il faut écouter le discours de Paul Magnette. Ce spécialiste de la construction européenne (titulaire d’un doctorat en science politique sur ce sujet) est à la fois un expert et un élu. C’est un européen convaincu mais surtout éclairé. Et en tant que tel, il confronte les grands principes de la construction européenne (en particulier tout l’intérêt du principe de subsidiarité) avec la contradiction politique des accords des autres pays européens (à tendance centralisatrice) vis-à-vis du CETA. Il cite d’ailleurs en passant les divergences entre les élus allemands et la Cour constitutionnelle allemande, ainsi que les hésitations de fond au sein du gouvernement des Pays-Bas. Et tout ceci sans oublier de souligner avec force et vigueur tout l’intérêt qu’il y a à écouter la société civile wallone (mutualités, syndicats, experts, universitaires…) qui s’est sérieusement penchée sur le CETA avec forcerapport, avis, et déclarations. Une approche dont devraient s’inspirer plus d’un élu en France.

En somme, le discours de Paul Magnette est un discours de démocratie. Et il est assez rare aujourd’hui d’entendre de tels discours dans le cadre d’un parlement en plein processus de décision (c’est-à-dire qu’il ne s’agit pas d’un discours électoral bourré de bonnes intentions). C’est sans doute aussi la raison pour laquelle, afin d’appuyer son discours, Paul Magnette cite deux auteurs, et pas des moindre : Albert Einstein et Emmanuel Kant (à partir de 11'55 dans la vidéo). Car en effet son discours a une double portée : générale, d’abord, puisque le processus d’adoption du CETA ne saurait logiquement pas convenir aux principes de souveraineté des États ; universelle, ensuite, puisque en vertu du principe de l'impératif catégorique kantien, qui, aux yeux de Paul Magnette, vaut aussi bien pour les individus que pour les États, on ne saurait espérer d’accord harmonieux avec les modalités discutables du CETA et, au-delà, de tous les accords censés définir aujourd’hui des processus de mondialisation économique.

PDF

03.08.2016 à 02:00

Surveillance://

Tous nos pas dans le cyberespace sont suivis, enregistrés, analysés, et nos profils se monnayent en permanence. Comment en est-on arrivé là ? Les évolutions techniques ont permis à plus de quatre milliards d’internautes de communiquer, de rechercher de l’information ou de se distraire. Dans le même temps, la concentration des acteurs et les intérêts commerciaux ont développé une industrie mondiale des traces. Les États se sont engouffrés dans cette logique et ont mis en œuvre partout dans le monde des outils de surveillance de masse. Le livre de Tristan Nitot porte un regard lucide et analytique sur la situation de surveillance ; il nous offre également des moyens de reprendre le contrôle de notre vie numérique. Comprendre et agir sont les deux faces de cet ouvrage, qui le rendent indispensable à celles et ceux qui veulent défendre les libertés dans un monde numérique.


Nitot, Tristan. Surveillance:// Les libertés au défi du numérique : comprendre et agir. C&F éditions, 2016.

Lien vers le site de l’éditeur : https://cfeditions.com/surveillance/


PDF

02.08.2016 à 02:00

Numérique : reprendre le contrôle

L’extraction et l’analyse des données massives représente l’Eldorado des modèles économiques d’Internet. Pour une grande partie, ces données proviennent de chacun d’entre nous. Profilage, surveillance, contrôle : en utilisant une foule de services et de produits, gratuits ou payants, nous dévoilons toujours un peu plus nos intimités numériques.

Aujourd’hui, pouvons-nous encore contrôler nos données ? Est-ce à l’État ou aux citoyens de construire et défendre leurs souverainetés numériques ? Le logiciel libre permet-il de nous rendre autonomes et d’utiliser des outils respectueux de nos données personnelles ? Les réponses à ces questions sont parfois contradictoires.

Dans cet ouvrage, Tristan NITOT et Nina CERCY donnent la parole à plusieurs acteurs impliqués aujourd’hui dans le paysage numérique. Leurs arguments sont forts, issus de plusieurs points de vue. Une préoccupation principale : la confiance.


Nitot, Tristan, et Nina Cercy. Numérique : reprendre le contrôle. Lyon, Framasoft, 2016.

Lien vers le site de l’éditeur : https://framabook.org/numerique-reprendre-le-controle/


PDF

17.06.2016 à 02:00

Cross-country, VTT, Trail : 8 logiciels libres

En matière de logiciel libres, les sportifs ont plutôt l’embarras du choix. C’est à se demander pourquoi, lorsqu’on veut récupérer des traces, on doive naviguer entre divers sites issus des constructeurs de montres GPS (pas toujours bien intentionnés). Et c’est sans compter la page ouèb du trail de Brouzouf-le-haut qui oblige les concurrents à se connecter sur Facebook et Google pour voir les caractéristiques du parcours. Ami traileur, biker, ou randonneur, toi le geek sportif, regarde plutôt cette petite sélection de logiciels libres, rien que pour toi.

Quels logiciels ?

J’en ai encore fait l’expérience avec le site internet Tracedetrail.fr. Certes, le site est plutôt bien fichu, avec la possibilité de partager ses traces en les accompagnant des différentes données (altitudes, cumuls de dénivelés au différents points du parcours, etc) mais il faut ouvrir un compte pour télécharger les traces ou récupérer des données, quant à confier systématiquement mes données à un tiers, c’est un principe : je n’aime pas.

En réalité ce type de site ne repose que sur un principe relativement simple : stocker et partager des fichiers GPS. Si on a sur sa machine, en local, des logiciels fiables pour les lire, il n’y a aucune raison d’ouvrir un compte chez Monsieur Dupont, si ce n’est que pour sacrifier à la mode du moment. De plus, on ne dispose pas toujours d’une connexion internet : en vacances au fond d’une vallée perdue pour s’adonner à la pratique du trail, il peut toujours être utile d’analyser ses parcours sans devoir les téléverser quelque part.

Les logiciels spécialisés dans les relevés GPS ont deux caractéristiques : les fonds de cartes proposés (à minima, la possibilité d’utiliser ses propres fonds de cartes), et la capacité d’analyser un maximum de données issues des fichiers (GPX, KML, etc) qu’on utilise, en particulier si les fichiers contiennnent des données autres que purement géographiques comme par exemple les donnnées d’un cardiofréquencemètre. À cela s’ajoutent des fonctionnalités supplémentaires appréciables :

  • pouvoir se connecter à un dispositif GPS (selon les marques, en particulier Garmin), même si l’on peut d’abord chercher les fichiers sur le dispositif puis les utiliser avec le logiciel,
  • stocker les informations, comparer les données avec des graphiques,
  • éditer des traces existantes ou en créer de nouvelles pour préparer un parcours,
  • ajouter des informations en fonction de l’activité (course à pied, cyclisme, trail, randonnée, etc.)

Des logiciels libres

Ce qui me motive dans le trail, c’est avant tout la sensation de grande liberté que procure cette discipline. Si l’on compare avec la course à pied classique ou le cross-country, les contraintes de distances et de temps sont largement repoussées, on se confronte à des terrains aux multiples caractéristiques, les épreuves mélangent le plus souvent les amateurs et les pros, et ce qui compte avant tout, c’est de pouvoir terminer un trail, et pas forcément « faire un temps ».

Je trouve que la pratique du trail est complètement opposée aux contraintes des logiciels privateurs ou de services distants qui imposent une rétention de données ou dont les conditions d’utilisation impliquent l’emploi des mes informations personnelles à des fins commerciales. Les assurances et même certaines mutuelles profitent déjà de la manne providentielles des dispositifs de santé connectés (cf. les machins-fit), et l’on présage déjà très bien les inégalités sociales que cela pourra créer à l’avenir. Hors de question, donc, d’utiliser des logiciels privateurs, ou des services tiers dont les intentions ne sont pas conformes à mon éthique.

L’utilisation de logiciels libres n’implique pas pour autant de devoir galérer des heures avec des interfaces difficiles. Les logiciels présentés ci-dessous sont certes très spécialisés, et nécessitent un minimum d’apprentissage. Cependant, chacun d’entre eux permet de visualiser rapidement un profil de trace : le travail des données n’est ensuite qu’une question d’habitude.

Tous ces logiciels proposent des versions pour les trois systèmes d’exloitation les plus courants : GNU/Linux, MacOs et MSWindows. Concernant GNU/Linux, la plupart sont disponibles dans les dépôts des principales distributions, à l’exception de MyTourbook et Turtlesport.

GPSbabel

Il serait difficile de commencer une liste de logiciels censés lire des fichiers contenant des données GPS sans mentionner GPSBabel. Ce n’est pas un logiciel indispensable, étant donné que, souvent, les logiciels sont capables de converser avec les dispositifs GPS courants, et que ces derniers fournissent des fichiers aux formats la plupart du temps lisibles. Cependant, pour assurer des conversions entre ces différents formats de fichiers, GPSBabel est d’une grande utilité.

Viking

Le logiciel Viking est avant tout un visualiseur de données GPS. Il permet de les afficher sur un fond de carte, les archiver et les classer. Viking fonctionne par calques : il suffit d’afficher la carte voulue (disponible soit en local soit en ligne, via, différents Web Map Services), puis ouvrir un fichier de trace GPS pour le voir affiché sur la carte. Il est aussi possible de réaliser un tracé avec mesure de distances grâce aux outils graphiques disponibles.

Viking

GPXviewer

Dans la même ligne que Viking, mais de manière encore plus simple, Gpxviewer permet d’afficher une trace GPX sur un fond de carte. Disponible dans la plupart des dépôts GNU/Linux, il s’agit d’un programme très simple, dont les équivalents ne manquent pas sur les autres systèmes d’exploitation.

GpxViewer

QlandKarteGT

Bien que disponible dans les dépôts des distributions GNU/Linux, QlandKarteGT est en fait aujourd’hui obsolète, il est remplacé par son sucesseur Qmapshack (voir sur le site officiel). Néanmoins, les fonctionnalités sont déjà très poussées pour cette version d’un projet logiciel très dynamique. QlandKarteGT est un outil très polyvalent, et dispose même d’un rendu 3D des parcours sur carte. On peut noter la présence (au moins dans les dépôts) de QlandKarteGT-Garmin qui fourni des greffons pour communiquer avec différents dispositifs Garmin. Cependant, QlandKarteGT n’est pas limité à Garmin, bien sûr. Un autre atout de QlandKarteGT est de proposer d’emblée des fonds de cartes issus de nombreux Web Map Services) européens, et, parmi ceux-ci, les fonds IGN Topo 25. Les fonctionnalités de QlandKarteGT peuvent se limiter à l’import/export et la visualisation, mais elles peuvent être très poussées et se confondre avec un véritable outil de système d’information géographique.

Turtlesport

On ne présente plus Turtlesport, LE logiciel qu’il faut avoir si on fait du trail, de la course à pied, du vélo… En un coup d’oeil vous pouvez avoir un rapport d’activité des sessions d’entraînement, l’affichage de votre parcours sur un fond de carte (configurable), et le tout en personnalisant les données de l’athlète (taille, poid, équipement, vitesse, fréquence cardiaque, etc.). C’est sans doute dans cette liste le logiciel le plus polyvalent, capable de communiquer avec un grand nombre de dispositifs GPS/cardio, et disposant d’une interface agréable et facile à prendre en main (pour utiliser le fond de carte OpenTopoMap avec Turtlesport, voyez le petit tutoriel consacré sur ce blog).

Mytourbook

Moins connu, peut-être, que Turtlesport, MytourBook est prévu pour analyser, représenter, comparer, et documenter des traces GPS. Il est donc adapté à la randonnée, le VTT ou le trail. On peut ajouter des photos et les lier au parcours, visualiser les dénivelés et analyser les vitesses, récupérer des graphes, des analyses statistiques. Il s’agit d’un programme tournant avec java, mêlant les licences Eclipse et GPL (un peu de concession, parfois). Turtlesport et Mytourbook sont comparables, avec une mention spéciale pour le second concernant la visualisation graphique des différentes données des traces (il faut toutefois s’habituer à l’interface).

MyTourBook

Framacarte et Umap

Enfin, il aurait été dommage de ne pas mentionner au moins deux possibilités de partager ses traces en ligne via des services non seulement libres mais aussi éthiques et décentralisateurs. Comme je l’ai dit précédemment, la meilleure façon de partager ses traces GPS est encore de partager les fichiers sans vouloir absolument les téléverser auprès de services tiers. Pourtant, vous pouvez avoir besoin de partager des traces en donnant directement à voir une carte, la rendre disponible sur votre site web ou tout simplement parce que vos correspondants ne disposent pas forcément d’un logiciel pour lire ce type de fichier.

Umap est un projet OpenStreetMap (le Wikipédia de la cartographie) qui vous permet d’éditer et partager des traces de manière très rapide, en quelques clics. Voyez ce petit tutoriel. Mais Umap est bien plus que cela ! C’est aussi la possibilité, pour vous, votre club, votre association, de disposer de votre instance Umap sur un serveur et partager vos traces en conservant vos données là où vous le voulez. En guise de démonstration, Framacarte est un service de Framasoft qui montre qu’il est possible d’installer une instance Umap et la proposer à qui vous voulez. Vous pouvez utiliser utiliser l’instance Umap d’OSM ou de Framasoft en toute sécurité pour vos données, bien sûr, mais n’oubliez pas qu’il est possible (et même souhaitable) de créer votre propre instance.

Framacarte / Umap

PDF

12.06.2016 à 02:00

Parcours VTT. Hahnenberg-Heidenkopf

Voici une belle randonnée VTT avec des passages techniques amusants, des sections boueuses et humides à souhait (même par temps sec) et de jolis point de vue. L’endurance est de mise, même si le parcours en soi ne recquiert pas de capacités de pilotage exceptionnelles. Les descentes sont très sûres, pas de mauvaises surprise : tout se joue dans les montées. Mollets en fromage blanc, s’abstenir !

Accessible en train, facilement, depuis Strasbourg, la gare de Heiligenberg possède un parking où vous pouvez aussi garer votre voiture. Le début du parcours longe la Bruche sur le fond de la vallée jusqu’à la montée vers le Hahnenberg. Le chemin est très boueux par endroits, surtout après les travaux forestiers. Au lieu-dit Hirschbaechel, la montée commence vers le Hahnenberg. Soyez attentifs au balisage : une fois sur un replat, on quitte le chemin forestier pour prendre une variante du balisage jaune : les premières difficultés surgiront, en particulier les dérapages de roue arrière sur racines, un vrai plaisir. Les derniers mètres sur le Hahnenberg sont impossibles en vélo : il faudra pousser. La descente est néanmoins très facile, sur un sentier régulier.

Une fois arrivé à Grendelbruch (après une descente façon kilomètre lancé), il faudra prendre la route pour monter rapidement au Schelmeck et rejoindre le col de Franzluhr. Il va faloir chercher à s’économiser, malgré la facilité de cette section car le reste du parcours promet quelques surprises. Une variante plus intéressante consisterait plutôt à rejoindre la D204 et passer par le Bruchberg (je ferai sans doute un billet avec un parcours mieux élaboré).

La descente depuis le col de Franzluhr jursqu’au Rossberg se fera sur le chemin forestier balisé en croix jaune. La variante, qui longe la première partie du chemin, est faisable en VTT mais avec prudence si vous débutez. Il faudra encore être bien attentif au moment de plonger vers la Magel : le sentier est étroit avec quelques trous inattendus. Assurez-vous d’avoir de bon freins avant d’entammer cette petite section de descente, la plus complexe du parcours.

La montée du chemin du Nikishof (aujourd’hui transformé en véritable autoroute pour travaux forestiers) fera appel à votre patience et votre endurance, mais pour un court moment : on quitte le chemin forestier pour reprendre un single (croix bleues) jusqu’au col du Jaegertaennel. Cette section montante étant néanmoins très roulante, il faudra engager des trajectoires réfléchies pour ne pas perdre trop d’énergie. On redescendra enfin vers la maison forestière Ochsenlaegger tambour battant. Profitez-en pour avaler un peu de sucre…

La dernière montée mémorable du parcours s’annonce, c’est celle du Heidenkopf. Amorcez-là avec patience et calmement et tout ira bien jusqu’en haut. Les lacets ne sont pas si nombreux. Votre vitesse dépendra de l’énergie dépensée depuis le début du parcours. La longue descente vers Mollkirch se fera en suivant le balisage blanc et rouge jusqu’à la D217 (là encore une variante consiste à prendre le GR jusque Laubenheim, mais ce billet n’est pas pour les plus confirmés des vététistes). On reprend les croix jaunes pour traverser la Magel (attention, section très humide!) puis on rejoint les rectangles bleus (GR 531) à Mollkirch jusqu’à la gare.

Caractéristiques du parcours : 35 km avec 1250 m D+.

Voir en plein écran

PDF
102 / 167
 Persos A à L
Carmine
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Jean-Luc MÉLENCHON
Romain MIELCAREK
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Tristan NITOT
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓