20.04.2013 à 02:00
Hackers : au cœur de la résistance numérique
Communiquer, partager, s’informer librement : c’était l’utopie des pionniers du Net. Quarante ans après ses premiers balbutiements, les gouvernements et les grands acteurs privés contrôlent toujours plus étroitement les échanges, rongent liberté d’expression et droit à la vie privée. Le Réseau est une extension du domaine de la lutte politique.Ils sont nés avec un ordinateur dans les mains, ont grandi sur la Toile, connaissent tous les avantages et les pièges de la vie en ligne. Ils ont soutenu WikiLeaks et les cyberdissidents des printemps arabes, se sont mobilisés contre les lois sécuritaires, exfiltrent des témoignages de répression, échangent avec les Indignés du monde entier. Ils créent des réseaux alternatifs. On les retrouve jusque dans les Parlements européens. Ils réinventent la politique. Amaelle Guiton a interviewé ceux qui, sous le masque Anonymous ou à découvert, sont les artisans d’un Internet libre. Elle livre une enquête passionnante au cœur de la résistance numérique, pour savoir ce que « hacker » veut dire.
Guiton, Amaelle. Hackers: au cœur de la résistance numérique. Au diable Vauvert, 2013.
Lien vers le site de l’éditeur : https://audiable.com/boutique/cat_document/hackers/
05.04.2013 à 02:00
Sécurité informatique: le CAS plaide pour l'ouverture
En matière de sécurité informatique, on ne le répétera jamais assez, les internautes sont bien souvent de vraies billes. Des mots de passe trop simples, utilisés pour tout type de connexion et n’importe quel site, utilisation de services Web gratuits mais peu respectueux des données personnelles… Sur un mode paranoïaque (mais sans exagération et en toute objectivité), tous ces usages inconsidérés concourent à la création d’un Internet policier digne des pires dictatures. Le Centre d’Analyse Stratégique a produit récemment une note intéressante en faveur d’un Internet ouvert et d’une informatique ouverte. Une analyse un peu à contre-courant du refrain habituel des politiques au service de l’industrie logicielle…
Cessons d’en douter, nos mauvaises habitudes sur nos outils informatiques sont dangereuses à la fois pour nous mêmes mais aussi pour la sécurité nationale, à commencer par les réseaux sociaux gratuits, première forme d’intrusion pour le cyberespionnage. L’utilisation de nos portables personnels (le plus souvent sans cryptage et sans mot de passe à l’ouverture) à des fins professionnelles sont aussi des techniques très faciles qui favorisent l’intrusion. Ces dernières années de multiples services et dispositifs informatiques se sont multipliés dans nos vies, et la diffusion de nos données personnelles ou professionnelles, que ce soit à des fins commerciales, de surveillance, ou d’espionnage (les trois étant souvent fortement liées) n’ont jamais été aussi faciles d’accès.
Nous faisons confiance à des société privées pour stocker nos données, nous faisons confiance à des sociétés privées pour utiliser des logiciels dont nous ignorons tout de la manière dont ils traitent nos données personnelles et professionnelles. Mais “nous” ne sommes pas les seuls. Les services de l’État sont eux-mêmes victimes de réflexes inconsidérés, comme le montrent par exemple les contrats passés avec des firmes privées (en particulier Microsoft) pour exploiter des services “clé en main”. Sur bien des points, des pans entiers du Service Public ont cédé au confort de la déresponsabilisation consistant à reporter l’engagement de sécurité des données sur des firmes privées, comme si des chartes et des contrats de papier apportaient à eux seuls le minimum de garantie. Qu’il s’agisse des logiciels privateurs utilisés sur nos machines personnelles ou ces mêmes logiciels utilisés à l’intérieur de l’administration publique, la fermeture du code et la boîte noire des brevets logiciels reportent fatalement la sécurité des données sur la seule garantie de la transaction, du contrat, de la bonne foi… et pas sur ce qui devrait être diffusé : le code. La séparation entre les utilisateurs et les concepteurs en matière d’informatique, surtout élevée aux plus hauts niveaux des besoins de sécurité, est une grossière erreur. Le constat est le même du côté des entreprises, qu’il s’agisse de celles qui exploitent nos données à des fins commerciales ou celles qui figurent parmi les plus innovantes et qui, pourtant, prennent bien plus de précaution.
Dans sa Note d’Analyse 324 de mars 2013, le Centre d’Analyse Stratégique fait une synthèse des questions actuelles de cybersécurité. La conclusion est la suivante :
Pour élever le niveau de sécurité, tout en tirant profit des avantages d’un Internet ouvert et décentralisé, les organisations doivent adopter une démarche rationnelle d’analyse de risques afin de mettre en œuvre une réponse adaptée sur le plan technique et organisationnel. L’offre nationale de solutions de sécurité doit également se structurer pour permettre une meilleure valorisation des compétences technologiques françaises et garantir un plus haut degré de souveraineté.
Laissons de côté la question d’un “Internet Policier”, qui n’est finalement pas le centre du rapport et concentrons-nous sur l’idée que la sécurité doit tirer avantage d’un “Internet ouvert décentralisé”. Tout est dans ces deux mots: “ouvert” et “décentralisé”. Bien évidemment! Il suffisait d’y penser! Sauf que cela fait des années que les Internautes les plus éclairés, les hackers et avec eux tout le mouvement du logiciel libre prônent cette ouverture et cette décentralisation. Qu’est-ce que cela veut dire exactement ?
Du point de vue de nos usages personnels, la décentralisation signifie que nous devons absolument cesser d’utiliser la pléthore de services gratuits pour stocker nos données tout en acceptant des conditions d’utilisation que nous ne lisons même pas. En gros : accepteriez-vous que, avant de les placer dans votre boîte, le facteur apporte d’abord vos lettres au magasin de meuble de votre quartier afin que celui-ci sache de quelle publicité vous avez besoin et dresse votre profil de consommateur? C’est pourtant exactement ce qui se passe chaque fois que vous recevez un courriel via votre compte gracieusement hébergé par des firmes bien connues. Videz-vous souvent le cache de votre explorateur ? Accepteriez-vous que ces mêmes firmes privées, qui s’approprient vos données, acceptent de donner à l’État l’historique de vos transfert de données afin que des firmes vous poursuivent (c’est le rôle d’Hadopi) ou afin de démontrer vos agissements en faveur de davantage de démocratie dans votre pays (voir l’exemple de Yahoo! en Chine). Décentraliser les données signifie donc que nous devons rester maîtres et possesseurs de nos données, savoir à tout moment où elles se trouvent et par qui elles peuvent être lues, et donc pour cela utiliser des outils adéquats: héberger ses propres données sur son propre serveur à la maison (auto-hébergement), pour le mail comme pour votre page personnelle ou votre Cloud, savoir crypter ses courriels (PGP), etc.
Du point de vue des entreprises (et en particulier, par exemple, les journalistes) ou des services publics, la décentralisation revient à appliquer ces mêmes principes, présents depuis le début de l’Internet et DES réseaux. Dans leur grande majorité les responsables sont des personnes très informées sur ces questions et savent exactement comment optimiser la sécurité. Seulement, voilà, il existe des obstacles, ceux mentionnés par le CAS, et qui ont la particularité d’être finalement les mêmes que ceux rencontrés par les utilisateurs individuels.
Du point de vue de l’ouverture, la situation est encore plus simple : il ne saurait être acceptable d’utiliser des logiciels dont nous ne savons rien de la manière dont ils traitent nos données. Les sur-couches utilisées par les firmes pour “faciliter notre expérience utilisateur” sont, à 99% des cas, des verrous qui nous empêchent de maîtriser nos données. Une belle illustration réside dans les “stores”, qui nous obligent, en tant qu’utilisateurs, à ne pouvoir utiliser que des logiciels au préalable agréés par la firme qui produit le système d’exploitation que nous utilisons : fermeture du code, impossibilité d’adapter le code à nos besoins, obligation d’accepter qu’en échange une partie de nos données personnelles soient envoyées, stockées et utilisées à des fins commerciales… ou moins avouables.
Tous ces verrous mis en place ces dernières années l’ont été de manière insidieuse, en échange de biens et de services auxquels nous n’avions jamais rêvé auparavant : se rapprocher de ses “amis” en utilisant un réseau social, obtenir “enfin” de la publicité ciblée, télécharger toujours plus vite des morceaux musicaux (sans pouvoir se les approprier vraiment), bref tout ce qui a fait qu’Internet est passé dans les représentations d’un moyen décentralisé de communication (de pair à pair) à une sorte de grosse télévision collective sans que nous puissions le moins du monde influencer les programmes.
Je m’éloigne du sujet ? non. car il est temps maintenant de divulguer les 4 paragraphes les plus importants de cette analyse du CAS (page 11):
Des blocages juridiques dommageables pour la sécurité Le cadre juridique français crée de nombreux blocages susceptibles d’affecter la sécurité des systèmes d’information :
- la loi Godfrain de 1988(55) réprime les comportements informatiques “agressifs” : appliquée de manière stricte, elle condamne pénalement le fait de divulguer publiquement une faille de sécurité jusque-là inconnue (sécurité par transparence ou full disclosure) alors que cela incite les éditeurs de logiciels à concevoir des correctifs ;
- la rétroingénierie, qui consiste à étudier un objet pour en déterminer son fonctionnement interne ou sa méthode de fabrication, est interdite lorsqu’elle est effectuée pour des raisons de sécurité informatique(56). C’est pourtant le seul moyen d’évaluer le degré de sécurité de produits propriétaires ;
- des mesures techniques de protection (57) d’œuvres numériques peuvent créer des vulnérabilités dans les systèmes d’information. Ainsi, le système de protection XCP installait automatiquement un logiciel contenant des failles de sécurité lors de la lecture d’un CD audio. Or le contournement de ces mesures est interdit par la loi relative au droit d’auteur et aux droits voisins dans la société de l’information (DADVSI, 2006) ;
- les brevets logiciels offrent la possibilité d’obtenir un monopole sur des techniques algorithmiques, y compris lorsque celles-ci sont nécessaires pour assurer la sécurité. L’article 52 de la Convention sur le brevet européen de 1973(58) exclut les “programmes d’ordinateur” du champ des inventions brevetables, mais l’Office européen des brevets (OEB) délivre en pratique des brevets logiciels en raison d’une interprétation extensive de la Convention et d’un modèle économique et de gouvernance discutable.
Si on interprète dans l’ordre des 4 points, cela donne :
- Point 1 : ne pas séparer utilisateurs et programmeurs. Les premiers doivent pouvoir faire remonter plus facilement les améliorations des logiciels et les second doivent pouvoir s’approprier les commentaires… Dans ce cas de figure les utilisateurs doivent pouvoir eux-mêmes contribuer aux programmes en remontant les correctifs. Cela implique que le code doit être accessible.
- Point 2 : le code doit être ouvert et accessible (donc modifiable) de manière à évaluer son degré de sécurité (son adaptation au besoin). Cette évaluation du code ne doit pas être faite uniquement par le concepteur (c’est un peu comme si vous demandiez à vote concessionnaire automobile si la voiture qu’il veut vous vendre est une bonne voiture, c’est pourtant ce qu’il se passe même aux plus hauts niveaux décisionnels).
- Mettre fin aux dispositifs de verrous numériques qui provoquent eux-mêmes des failles de sécurité au nom de l’intérêt des firmes. Ce point ne nécessite pas de commentaires, c’est le simple bon sens qui est à l’oeuvre.
- Mettre fin aux brevets logiciel qui imposent un black-out total sur le code au nom de la propriété intellectuelle. Ce point ne devrait pas être négociable lorsqu’il s’agit de sécurité des données… or c’est presque toujours de la sécurité des données qu’il s’agit. Donc briser les brevets logiciels devrait être une mesure qui s’impose partout et tout le temps.
En conclusion: l’utilisation des logiciels libres devrait s’imposer partout de manière à augmenter l’efficacité des mesures de sécurité (et donc la protection des données) grâce à l’accès aux programmes. Cela n’empêche nullement les firmes de travailler et d’innover, bien au contraire, puisque l’innovation serait une œuvre concertée vers plus d’efficacité dans les produits, et donc plus de sécurité, plus de respect des libertés (des individus, des services de l’État, des entreprises). C’est bien le but recherché, non ?
01.02.2013 à 01:00
L’éthique des hackers
Qui aurait cru qu’une poignée de hackers binoclards seraient à l’origine de la plus grande révolution du XXe siècle ? Le livre culte de Steven Levy, histoire vraie de l’équipe de geeks qui ont changé le monde.
Précision : un « hacker » n’est pas un vulgaire « pirate informatique ». Un hacker est un « bricoleur de code ». Son truc : plonger dans les entrailles de la machine.
Bill Gates, Steve Jobs, Steve Wozniak, Mark Zuckerberg ont commencé leurs brillantes carrières comme hackers… La plupart ne paient pas de mine mais tous partagent une même philosophie, une idée simple et élégante comme la logique qui gouverne l’informatique : l’ouverture, le partage, le refus de l’autorité et la nécessité d’agir par soi-même, quoi qu’il en coûte, pour changer le monde.
C’est ce que Steven Levy appelle l’Éthique des hackers, une morale qui ne s’est pas exprimée dans un pesant manifeste, mais que les hackers authentiques ont mise en pratique dans leur vie quotidienne. Ce sont eux qui ont œuvré, dans l’obscurité, à la mise en marche de la révolution informatique.
Depuis les laboratoires d’intelligence artificielle du MIT dans les années 1950 jusqu’aux gamers des années 1980, en passant par toutes les chambres de bonne où de jeunes surdoués ont consacré leurs nuits blanches à l’informatique, Steven Levy les a presque tous rencontrés. Voici leur histoire.
Levy, Steven. L’éthique des hackers, Globe, 2013.
Lien vers le site de l’éditeur : https://www.editions-globe.com/lethique-des-hackers/
18.11.2012 à 01:00
Eben Moglen: nous n'avons pas intégré l'anonymat quand nous avons construit le Net
La liberté de penser, voilà un concept que tout le monde est prêt à défendre. Seriez-vous prêt à le défendre bec et ongle, et même donner votre vie pour cette cause? Cette question n’est pas subtile… parce que les enjeux sont beaucoup plus subtiles que ce que tout le monde imagine. La question est plutôt de savoir jusqu’où vous êtes prêt à sacrifier un peu de cette liberté pour obtenir des services et des biens qui vous donnent l’impression de pouvoir vous exprimer librement ? La génération actuelle des utilisateurs d’Internet a la possibilité aujourd’hui de corriger le principal biais du système nerveux mondial qu’est Internet: la surveillance totale de la société humaine. Voilà pourquoi “nous avons besoin de logiciels libres, de matériels libres et de bande passante libre”. Voyons un peu ce qu’en dit Eben Moglen…
Prenez-le temps de regarder cette vidéo… (qui est Eben Moglen ?)
Le 20e siècle a connu les pires atrocités (aussi bien physiques que psychologiques), des guerres durant lesquelles le silence des esprits était aussi meurtrier que les obus. La censure était cependant visible (du moins, certains l’ont dénoncée) et l’expression était condamnée au moment où elle franchissait les limites de ce que le pouvoir avait décidé. C’était le cas dans les dictatures modernes de l’Allemagne nazie au Chili de Pinochet, en passant par la Chine et l’Iran. Mais pensez-vous que la censure tombe avec les dictateurs ? Ce serait bien naïf. On sait depuis quelque temps déjà qu’en démocratie aussi les opinions publiques se manipulent, ce que certains ont appelé la “fabrique du consentement”. Aujourd’hui, depuis que l’Internet est devenu un outil de communication de masse, le pouvoir des États est de plus en plus investi d’une mission de surveillance totale par les groupes d’intérêts, y compris les lobbies politiques, dont les intérêts vont radicalement à l’encontre de la diffusion des connaissances, de l’information et de la liberté d’expression. La question Hadopi en France est une illustration convaincante de ce que l’industrie du divertissement peut exiger d’un État pour qu’il espionne ses citoyens.
Aujourd’hui, Eben Moglen (voir sa fiche sur Wikipedia) part d’un constat assez grave : « Nous n’avons pas intégré l’anonymat quand nous avons construit le Net ». C’est entièrement vrai. Internet s’est construit sur la base des échanges d’informations à l’intérieur de petites communautés de programmeurs et de chercheurs, sur des bases de confiances et une croyance positive en ce que l’Internet allait changer le monde. Cet enthousiasme a sans doute effacé des esprits le fait que plus vous proposez aux individus des moyens de se cultiver et d’échanger des informations, plus le pouvoir des États perd de l’influence sur ces mêmes individus. Cela est d’autant plus vrai que les turpitudes des hommes politiques sont levées au grand jour par des groupes d’expression libre ou lorsque s’organisent à grande vitesse des résistances ou des révolutions grâce à ce réseau ultra rapide qu’est Internet.
Sur la dangerosité des réseaux sociaux, la question n’est évidemment pas de savoir si diffuser la photo de son chien est dangereux ou pas. La question est de savoir si il est acceptable que l’on puisse profiler votre identité de manière aussi fine que le peuvent les réseaux sociaux, et que cela soit analysé à la fois par les États et des groupes commerciaux dont les collusions avec les États sont évidentes. Comme le dit Eben Moglen, et sans exagérer :
La Stasi ne coûterait plus rien si elle revenait, car Suckerberg fait le boulot à sa place. […] Donc, la forme primaire de collecte qui devraient nous inquiéter le plus est que les médias nous espionnent pendant que nous les utilisons. Les livres qui nous regardent les lire, la musique qui nous écoute en train de l’écouter. Les moteurs de recherche qui surveillent ce que nous recherchons pour ceux qui nous recherchent et ne nous connaissent pas encore.
La plupart des citoyens ont du mal à comprendre ce genre de réflexion car cela les dépasse d’un point de vue technique : ils utilisent des technologies qu’ils ne comprennent pas. On peut toujours rétorquer que la plupart des conducteurs d’automobiles ne savent pas comment fonctionne un moteur à explosion. C’est vrai, mais l’analogie n’est pas la bonne. On ne parle pas ici de la manière dont est construit un ordinateur, on parle de la manière dont sont perçues, enregistrées et traitées les informations que vous transmettez grâce à lui. Par exemple, tout le monde peut comprendre qu’indiquer son nom et son adresse comme condition préalable à l’utilisation d’un logiciel que venez d’installer sur votre machine n’est pas du tout nécessaire pour faire fonctionner ce programme. De la même manière tout le monde peut s’interroger sur le fait qu’acheter un livre à lire sur une tablette Kindle ou un fichier musical sur votre IPhone devrait être une opération irréversible (ce livre ou ce fichier musical sont censés vous appartenir) et que, par conséquent, si vous avez envie de les prêter à quelqu’un, vous devriez pouvoir le faire. Par contre tout le monde n’a pas étudié d’assez près le fonctionnement des systèmes informatiques pour comprendre comment ces barrières ont été rendues possibles et comment certains acteurs économiques et politiques peuvent désormais connaître et décider le contenu des informations qu’ils partagent et comment ils les partagent.
Prenons enfin un cran plus haut. L’espace dans lequel nous évoluons avec Internet a besoin de sécuriser la liberté d’expression avant que l’espionnage de nos vies interdise les usages de cette liberté. Est-il acceptable que l’enregistrement (éternel) de vos recherches sur Google ou vos « amis » sur Facebook puisse devenir un élément à charge contre vous si votre pays devient une dictature et si vous n’avez pas glissé votre bulletin dans la bonne urne ? Souvenez vous cet épisode de l’affaire Tarnac où la seule présence d’un livre (L’insurrection qui vient) dans la bibliothèque de Mr Coupat était devenu une preuve d’intention terroriste: qui pensait que le délit de lecture pouvait être de retour en France ? Vérifiez vite les e-book que vous avez téléchargé dans votre liseuse !
Cet espionnage est justifié de multiples manière : la protection des droits d’auteurs, la lutte contre la pédopornographie, la lutte anti-terroriste, les « dangers d’Internet » pour les enfants, etc. Chacun de ces combats est justifiable politiquement et recouvre à chaque fois un peu plus de nos espaces de liberté… jusqu’à ne laisser de place sur le marché que pour les firmes proposant des « applications » calibrées et centralisées à la sauce Apple, avec lesquelles il deviendra impossible d’être anonyme ou de partager quoique ce soit.
C’est pour ces raisons, de manière à construire des médias libres, que « nous avons besoin de logiciels libres, de matériels libres et de bande passante libre ». Eben Moglen cristallise ici la question fondamentale que pose le Libre depuis ses débuts : sommes nous prêts à utiliser des logiciels ou des services, aussi performants et séducteurs soient-ils, en échange de nos libertés ? La réponse est « non », elle doit être « non ».
21.10.2012 à 02:00
Aux sources de l’utopie numérique
Stewart Brand occupe une place essentielle, celle du passeur qui au-delà de la technique fait naître les rêves, les utopies et les justifications auto- réalisatrices. Depuis la fin des années soixante, il a construit et promu les mythes de l’informatique avec le Whole Earth Catalog, le magazine Wired ou le système de conférences électroniques du WELL et ses communautés virtuelles. Aux sources de l’utopie numérique nous emmène avec lui à la découverte du mouvement de la contre-culture et de son rôle déterminant dans l’histoire de l’internet.
Turner, Fred. Aux sources de l’utopie numérique. De la contre-culture à la cyberculture : Stewart Brand, un homme d’influence. C&F éditions, 2012.
Lien vers le site de l’éditeur : https://cfeditions.com/utopieNumerique/
16.10.2012 à 02:00
Le plagiat, les sciences et les licences libres
Ces 5-6 dernières années, la question du plagiat dans les sciences est devenu un thème de recherche à part entière. On peut saluer le nombre croissant de chercheurs qui s’intéressent à cette question à double titre: d’abord parce que le plagiat est un phénomène social, mais aussi parce que ce phénomène (pourtant très ancien) illustre combien les sciences ne constituent pas cet édifice théorique et inébranlable de l’objectivité qu’il serait étonnant de voir un jour s’effriter.
Qu’est-ce que le plagiat ?
Parmi ces chercheurs, on remarquera plus particulièrement Michelle Bergadaà, de l’Université de Genève, qui a créé en 2004 le site responsable.unige.ch. Elle fut l’un des premiers chercheurs à recueillir une multitude d’informations sur des cas de plagiat et à dresser une typographie des plagiats scientifiques. Elle a montré aussi que la reconnaissance des cas de plagiat ne peut manifestement pas se contenter d’une réponse juridique, mais qu’il appartient à la communauté des chercheurs de réguler des pratiques qui vont à l’encontre des principes de la recherche scientifique, en particulier la nécessité de citer ses sources et d’éviter la redondance au profit de l’avancement des sciences.
En 2012, Michelle Bergadaà a publié un article bien documenté et accessible, intitulé « Science ou plagiat », dans lequel elle montre que la conjonction entre le peer review process, qui fait des revues non plus des instruments de diffusion de connaissance mais des « instruments de prescription et de référencement à l’échelle mondiale » (comprendre: le système du publish or perish), et le web comme outil principal de communication et de diffusion des productions des chercheurs, cause l’opposition de deux modes de rapports au savoir:
Un malentendu s’installe entre ceux qui restent fidèles au savoir scientifique véhiculé par les revues traditionnelles et ceux qui défendent le principe des licences libres inscrites dans une logique de savoir narratif. Cette tension apparaît dans la manière dont est compris et souvent envisagé le modèle de production des Creative Commons ou licences libres, issues du monde du logiciel. Ce modèle vise d’abord à partager l’information, à l’enrichir, et non la rendre privative. Il est possible de copier et de diffuser une œuvre, à condition de respecter la licence choisie ; de la modifier à condition de mentionner la paternité de l’œuvre. Il correspond donc précisément aux pratiques canoniques de la recherche scientifique : publier et diffuser les connaissances le plus largement possible permettant de s’appuyer sur les résultats et les productions des autres chercheurs pour faire avancer le savoir.
Cette analyse assimile le web à un endroit où se partagent, de manière structurée, les productions scientifiques, que ce lieu de partage est fondamentalement différent des lieux « traditionnels » de partage, et que donc les défenseurs de ces lieux traditionnels ne comprennent pas leur propre miroir numérique… Je parle de miroir car en effet, ce que M. Bergadaà ne fait que sous entendre par le terme « malentendu », c’est que les licences libres permettent de remettre en cause l’ensemble du système de production, diffusion et évaluation scientifique. Elles démontrent même que le sens du plagiat n’est pas le même et ne questionne pas les mêmes valeurs selon qu’on se situe dans une optique ou dans l’autre. C’est une accusation radicale du système d’évaluation scientifique qu’il faut porter une fois pour toute et la « lutte » contre le plagiat est, à mon sens, l’un des premiers pas de cette étape réflexive. Il est donc important de bien situer ce « malentendu », et la question du plagiat est un bon levier.
Qu’est-ce que le plagiat, aujourd’hui? N’est-il pas le « côté obscur » du sentiment légitime que les connaissances appartiennent à tous ? Dans le domaine du logiciel libre, prendre du code et le diffuser sans porter le crédit du créateur originel, même lorsqu’on modifie une partie de ce code, cela s’appelle le resquillage. Selon la législation nationale du pays où se déroule le resquillage, cette attitude peut se condamner devant les tribunaux. De même, du point de vue du droit d’auteur, reprendre à son compte des pans entiers voire la totalité d’une oeuvre sans citer l’auteur, c’est interdit et va à l’encontre du droit (moral) d’auteur.
Au-delà du droit d’auteur
Mais tant que l’on en reste là, c’est à dire à la question du droit d’auteur, on passe à côté du vrai problème de la diffusion des connaissances scientifiques: dans la mesure où un chercheur publie le résultat de recherches menées sur fonds publics (et même privés, dirai-je, mais cela compliquerait notre réflexion à ce stade) comment peut-on considérer un instant que le texte qu’il produit et les analyses qu’il émet puissent être l’objet d’un droit d’auteur exclusif ? c’est là qu’interviennent les licences libres: qu’un droit d’auteur doive être reconnu, en raison de la paternité de l’oeuvre (ou même de la découverte), mais que ce droit soit protégé tout en permettant la diffusion la plus large possible.
Ce qui pose donc problème, ce n’est pas le droit d’auteur, c’est l’exclusivité ! Lorsqu’un texte scientifique est plagié, aujourd’hui, qui est réellement lésé et en quoi ?
- L’auteur ? dans la mesure où il est censé publier pour la postérité et dans le but de diffuser les connaissances le plus largement possible, ce qui lui pose alors problème est sa fierté et le fait que l’oeuvre dérivée ne reconnaisse pas sa paternité. Il s’agit-là d’un point de vue personnel, et un auteur pourrait prendre cela de manière plus ou moins heureuse. Par contre, cela pose problème dans le cadre de l’évaluation scientifique : moins d’impact factor à son crédit. On touche ici un des nombreux points faibles de l’évaluation de la recherche.
- La revue? très certainement, dans la mesure où elle a les droits exclusifs de l’exploitation d’une oeuvre. Ici, ce sont les aspects purement financiers qui sont en cause.
- La communauté des chercheurs et, au delà, l’humanité ? c’est sans doute le plus important et ce qui devrait passer au premier plan ! Tout resquillage en science revient à fouler aux pieds les principes de l’avancement scientifique: la production de connaissances nouvelles.
Mais alors, d’où vient le malentendu ? Tout le monde s’accorde pour reconnaître que les productions des chercheurs doivent être diffusées le plus largement possible (on pourra se questionner sur l’exclusivité d’exploitation des revues et les enjeux financiers). De même, tout le monde s’accorde sur le fait que la paternité d’un texte doit être reconnue à travers le droit d’auteur. Par conséquent, puisque les licences libres doublent le droit d’auteur de conditions permissives d’exploitation des oeuvres par l’humanité entière, d’où vient la réticence des défenseurs du système traditionnel de la publication revue par les pairs face aux licences libres (et peut-être au web en général) ?
Lorsqu’on discute avec ces traditionalistes de la production scientifique évaluée par les copains, les poncifs suivants ont tendance à ressortir:
- l’absence d’évaluation dans cette jungle du web dont Wikipédia et consors représentent le pire des lieux de partage de connaissances forcément faussées puisque les articles sont rarement écrits par les « spécialistes » du domaine ;
- la validation du travail de chercheur passe exclusivement par l’évaluation de la part de « spécialistes » reconnus. Cela se fait grâce aux revues qui se chargent de diffuser les productions pour le compte des chercheurs (notamment en s’attribuant le copyright, mais là n’est pas la question) ;
- il faut éviter que des « non-spécialistes » puisse s’autoriser à porter un jugement sur mes productions scientifiques, cela serait non seulement non recevable mais présenterait aussi un danger pour la science qui ne doit être faite que par des scientifiques.
À ces poncifs, on peut toujours en rétorquer d’autres :
- Comment définir un « spécialiste » puisqu’il n’y a que des degrés de compétences et que tout repose sur l’auto-évaluation des pairs à l’intérieur d’une seule communauté de chercheurs. Ainsi, les spécialistes en biologie du Bidule, ne sont reconnus que par les spécialistes en Biologie du Bidule. Et en cas de controverse on s’arrange toujours pour découvrir que Dupont était en réalité spécialiste en biologie du Machin.
- Les évaluateurs des revues ([voire les revues elles mêmes](http://www.the-scientist.com/?articles.view/articleNo/27376 « The Scientist. L’affaire Merck »)) ont bien souvent des conflits d’intérêts même s’ils déclarent le contraire. En effet, un conflit d’intérêt est souvent présenté comme un conflit qui ne concerne que les relations entre un chercheur et les complexes industriels ou le système des brevets, qui l’empêcheraient d’émettre un jugement fiable sur une production scientifique qui remettrait en cause ces intérêts. Or, que dire des évaluateurs de revues (ou d’appel à projet) qui ont eux-mêmes tout intérêt (en termes de carrière) à être les (presque) seuls reconnus spécialistes du domaine ou, d’un point de vue moins individualiste, donner toutes les chances à leur propre laboratoire ? le monde de la recherche est un territoire de plates-bandes où il ne fait pas bon venir sans avoir d’abord été invité (demandez à tous les doctorants).
- Enfin, relativisme extrême: pourquoi la fameuse « société civile » ne pourrait porter un jugement sur les productions scientifiques? Parce que, ma bonne dame, c’est pour cela qu’on l’appelle « société civile » : à elle Wikipédia et à nous la vraie science. Après tout c’est à cause de ce relativisme qu’on en vient à réfuter le bien fondé des essais nucléaires ou la salubrité des OGMs.
Privilégier la diffusion
Il faut dépasser ces poncifs…. je réitère la question : d’où vient ce malentendu ? Il vient du fait qu’on doit aujourd’hui considérer que les limites entre les communautés scientifiques entre elles (les « domaines de compétence ») et avec la « société civile » deviennent de plus en plus ténues et que, par conséquent, les licences libres impliquent que les scientifiques soient prêts à assumer trois choses :
- privilégier la diffusion des connaissances sur leur distribution protégée par l’exclusivité des revues, car cette exclusivité est un rempart contre les critiques extérieures à la communauté (voire extérieures aux cercles parfois très petits de chercheurs auto-cooptés), et aussi un rempart financier qui empêche l’humanité d’avoir un accès total aux connaissances, grâce au web, ce qu’elle réclame aujourd’hui à grands cris, surtout du côté des pays où la fracture numérique est importante ;
- que les scientifiques – et nombreux sont ceux qui ont compris cette évidence –, ne peuvent plus continuer à produire des connaissances à destination exclusive d’autres scientifiques mais bien à destination du Monde: c’est à dire qu’on ne produit des connaissances non pour être évalué mais pour l’humanité, et que ce principe doit prévaloir face à la gouvernance des sciences ou à l’économie de marché;
- que le plagiat ne doit pas être condamné parce qu’il est malhonnête vis à vis de l’auteur, mais parce qu’il est tout simplement immoral, tout autant que la course à la publication et la mise en concurrence des chercheurs. Plus cette concurrence existera, plus la “société civile” la remplacera par d’autres systèmes de production scientifique: imaginez un monde où 50% des chercheurs publient leurs articles sur leurs blog personnels ou des sites collaboratifs dédiés et ouvert à tous (pourquoi pas organisés par les universités elles-mêmes) et où l’autre moitié des chercheurs accepte cette course au peer review pour gagner des points d’impact. Qui osera dire que la première moitié des productions ne mérite pas d‘être reconnue comme scientifique parce qu’elle n’est pas évaluée par des pairs à l’intérieur de revues de catégorie A, B, ou C ?
Voici le postulat: il est préférable de permettre aux pairs et au monde entier d’apprécier une oeuvre scientifique dont on donne à priori l’autorisation d’être publiée, que de ne permettre qu’au pairs d’évaluer cette production et ne donner l’autorisation de publication (exclusive) qu’à postériori.
Les licences libres n’interviennent que de manière secondaire, pour asseoir juridiquement les conditions de la diffusion (voire des modifications).
La conséquence, du point de vue du plagiat, c’est que l’oeuvre est connue à priori et par le plus grand nombre : cela diminue radicalement le risque de ne pas démasquer le plagiat, en particulier grâce aux moteurs de recherche sur le web.
Par ailleurs, dans ces conditions, si l’oeuvre en question n’est pas « scientifiquement pertinente », contient des erreurs ou n’obéit pas à une méthodologie correcte, c’est toute la communauté qui pourrait alors en juger puisque tous les agents, y compris les plus spécialistes, seraient en mesure de publier leurs évaluations. Il appartient donc aux communautés scientifiques, dès maintenant, de multiplier les lieux où l’exercice de la recherche scientifique pourrait s’accomplir dans une transparence quasi-absolue et dans une indépendance totale par rapport aux revues comme aux diktat de l’évaluation à tout va. C’est le manque de transparence qui, par exemple, implique l’anonymat des évaluateurs alors même que ce sont des « pairs » (j’aime l’expression « un article de pair inconnu »): ne serait-il pas juste qu’un évaluateur (comme le ferait un critique littéraire) ne se cache pas derrière le nom de la revue, afin que tout le monde puisse juger de son impartialité ? Voilà pourquoi il faut ouvrir à priori la diffusion des articles : les évaluations publiques seront toujours plus recevables que les évaluations anonymes, puisqu’elles n’auront rien à cacher et seront toujours potentiellement discutées entre lecteurs. Là encore les cas de plagiat seraient très facilement identifiés et surtout discutés.
Il se pourrait même que le modèle économique du logiciel libre puisse mieux convenir à l’économie de la Recherche que les principes vieillissants du système dominant.
- Persos A à L
- Carmine
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- Lionel DRICOT (PLOUM)
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Jean-Luc MÉLENCHON
- Romain MIELCAREK
- MONDE DIPLO (Blogs persos)
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Timothée PARRIQUE
- Thomas PIKETTY
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- LePartisan.info
- Numérique
- Blog Binaire
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Tristan NITOT
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Économistes Atterrés
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD