05.04.2013 à 02:00
Sécurité informatique: le CAS plaide pour l'ouverture
En matière de sécurité informatique, on ne le répétera jamais assez, les internautes sont bien souvent de vraies billes. Des mots de passe trop simples, utilisés pour tout type de connexion et n’importe quel site, utilisation de services Web gratuits mais peu respectueux des données personnelles… Sur un mode paranoïaque (mais sans exagération et en toute objectivité), tous ces usages inconsidérés concourent à la création d’un Internet policier digne des pires dictatures. Le Centre d’Analyse Stratégique a produit récemment une note intéressante en faveur d’un Internet ouvert et d’une informatique ouverte. Une analyse un peu à contre-courant du refrain habituel des politiques au service de l’industrie logicielle…
Cessons d’en douter, nos mauvaises habitudes sur nos outils informatiques sont dangereuses à la fois pour nous mêmes mais aussi pour la sécurité nationale, à commencer par les réseaux sociaux gratuits, première forme d’intrusion pour le cyberespionnage. L’utilisation de nos portables personnels (le plus souvent sans cryptage et sans mot de passe à l’ouverture) à des fins professionnelles sont aussi des techniques très faciles qui favorisent l’intrusion. Ces dernières années de multiples services et dispositifs informatiques se sont multipliés dans nos vies, et la diffusion de nos données personnelles ou professionnelles, que ce soit à des fins commerciales, de surveillance, ou d’espionnage (les trois étant souvent fortement liées) n’ont jamais été aussi faciles d’accès.
Nous faisons confiance à des société privées pour stocker nos données, nous faisons confiance à des sociétés privées pour utiliser des logiciels dont nous ignorons tout de la manière dont ils traitent nos données personnelles et professionnelles. Mais “nous” ne sommes pas les seuls. Les services de l’État sont eux-mêmes victimes de réflexes inconsidérés, comme le montrent par exemple les contrats passés avec des firmes privées (en particulier Microsoft) pour exploiter des services “clé en main”. Sur bien des points, des pans entiers du Service Public ont cédé au confort de la déresponsabilisation consistant à reporter l’engagement de sécurité des données sur des firmes privées, comme si des chartes et des contrats de papier apportaient à eux seuls le minimum de garantie. Qu’il s’agisse des logiciels privateurs utilisés sur nos machines personnelles ou ces mêmes logiciels utilisés à l’intérieur de l’administration publique, la fermeture du code et la boîte noire des brevets logiciels reportent fatalement la sécurité des données sur la seule garantie de la transaction, du contrat, de la bonne foi… et pas sur ce qui devrait être diffusé : le code. La séparation entre les utilisateurs et les concepteurs en matière d’informatique, surtout élevée aux plus hauts niveaux des besoins de sécurité, est une grossière erreur. Le constat est le même du côté des entreprises, qu’il s’agisse de celles qui exploitent nos données à des fins commerciales ou celles qui figurent parmi les plus innovantes et qui, pourtant, prennent bien plus de précaution.
Dans sa Note d’Analyse 324 de mars 2013, le Centre d’Analyse Stratégique fait une synthèse des questions actuelles de cybersécurité. La conclusion est la suivante :
Pour élever le niveau de sécurité, tout en tirant profit des avantages d’un Internet ouvert et décentralisé, les organisations doivent adopter une démarche rationnelle d’analyse de risques afin de mettre en œuvre une réponse adaptée sur le plan technique et organisationnel. L’offre nationale de solutions de sécurité doit également se structurer pour permettre une meilleure valorisation des compétences technologiques françaises et garantir un plus haut degré de souveraineté.
Laissons de côté la question d’un “Internet Policier”, qui n’est finalement pas le centre du rapport et concentrons-nous sur l’idée que la sécurité doit tirer avantage d’un “Internet ouvert décentralisé”. Tout est dans ces deux mots: “ouvert” et “décentralisé”. Bien évidemment! Il suffisait d’y penser! Sauf que cela fait des années que les Internautes les plus éclairés, les hackers et avec eux tout le mouvement du logiciel libre prônent cette ouverture et cette décentralisation. Qu’est-ce que cela veut dire exactement ?
Du point de vue de nos usages personnels, la décentralisation signifie que nous devons absolument cesser d’utiliser la pléthore de services gratuits pour stocker nos données tout en acceptant des conditions d’utilisation que nous ne lisons même pas. En gros : accepteriez-vous que, avant de les placer dans votre boîte, le facteur apporte d’abord vos lettres au magasin de meuble de votre quartier afin que celui-ci sache de quelle publicité vous avez besoin et dresse votre profil de consommateur? C’est pourtant exactement ce qui se passe chaque fois que vous recevez un courriel via votre compte gracieusement hébergé par des firmes bien connues. Videz-vous souvent le cache de votre explorateur ? Accepteriez-vous que ces mêmes firmes privées, qui s’approprient vos données, acceptent de donner à l’État l’historique de vos transfert de données afin que des firmes vous poursuivent (c’est le rôle d’Hadopi) ou afin de démontrer vos agissements en faveur de davantage de démocratie dans votre pays (voir l’exemple de Yahoo! en Chine). Décentraliser les données signifie donc que nous devons rester maîtres et possesseurs de nos données, savoir à tout moment où elles se trouvent et par qui elles peuvent être lues, et donc pour cela utiliser des outils adéquats: héberger ses propres données sur son propre serveur à la maison (auto-hébergement), pour le mail comme pour votre page personnelle ou votre Cloud, savoir crypter ses courriels (PGP), etc.
Du point de vue des entreprises (et en particulier, par exemple, les journalistes) ou des services publics, la décentralisation revient à appliquer ces mêmes principes, présents depuis le début de l’Internet et DES réseaux. Dans leur grande majorité les responsables sont des personnes très informées sur ces questions et savent exactement comment optimiser la sécurité. Seulement, voilà, il existe des obstacles, ceux mentionnés par le CAS, et qui ont la particularité d’être finalement les mêmes que ceux rencontrés par les utilisateurs individuels.
Du point de vue de l’ouverture, la situation est encore plus simple : il ne saurait être acceptable d’utiliser des logiciels dont nous ne savons rien de la manière dont ils traitent nos données. Les sur-couches utilisées par les firmes pour “faciliter notre expérience utilisateur” sont, à 99% des cas, des verrous qui nous empêchent de maîtriser nos données. Une belle illustration réside dans les “stores”, qui nous obligent, en tant qu’utilisateurs, à ne pouvoir utiliser que des logiciels au préalable agréés par la firme qui produit le système d’exploitation que nous utilisons : fermeture du code, impossibilité d’adapter le code à nos besoins, obligation d’accepter qu’en échange une partie de nos données personnelles soient envoyées, stockées et utilisées à des fins commerciales… ou moins avouables.
Tous ces verrous mis en place ces dernières années l’ont été de manière insidieuse, en échange de biens et de services auxquels nous n’avions jamais rêvé auparavant : se rapprocher de ses “amis” en utilisant un réseau social, obtenir “enfin” de la publicité ciblée, télécharger toujours plus vite des morceaux musicaux (sans pouvoir se les approprier vraiment), bref tout ce qui a fait qu’Internet est passé dans les représentations d’un moyen décentralisé de communication (de pair à pair) à une sorte de grosse télévision collective sans que nous puissions le moins du monde influencer les programmes.
Je m’éloigne du sujet ? non. car il est temps maintenant de divulguer les 4 paragraphes les plus importants de cette analyse du CAS (page 11):
Des blocages juridiques dommageables pour la sécurité Le cadre juridique français crée de nombreux blocages susceptibles d’affecter la sécurité des systèmes d’information :
- la loi Godfrain de 1988(55) réprime les comportements informatiques “agressifs” : appliquée de manière stricte, elle condamne pénalement le fait de divulguer publiquement une faille de sécurité jusque-là inconnue (sécurité par transparence ou full disclosure) alors que cela incite les éditeurs de logiciels à concevoir des correctifs ;
- la rétroingénierie, qui consiste à étudier un objet pour en déterminer son fonctionnement interne ou sa méthode de fabrication, est interdite lorsqu’elle est effectuée pour des raisons de sécurité informatique(56). C’est pourtant le seul moyen d’évaluer le degré de sécurité de produits propriétaires ;
- des mesures techniques de protection (57) d’œuvres numériques peuvent créer des vulnérabilités dans les systèmes d’information. Ainsi, le système de protection XCP installait automatiquement un logiciel contenant des failles de sécurité lors de la lecture d’un CD audio. Or le contournement de ces mesures est interdit par la loi relative au droit d’auteur et aux droits voisins dans la société de l’information (DADVSI, 2006) ;
- les brevets logiciels offrent la possibilité d’obtenir un monopole sur des techniques algorithmiques, y compris lorsque celles-ci sont nécessaires pour assurer la sécurité. L’article 52 de la Convention sur le brevet européen de 1973(58) exclut les “programmes d’ordinateur” du champ des inventions brevetables, mais l’Office européen des brevets (OEB) délivre en pratique des brevets logiciels en raison d’une interprétation extensive de la Convention et d’un modèle économique et de gouvernance discutable.
Si on interprète dans l’ordre des 4 points, cela donne :
- Point 1 : ne pas séparer utilisateurs et programmeurs. Les premiers doivent pouvoir faire remonter plus facilement les améliorations des logiciels et les second doivent pouvoir s’approprier les commentaires… Dans ce cas de figure les utilisateurs doivent pouvoir eux-mêmes contribuer aux programmes en remontant les correctifs. Cela implique que le code doit être accessible.
- Point 2 : le code doit être ouvert et accessible (donc modifiable) de manière à évaluer son degré de sécurité (son adaptation au besoin). Cette évaluation du code ne doit pas être faite uniquement par le concepteur (c’est un peu comme si vous demandiez à vote concessionnaire automobile si la voiture qu’il veut vous vendre est une bonne voiture, c’est pourtant ce qu’il se passe même aux plus hauts niveaux décisionnels).
- Mettre fin aux dispositifs de verrous numériques qui provoquent eux-mêmes des failles de sécurité au nom de l’intérêt des firmes. Ce point ne nécessite pas de commentaires, c’est le simple bon sens qui est à l’oeuvre.
- Mettre fin aux brevets logiciel qui imposent un black-out total sur le code au nom de la propriété intellectuelle. Ce point ne devrait pas être négociable lorsqu’il s’agit de sécurité des données… or c’est presque toujours de la sécurité des données qu’il s’agit. Donc briser les brevets logiciels devrait être une mesure qui s’impose partout et tout le temps.
En conclusion: l’utilisation des logiciels libres devrait s’imposer partout de manière à augmenter l’efficacité des mesures de sécurité (et donc la protection des données) grâce à l’accès aux programmes. Cela n’empêche nullement les firmes de travailler et d’innover, bien au contraire, puisque l’innovation serait une œuvre concertée vers plus d’efficacité dans les produits, et donc plus de sécurité, plus de respect des libertés (des individus, des services de l’État, des entreprises). C’est bien le but recherché, non ?
01.02.2013 à 01:00
L’éthique des hackers
Qui aurait cru qu’une poignée de hackers binoclards seraient à l’origine de la plus grande révolution du XXe siècle ? Le livre culte de Steven Levy, histoire vraie de l’équipe de geeks qui ont changé le monde.
Précision : un « hacker » n’est pas un vulgaire « pirate informatique ». Un hacker est un « bricoleur de code ». Son truc : plonger dans les entrailles de la machine.
Bill Gates, Steve Jobs, Steve Wozniak, Mark Zuckerberg ont commencé leurs brillantes carrières comme hackers… La plupart ne paient pas de mine mais tous partagent une même philosophie, une idée simple et élégante comme la logique qui gouverne l’informatique : l’ouverture, le partage, le refus de l’autorité et la nécessité d’agir par soi-même, quoi qu’il en coûte, pour changer le monde.
C’est ce que Steven Levy appelle l’Éthique des hackers, une morale qui ne s’est pas exprimée dans un pesant manifeste, mais que les hackers authentiques ont mise en pratique dans leur vie quotidienne. Ce sont eux qui ont œuvré, dans l’obscurité, à la mise en marche de la révolution informatique.
Depuis les laboratoires d’intelligence artificielle du MIT dans les années 1950 jusqu’aux gamers des années 1980, en passant par toutes les chambres de bonne où de jeunes surdoués ont consacré leurs nuits blanches à l’informatique, Steven Levy les a presque tous rencontrés. Voici leur histoire.
Levy, Steven. L’éthique des hackers, Globe, 2013.
Lien vers le site de l’éditeur : https://www.editions-globe.com/lethique-des-hackers/
18.11.2012 à 01:00
Eben Moglen: nous n'avons pas intégré l'anonymat quand nous avons construit le Net
La liberté de penser, voilà un concept que tout le monde est prêt à défendre. Seriez-vous prêt à le défendre bec et ongle, et même donner votre vie pour cette cause? Cette question n’est pas subtile… parce que les enjeux sont beaucoup plus subtiles que ce que tout le monde imagine. La question est plutôt de savoir jusqu’où vous êtes prêt à sacrifier un peu de cette liberté pour obtenir des services et des biens qui vous donnent l’impression de pouvoir vous exprimer librement ? La génération actuelle des utilisateurs d’Internet a la possibilité aujourd’hui de corriger le principal biais du système nerveux mondial qu’est Internet: la surveillance totale de la société humaine. Voilà pourquoi “nous avons besoin de logiciels libres, de matériels libres et de bande passante libre”. Voyons un peu ce qu’en dit Eben Moglen…
Prenez-le temps de regarder cette vidéo… (qui est Eben Moglen ?)
Le 20e siècle a connu les pires atrocités (aussi bien physiques que psychologiques), des guerres durant lesquelles le silence des esprits était aussi meurtrier que les obus. La censure était cependant visible (du moins, certains l’ont dénoncée) et l’expression était condamnée au moment où elle franchissait les limites de ce que le pouvoir avait décidé. C’était le cas dans les dictatures modernes de l’Allemagne nazie au Chili de Pinochet, en passant par la Chine et l’Iran. Mais pensez-vous que la censure tombe avec les dictateurs ? Ce serait bien naïf. On sait depuis quelque temps déjà qu’en démocratie aussi les opinions publiques se manipulent, ce que certains ont appelé la “fabrique du consentement”. Aujourd’hui, depuis que l’Internet est devenu un outil de communication de masse, le pouvoir des États est de plus en plus investi d’une mission de surveillance totale par les groupes d’intérêts, y compris les lobbies politiques, dont les intérêts vont radicalement à l’encontre de la diffusion des connaissances, de l’information et de la liberté d’expression. La question Hadopi en France est une illustration convaincante de ce que l’industrie du divertissement peut exiger d’un État pour qu’il espionne ses citoyens.
Aujourd’hui, Eben Moglen (voir sa fiche sur Wikipedia) part d’un constat assez grave : « Nous n’avons pas intégré l’anonymat quand nous avons construit le Net ». C’est entièrement vrai. Internet s’est construit sur la base des échanges d’informations à l’intérieur de petites communautés de programmeurs et de chercheurs, sur des bases de confiances et une croyance positive en ce que l’Internet allait changer le monde. Cet enthousiasme a sans doute effacé des esprits le fait que plus vous proposez aux individus des moyens de se cultiver et d’échanger des informations, plus le pouvoir des États perd de l’influence sur ces mêmes individus. Cela est d’autant plus vrai que les turpitudes des hommes politiques sont levées au grand jour par des groupes d’expression libre ou lorsque s’organisent à grande vitesse des résistances ou des révolutions grâce à ce réseau ultra rapide qu’est Internet.
Sur la dangerosité des réseaux sociaux, la question n’est évidemment pas de savoir si diffuser la photo de son chien est dangereux ou pas. La question est de savoir si il est acceptable que l’on puisse profiler votre identité de manière aussi fine que le peuvent les réseaux sociaux, et que cela soit analysé à la fois par les États et des groupes commerciaux dont les collusions avec les États sont évidentes. Comme le dit Eben Moglen, et sans exagérer :
La Stasi ne coûterait plus rien si elle revenait, car Suckerberg fait le boulot à sa place. […] Donc, la forme primaire de collecte qui devraient nous inquiéter le plus est que les médias nous espionnent pendant que nous les utilisons. Les livres qui nous regardent les lire, la musique qui nous écoute en train de l’écouter. Les moteurs de recherche qui surveillent ce que nous recherchons pour ceux qui nous recherchent et ne nous connaissent pas encore.
La plupart des citoyens ont du mal à comprendre ce genre de réflexion car cela les dépasse d’un point de vue technique : ils utilisent des technologies qu’ils ne comprennent pas. On peut toujours rétorquer que la plupart des conducteurs d’automobiles ne savent pas comment fonctionne un moteur à explosion. C’est vrai, mais l’analogie n’est pas la bonne. On ne parle pas ici de la manière dont est construit un ordinateur, on parle de la manière dont sont perçues, enregistrées et traitées les informations que vous transmettez grâce à lui. Par exemple, tout le monde peut comprendre qu’indiquer son nom et son adresse comme condition préalable à l’utilisation d’un logiciel que venez d’installer sur votre machine n’est pas du tout nécessaire pour faire fonctionner ce programme. De la même manière tout le monde peut s’interroger sur le fait qu’acheter un livre à lire sur une tablette Kindle ou un fichier musical sur votre IPhone devrait être une opération irréversible (ce livre ou ce fichier musical sont censés vous appartenir) et que, par conséquent, si vous avez envie de les prêter à quelqu’un, vous devriez pouvoir le faire. Par contre tout le monde n’a pas étudié d’assez près le fonctionnement des systèmes informatiques pour comprendre comment ces barrières ont été rendues possibles et comment certains acteurs économiques et politiques peuvent désormais connaître et décider le contenu des informations qu’ils partagent et comment ils les partagent.
Prenons enfin un cran plus haut. L’espace dans lequel nous évoluons avec Internet a besoin de sécuriser la liberté d’expression avant que l’espionnage de nos vies interdise les usages de cette liberté. Est-il acceptable que l’enregistrement (éternel) de vos recherches sur Google ou vos « amis » sur Facebook puisse devenir un élément à charge contre vous si votre pays devient une dictature et si vous n’avez pas glissé votre bulletin dans la bonne urne ? Souvenez vous cet épisode de l’affaire Tarnac où la seule présence d’un livre (L’insurrection qui vient) dans la bibliothèque de Mr Coupat était devenu une preuve d’intention terroriste: qui pensait que le délit de lecture pouvait être de retour en France ? Vérifiez vite les e-book que vous avez téléchargé dans votre liseuse !
Cet espionnage est justifié de multiples manière : la protection des droits d’auteurs, la lutte contre la pédopornographie, la lutte anti-terroriste, les « dangers d’Internet » pour les enfants, etc. Chacun de ces combats est justifiable politiquement et recouvre à chaque fois un peu plus de nos espaces de liberté… jusqu’à ne laisser de place sur le marché que pour les firmes proposant des « applications » calibrées et centralisées à la sauce Apple, avec lesquelles il deviendra impossible d’être anonyme ou de partager quoique ce soit.
C’est pour ces raisons, de manière à construire des médias libres, que « nous avons besoin de logiciels libres, de matériels libres et de bande passante libre ». Eben Moglen cristallise ici la question fondamentale que pose le Libre depuis ses débuts : sommes nous prêts à utiliser des logiciels ou des services, aussi performants et séducteurs soient-ils, en échange de nos libertés ? La réponse est « non », elle doit être « non ».
21.10.2012 à 02:00
Aux sources de l’utopie numérique
Stewart Brand occupe une place essentielle, celle du passeur qui au-delà de la technique fait naître les rêves, les utopies et les justifications auto- réalisatrices. Depuis la fin des années soixante, il a construit et promu les mythes de l’informatique avec le Whole Earth Catalog, le magazine Wired ou le système de conférences électroniques du WELL et ses communautés virtuelles. Aux sources de l’utopie numérique nous emmène avec lui à la découverte du mouvement de la contre-culture et de son rôle déterminant dans l’histoire de l’internet.
Turner, Fred. Aux sources de l’utopie numérique. De la contre-culture à la cyberculture : Stewart Brand, un homme d’influence. C&F éditions, 2012.
Lien vers le site de l’éditeur : https://cfeditions.com/utopieNumerique/
16.10.2012 à 02:00
Le plagiat, les sciences et les licences libres
Ces 5-6 dernières années, la question du plagiat dans les sciences est devenu un thème de recherche à part entière. On peut saluer le nombre croissant de chercheurs qui s’intéressent à cette question à double titre: d’abord parce que le plagiat est un phénomène social, mais aussi parce que ce phénomène (pourtant très ancien) illustre combien les sciences ne constituent pas cet édifice théorique et inébranlable de l’objectivité qu’il serait étonnant de voir un jour s’effriter.
Qu’est-ce que le plagiat ?
Parmi ces chercheurs, on remarquera plus particulièrement Michelle Bergadaà, de l’Université de Genève, qui a créé en 2004 le site responsable.unige.ch. Elle fut l’un des premiers chercheurs à recueillir une multitude d’informations sur des cas de plagiat et à dresser une typographie des plagiats scientifiques. Elle a montré aussi que la reconnaissance des cas de plagiat ne peut manifestement pas se contenter d’une réponse juridique, mais qu’il appartient à la communauté des chercheurs de réguler des pratiques qui vont à l’encontre des principes de la recherche scientifique, en particulier la nécessité de citer ses sources et d’éviter la redondance au profit de l’avancement des sciences.
En 2012, Michelle Bergadaà a publié un article bien documenté et accessible, intitulé « Science ou plagiat », dans lequel elle montre que la conjonction entre le peer review process, qui fait des revues non plus des instruments de diffusion de connaissance mais des « instruments de prescription et de référencement à l’échelle mondiale » (comprendre: le système du publish or perish), et le web comme outil principal de communication et de diffusion des productions des chercheurs, cause l’opposition de deux modes de rapports au savoir:
Un malentendu s’installe entre ceux qui restent fidèles au savoir scientifique véhiculé par les revues traditionnelles et ceux qui défendent le principe des licences libres inscrites dans une logique de savoir narratif. Cette tension apparaît dans la manière dont est compris et souvent envisagé le modèle de production des Creative Commons ou licences libres, issues du monde du logiciel. Ce modèle vise d’abord à partager l’information, à l’enrichir, et non la rendre privative. Il est possible de copier et de diffuser une œuvre, à condition de respecter la licence choisie ; de la modifier à condition de mentionner la paternité de l’œuvre. Il correspond donc précisément aux pratiques canoniques de la recherche scientifique : publier et diffuser les connaissances le plus largement possible permettant de s’appuyer sur les résultats et les productions des autres chercheurs pour faire avancer le savoir.
Cette analyse assimile le web à un endroit où se partagent, de manière structurée, les productions scientifiques, que ce lieu de partage est fondamentalement différent des lieux « traditionnels » de partage, et que donc les défenseurs de ces lieux traditionnels ne comprennent pas leur propre miroir numérique… Je parle de miroir car en effet, ce que M. Bergadaà ne fait que sous entendre par le terme « malentendu », c’est que les licences libres permettent de remettre en cause l’ensemble du système de production, diffusion et évaluation scientifique. Elles démontrent même que le sens du plagiat n’est pas le même et ne questionne pas les mêmes valeurs selon qu’on se situe dans une optique ou dans l’autre. C’est une accusation radicale du système d’évaluation scientifique qu’il faut porter une fois pour toute et la « lutte » contre le plagiat est, à mon sens, l’un des premiers pas de cette étape réflexive. Il est donc important de bien situer ce « malentendu », et la question du plagiat est un bon levier.
Qu’est-ce que le plagiat, aujourd’hui? N’est-il pas le « côté obscur » du sentiment légitime que les connaissances appartiennent à tous ? Dans le domaine du logiciel libre, prendre du code et le diffuser sans porter le crédit du créateur originel, même lorsqu’on modifie une partie de ce code, cela s’appelle le resquillage. Selon la législation nationale du pays où se déroule le resquillage, cette attitude peut se condamner devant les tribunaux. De même, du point de vue du droit d’auteur, reprendre à son compte des pans entiers voire la totalité d’une oeuvre sans citer l’auteur, c’est interdit et va à l’encontre du droit (moral) d’auteur.
Au-delà du droit d’auteur
Mais tant que l’on en reste là, c’est à dire à la question du droit d’auteur, on passe à côté du vrai problème de la diffusion des connaissances scientifiques: dans la mesure où un chercheur publie le résultat de recherches menées sur fonds publics (et même privés, dirai-je, mais cela compliquerait notre réflexion à ce stade) comment peut-on considérer un instant que le texte qu’il produit et les analyses qu’il émet puissent être l’objet d’un droit d’auteur exclusif ? c’est là qu’interviennent les licences libres: qu’un droit d’auteur doive être reconnu, en raison de la paternité de l’oeuvre (ou même de la découverte), mais que ce droit soit protégé tout en permettant la diffusion la plus large possible.
Ce qui pose donc problème, ce n’est pas le droit d’auteur, c’est l’exclusivité ! Lorsqu’un texte scientifique est plagié, aujourd’hui, qui est réellement lésé et en quoi ?
- L’auteur ? dans la mesure où il est censé publier pour la postérité et dans le but de diffuser les connaissances le plus largement possible, ce qui lui pose alors problème est sa fierté et le fait que l’oeuvre dérivée ne reconnaisse pas sa paternité. Il s’agit-là d’un point de vue personnel, et un auteur pourrait prendre cela de manière plus ou moins heureuse. Par contre, cela pose problème dans le cadre de l’évaluation scientifique : moins d’impact factor à son crédit. On touche ici un des nombreux points faibles de l’évaluation de la recherche.
- La revue? très certainement, dans la mesure où elle a les droits exclusifs de l’exploitation d’une oeuvre. Ici, ce sont les aspects purement financiers qui sont en cause.
- La communauté des chercheurs et, au delà, l’humanité ? c’est sans doute le plus important et ce qui devrait passer au premier plan ! Tout resquillage en science revient à fouler aux pieds les principes de l’avancement scientifique: la production de connaissances nouvelles.
Mais alors, d’où vient le malentendu ? Tout le monde s’accorde pour reconnaître que les productions des chercheurs doivent être diffusées le plus largement possible (on pourra se questionner sur l’exclusivité d’exploitation des revues et les enjeux financiers). De même, tout le monde s’accorde sur le fait que la paternité d’un texte doit être reconnue à travers le droit d’auteur. Par conséquent, puisque les licences libres doublent le droit d’auteur de conditions permissives d’exploitation des oeuvres par l’humanité entière, d’où vient la réticence des défenseurs du système traditionnel de la publication revue par les pairs face aux licences libres (et peut-être au web en général) ?
Lorsqu’on discute avec ces traditionalistes de la production scientifique évaluée par les copains, les poncifs suivants ont tendance à ressortir:
- l’absence d’évaluation dans cette jungle du web dont Wikipédia et consors représentent le pire des lieux de partage de connaissances forcément faussées puisque les articles sont rarement écrits par les « spécialistes » du domaine ;
- la validation du travail de chercheur passe exclusivement par l’évaluation de la part de « spécialistes » reconnus. Cela se fait grâce aux revues qui se chargent de diffuser les productions pour le compte des chercheurs (notamment en s’attribuant le copyright, mais là n’est pas la question) ;
- il faut éviter que des « non-spécialistes » puisse s’autoriser à porter un jugement sur mes productions scientifiques, cela serait non seulement non recevable mais présenterait aussi un danger pour la science qui ne doit être faite que par des scientifiques.
À ces poncifs, on peut toujours en rétorquer d’autres :
- Comment définir un « spécialiste » puisqu’il n’y a que des degrés de compétences et que tout repose sur l’auto-évaluation des pairs à l’intérieur d’une seule communauté de chercheurs. Ainsi, les spécialistes en biologie du Bidule, ne sont reconnus que par les spécialistes en Biologie du Bidule. Et en cas de controverse on s’arrange toujours pour découvrir que Dupont était en réalité spécialiste en biologie du Machin.
- Les évaluateurs des revues ([voire les revues elles mêmes](http://www.the-scientist.com/?articles.view/articleNo/27376 « The Scientist. L’affaire Merck »)) ont bien souvent des conflits d’intérêts même s’ils déclarent le contraire. En effet, un conflit d’intérêt est souvent présenté comme un conflit qui ne concerne que les relations entre un chercheur et les complexes industriels ou le système des brevets, qui l’empêcheraient d’émettre un jugement fiable sur une production scientifique qui remettrait en cause ces intérêts. Or, que dire des évaluateurs de revues (ou d’appel à projet) qui ont eux-mêmes tout intérêt (en termes de carrière) à être les (presque) seuls reconnus spécialistes du domaine ou, d’un point de vue moins individualiste, donner toutes les chances à leur propre laboratoire ? le monde de la recherche est un territoire de plates-bandes où il ne fait pas bon venir sans avoir d’abord été invité (demandez à tous les doctorants).
- Enfin, relativisme extrême: pourquoi la fameuse « société civile » ne pourrait porter un jugement sur les productions scientifiques? Parce que, ma bonne dame, c’est pour cela qu’on l’appelle « société civile » : à elle Wikipédia et à nous la vraie science. Après tout c’est à cause de ce relativisme qu’on en vient à réfuter le bien fondé des essais nucléaires ou la salubrité des OGMs.
Privilégier la diffusion
Il faut dépasser ces poncifs…. je réitère la question : d’où vient ce malentendu ? Il vient du fait qu’on doit aujourd’hui considérer que les limites entre les communautés scientifiques entre elles (les « domaines de compétence ») et avec la « société civile » deviennent de plus en plus ténues et que, par conséquent, les licences libres impliquent que les scientifiques soient prêts à assumer trois choses :
- privilégier la diffusion des connaissances sur leur distribution protégée par l’exclusivité des revues, car cette exclusivité est un rempart contre les critiques extérieures à la communauté (voire extérieures aux cercles parfois très petits de chercheurs auto-cooptés), et aussi un rempart financier qui empêche l’humanité d’avoir un accès total aux connaissances, grâce au web, ce qu’elle réclame aujourd’hui à grands cris, surtout du côté des pays où la fracture numérique est importante ;
- que les scientifiques – et nombreux sont ceux qui ont compris cette évidence –, ne peuvent plus continuer à produire des connaissances à destination exclusive d’autres scientifiques mais bien à destination du Monde: c’est à dire qu’on ne produit des connaissances non pour être évalué mais pour l’humanité, et que ce principe doit prévaloir face à la gouvernance des sciences ou à l’économie de marché;
- que le plagiat ne doit pas être condamné parce qu’il est malhonnête vis à vis de l’auteur, mais parce qu’il est tout simplement immoral, tout autant que la course à la publication et la mise en concurrence des chercheurs. Plus cette concurrence existera, plus la “société civile” la remplacera par d’autres systèmes de production scientifique: imaginez un monde où 50% des chercheurs publient leurs articles sur leurs blog personnels ou des sites collaboratifs dédiés et ouvert à tous (pourquoi pas organisés par les universités elles-mêmes) et où l’autre moitié des chercheurs accepte cette course au peer review pour gagner des points d’impact. Qui osera dire que la première moitié des productions ne mérite pas d‘être reconnue comme scientifique parce qu’elle n’est pas évaluée par des pairs à l’intérieur de revues de catégorie A, B, ou C ?
Voici le postulat: il est préférable de permettre aux pairs et au monde entier d’apprécier une oeuvre scientifique dont on donne à priori l’autorisation d’être publiée, que de ne permettre qu’au pairs d’évaluer cette production et ne donner l’autorisation de publication (exclusive) qu’à postériori.
Les licences libres n’interviennent que de manière secondaire, pour asseoir juridiquement les conditions de la diffusion (voire des modifications).
La conséquence, du point de vue du plagiat, c’est que l’oeuvre est connue à priori et par le plus grand nombre : cela diminue radicalement le risque de ne pas démasquer le plagiat, en particulier grâce aux moteurs de recherche sur le web.
Par ailleurs, dans ces conditions, si l’oeuvre en question n’est pas « scientifiquement pertinente », contient des erreurs ou n’obéit pas à une méthodologie correcte, c’est toute la communauté qui pourrait alors en juger puisque tous les agents, y compris les plus spécialistes, seraient en mesure de publier leurs évaluations. Il appartient donc aux communautés scientifiques, dès maintenant, de multiplier les lieux où l’exercice de la recherche scientifique pourrait s’accomplir dans une transparence quasi-absolue et dans une indépendance totale par rapport aux revues comme aux diktat de l’évaluation à tout va. C’est le manque de transparence qui, par exemple, implique l’anonymat des évaluateurs alors même que ce sont des « pairs » (j’aime l’expression « un article de pair inconnu »): ne serait-il pas juste qu’un évaluateur (comme le ferait un critique littéraire) ne se cache pas derrière le nom de la revue, afin que tout le monde puisse juger de son impartialité ? Voilà pourquoi il faut ouvrir à priori la diffusion des articles : les évaluations publiques seront toujours plus recevables que les évaluations anonymes, puisqu’elles n’auront rien à cacher et seront toujours potentiellement discutées entre lecteurs. Là encore les cas de plagiat seraient très facilement identifiés et surtout discutés.
Il se pourrait même que le modèle économique du logiciel libre puisse mieux convenir à l’économie de la Recherche que les principes vieillissants du système dominant.
27.01.2012 à 01:00
Il faut libérer les sciences
Ce billet fait suite à mon texte de 2010 intitulé « Pour libérer les sciences », au risque de paraître quelque peu redondant. En effet, en cette fin de mois de janvier 2012, le mathématicien Timothy Gowers (Cambridge + Médaille Fields 1998) a lancé un appel au boycott de l’éditeur Elsevier, un des grands poids lourds de l’édition scientifique et en particulier les éditions papier et en ligne vendues par abonnement aux Universités. Cet appel au boycott repose sur le même reproche fait depuis des années sans que rien ne bouge à propos des tarifs exorbitants des ces firmes (Elsevier en tête mais on peut aussi citer Springer et d’autres), sans aucun rapport avec le coût effectif des supports de diffusion ainsi proposés à la vente. Faut-il boycotter Elsevier et, comme T. Gowers, inciter les scientifiques à ne plus soumettre leurs publications aux revues détenues par Elsevier, ne plus faire partie des comités de lectures, etc. ?
Des connaissances libres et gratuites
Selon moi, un tel appel au boycott n’a que peu de chance de réussir. En effet, la pression de l’évaluation tout-azimut est telle sur les scientifiques qu’ils se trouvent bien obligés de participer à la mascarade collective consistant à s’auto-évaluer et se plier au racket organisé. Mais la question dépasse largement ces aspects. En effet, qu’est-ce qu’une publication scientifique? C’est un ensemble de connaissances (nouvelles) exposées selon des règles et une méthodologie claire et dont l’objectif est d’être diffusée le plus largement possible. Dans la mesure où cette publication est le produit de l’effort collectif à la fois des scientifiques et des citoyens qui, par leurs impôts, subventionnent la recherche scientifique, les connaissances produites sont censées être consultables par tous, et comme un juste retour sur l’investissement public, cela implique selon moi un accès libre et gratuit.
Libre, parce que la priorité doit être donnée à la diffusion des sciences et que chacun devrait pouvoir utiliser un texte scientifique : le lire, le partager, identifier les auteurs et proposer éventuellement des modifications en leur écrivant, bref, en disposer de manière démocratique et dans un esprit de partage. Libre est ici utilisé dans le même sens que dans “licence libre”, c’est à dire que les texte scientifiques devraient être soumis à de telles licences. Quant au droit d’auteur, si l’on s’en réfère à la législation française (je ne parle pas de copyright), il reste bien sûr inaliénable (droit moral) et la paternité d’un texte sera toujours reconnue quoiqu’il arrive. Dès lors, la conclusion s’impose d’elle même : un texte scientifique, produit grâce à des subsides publics, ne doit en aucun cas faire l’objet d’une cession exclusive des droits de diffusion. En effet, on devrait considérer que si le droit moral sur l’oeuvre appartient bien à l’auteur, ce dernier ne devrait pas être détenteur d’un droit patrimonial dans la mesure où son oeuvre appartient au public en premier lieu. L’évaluation de cette oeuvre par les pairs lui confère sa validité scientifique, fruit du métier de chercheur, et consiste à la reconnaître comme une véritable production de la recherche publique.
Gratuit, parce que rien n’oblige à réaliser des bénéfices sur la production scientifique, mais pour autant, cela doit rester possible. Cette gratuité peut s’obtenir d’une manière très simple : aujourd’hui, un texte scientifique est produit de manière électronique, il peut donc, pour un coût proche de zéro, être diffusé par voie électronique. La publication au format papier ou dans un format électronique spécial peuvent certes être payantes, dans la mesure où un effort est fait par un éditeur pour produire un support. Mais, quoi qu’il advienne, un chercheur devrait pouvoir garder la main sur n’importe quel moyen de diffusion qui lui semble opportun et laisser gratuitement à disposition du public ses productions scientifiques.
C’est la raison pour laquelle je ne suis pas favorable à un boycott d’Elsevier ou de toute autre maison d’édition. Si l’on part du principe que toute production scientifique est censée être libre et gratuitement disponible quelque part, rien n’empêche une maison d’édition de s’emparer d’un texte et participer à sa diffusion via n’importe quel support. Dans ce cas, c’est un service qui est vendu… pourquoi le condamner?
Le système est aberrant, il faut le changer
Les problèmes ne sont donc pas là où l’on pense d’emblée les trouver. Les scientifiques en ont pourtant l’habitude. La question réside dans l’exercice d’un monopole, lui même soutenu de manière politique. Preuve en est que Elsevier et d’autres ont récemment soutenu le Research Works Act qui vise explicitement à limiter voire interdire l’accès libre aux productions scientifiques ! En d’autres termes, le rêve d’Elsevier et consors est d’obtenir un monopole sur la connaissance. C’est inacceptable. Surtout si l’on relève quelques petits scandales de Elsevier sur le montage de vrais-faux journaux pharmaceutiques, au service de quelques firmes.
Face aux pratiques douteuses de ces groupes de l’édition scientifique, l’un des premiers réflexes des scientifiques est de se tourner vers des solutions de type open access. Au risque de répéter ce que j’ai déjà affirmé précedemment, cette solution n’est valable qu’à la condition que ces productions scientifiques soient véritablement libres et soumises à des licences libres. Si l’on prend l’exemple de HAL (Archives ouvertes) qui se targue d’être un accès “libre” garantissant la propriété intellectuelle des auteurs, on est encore loin du compte. Le fait de placer un texte sur HAL et autres serveurs est souvent soumis à des conditions bien particulières, dont la plus importante est d’obtenir l’autorisation préalable de l’éditeur de la revue dans laquelle le texte est censé être initialement diffusé. Tout part du principe qu’une publication scientifique passe obligatoirement par une revue au sens classique du terme. Certaines revues ont depuis longtemps fait le pari des licences libres, mais c’est loin d’être le cas de toutes les revues. Or, rien n’oblige les chercheurs à accepter de telles conditions ! Qui plus est, cet engouement pour les archives ouvertes a été perçu par certains éditeurs comme une occasion de racketter encore plus les auteurs (et leurs labos) : si vous voulez publier, il faut payer et si, en plus, vous voulez obtenir l’autorisation de placer votre texte sur l’un ou l’autre support d’archives ouvertes, il faut encore payer (très cher).
En somme, si je parle de racket, c’est bien parce qu’un texte, produit sur des fonds publics, à la sueur du front d’un chercheur, ne donnera qu’un retour limité sur l’investissement public de départ, sera centralisé dans une revue (sclérosant ainsi la diffusion), moyennant des tarifs de publication, et revendu aux institutions publiques sous forme d’abonnement… Les membres des comités de lecture, qui prennent de leur temps de chercheur (là encore: fonds publics) pour évaluer les articles de ces revues, sont très rarement indemnisés (et s’il le sont, c’est de manière personnelle, aucune somme n’est versée à leur institution). Quant au travail d’éditeur, il se réduit ni plus ni moins qu’à imprimer un texte fourni de manière électronique par le chercheur déjà mis en page et corrigé par lui-même selon les maquettes fournies, c’est à dire un travail éditorial proche de zéro (surtout sans indemniser les comités de lecture). Comment un tel système a-t-il pu se mettre en place ? c’est une aberration.
Que faut-il faire ?
Les solutions sont très simples à mettre en oeuvre, mais très difficiles à accepter. Il faut tout d’abord s’inspirer de l’existant : ArXiv et Wikipedia sont selon moi deux systèmes parfaitement adaptés. Il faut en effet inverser la tendance : les éditeurs doivent accepter le fait que ce qu’ils publient est d’abord issu du pot commun “connaissance de l’homme”, et que leur travail est d’abord un service rendu sous forme de support. Les productions scientifiques peuvent aujourd’hui être évaluées par les pairs de manière transparente sur des serveurs en ligne adaptés. Elle peuvent être publiées et/ou référencées en ligne avec un coût nul et toucher des milliards de personnes, sans obliger le lecteur au fin fond d’une zone rurale d’un pays du tiers-monde à posséder un abonnement Elsevier. Et si ce dernier n’a pas Internet, un de ses correspondants plus chanceux devrait pouvoir avoir la possibilité la plus morale qui soit à imprimer le texte et le lui envoyer par courrier.
Recette à méditer, reposant sur le principe de la décentralisation des données et de la priorité de la diffusion des connaissances :
- Chaque chercheur (ou simple quidam) produit des textes qu’il héberge soit depuis chez lui, soit sur un emplacement qui lui est personnellement réservé sur un serveur au sein de son université de rattachement.
- Les universités hébergent toutes des duplicata des bases de données dont l’alimentation se fait via une technologie peer-to-peer. Les bases de données sont les suivantes : 1) la liste et les adresses des textes produits par les chercheurs et hébergés partout dans le monde 2) le descriptif de ces textes, leur domaines, suivant une nomenclature commune 3) les commentaires et les critiques de ces textes, produits de manière anonyme ou non.
- Les revues ont accès (comme le reste du monde) à ces données et peuvent choisir celles parmi les meilleures publications (système de popularité) qui peuvent être inclues dans leurs collections. Elles font alors pour cela appel à leurs comités de lecture. En retour, d’autres comités de lecture issus des communautés scientifiques (associations internationales de chercheurs, prix de travaux scientifiques, membres de comités d’institutions publiques, etc) peuvent aussi participer à un système de notation.
- Les systèmes de notation doivent être indépendants les uns des autres, parfaitement identifiés, et peuvent être multiples. Par exemple, l’Association des Joyeux Mathématiciens du Wyoming peut éditer mensuellement ou annuellement, toujours en ligne, un classement des productions les plus pertinentes. Ce classement pourra être différent pour les referees des médailles Fields. Et encore différent pour des institutions comme le CNRS. Il peut donc y avoir consensus ou différence : c’est bien là l’objectif des théories scientifiques que d’être discutables, non? Mais ces classements multiples permettraient de hiérarchiser la qualité des travaux selon des tendances, et permettrait aussi des notations “en contexte” : si un chercheur doit être évalué, c’est à l’instance qui l’évalue qu’il revient de noter ses productions. Ainsi par exemple en France : l’AERES, au lieu de ne se référer qu’à des évaluations de revues complètement absconses, pourrait faire l’effort de lire les publications des membres des labos et elle-même attribuer une note au labo, note qui compterait alors dans la popularité des articles référencés.
- Le chercheur qui produit un texte peut toujours le faire en vue de le proposer dans une revue bien précise mais il le dépose en ligne et le rend accessible à tous : la revue peut alors utiliser ce texte, comme initialement prévu, mais d’autres revues peuvent très bien l’utiliser aussi : par exemple pour le traduire et favoriser sa diffusion, ou le rendre disponible dans des endroits ne disposant pas d’accès Internet (on peut imaginer une autre ambition aux éditeur consistant à publier des versions papiers des meilleurs articles dans un but humanitaire…Ceci en vertu d’une absence d’exclusivité de la diffusion.
Et alors, où serait le problème ? Les auteurs ne sont de toute façon pas censés toucher de revenus sur leurs propres publications scientifiques. Les institutions feraient des économies substantielles. Tout le monde aurait accès à ces connaissances. La fiabilité des informations ainsi produites serait mesurée à l’aune des méthodes de ceux qui se donneront la peine d’effectuer ces évaluations. L’ensemble pourrait très bien reposer sur un modèle Wikipedia… Avec l’avènement du tout numérique et de l’Internet, il faut aussi que nos chers éditeurs adaptent leurs modèles hérités du début du XXe siècle (Elsevier est même plus ancien) et comprennent que leur rôle n’est plus autant indispensable qu’il l’était hier, surtout si leur jeu consiste à imposer un modèle de monopole et brider la diffusion des connaissances.
- Persos A à L
- Carmine
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- Lionel DRICOT (PLOUM)
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Jean-Luc MÉLENCHON
- Romain MIELCAREK
- MONDE DIPLO (Blogs persos)
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Timothée PARRIQUE
- Thomas PIKETTY
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- LePartisan.info
- Numérique
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Tristan NITOT
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD