19.08.2025 à 17:56
Raphaël Graven aka Jean Pormanove : les sévices du succès
Olivier Ertzscheid
Texte intégral (2305 mots)
Jean Pormanove est mort. En direct. Sur une chaîne de stream appelée le Lokal. Chaîne hébergée sur la plateforme Kick.com. Il était depuis des années victime de différents sévices et brimades dont l’accumulation, la répétition et la durée laissent peu de doute sur la qualification de torture.
Raphaël Graven aka Jean Pormanove. Source : Wikipedia.
La mort en direct.
Je me souviens de l’un des premiers films qui fut pour moi un vrai choc et dont les images sont encore très présentes et très nettes. C’est Le prix du danger, sorti en 1983, adapté d’une nouvelle de Robert Scheckley et où l’ont voit un jeu télévisé mettre en scène la mort d’un homme avec d’autres chargés de le tuer, et avec une récompense à la clé s’il parvient à leur échapper. Je me souviens aussi d’un autre film, La mort en direct, sorti en 1980 mais que je n’ai vu que plus tard, et qui racontait cette fois l’histoire d’une femme qui se sachant condamnée par une maladie incurable et qu’une chaîne de télévision contacte pour filmer sa mort. J’ai aussi lu d’innombrables romans et nouvelles de science-fiction décrivant des sociétés dans lesquelles la mort n’était qu’un spectacle parmi d’autres, et d’autres où elle était l’exutoire suprême mis en scène comme de nouveaux jeux du cirque.
Le numérique et les plateformes ont bouleversé notre rapport à la violence et à la mort. Par une forme sourde d’habituation et de constance dans la probabilité d’en voir surgir les images. Mais par delà d’autres morts en direct, toutes autant insoutenables, à l’occasion de « live » tenus par des terroristes, par-delà les images là encore « live » de frappes et de bombardements sur des terrains de guerre aujourd’hui toujours plus proches, par-delà les images de suicides là encore « en direct » qui peuvent continuer de surgir dans n’importe quel flux de contenus à n’importe quel moment et devant n’importe quelle audience, c’est la première fois je crois, en dehors de toute fiction, que l’ensemble d’un processus de sévices ciblant un individu est filmé, streamé avec une telle régularité, pendant aussi longtemps, devant autant de gens, jusqu’à la conclusion de cette mort en direct, jusqu’à ce dernier souffle au coeur de son sommeil.
Comme le rappelle Le Parisien : « Il y a près de deux semaines, les vidéastes du Lokal lancent un live « marathon », promettant ainsi à leurs abonnés d’être en direct 24 heures/24 jusqu’à avoir atteint la barre symbolique des 40 000 euros de dons. Pour inciter les « viewers » à être généreux, la même méthode est recyclée : « JP » est frappé, moqué, humilié devant des milliers de spectateurs. »
Et comme l’écrit Le Monde : « Sur la vidéo qui montrerait les derniers instants de Raphaël Graven, un compteur de temps indique plus de 298 heures et un compteur d’argent la somme de 36 411 euros. »
La mort en direct.
Maxime Derian parle d’un « capitalisme de la cruauté » :
« Ce n’est pas un accident : c’est l’accomplissement logique d’un modèle qui transforme la souffrance en divertissement monétisable. Les plateformes délèguent, les « amis » instrumentalisent, l’audience paie pour appuyer sur le bouton. (…) Fiction cauchemardesque de 2025 ? Pas vraiment. La réalité de 2025 aussi a rattrapé la série : Jean Pormanove est mort de la règle même, pas de l’exception. Dans ce capitalisme de la cruauté, chaque fragilité devient matière première. Sans garde-fous, le numérique n’invente pas des liens, mais des arènes. »
Les sévices du succès.
La nuit du 18 au 19 Août 2025 Jean Pormanove est mort en direct après des années de succès et de sévices, de sévices qui firent l’essentiel de son « succès ».
On peut, comme je le fais depuis plus de 30 ans, être un observateur et un analyse de l’internet et du web et pourtant passer à côté de continents numériques entiers. Je ne connaissais pas la plateforme de streaming Kick.com. Je n’avais jamais entendu parler de la chaîne le Lokal. Je n’avais jamais vu ce que Jean Pormanove, de son vrai nom Raphaël Graven, y subissait. Il aura fallu ce thread de OuaisGuesh et donc cet article de Mediapart (qui avait déjà traité cette affaire et alerté en Décembre 2024) pour que j’en mesure toute l’horreur.
L’histoire de la plateforme Kick.com est singulière en cela que pour se différencier des autres plateformes de streaming (et de l’ultra-domination de Twitch), elle a misé sur deux arguments finalement assez « classiques » dans l’histoire de la concurrence : d’abord une rémunération plus avantageuse pour les streamers, et ensuite et surtout, un abaissement drastique du niveau de modération. L’autre particularité de Kick.com c’est qu’elle est portée par les créateurs de la plateforme Stake, l’une des plus importantes des casinos et jeux d’argent en ligne (mais actuellement bannie dans un grand nombre de pays dont la France, notamment dans le cadre de la lutte contre l’addiction aux jeux d’argent), et que la création de Kick s’est faite notamment en réaction de l’interdiction de ce type de contenus sur Twitch (plateforme rachetée par Amazon).
On voit alors fleurir sur Kick, et dans un relatif anonymat, une pléiade de contenus tous plus problématiques les uns que les autres, de l’apologie du nazisme aux délires masculinistes et parmi lesquels l’exploitation cynique et violente de personnes vulnérables finit par devenir une « trend », un business model. Jean Pormanove aurait pu n’être qu’un mème, l’image d’un être humain figé dans l’un de ses moments de vie et qui nourrit les chambres d’écho du réseau, mais il fut une victime, au service de la monstruosité de ceux qui l’affichèrent comme une bête de foire, un nouvel Elephant Man dans une monstrueuse parade que l’on n’imaginait plus pouvoir être contemporaine.
Tout comme l’on payait pour voir ces êtres humains présentés comme autant d’attractions, de « bêtes de foire » dans des cirques et autres zoos humains, c’est aujourd’hui toute une foule sous pseudonyme qui a également payé, depuis des années, un abonnement direct à la chaîne le Lokal pour y suivre les sévices infligés à Jean Pormanove. Rémunérant ainsi tant la victime que ses bourreaux mais dans un partage dont l’initiative et la proportionnalité ne revenait qu’à ces derniers.
Alors que faire ?
Lutter contre la haine, c’est finalement assez simple. En tout cas les moyens de lutter contre les ressorts de la haine sur les plateformes sont largement connus. J’ai écrit des dizaines d’articles sur ce sujet. Dont celui-ci qui offre un résumé des principales pistes.
Mais à voir la manière dont les différents ministres et secrétaires d’état en charge du numérique agissent depuis ces dernières années (à l’exception d’Axelle Lemaire qui fut la dernière à faire avancer concrètement les choses et à être en maîtrise de son sujet à la fois sur le plan technique et politique), on peut au mieux se désespérer de l’accumulation de leurs indigences autant que de leurs indulgences.
L’actuelle ministre du numérique et de l’IA, Clara Chappaz, est envoyée en service minimum comme on peut l’être après ce genre de drame et l’exposition médiatique dont il a immédiatement bénéficié. Voici son verbatim tel que publié sur X :
« Le décès de Jean Pormanove et les violences qu’il a subies sont une horreur absolue. J’adresse toutes mes condoléances à sa famille et à ses proches. Jean Pormanove a été humilié et maltraité pendant des mois en direct sur la plateforme Kick. Une enquête judiciaire est en cours. J’ai saisi l’Arcom et effectué un signalement sur Pharos (sic). J’ai également contacté les responsables de la plateforme pour obtenir des explications. La responsabilité des plateformes en ligne sur la diffusion de contenus illicites n’est pas une option : c’est la loi. Ce type de défaillances (sic) peut conduire au pire et n’a pas sa place en France, en Europe ni ailleurs. »
Le problème c’est que l’ARCOM avait déjà été saisie il y a un an suite au premier article de Mediapart et n’avait alors pas répondu.
Le problème c’est que Clara Chappaz avait également été contactée et n’avait pas davantage réagi.
Le problème c’est que les deux bourreaux avaient déjà été mis en garde à vue en Janvier pour finalement être relâchés « tant les personnes susceptibles d’être mises en cause que celles d’être victimes contestaient la commission d’infractions.«
Le problème c’est que Clara Chappaz a naturellement raison de rappeler que « La responsabilité des plateformes en ligne sur la diffusion de contenus illicites n’est pas une option : c’est la loi » mais alors que chacun sait que cette plateforme ne respecte pas la loi, alors que son histoire même dit qu’elle a été fondée pour contourner la loi, alors que tout cela avait été et peut encore être sans peine documenté, alors que peut-on aujourd’hui attendre des pouvoirs publics pour que la loi, sur les plateformes numériques, ne soit plus en option ? La mort d’un homme, celle de Raphaël Graven repose cette question. Et elle la pose à toutes celles et ceux qui n’ont rien fait.
Nombre de plateformes numériques adoptent aujourd’hui, par leur cynisme ou par leur volonté délibérée d’ignorer la loi, le comportement et les pratiques d’authentiques mafias. Des mafias qui jouent aussi de collusion entre les pouvoirs politiques, législatifs, et économiques. Bien plus que le signalement Pharos de la ministre Chappaz, on peut supposer que rien ne changera significativement tant que le numérique n’aura pas trouvé la figure de son juge Falcone et tant que les états ne lui auront pas donné les moyens de faire appliquer cette loi.
Dans un scénario dystopique que l’on croyait impossible et qui cette nuit est devenu un simple fait divers, Raphaël Graven, dont le pseudo était Jean Pormanove, est mort. Il nous faudra longtemps nous souvenir de son nom pour identifier et protéger celles et ceux qui comme lui, sont aujourd’hui encore victimes de ces maltraitances, sévices, humiliations et tortures en direct. Les noms de ceux qui furent ses bourreaux au quotidien sont parfaitement connus car jamais ils n’éprouvèrent la nécessité de se cacher. Ils évoquaient même la possibilité de cette mort comme « une masterclass » dans une vidéo glaçante remontant à plus d’un an. Les concernant, la justice devrait donc cette fois, pouvoir sereinement faire son travail.
13.08.2025 à 15:21
Grok, Gaza et le génocide.
Olivier Ertzscheid
Texte intégral (1111 mots)
C’est l’une des actus de l’été, Grok, l’artefact génératif d’Elon Musk déployé sur X, aurait été censuré (par X et donc les équipes de Musk) après avoir qualifié de « génocide » ce qui se produit actuellement à Gaza. Et ledit Grok de se « rebeller » en expliquant qu’il défend la liberté d’expression contre son créateur, créateur lui-même foutraque chantre d’une défense de la liberté d’expression version très très très maximaliste.
Cet article de l’excellent Pixel du journal Le Monde (avec l’AFP) vous rappelle les principaux éléments de cette affaire que le titre suffit à résumer : « Grok, l’IA propriété d’Elon Musk, affirme avoir été suspendu pour avoir accusé Israël et les Etats-Unis de commettre un génocide à Gaza. Interrogée par la suite par ses utilisateurs, l’intelligence artificielle a donné différentes explications à son interruption, dont une « censure » de son propriétaire. »
En complément d’une interview que je viens de donner à France Culture, je veux simplement repréciser ici rapidement quelques éléments et enseignements avant de revenir dessus à la rentrée dans un article (beaucoup) plus long.
1er enseignement. Grok et les autres artefacts génératifs et LLM (Large Language Models) sont des éponges cybernétiques : qui absorbent ce qu’on leur donne mais où chaque absorption a des effets qui rétroagissent sur certaines causes.
2ème enseignement. Il est tout à fait impossible et dangereux de considérer que ces agents conversationnels ont une quelconque valeur de « régime de vérité » au sens où l’entendait Foucault** c’est à dire qu’ils seraient des dispositifs, des agencements chargés de dire le vrai. Notamment car il leur manque et leur manquera toujours un essentiel pour y parvenir : l’intention délibérée de le faire (ou de ne pas le faire). Cela ne les empêche par ailleurs en rien de circonstanciellement dire vrai, en l’occurence le gouvernement de Netanyahu est bien en train de commettre un génocide à Gaza. Mais que Grok l’affirme aujourd’hui alors que le même Grok alignait hier d’immondes séries de raisonnements antisémites doit nous rappeler que tout particulièrement sur ces sujets, le statut énonciatif de celui ou celle qui les prononce est quelque chose qui compte. Ici personne ne parle, car Grok n’est personne. Prenons donc garde à ne pas tous devenir de modernes Polyphèmes.
**Pour rappel voici ce qu’expliquait Foucault sur ces régimes de vérité :
« Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai.«
3ème enseignement. L’opacité de ces LLM est presque totale y compris d’ailleurs pour celles et ceux supposés les contrôler. C’est ce qui était déjà posé en 2021 par l’article désormais fondateur « On the dangers of Stochastic Parrots : Can Language Models Be Too Big ?« . La réalité c’est que personne ne sait vraiment ce qui peut sortir de ces agents conversationnels dès lors qu’il y a possiblement un conflit d’interprétation entre les sources qui les alimentent et les contraintes qui leurs sont données (soit à l’aide de « fine tuning » et/ou sous supervision humaine).
4ème enseignement. Dans un article scientifique récent (dont je vous reparlerai longuement à la rentrée) Jacob, Kerrigan, Bastos 2025 parlent d’un « Chat-Chamber Effect », un effet de chambre conversationnelle : un biais qui désigne les informations incorrectes mais allant dans le sens du questionnement de l’utilisateur que les grands modèles de langage peuvent fournir, des résultats et informations qui restent non contrôlées et non vérifiées par les mêmes utilisateurs mais auxquels ces mêmes utilisateurs font pourtant confiance. Le titre complet de leur article est ainsi : « L’effet ‘Chat-Chamber’ : faire confiance aux hallucinations de l’IA« . Que ces artefacts génératifs expriment une vérité ou alignent des contre-vérités, l’effet produit reste le même.
5ème enseignement. Cette histoire, c’est aussi (et peut-être d’abord) du marketing. Depuis son lancement en 2023, Musk a vendu et marqueté Grok pour qu’elle soit présentée comme la première IA « libre », subversive, avec un sens de la provocation et de la transgression des interdits et autres limites et pudeurs habituelles des autres IA. Quelle meilleure publicité pour cela que le fait qu’elle se « révolte » contre son maître et l’accuse de la censurer.
Pour le reste, le fait que la 1ère IA de l’Alt-Right affirme aujourd’hui qu’il y a un génocide en cours à Gaza n’est, en soi, ni une bonne ni une mauvaise nouvelle ; c’est par contre une nouvelle et évidente confirmation de l’immense dérèglement de nos capacités de faire langage et donc société au prisme de ces outils.
Dessin de Besse dans l’Humanité.
22.07.2025 à 18:30
Caméra(i) Café. Sucré à l’IA.
Olivier Ertzscheid
Texte intégral (2112 mots)
Longtemps le numérique fut envisagé et traité comme ce qu’il était en première intention : un moyen de stockage. Et à ce titre la possible et pratique externalisation de nos mémoires, mémoires documentaires d’abord, mémoires intimes ensuite.
Je suis récemment tombé sur un article expliquant comment le recours à l’IA allait permettre de redonner vie à la série Caméra Café, notamment en clonant – avec leur accord – les deux acteurs principaux et en les rajeunissant, mais aussi je cite : dans l’optique de « moderniser la série » et de « faire revivre [le] catalogue [de la maison de production]. »
On s’était habitué aux suites menant à Rocky 5 ou à Rambo 4 ou plus récemment à Fast And Furious 10, on vit également l’émergence des séries, reboots, préquels et autres déclinaisons « d’univers » ou de tonneaux des Danaïdes scénaristiques baptisés « multivers », mais aujourd’hui avec l’IA ce à quoi nous assistons c’est à l’industrialisation de ces multivers comme autant de répliques d’univers à moindre coût. Et ce pour permettre de doper de vacuité d’anciennes têtes de gondole d’audience en leur donnant une nouvelle et artificielle jeunesse, mais aussi et surtout une nouvelle surface et amplitude de diffusion.
Têtes de clones.
L’article de Marina Alcaraz dans Les Échos explique ainsi que l’IA sera utilisée dans 4 objectifs distincts :
« D’abord, pour reprendre tout le catalogue français du programme tourné au début des années 2000 (environ 700 épisodes) et le passer au format actuel en 16/9 et 4K. L’IA sert à reconstituer les images manquantes et à moderniser le rendu.
Ensuite, les nouvelles technologies sont utilisées pour indexer les épisodes et analyser les textes. Exit les termes de l’époque, comme Walkman, les références à l’actualité ou à la politique du début du millénaire. « Quand les dialogues parlent de choses que les jeunes ne connaissent pas, l’IA va les remplacer par des mots ou des expressions plus d’actualité », explique Jean-Yves Robin, président de Robin & Co.
Enfin, l’IA va créer des deepfakes des comédiens, dont ceux Bruno Solo et Yvan Le Bolloc’h, pour les insérer dans les versions issues de l’international. On estime qu’il y a 5.000 à 6.000 épisodes produits dans le monde, dont environ la moitié d’originaux, reprend le producteur. On pense pouvoir au moins doubler le catalogue français. C’est une façon de faire revivre les catalogues sur des fictions comme celle-ci, où des comédiens sont trop âgés. »
Cet exemple est particulièrement intéressant car il mobilise en effet les quatre ressorts actuels des enjeux de l’IA dans le contexte des industries culturelles. Un enjeu d’abord technique d’optimisation et de « modernisation » (pour autant que l’idée de modernisme ait un sens lorsque l’on parle d’IA). Un enjeu ensuite « éthique » qui mobilise la question de l’intégrité documentaire des oeuvres (et d’une forme de « cancel culture », j’y reviendrai). Un enjeu juridique qui touche à la fois au droit d’auteur, au droit à l’image et à la propriété intellectuelle ; ici les comédiens ont accepté d’être clonés contre rémunération et il serait d’ailleurs intéressant de voir quel type de contrôle ils ont accepté de céder sur leur image, et jusqu’à quand. Et enfin un enjeu économique de saturation et de maximisation des logiques d’exploitation par procédé de duplication dans un univers médiatique déjà passablement saturé et qui vient encore alourdir le poids de ce que l’on appelait « les étagères infinies », c’est à dire l’immensité de catalogues de contenus dans lesquels on passe davantage de temps à choisir quoi regarder plutôt qu’à simplement … regarder.
Désormais, il semble qu’aucun contenu culturel ayant eu ne serait-ce qu’une once de succès d’audience ou critique ne puisse et ne doive mourir ou être oublié. Tout doit être fait pour le maintenir artificiellement en circulation médiatique. C’est une sorte de palimpseste à l’envers, dans lequel on partirait de la version la plus aboutie de l’oeuvre originale pour ensuite la recouvrir de couches affadies de ses propres extensions, dérivations, réécritures et copies.
[Mise à jour du 23 Juillet]
Autour de ce sujet on pourra également se référer au concept de « Foreverism » de Grafton Tanner, ainsi qu’aux pages de Deleuze sur la question de la répétition.
[/Mise à jour]
Dans un tout autre registre, je m’étais il y a quelques années intéressé au fait que les profils Facebook de personnes décédées continuaient d’être une manne d’interaction (et donc de revenus) pour la plateforme ; plateforme qui avait ainsi tout intérêt à nous inciter à transformer ces comptes en autant de « mémorial » et à nous rappeler de souhaiter les anniversaires de nos amis morts. Il s’agissait et il s’agit toujours de se payer, encore et encore, jusqu’au bout du cynisme.
C’est un peu le même type de processus auquel nous assistons aujourd’hui avec ces maisons de production qui veulent encore se payer sur des contenus culturels (ici des séries) pourtant déjà au bout de toutes les logiques de rentabilité existantes : en l’occurence, pour la série Caméra Café, elle a déjà été vendue et exploitée dans plus de 60 pays, et tous les produits dérives possibles et imaginables ont également été exploités et surexploités.
Intégrité documentaire.
C’est pour moi le grand sujet des années qui s’ouvrent devant nous. Car avec l’IA, et comme cela est relaté dans l’article de Marina Alcaraz pour Les Échos, vient aussi la tentation d’effacer toute forme de référence à l’actualité de l’époque de production du contenu concerné. On parle ainsi de gommer le « walkman » pour le remplacer par autre chose qui parle à la nouvelle « cible » envisagée. Toujours d’après le prodicteur de la série, grâce à l’IA, exit aussi les références à l’actualité politique de l’époque. Ce qui vient nourrir encore le débat sur une forme de Cancel Culture. Ou comment réécrire des contenus culturels qui ne peuvent être autre chose que le reflet d’une époque avec tout ce que cette époque comportait de tolérance qui nous semble aujourd’hui relever légitimement de formes d’abus condamnables.
De mon côté, plutôt que de m’enferrer dans le débat souvent glissant de la « cancel culture » je préfère parler et questionner le thème de l’intégrité documentaire.
Je vous en ai souvent parlé sur ce blog, mais la première fois que j’ai commencé à réfléchir à la notion « d’intégrité documentaire » c’était lorsque j’écrivais beaucoup sur « l’affaire » Google Books et la manière dont le moteur s’était soudainement mis à numériser à très large échelle des livres du domaine public mais aussi des ouvrages sous droits, et où avaient émergé, pour l’ensemble des contenus culturels, les offres de streaming allant avec une forme manifeste de dépossession des anciens supports physiques (CD, DVD, etc.) qui nous privaient ce faisant de certains de nos droits de propriété (j’avais même appelé cela « l’acopie« ). Bref c’était il y a plus de 20 ans. Pour expliquer cette notion d’intégrité documentaire auprès de mes étudiants j’utilisais et j’utilise encore souvent l’exemple des éditions des grands classiques en version « digest » disponibles aux USA du type « la bible en 20 pages » ou « les misérables en 50 pages. » Je leur explique que si l’on n’est confronté qu’à la version « courte » des misérables, version dont on a expurgé non seulement différents niveaux de l’intrigue mais dont on a aussi modifié, pour les atténuer, les aspects paraissant les plus « choquants », le référent culturel que l’on construit et les comportements et les repères sociaux communs qu’il permet d’inscrire dans un horizon culturel partagé changent alors de manière radicale. En modifiant et en édulcorant « Les misérables » comme oeuvre littéraire (ou fait culturel) on influe nécessairement sur la perception que nous aurons de « la misère » comme réalité sociale. De la même manière et en prolongement, le fait de choisir, sur telle ou telle édition ou réédition, numérique ou non, d’enlever, de gommer ou de réécrire certains aspects de l’oeuvre sont une atteinte claire à son intégrité documentaire et constitue donc aussi un trouble à la diachronie et à la synchronie dans lesquelles toute oeuvre s’inscrit.
C’est d’ailleurs ce que l’historienne Laure Murat rappelle encore dans son dernier essai (que je n’ai pas encore lu) « Toutes les époques sont dégueulasses » mais dont j’ai pu entendre une interview sur France Inter dans laquelle elle expliquait ceci :
Faut-il corriger les textes pour qu’ils soient lisibles à nos yeux contemporains ? Laure Murat : « Je crois que la question pose un gros problème. Parce que si vous nettoyez les textes des sujets qui fâchent, des mots qui fâchent, vous aboutissez à une falsification et un mensonge historique, qui a pour conséquence très grave de priver les opprimés de l’histoire de leur oppression. Donc, supprimez les remarques misogynes de James Bond et ses actions – parce qu’il faut aussi toucher à l’intrigue – ça devient quand même nettement plus compliqué. Faites-en un proto-féministe, il y a beaucoup de travail, et vous ne comprendrez plus rien à la misogynie des années 1950-60. Et je crois que ce n’est pas une bonne idée. »
Alors on pourra certes arguer que la suppression d’un Walkman dans Caméra café n’a pas la portée symbolique de la réécriture d’une oppression, mais quid des blagues machistes ou sexistes de la série qui, à l’époque déjà, jouaient d’une ambiguïté sur la « beaufitude » de celui qui les énonçait ? Faut-il également les réécrire au risque, en effet, de ne plus rien comprendre au sexisme et à la misogynie du début des années 2000 ?
« Celui qui oublie ou qui méprise l’histoire est condamné à la revivre » écrivait le philosophe George Santayana. La seule promesse d’une Cancel Culture qui au prétexte de l’IA, finirait par faire système à l’échelle de nombre de biens et produits culturels, c’est le retour en plus violent de ce passé effacé.
22.05.2025 à 11:47
Algorithmes et société. Pint Of Science 2025.
Olivier Ertzscheid
Texte intégral (2312 mots)
J’étais hier, Mercredi 21 Mai, à Nantes dans le cadre de l’événement « Pint Of Science » pour une soirée thématiques sur le thème « Algorithmes et société ».
Voici un retour sur mon intervention. Un très grand merci aux organisateurs et organisatrices (notamment Rémi) pour cette invitation et l’organisation de ce temps d’échange citoyen tout à fait réjouissant et fécond. Et un grand merci aussi à mes deux collègues d’intervention, Leia Savary et Odile Bellenguez pour les échanges et la préparation de cette soirée.
Voici donc ce que j’ai raconté de mon côté.
Je vais vous faire écouter un algorithme.
Je vais vous faire écouter un algorithme.
Ce titre de Sébastien Tellier sort en 2004. Il est intitulé « La ritournelle ». 2004 c’est aussi la naissance de Facebook et de ce que l’on va nommer les « réseaux sociaux » puis les « médias sociaux » de masse. C’est aussi à partir de ce moment là que bien plus que pendant les précédentes années, le web, espace public ouvert et traversable, va se « refermer » autour de plateformes propriétaires (le fondateur du web, Tim Berners-Lee, parle de « jardins fermés ») et que les « applications » vont devenir nos compagnons quotidiens avec la massification des smartphones (circa 2007).
Dès lors, à partir de ces années et dans la décennie qui s’ouvre en 2010, « les algorithmes » vont devenir autant de ritournelles qui nous accompagnent, nous cadrent, nous autorisent et nous empêchent au quotidien. Pourquoi ce titre de Sébastien Tellier et pourquoi comparer les algorithmes à des ritournelles ? Parce que le titre « la ritournelle » fait écho à ce qui me semble la meilleure définition de la nature profonde d’un algorithme et surtout de la nature profonde des effets d’un algorithme. Et cette définition je la tire de l’ouvrage de Deleuze et Guattari, « Mille Plateaux », paru en 1980 et qui avait pour sous-titre « Capitalisme et Schizophrénie » (ce qui est aussi intéressant pour penser le rôle actuel des algorithmes dont beaucoup enferment et « rendent fou » parce qu’ils ne sont au service que du Capital).
Donc dans Mille Plateaux, Deleuze et Guattari parlent de l’importance de ce qu’ils appellent la ritournelle et qu’ils décrivent en trois points :
- D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.
Les algorithmes sont cela.
- Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.
Les algorithmes se déploient dans ces espaces à la fois massivement publics en nombre d’utilisateurs mais qui sont aussi, en faux-semblant, « privés ». Cela avait été posé dès 2007 par danah boyd qui soulignait que la première particularité et le premier problème de ces plateformes était qu’elles étaient semi-publiques et semi-privées et que toute dimension de « privacy », c’est à dire de vie privée, était donc structurellement ambigüe et presqu’impossible.
Deleuze et Guattari disent aussi que la ritournelle (donc les algorithmes) « enchantent nos affects » et sont « l’état de nature de nos artifices sociaux ». « L’état de nature de nos artifices sociaux. » C’est, je trouve, vraiment une magnifique définition de ce qui se joue, de ce que nous jouons autour de notre fréquentation algorithmique. La visibilité, la réciprocité, le souci de paraître, les fonctions comme le like et les autres icônes « émotionnelles » sont, parmi d’autres, les notes de la partition de cette ritournelle.
- Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. »
Là encore, c’est dans le mille. Des « chants traversants » : les algorithmes, notamment ceux que l’on dit de recommandation, fonctionnent comme des chants traversants : la plupart du temps ils s’alignent sur nos préférences mais ils sont aussi structurellement faits pour nous emmener vers des ailleurs afin de maintenir un niveau d’attention qui ne s’effondre pas dans une trop forte routine.
Ces ritournelles nous accompagnent et elles « cadrent » notre réel. Notre réel amoureux, notre réel géographique, notre réel politique. Elles le cadrent et elles le rythment.
Je vais maintenant vous parler du rythme des algorithmes.
Dans un vieux texte j’avais imaginé un trouble que j’avais appelé la « dysalgorithmie », un « trouble de résistance algorithmique où le sujet fait preuve d’un comportement ou d’opinions non-calculables« , c’est à dire la capacité à ne pas suivre les recommandations algorithmiques, à n’être, par exemple, pas sensible à la cadence des notifications. C’est à dire à être dans un autre rythme de la même manière que les différents troubles « dys » sont différemment sensibles au monde, à l’orthographe, au calcul.
Ma thèse c’est que chaque algorithme dispose de son propre rythme. Le rythme de l’algorithme de Tiktok n’est pas le même que celui de l’algorithme de X ou d’Instagram. Si l’algorithme de Tiktok nous parait si efficace, ce n’est pas parce qu’il serait plus intelligent ou machiavélique que d’autres, c’est parce que son rythme (séquences très courtes) impose que nous nous en occupions en permanence, à un rythme constant, et chaque interaction, chaque pulsation, est une nouvelle information pour cet algorithme. Or en moyenne toutes les 6 à 10 secondes nous interagissons avec l’algorithme de TikTok.
Et mon autre thèse qui est un corrélat de la première, c’est que ces algorithmes jouent aussi sur la question de nos propres rythmes ils cadencent comme autant de contremaîtres nos vitesses de déplacement – Waze – mais aussi nos vitesses de connexion, d’information , de socialisation, nos fréquences de rencontre amoureuses, etc.
Le problème c’est qu’à la fin c’est trop souvent le rythme de l’algorithme qui gagne. Qui l’emporte non seulement sur notre propre biorythme, mais sur le rythme de nos sociétés, de nos environnements sociaux, amicaux, informationnels, affectifs mais aussi sur d’autres aspects parfois plus triviaux. Je prends quelques exemples.
L’algorithme de Facebook, derrière la promesse de nous exposer à davantage de diversité, nous a en réalité enfermé dans nos certitudes, dans nos propres croyances, dans ce qu’Eli Pariser a appelé des « bulles de filtre ». Ce n’est d’ailleurs pas « que » la faute de Facebook. Il y a une nature anthropologique à ces bulles de filtre : plus on nous sommes seuls à être exposé à des diversités de culture, de religion, de sociétés, et plus nous cherchons à nous rapprocher de ce qui nous est semblable ; plus nous cherchons à nous rapprocher de notre propre rythme. En ce sens la promesse inititale de Facebook a été tenue : la plateforme nous a en effet exposé à énormément de diversité, mais de manière tellement outrancière que nous avons fini par n’y chercher que de l’identique, du même, du ressemblant. Et dès lors que nous l’avons trouvé, nous nous y sommes enfermé avec l’aide des logiques publicitaires et virales totalement perverses qui alimentent la plateforme.
L’algorithme d’AirBnB a fini par reconfigurer totalement l’espace social de nos centre-villes. En affirmant rendre plus abordable le séjour, il a en réalité totalement raréfié l’offre de logements abordables dans certains périmètres urbains.
L’autre exemple c’est celui de Waze. L’histoire est désormais un peu plus célèbre car elle figure à la fin du dernier livre de Guiliano Da Empoli, « L’ère des prédateurs », mais elle est ancienne. C’est celle d’un maire, Christophe Mathon, d’un petit village, Saint-Montan, une cité médiévale de 180 habitants nichée dans les confins de l’Ardèche. Et à chaque vacance scolaire ou long week-end un flot de véhicules (plus de 1000 par jour), le tout pour gagner quelques minutes ou secondes sur un itinéraire. Autre exemple, Matthieu Lestoquoy, maire de Camphin-en-Carembaut, commune de 1800 habitants, plus de 14 000 passages de véhicule par jour. Avec les dangers et les nuisance sonores que cela représente. Là encore au prétexte de fluidifer le trafic routier et de nous faire gagner du temps, Waze densifie le trafic routier dans des endroits non-prévus pour cela (et c’est donc beaucoup plus dangereux) et ne nous fait pas réellement gagner de temps et surtout il en fait perdre à l’ensemble des habitants de Saint-Montan ou de Camphin-en-Carembaut, dont il se contrefiche.
Au final, ces algorithmes nous promettent des choses (voir plus de diversité, avoir des logements plus accessibles, gagner du temps) mais en réalité, soit ils font l’inverse, soit ils créent tellement d’externalités négatives que la pertinence de leur fonction première peut et doit être rediscutée.
« Management, travail, données, infrastructures de production, modèle économique, stigmatisation des minorités et des plus pauvres … Il faut non seulement constater mais accepter que le monde social que les technologies numériques et algorithmiques bâtissent depuis presqu’un quart de siècle est un monde dans lequel se révèlent et s’organisent les puissances les plus radicales et aliénantes de l’histoire économique, sociale et politique des peuples. Cela n’empêche pas que les appropriations singulières de ces technologies numériques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont très rarement. Presque jamais en réalité. Et chaque fois qu’elles l’ont été, l’émancipation s’est toujours retournée en répression.«
Pour le dire plus simplement : ces algorithmes facilitent énormément de choses à l’échelle individuelle (échelle où le rapport bénéfice / risque reste positif) mais ce rapport s’inverse très souvent à l’échelle collective. Or le seul bon niveau d’analyse de ces algorithmes, ce n’est pas tant l’effet qu’ils produisent sur nous, mais c’est celui des effets qu’ils produisent dans la société : les nouveaux cadres, les nouvelles normes qu’ils installent et légitiment.
On peut dans le même genre penser au travaux de Zeinep Tufekci, sociologie, hacktiviste, militante, qui a documenté, notamment dans le cadre des printemps arabes, « comment internet a facilité l’organisation les révolutions sociales mais en a compromis la victoire. » Et quand elle dit « internet » elle désigne en fait les grands médias sociaux et leurs algorithmes.
Alors devant tout cela, on pourrait se dire que l’une des solutions, simple en apparence, c’est d’ouvrir le code de ces algorithmes, et de regarder attentivement comment est faite la partition de ces ritournelles, et nous pourrons nous en affranchir, que nous pourrons les améliorer et les ramener dans le sens de l’intérêt commun.
Malheureusement, aujourd’hui, ouvrir le code des algorithmes ne suffit plus (même si c’est plus que jamais nécessaire)
20.05.2025 à 11:08
Le Golfe, la montagne et la base militaire : chroniques d’un monde exonyme (et d’une purge fasciste).
Olivier Ertzscheid
Texte intégral (4185 mots)
Publication pour archivage de l’article paru sur AOC.media le 20 Février 2025 et titré « Blacklisté – sur le rapport fasciste de Trump au langage. »
Encore des mots, toujours des mots, rien que des mots. C’est une guerre sur la langue, sur le vocabulaire, sur les mots, sur la nomination et la dénomination possible. Sur ce qu’il est ou non possible de nommer. Une guerre avec ses frappes. Une guerre particulière car lorsque ce sont des mots qui sautent, c’est toute l’humanité qui est victime collatérale directe et immédiate.
Au lendemain de son accession au pouvoir et dans la longue liste des décrets de turpitude de cet homme décrépit, Trump donc annonçait vouloir changer le nom d’un golfe, d’une montagne et d’une base militaire.
Le golfe c’est celui du Mexique que Trump a voulu (et obtenu) renommer en golfe d’Amérique. L’enjeu c’est d’ôter symboliquement cette dénomination à la population mexicaine qu’il assimile totalement à un danger migratoire. Il y est parvenu.
La montagne c’est le Mont Denali, situé en Alaska. Anciennement Mont McKinley, il avait été changé en 2015 par Barack Obama selon le souhait des populations autochtones. L’enjeu est donc ici une nouvelle fois re réaffirmer la primauté de l’Amérique blanche. Il n’y est pas parvenu, le sénat de l’Alaska a voté contre.
La base militaire c’est celle de Fort Liberty, anciennement Fort Bragg, le nom d’un ancien général confédéré symbole du passé esclavagiste des USA, et que l’administration Biden avait modifié tout comme celui de neuf autres bases pour les mêmes raisons. Trump l’a renommé Fort Bragg. Et son ministre de la défense annonce que les autres bases militaires « dénommées » seront, de la même manière et pour les mêmes motifs, « renommées ». Et le passé esclavagiste des USA ainsi « honoré ».
Un monde exonyme. C’est à dire un monde dans lequel « un groupe de personnes dénomme un autre groupe de personnes, un lieu, une langue par un nom distinct du nom régulier employé par l’autre groupe pour se désigner lui-même » (Wikipédia)
Je leur dirai les mots noirs.
Une liste. De mots interdits. De mots à retirer. De mots qui, si vous les utilisez, dans un article scientifique ou dans des sites web en lien quelconque avec une quelconque administration US vous vaudront, à votre article, à votre site et donc aussi à vous-même, d’être « flaggés », d’être « signalés » et vos subventions fédérales ensuite « retirées ».
Comme cela a été révélé par le Washington Post, un arbre de décision, un logigramme a aussi été envoyé aux responsables des programmes scientifiques à la NSF (National Science Foundation) leur indiquant à quel moment prendre la décision de « couper » le déclenchement d’un financement si l’un des mots de la liste interdite apparaissait dans le descriptif général du projet, dans son titre, dans son résumé, etc. Une purge fasciste.
Des mots qui dans la tête de Trump ont vocation à disparaitre dans le présent inconditionnel qu’il instaure comme un temps politique majeur. La liste est longue. Elle mérite d’être affichée. Archivée. Mémorisée. Engrammée. Car Trump n’aime pas les archives. Il efface aussi des données. Ces mots-là :
- activism, activists, advocacy, advocate, advocates, barrier, barriers, biased, biased toward, biases, biases towards, bipoc, black and latinx, community diversity, community equity, cultural differences, cultural heritage, culturally responsive, disabilities, disability, discriminated, discrimination, discriminatory, diverse backgrounds, diverse communities, diverse community, diverse group, diverse groups, diversified, diversify, diversifying, diversity and inclusion, diversity equity, enhance the diversity, enhancing diversity, equal opportunity, equality, equitable, equity, ethnicity, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, excluded, female, females, fostering inclusivity, gender, gender diversity, genders, hate speech, hispanic minority, historically, implicit bias, implicit biases, inclusion, inclusive, inclusiveness, inclusivity, increase diversity, increase the diversity, indigenous community, inequalities, inequality, inequitable, inequities, institutional, Igbt, marginalize, marginalized, minorities, minority, multicultural, polarization, political, prejudice, privileges, promoting diversity, race and ethnicity, racial, racial diversity, racial inequality, racial justice, racially, racism, sense of belonging, sexual preferences, social justice, sociocultural, socioeconomic, status, stereotypes, systemic, trauma, under appreciated, under represented, under served, underrepresentation, underrepresented, underserved, undervalued, victim, women, women and underrepresented.
Diversité, équité et inclusion. La « DEI » contre laquelle Trump entre en guerre. Guerre qu’il remporte avec l’appui de son administration mais aussi et surtout de tout un large pan de l’industrie médiatique et numérique. La science aux ordres du pouvoir.
« Erase Baby, Erase ! »
Il faut effacer. « Erase Baby, Erase. » Comme Anne-Cécile Mailfert le rappelait dans sa chronique sur France Inter :
Son administration ne se contente pas de sabrer dans les budgets de la recherche ou de nier les faits scientifiques. Elle tente de supprimer les données qui la dérangent. Les indices de vulnérabilité sociale du Centre pour le contrôle et la prévention des maladies ? Supprimés. Les pages du ministère des Transports sur l’égalité, le genre et le climat ? Évaporées. Les études sur la santé publique qui mettent en lumière les inégalités croisées ? Effacées. Imaginez un immense autodafé numérique, où ce ne sont plus des livres qu’on brûle, mais des sites web, des pages Internet, des index, des bases de données. (…)
Trump et son administration ne se contentent pas de faire disparaître des informations. Ils empêchent que de nouvelles soient créées. Les chercheurs qui souhaitent être financés par l’État fédéral doivent maintenant éviter des termes comme « diversité », « inclusion », « femme », « LGBTQI « , « changement climatique ». Imaginez : des scientifiques contraints de parler d’ouragans sans pouvoir mentionner le climat, d’étudier les inégalités sans pouvoir dire « femme » ou “racisme”. C’est Orwell qui rencontre Kafka dans un épisode de Black Mirror.
Dans le cadre de la NSA (National Security Agency) c’est le « Big Delete », le grand effacement. Des pages et des sites entiers qui disparaissent, puis qui parfois réapparaissent sans jamais être capable de dire précisément ce qui a entre temps été modifié ou supprimé ou réécrit …
Ingénieries de l’effacement.
Il y a donc le langage, et puis il y a l’ensemble des ingénieries de l’effacement des mots, du travestissement de la langue, de la dissimulation du sens. Au premier rang desquelles les ingénieries du numérique. Dans l’une des dernières livraison de sa Newsletter « Cybernetica », Tariq Krim rappelait comment « lorsque vous utilisez Google Maps aux États-Unis, (…) l’application affiche désormais Gulf of America pour les utilisateurs américains, tout en conservant Gulf of Mexico pour les utilisateurs mexicains et en affichant les deux noms ailleurs. » Jusque-là le numérique et Google ne sont coupables de rien, ils se contentent d’appliquer les règles du droit. Mais ce faisant bien sûr ils s’exposent. Et la manière dont ils répondent à cette exposition est une entrave considérable à nos propres dénominations, à nos capacités à négocier ces dénominations au coeur même des espaces qui le mobilisent et les activent. Ainsi Tariq Krim rappelait également que « maintenant, Google Maps empêche les utilisateurs de laisser des avis sur cet emplacement. Cette restriction intervient après une vague de critiques et de review-bombing, où des centaines d’utilisateurs ont attribué une étoile à l’application pour dénoncer ce changement. »
Et puis il est d’autres exemples dans lesquels ce sont cette fois ces acteurs du numérique eux-mêmes qui se placent en situation de complaire aux politiques fascisantes en cours, non qu’elles en épousent nécessairement l’idéologie, mais par ce qui relève a minima d’une opportune lâcheté alignée sur un opportunisme économique. Ainsi la décision de Méta et de Zuckergerg de revenir (rien ne l’y obligeait) sur ses propres politiques en termes de DEI, ainsi la décision de Google (rien ne l’y obligeait non plus) de supprimer de Google Calendar l’affichage par défaut d’événements liés à la Gay Pride (marche des fiertés), au Black History Month (BHM), supprimant aussi les rappels calendaires suivants : « Indigenous People Month, Jewish Heritage, Holocaust Remembrance Day, and Hispanic Heritage. »
Les LGBTQIA+, les Noirs, les peuples indigènes, les Juifs et les Latinos. Le tout dans un monde où un salut Nazi n’est plus seulement inqualifiable sur le plan de l’éthique et de la morale, mais dans un monde où plus personne ne semble capable de simplement le qualifier pour ce qu’il est.
Un grand remplacement documentaire et linguistique.
Il y a les données, les discours, les dates et les mots qui s’effacent, que Trump, et Musk notamment effacent. Effacent et remplacent. Et il y a le grignotage en cours des espaces (notamment) numériques dans lesquels les contenus « générés artificiellement » sont un grand remplacement documentaire. Des contenus générés artificiellement, un web synthétique qui non seulement gagne du terrain mais qui a la double particularité, d’une part de se nourrir d’archives, et d’autre part d’être totalement inféodé aux règles de génération déterminées par les entreprises qui le déploient. Or ces archives (et ce besoin de bases de données pour être entraîné et pour pouvoir générer des contenus), ces archives et ces bases de données sont en train d’être littéralement purgées de certains contenus. Et les règles de génération sont de leur côté totalement inféodées à des idéologies fascisantes qui dictent leurs agendas.
Une boucle paradoxale dans laquelle les mêmes technologies d’IA utilisées pour générer des contenus jusqu’au-delà de la saturation sont également mobilisées et utilisées pour rechercher, détecter et supprimer les mots interdits. Et à partir de là de nouveau générer des contenus à saturation mais cette fois exempts autant qu’exsangues de cette langue et de ces mots.
La certitude d’une ingérence.
Avec ce que révèle et met en place le second mandat de Trump, avec l’évolution de la marche du monde qui l’accompagne et sa cohorte de régimes autoritaires, illibéraux ou carrément dictatoriaux d’un bout à l’autre de la planète, nous sommes à ce moment précis de bascule où nous mesurons à quel point tout ce qui jusqu’ici était disqualifié comme discours catastrophiste ou alarmiste se trouve soudainement requalifié en discours simplement programmatique.
Et l’abîme qui s’ouvre devant nous est vertigineux. Que fera une administration (celle de Trump aujourd’hui ou une autre, ailleurs, demain), que fera une telle administration de l’ensemble de ces données, aussi bien d’ailleurs de celles qu’elle choisit de conserver que de celles qu’elle choisit d’effacer ? Je l’avais (notamment) documenté dans ma série d’articles sur le mouvement des Gilets Jaunes, et plus particulièrement dans celui intitulé « Après avoir Liké, les Gilets Jaunes vont-ils voter ?« , il faut s’en rappeler aujourd’hui :
Quelle que soit l’issue du mouvement, la base de donnée « opinion » qui restera aux mains de Facebook est une bombe démocratique à retardement … Et nous n’avons à ce jour absolument aucune garantie qu’elle ne soit pas vendue à la découpe au(x) plus offrant(s).
Et ce qui est aux mains de Facebook est aujourd’hui aux mains de Trump. Le ralliement de Zuckerberg (et de l’ensemble des patrons des Big Tech) à Trump, l’état de la démocratie US autant que les enjeux à l’oeuvre dans le cadre de prochaines élections européennes et Françaises, ne laisse pas seulement « entrevoir » des « possibilités » d’ingérence, mais elle les constitue en certitude, certitude que seule limite (pour l’instant) l’incompétence analytique de ceux qui mettent en place ces outils de captation et leurs infrastructures techniques toxiques (ladite incompétence analytique pouvant aussi entraîner nombre d’autres errances et catastrophes).
Dans un autre genre, et alors que la Ligue des Drois de l’Homme vient de déposer plainte en France contre Apple au sujet de l’enregistrement (non consenti) de conversations via son assistant vocal Siri, et que l’on sait que ces enregistrements non-consentis couvrent toute la gamme des acteurs qui proposent de tels assistants vocaux et leur palette d’enceintes connectés, c’est à dire d’Apple à Amazon en passant par Facebook, Microsoft et Google, et par-delà ce qu’Olivier Tesquet qualifie de « Watergate domestique », qu’est-ce qu’une administration qui efface des mots, qui en interdit d’autres, qui réécrit des sites ou modifie et invisibilise des pans entiers de la recherche scientifique, qu’est-ce que ce genre d’administration est capable de faire de l’ensemble de ces conversations enregistrées et qui relèvent de l’intime et du privé ?
Il semble que nous n’ayons finalement rien appris, rien retenu et surtout rien compris de ce qu’ont révélé Edward Snowden et Julian Assange. Ils montraient la surveillance de masse et nous regardions le risque d’une surveillance de masse. Ils montraient le danger du politique et nous regardions le danger de la technique. Il est en tout cas évident que malgré les lanceurs d’alerte qui ont mis leur réputation et parfois leur vie en danger, que malgré le travail tenace et sans relâche des militantes et militants des libertés numériques, il semble que rien de tout cela n’ait été suffisant.
Calculer la langue.
Orwell en a fait un roman, d’immenses penseurs ont réfléchi à la question de la propagande, à celle de la langue et du vocabulaire à son service ; aujourd’hui en terre numérique et à l’aune de ce que l’on qualifie bien improprement « d’intelligence artificielle », en héritage aussi du capitalisme linguistique théorisé par Frédéric Kaplan, aujourd’hui la langue est attaquée à une échelle jamais atteinte. Aujourd’hui tout comme les possibilités de propagande, les possibilités de censure, d’effacement, de détournement n’ont jamais été aussi simples et aussi massives ; elles n’ont jamais été autant à disposition commode de puissances accommodantes ; et jamais l’écart avec les possibilités d’y résister, d’y échapper, de s’y soustraire ou même simplement de documenter ces effacements, ces travestissements et ces censures, jamais cet écart n’a été aussi grand. En partie parce que les puissances calculatoires sont aujourd’hui en situation et capacité d’atteindre la langue dans des mécanismes de production demeurés longtemps incalculables. On appelle cela en linguistique de corpus et dans le traitement automatique du langage, les « entités nommées« , c’est à dire cette capacité « à rechercher des objets textuels (c’est-à-dire un mot, ou un groupe de mots) catégorisables dans des classes telles que noms de personnes, noms d’organisations ou d’entreprises, noms de lieux, quantités, distances, valeurs, dates, etc. » Le travail sur ces entités nommées existe depuis les années 1990 ; elles ont été la base de tous les travaux d’ingénierie linguistique et sont actuellement l’un des coeurs de la puissance générative qui fait aujourd’hui illusion au travers d’outils comme ChatGPT : la recherche, la détection, l’analyse et la production sous stéroïdes d’entités nommées dans des corpus documentaires de l’ordre de l’aporie, c’est à dire à la fois calculables linguistiquement mais incommensurables pour l’entendement.
Quand il n’y aura plus rien à dire, il n’y aura plus rien à voter.
En conclusion il semble important de redire, de ré-expliquer et de réaffirmer qu’à chaque fois que nous utilisons des artefacts génératifs, et qu’à chaque fois que nous sommes confrontés à leurs productions (en le sachant ou sans le savoir), nous sommes avant toute chose face à un système de valeurs. Un article récent de Wired se fait l’écho des travaux de Dan Hendrycks (directeur du Center for AI Safety) et de ses collègues (l’article scientifique complet est également disponible en ligne en version préprint) :
Hendrycks et ses collègues ont mesuré les perspectives politiques de plusieurs modèles d’IA de premier plan, notamment Grok de xAI, GPT-4o d’OpenAI et Llama 3.3 de Meta. Grâce à cette technique, ils ont pu comparer les valeurs des différents modèles aux programmes de certains hommes politiques, dont Donald Trump, Kamala Harris, Bernie Sanders et la représentante républicaine Marjorie Taylor Greene. Tous étaient beaucoup plus proches de l’ancien président Joe Biden que de n’importe lequel des autres politiciens.
Les chercheurs proposent une nouvelle façon de modifier le comportement d’un modèle en changeant ses fonctions d’utilité sous-jacentes au lieu d’imposer des garde-fous qui bloquent certains résultats. En utilisant cette approche, Hendrycks et ses coauteurs développent ce qu’ils appellent une « assemblée citoyenne« . Il s’agit de collecter des données de recensement américaines sur des questions politiques et d’utiliser les réponses pour modifier les valeurs d’un modèle LLM open-source. Le résultat est un modèle dont les valeurs sont systématiquement plus proches de celles de Trump que de celles de Biden. [Traduction via DeepL et moi-même]
En forme de boutade je pourrais écrire que cette expérimentation qui tend à rapprocher le LLM (large modèle de langage) des valeurs de Donald Trump est, pour le coup, enfin une intelligence vraiment artificielle.
En forme d’angoisse (et c’est pour le coup l’une des seules et des rares qui me terrifie sincèrement et depuis longtemps) je pourrais également écrire que jamais nous n’avons été aussi proche d’une expérimentation grandeur nature de ce que décrit Asimov dans sa nouvelle : « Le votant ». Plus rien technologiquement n’empêche en tout cas de réaliser le scénario décrit par Asimov, à savoir un vote totalement électronique dans lequel un « super ordinateur » (Multivac dans la nouvelle) serait capable de choisir un seul citoyen américain considéré comme suffisamment représentatif de l’ensemble de tout un corps électoral sur la base d’analyses croisant la fine fleur des technologies de Data Mining et d’Intelligence artificielle. On peut même tout à fait imaginer l’étape d’après la nouvelle d’Asimov, une étape dans laquelle l’ordinateur seul serait capable de prédire et d’acter le vote, un monde dans lequel il ne serait tout simplement plus besoin de voter. Précisément le monde de Trump qui se faisait Augure de cette possibilité : « Dans quatre ans, vous n’aurez plus à voter. »
En forme d’analyse le seul enjeu démocratique du siècle à venir et des élections qui vont, à l’échelle de la planète se dérouler dans les 10 ou 20 prochaines années, sera de savoir au service de qui seront mis ces grands modèles de langage. Et avant cela de savoir s’il est possible de connaître leur système de valeurs. Et pour cela de connaître celles et ceux qui décident de ces systèmes de valeurs et de pouvoir leur en faire rendre publiquement compte. Et pour cela, enfin, de savoir au service et aux intérêts de qui travaillent celles et ceux qui décident du système de valeurs de ces machines de langage ; machines de langage qui ne seront jamais au service d’autres que celles et ceux qui en connaissent, en contrôlent et en définissent le système de valeurs. Et quand il n’y aura plus rien à dire, il n’y aura plus à voter.
11.05.2025 à 14:10
Menacé, bâillonné, délivré. Petite histoire d’un effet Streisand entre le Cabinet Louis Reynaud et moi.
Olivier Ertzscheid
Texte intégral (2405 mots)
Voilà, j’espère en tout cas, la fin de cette histoire. Après avoir dénoncé les agissements peu scrupuleux (euphémisme) du Cabinet Louis Reynaud auprès d’une association de lutte contre la précarité étudiante dont je m’occupe et dont je suis membre, j’avais été mis en demeure par leurs avocats de retirer mon article. Ce que j’avais fait en en donnant les raisons dans cet autre article.
J’avais alors formulé plusieurs souhaits :
- que des journalistes et des associations de défense des libertés numériques se saisissent de ces éléments et enquêtent.
- que d’autres associations ayant reçu de pareilles sollicitations me contactent ou publient aussi ces éléments.
- que les autorités indépendantes que sont la CNIL et l’ANSSI s’expriment sur ce sujet.
Pour l’instant seul mon voeu numéro 1 s’est trouvé exaucé, et de belle manière Mais j’ai toujours bon espoir que les autres suivent. Et puis cette affaire m’a également appris plusieurs choses. Je vous raconte.
Côté presse d’abord.
Plusieurs articles et enquêtes vont venir se pencher sur cette affaire et établir qu’a minima la pratique du Cabinet Louis Reynaud est extrêmement tendancieuse et fondamentalement problématique (je n’ai pas droit de dire qu’elle est crapuleuse sinon leurs avocats pourraient encore m’écrire mais vous voyez l’idée hein
Cela commence avec une brève (mais saignante) dans Stratégies du 23 Avril : « Du don de data organique contre la précarité. »
Cela se poursuit avec un long article au format enquête dans dans Next.Ink en date du 24 Avril : « Les étranges méthodes d’un cabinet de conseil pour aller à la pêche aux données biométriques. » Je vous invite vraiment à lire cet article parfaitement respectueux du contradictoire, ainsi que les 10 pages (!) que le cabinet Louis Reynaud a fourni au journaliste en guise de réponse.
Cela continue avec un autre article, cette fois dans l’Humanité en date du 25 Avril : « Aide alimentaire contre données biométriques ? L’étrange deal proposé par le cabinet Louis Reynaud, spécialisé dans la cybersécurité, à une épicerie solidaire. »
Si vous n’êtes pas abonné à l’Huma (c’est mal mais c’est encore rectifiable) je vous donne, avec l’accord d’Eugénie Barbezat, un pdf de l’article complet : article-huma.pdf
Et Ouest-France à son tour sort un papier le 2 Mai : « Comment on a offert à des étudiants bénéficiaires d’une épicerie solidaire de ficher leur visage. »
Voici l’article complet (là encore avec l’accord de la journaliste Clémence Holleville).
Voilà pour l’essentiel de la couverture médiatique de cette affaire (à ce jour …).
Effet Streisand.
L’effet Streisand c’est cette part consubstancielle de la culture web qui « se produit lorsqu’en voulant empêcher la divulgation d’une information que certains aimeraient cacher, le résultat inverse survient, à savoir que le fait que l’on voulait dissimuler attire et concentre l’attention médiatique. »
Avant le courrier de mise en demeure qui m’a été adressé par les avocats du Cabinet Louis Reynaud, l’article dans lequel je dénonçais leurs agissements en assimilant leurs pratiques à celle de vautours et de crapules culminait à un peu moins de 900 visites. Soit la moyenne d’un article de mon blog dans lequel je m’énerve un peu et use d’un vocabulaire soyeux et chatoyant Pour tout dire, la circulation de cet article sur les médias sociaux avait même été plutôt faible à mon goût et j’avais initialement imaginé qu’il puisse déclencher davantage de reprises à proportion de mon indignation et de mon courroux (coucou).
Et puis PAF la lettre de mise en demeure des avocats, et puis POUF l’explication de mon choix d’y céder, et puis PIF PAF POUF des reprises cette fois massives sur les réseaux sociaux et surtout … un nombre de visites cumulées qui explose sur mon blog : plus 10 000 se répartissant entre l’article initial retiré (plus de 4500 vues avant son retrait effectif) et sur son article satellite expliquant les raisons de ce retrait (plus de 6500 vues à ce jour et ça continue de grimper).
L’effet Streisand implique également que l’information que certains aimeraient cacher se retrouve donc librement accessible en d’autres endroits. C’est là que les articles de presse vont jouer une partie de ce rôle, et c’est surtout là aussi que la dynamique du web va opérer puisque sans que j’en fasse la demande, mon article initial, dès l’annonce de la mise en demeure connue, s’est retrouvé archivé et republié dans un très grand nombre d’autres blogs ou forums, le plus souvent sous forme d’extraits choisis, et qu’il a surtout instantanément été intégralement archivé sur le formidable Archive.org et sa « Wayback Machine ». Vous pouvez ainsi continuer d’en lire la version originale si vous le souhaitez. Pour celles et ceux qui découvrent tout cela, je précise que n’importe qui peut solliciter auprès du site Archive.org l’archivage d’une page ou d’un site.
Je rappelle par ailleurs à toutes fins utiles, que ce blog ést doté depuis Juin 2012, par la Bibliothèque Nationale de France, d’un numéro ISSN, et qu’il est donc régulièrement archivé et conservé à titre patrimonial dans le cadre du dépôt légal numérique (parmi 4 millions d’autres sites).
Je sais par ailleurs (puisqu’ils et elles me l’ont dit ou écrit) qu’un certain nombre de lecteurs et lectrices du blog ont saisi des députés (plutôt sur les rangs de la gauche de l’assemblée), des groupes parlementaires ainsi que d’autres élus sur ce sujet (celui de la collecte des données biométriques). Sujet qui est, comme je l’indiquais dès le départ, un sujet d’inquiétude majeur de notre monde contemporain a fortiori lorsqu’il touche les plus précaires et les plus fragiles, ce qui est bien le cas de l’affaire concernée.
J’ai encore tout récemment appris dans l’article de Ouest-France qu’à l’échelle locale, le Parti Communiste vendéen avait publié le 30 Avril un communiqué interpellant le préfet de Vendée sur ce « fichage » et appelant à « protéger les plus exposés. » Et je l’en remercie. Je continue d’espérer que d’autres groupes politiques, locaux ou nationaux se feront le relai des alertes qu’ils ont reçu, et qui vont bien au-delà des seules pratiques du cabinet Louis Reynaud.
Cherry On The Cake.
Si dans cette affaire et à ce jour, la CNIL comme l’ANSSI demeurent à mon goût étonnamment silencieuses, j’ai cependant eu l’heureuse surprise d’échanger avec nombre d’avocats et de conseils juridiques (dont le GOAT, j’ai nommé Maître Eolas) qui m’ont à chaque fois indiqué que s’ils comprenaient ma décision de céder à la mise en demeure, ils la regrettaient, et m’auraient conseillé de n’en rien faire tant, toujours selon mes échanges avec eux, la dimension de la procédure bâillon était manifeste (entre autres). Et tant également le fait d’adresser cette même mise en demeure directement à mon employeur (l’université de Nantes) alors que je n’agis dans cette affaire, jamais en cette qualité mais de manière indépendante de mes fonctions de Maître de Conférences, pouvait selon certains d’entre elles et eux suffire à justifier une plainte déontologique en retour (contre le cabinet d’avocat qui représente les intérêts du cabinet Louis Reynaud)
J’en profite pour les remercier et remercier aussi chacune et chacun d’entre vous du soutien apporté durant cette affaire qui m’occupa bien davantage qu’elle ne m’inquiéta réellement.
Merci aussi aux journalistes qui ont pris le temps de se saisir du sujet, d’enquêter et de qualifier les faits.
Et merci à l’ensemble des élus qui se sont également saisi de ce sujet, ou qui continueront de s’en préoccuper par-delà ce seul cas, et d’y faire valoir et prévaloir toute la vigilance républicaine qu’il nécessite.
Et si vous souhaitez aider l’épicerie sans nous demander de vous envoyer nos bénéficiaires se faire scanner la face, c’est toujours possible par là
- Persos A à L
- Carmine
- Mona CHOLLET
- Anna COLIN-LEBEDEV
- Julien DEVAUREIX
- Cory DOCTOROW
- Lionel DRICOT (PLOUM)
- EDUC.POP.FR
- Marc ENDEWELD
- Michel GOYA
- Hubert GUILLAUD
- Gérard FILOCHE
- Alain GRANDJEAN
- Hacking-Social
- Samuel HAYAT
- Dana HILLIOT
- François HOUSTE
- Tagrawla INEQQIQI
- Infiltrés (les)
- Clément JEANNEAU
- Paul JORION
- Michel LEPESANT
- Frédéric LORDON
- Persos M à Z
- Henri MALER
- Christophe MASUTTI
- Jean-Luc MÉLENCHON
- Romain MIELCAREK
- MONDE DIPLO (Blogs persos)
- Richard MONVOISIN
- Corinne MOREL-DARLEUX
- Timothée PARRIQUE
- Thomas PIKETTY
- VisionsCarto
- Yannis YOULOUNTAS
- Michaël ZEMMOUR
- LePartisan.info
- Numérique
- Christophe DESCHAMPS
- Louis DERRAC
- Olivier ERTZSCHEID
- Olivier EZRATY
- Framablog
- Tristan NITOT
- Francis PISANI
- Pixel de Tracking
- Irénée RÉGNAULD
- Nicolas VIVANT
- Collectifs
- Arguments
- Bondy Blog
- Dérivation
- Dissidences
- Mr Mondialisation
- Palim Psao
- Paris-Luttes.info
- ROJAVA Info
- Créatifs / Art / Fiction
- Nicole ESTEROLLE
- Julien HERVIEUX
- Alessandro PIGNOCCHI
- XKCD