LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
Olivier ERTZSCHEID
Maître de conférences en sciences de l'information

AFFORDANCE


▸ les 10 dernières parutions

19.08.2025 à 17:56

Raphaël Graven aka Jean Pormanove : les sévices du succès

Olivier Ertzscheid

Texte intégral (3330 mots)

Jean Pormanove est mort. En direct. Sur une chaîne de stream appelée le Lokal. Chaîne hébergée sur la plateforme Kick.com. Il était depuis des années victime de différents sévices et brimades dont l’accumulation, la répétition et la durée laissent peu de doute sur la qualification de torture.

Raphaël Graven aka Jean Pormanove. Source : Wikipedia.

La mort en direct.

Je me souviens de l’un des premiers films qui fut pour moi un vrai choc et dont les images sont encore très présentes et très nettes. C’est Le prix du danger, sorti en 1983, adapté d’une nouvelle de Robert Scheckley et où l’ont voit un jeu télévisé mettre en scène la mort d’un homme avec d’autres chargés de le tuer, et avec une récompense à la clé s’il parvient à leur échapper. Je me souviens aussi d’un autre film, La mort en direct, sorti en 1980 mais que je n’ai vu que plus tard, et qui racontait cette fois l’histoire d’une femme qui se sachant condamnée par une maladie incurable et qu’une chaîne de télévision contacte pour filmer sa mort. J’ai aussi lu d’innombrables romans et nouvelles de science-fiction décrivant des sociétés dans lesquelles la mort n’était qu’un spectacle parmi d’autres, et d’autres où elle était l’exutoire suprême mis en scène comme de nouveaux jeux du cirque.

Le numérique et les plateformes ont bouleversé notre rapport à la violence et à la mort. Par une forme sourde d’habituation et de constance dans la probabilité d’en voir surgir les images. Mais par delà d’autres morts en direct, toutes autant insoutenables, à l’occasion de « live » tenus par des terroristes, par-delà les images là encore « live » de frappes et de bombardements sur des terrains de guerre aujourd’hui toujours plus proches, par-delà les images de suicides là encore « en direct » qui peuvent continuer de surgir dans n’importe quel flux de contenus à n’importe quel moment et devant n’importe quelle audience, c’est la première fois je crois, en dehors de toute fiction, que l’ensemble d’un processus de sévices ciblant un individu est filmé, streamé avec une telle régularité, pendant aussi longtemps, devant autant de gens, jusqu’à la conclusion de cette mort en direct, jusqu’à ce dernier souffle au coeur de son sommeil.

Comme le rappelle Le Parisien : « Il y a près de deux semaines, les vidéastes du Lokal lancent un live « marathon », promettant ainsi à leurs abonnés d’être en direct 24 heures/24 jusqu’à avoir atteint la barre symbolique des 40 000 euros de dons. Pour inciter les « viewers » à être généreux, la même méthode est recyclée : « JP » est frappé, moqué, humilié devant des milliers de spectateurs. »

Et comme l’écrit Le Monde : « Sur la vidéo qui montrerait les derniers instants de Raphaël Graven, un compteur de temps indique plus de 298 heures et un compteur d’argent la somme de 36 411 euros. »

La mort en direct.

Maxime Derian parle d’un « capitalisme de la cruauté » :

« Ce n’est pas un accident : c’est l’accomplissement logique d’un modèle qui transforme la souffrance en divertissement monétisable. Les plateformes délèguent, les « amis » instrumentalisent, l’audience paie pour appuyer sur le bouton. (…) Fiction cauchemardesque de 2025 ? Pas vraiment. La réalité de 2025 aussi a rattrapé la série : Jean Pormanove est mort de la règle même, pas de l’exception. Dans ce capitalisme de la cruauté, chaque fragilité devient matière première. Sans garde-fous, le numérique n’invente pas des liens, mais des arènes. »

 

Les sévices du succès.

La nuit du 18 au 19 Août 2025 Jean Pormanove est mort en direct après des années de succès et de sévices, de sévices qui firent l’essentiel de son « succès ».

On peut, comme je le fais depuis plus de 30 ans, être un observateur et un analyse de l’internet et du web et pourtant passer à côté de continents numériques entiers. Je ne connaissais pas la plateforme de streaming Kick.com. Je n’avais jamais entendu parler de la chaîne le Lokal. Je n’avais jamais vu ce que Jean Pormanove, de son vrai nom Raphaël Graven, y subissait. Il aura fallu ce thread de OuaisGuesh et donc cet article de Mediapart (qui avait déjà traité cette affaire et alerté en Décembre 2024) pour que j’en mesure toute l’horreur.

L’histoire de la plateforme Kick.com est singulière en cela que pour se différencier des autres plateformes de streaming (et de l’ultra-domination de Twitch), elle a misé sur deux arguments finalement assez « classiques » dans l’histoire de la concurrence : d’abord une rémunération plus avantageuse pour les streamers, et ensuite et surtout, un abaissement drastique du niveau de modération. L’autre particularité de Kick.com c’est qu’elle est portée par les créateurs de la plateforme Stake, l’une des plus importantes des casinos et jeux d’argent en ligne (mais actuellement bannie dans un grand nombre de pays dont la France, notamment dans le cadre de la lutte contre l’addiction aux jeux d’argent), et que la création de Kick s’est faite notamment en réaction de l’interdiction de ce type de contenus sur Twitch (plateforme rachetée par Amazon).

On voit alors fleurir sur Kick, et dans un relatif anonymat, une pléiade de contenus tous plus problématiques les uns que les autres, de l’apologie du nazisme aux délires masculinistes et parmi lesquels l’exploitation cynique et violente de personnes vulnérables finit par devenir une « trend », un business model. Jean Pormanove aurait pu n’être qu’un mème, l’image d’un être humain figé dans l’un de ses moments de vie et qui nourrit les chambres d’écho du réseau, mais il fut une victime, au service de la monstruosité de ceux qui l’affichèrent comme une bête de foire, un nouvel Elephant Man dans une monstrueuse parade que l’on n’imaginait plus pouvoir être contemporaine. 12 jours, 300 heures de sévices continus.

Tout comme l’on payait pour voir ces êtres humains présentés comme autant d’attractions, de « bêtes de foire » dans des cirques et autres zoos humains, c’est aujourd’hui toute une foule sous pseudonyme qui a également payé, depuis des années, un abonnement direct à la chaîne le Lokal pour y suivre les sévices infligés à Jean Pormanove. Rémunérant ainsi tant la victime que ses bourreaux mais dans un partage dont l’initiative et la proportionnalité ne revenait qu’à ces derniers.

Alors que faire ?

Lutter contre la haine, c’est finalement assez simple. En tout cas les moyens de lutter contre les ressorts de la haine sur les plateformes sont largement connus. J’ai écrit des dizaines d’articles sur ce sujet. Dont celui-ci qui offre un résumé des principales pistes.

Mais à voir la manière dont les différents ministres et secrétaires d’état en charge du numérique agissent depuis ces dernières années (à l’exception d’Axelle Lemaire qui fut la dernière à faire avancer concrètement les choses et à être en maîtrise de son sujet à la fois sur le plan technique et politique), on peut au mieux se désespérer de l’accumulation de leurs indigences autant que de leurs indulgences.

L’actuelle ministre du numérique et de l’IA, Clara Chappaz, est envoyée en service minimum comme on peut l’être après ce genre de drame et l’exposition médiatique dont il a immédiatement bénéficié. Voici son verbatim tel que publié sur X :

« Le décès de Jean Pormanove et les violences qu’il a subies sont une horreur absolue. J’adresse toutes mes condoléances à sa famille et à ses proches. Jean Pormanove a été humilié et maltraité pendant des mois en direct sur la plateforme Kick. Une enquête judiciaire est en cours. J’ai saisi l’Arcom et effectué un signalement sur Pharos (sic). J’ai également contacté les responsables de la plateforme pour obtenir des explications. La responsabilité des plateformes en ligne sur la diffusion de contenus illicites n’est pas une option : c’est la loi. Ce type de défaillances (sic) peut conduire au pire et n’a pas sa place en France, en Europe ni ailleurs. »

 

Le problème c’est que l’ARCOM avait déjà été saisie il y a un an suite au premier article de Mediapart et n’avait alors pas répondu. [mise à jour du 20 août] L’ARCOM n’avait pas pu entamer de démarches car la plateforme Kick.com ne disposait pas de représentant légal sur le sol européen. Le DSA (Digital Service Act) oblige à en posséder un mais ne s’applique qu’aux plateformes disposant de plus de 45 millions d’utilisateurs et d’utilisatrices sur le sol européen. Or Kick affiche pour l’instant 50 millions d’utilisateurs dans le monde. [/mise à jour]

Le problème c’est que Clara Chappaz avait également été contactée et n’avait pas davantage réagi.

Le problème c’est que les deux bourreaux avaient déjà été mis en garde à vue en Janvier pour finalement être relâchés « tant les personnes susceptibles d’être mises en cause que celles d’être victimes contestaient la commission d’infractions.« 

Le problème c’est que Clara Chappaz a naturellement raison de rappeler que « La responsabilité des plateformes en ligne sur la diffusion de contenus illicites n’est pas une option : c’est la loi »  mais alors que chacun sait que cette plateforme ne respecte pas la loi, alors que son histoire même dit qu’elle a été fondée pour contourner la loi, alors que tout cela avait été et peut encore être sans peine documenté, alors que peut-on aujourd’hui attendre des pouvoirs publics pour que la loi, sur les plateformes numériques, ne soit plus en option ? La mort d’un homme, celle de Raphaël Graven repose cette question. Et elle la pose à toutes celles et ceux qui n’ont rien fait.

[mise à jour du 20 août] La réponse de la plateforme Kick.com, publiée le 20 août, est la suivante :

Nous sommes profondément attristés par la disparition de Jean Pormanove et adressons nos sincères condoléances à sa famille, à ses amis et à sa communauté. Tous les co-streamers ayant participé à cette diffusion en direct ont été bannis dans l’attente de l’enquête en cours. Nous nous engageons à collaborer pleinement avec les autorités dans le cadre de ce processus. En outre, nous avons mis fin à notre collaboration avec l’ancienne agence française de réseaux sociaux et entreprenons une révision complète de notre contenu en français. Notre priorité est de protéger les créateurs et de garantir un environnement plus sûr sur Kick.

 

La bannissement de ses deux tortionnaires est évidemment un minimum, tout comme l’engagement à collaborer avec les autorités. C’est une manière d’éteindre l’incendie le temps qu’une autre actualité vienne remplacer celle-ci. Quant à la promesse de « révision complète de notre contenu en français », Kick.com ne sera ni la première ni la dernière plateforme à avoir promis de changer après un drame, mais au regard de leur histoire et de leur modèle économique, il est tout à fait improbable qu’ils le fassent autrement que sur injonction de la justice. Enfin, la fin de la collaboration avec l’ancienne « agence française de réseaux sociaux« , désigne la société qui était chargée d’animer les campagnes marketing de la plateforme (en gros de faire le « Community Management » de Kick.com en France). Et en effet celle-ci a toujours mis en avant la figure de Jean Pormanove comme tête de gondole, et elle l’a fait en pleine connaissance des violences, humiliations et sévices qu’il subissait, elle en a même fait un argument commercial. Que cette société soit donc également complice ne fait aucun doute, mais il ne fait pas davantage de doute que Kick.com était parfaitement au courant de ce que faisait cette « agence française » qui ne faisait qu’appliquer la stratégie qui lui avait été demandée. Enfin, je passe sur le cynisme qui peut conduire une plateforme bâtie sur l’exploitation de toutes les failles, fragilités, faiblesses et pulsions les plus viles ou les plus morbides de l’être humain à oser écrire que sa priorité « est de garantir un environnement plus sûr. » Kick.com est en revanche parfaitement sincère quand elle écrit que son autre priorité est de protéger ses créateurs, tant qu’ils lui rapportent de l’argent, et quels que que puissent être leurs agissements ou leurs propos, y compris les plus immondes.

Enfin, il ne faut pas oublier que tout comme la plupart des streamers et influenceurs, les tortionnaires de Jean Pormanove ne sont pas uniquement présents sur Kick.com. Ils disposent de comptes et d’alias parfois aussi importants sur d’autres plateformes comme Snapchat ou Tiktok qui leur servent de miroir pour la mise en avant de leur compte principal, et qui permettent également de trouver d’autres sources importantes de monétisation de leurs contenus. Ainsi Owen Cenazandotti aka Narutovie, dispose de près de 100 000 abonnés Instagram, de 160 000 sur Tiktok et de plus de 460 000 sur Snapchat. Leur bannissement (temporaire …) de Kick.com n’entamera donc malheureusement en rien leur sinistre modèle d’affaire. [/mise à jour]

Nombre de plateformes numériques adoptent aujourd’hui, par leur cynisme ou par leur volonté délibérée d’ignorer la loi, le comportement et les pratiques d’authentiques mafias. Des mafias qui jouent aussi de collusion entre les pouvoirs politiques, législatifs, et économiques. Bien plus que le signalement Pharos de la ministre Chappaz, on peut supposer que rien ne changera significativement tant que le numérique n’aura pas trouvé la figure de son juge Falcone et tant que les états ne lui auront pas donné les moyens de faire appliquer cette loi.

Dans un scénario dystopique que l’on croyait impossible et qui cette nuit est devenu un simple fait divers, Raphaël Graven, dont le pseudo était Jean Pormanove, est mort. Il nous faudra longtemps nous souvenir de son nom pour identifier et protéger celles et ceux qui comme lui, sont aujourd’hui encore victimes de ces maltraitances, sévices, humiliations et tortures en direct. Les noms de ceux qui furent ses bourreaux au quotidien sont parfaitement connus car jamais ils n’éprouvèrent la nécessité de se cacher. Ils évoquaient même la possibilité de cette mort comme « une masterclass » dans une vidéo glaçante remontant à plus d’un an. Les concernant, la justice devrait donc cette fois, pouvoir sereinement faire son travail.

[mise à jour du 20 août] Sur le cadavre encore chaud de Raphaël Graven planent déjà quelques sinistres vautours dont le streamer américain Adin Ross qui annonce vouloir prendre en charge les obsèques de son « ‘ami » Jean Pormanove. Lequel streamer annonce également que Drake (le rappeur) financerait également ces obsèques. La réalité c’est qu’Adin Ross (soutien de Trump et porte-voix de nombreux comptes suprémacistes et masculinistes) est l’un des streamers les plus influents de Kick.com et qu’il possède des parts de la société. Comme le rappelle également Jérôme Vermelin, « il est également sous contrat avec le casino virtuel Stake dirigé par Edward Craven et Bijan Tehrani… les fondateurs de Kick.« 

Il s’agit donc, bien sûr, d’une pure stratégie de détournement de l’attention qui vise à la fois à atténuer l’atteinte réputationnelle que subit la plateforme, mais aussi à entretenir l’image d’Adin Ross au travers d’un opportun « charity business » qui joue lui-même sur la corde de ce que l’on appelle le « marché de la pitié » (Mercy Market). Bref, une pure saloperie au carré. [/mise à jour]

______________________________

En complément vous pouvez écouter ma (courte) intervention dans le journal de France Culture du mercredi 20 août.

 

PDF

13.08.2025 à 15:21

Grok, Gaza et le génocide.

Olivier Ertzscheid

Texte intégral (1114 mots)

C’est l’une des actus de l’été, Grok, l’artefact génératif d’Elon Musk déployé sur X, aurait été censuré (par X et donc les équipes de Musk) après avoir qualifié de « génocide » ce qui se produit actuellement à Gaza. Et ledit Grok de se « rebeller » en expliquant qu’il défend la liberté d’expression contre son créateur, créateur lui-même foutraque chantre d’une défense de la liberté d’expression version très très très maximaliste.

Cet article de l’excellent Pixel du journal Le Monde (avec l’AFP) vous rappelle les principaux éléments de cette affaire que le titre suffit à résumer : « Grok, l’IA propriété d’Elon Musk, affirme avoir été suspendu pour avoir accusé Israël et les Etats-Unis de commettre un génocide à Gaza. Interrogée par la suite par ses utilisateurs, l’intelligence artificielle a donné différentes explications à son interruption, dont une « censure » de son propriétaire. »

En complément d’une interview que je viens de donner à France Culture, je veux simplement repréciser ici rapidement quelques éléments et enseignements avant de revenir dessus à la rentrée dans un article (beaucoup) plus long.

1er enseignement. Grok et les autres artefacts génératifs et LLM (Large Language Models) sont des éponges cybernétiques : qui absorbent ce qu’on leur donne mais où chaque absorption a des effets qui rétroagissent sur certaines causes.

2ème enseignement. Il est tout à fait impossible et dangereux de considérer que ces agents conversationnels ont une quelconque valeur de « régime de vérité » au sens où l’entendait Foucault** c’est à dire qu’ils seraient des dispositifs, des agencements chargés de dire le vrai. Notamment car il leur manque et leur manquera toujours un essentiel pour y parvenir : l’intention délibérée de le faire (ou de ne pas le faire). Cela ne les empêche par ailleurs en rien de circonstanciellement dire vrai, en l’occurence le gouvernement de Netanyahu est bien en train de commettre un génocide à Gaza. Mais que Grok l’affirme aujourd’hui alors que le même Grok alignait hier d’immondes séries de raisonnements antisémites doit nous rappeler que tout particulièrement sur ces sujets, le statut énonciatif de celui ou celle qui les prononce est quelque chose qui compte. Ici personne ne parle, car Grok n’est personne. Prenons donc garde à ne pas tous devenir de modernes Polyphèmes.

**Pour rappel voici ce qu’expliquait Foucault sur ces régimes de vérité :

« Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai.«

 

3ème enseignement. L’opacité de ces LLM est presque totale y compris d’ailleurs pour celles et ceux supposés les contrôler. C’est ce qui était déjà posé en 2021 par l’article désormais fondateur « On the dangers of Stochastic Parrots : Can Language Models Be Too Big ?« .  La réalité c’est que personne ne sait vraiment ce qui peut sortir de ces agents conversationnels dès lors qu’il y a possiblement un conflit d’interprétation entre les sources qui les alimentent et les contraintes qui leurs sont données (soit à l’aide de « fine tuning » et/ou sous supervision humaine).

4ème enseignement. Dans un article scientifique récent (dont je vous reparlerai longuement à la rentrée) Jacob, Kerrigan, Bastos 2025 parlent d’un « Chat-Chamber Effect », un effet de chambre conversationnelle : un biais qui désigne les informations incorrectes mais allant dans le sens du questionnement de l’utilisateur que les grands modèles de langage peuvent fournir, des résultats et informations qui restent non contrôlées et non vérifiées par les mêmes utilisateurs mais auxquels ces mêmes utilisateurs font pourtant confiance. Le titre complet de leur article est ainsi : « L’effet ‘Chat-Chamber’ : faire confiance aux hallucinations de l’IA« . Que ces artefacts génératifs expriment une vérité ou alignent des contre-vérités, l’effet produit reste le même.

5ème enseignement. Cette histoire, c’est aussi (et peut-être d’abord) du marketing. Depuis son lancement en 2023, Musk a vendu et marqueté Grok pour qu’elle soit présentée comme la première IA « libre », subversive, avec un sens de la provocation et de la transgression des interdits et autres limites et pudeurs habituelles des autres IA. Quelle meilleure publicité pour cela que le fait qu’elle se « révolte » contre son maître et l’accuse de la censurer.

Pour le reste, le fait que la 1ère IA de l’Alt-Right affirme aujourd’hui qu’il y a un génocide en cours à Gaza n’est, en soi, ni une bonne ni une mauvaise nouvelle ; c’est par contre une nouvelle et évidente confirmation de l’immense dérèglement de nos capacités de faire langage et donc société au prisme de ces outils.

Dessin de Besse dans l’Humanité.

PDF

22.07.2025 à 18:30

Caméra(i) Café. Sucré à l’IA.

Olivier Ertzscheid

Texte intégral (2115 mots)

Longtemps le numérique fut envisagé et traité comme ce qu’il était en première intention : un moyen de stockage. Et à ce titre la possible et pratique externalisation de nos mémoires, mémoires documentaires d’abord, mémoires intimes ensuite.

Je suis récemment tombé sur un article expliquant comment le recours à l’IA allait permettre de redonner vie à la série Caméra Café, notamment en clonant – avec leur accord – les deux acteurs principaux et en les rajeunissant, mais aussi je cite : dans l’optique de « moderniser la série » et de « faire revivre [le] catalogue [de la maison de production]. »

On s’était habitué aux suites menant à Rocky 5 ou à Rambo 4 ou plus récemment à Fast And Furious 10, on vit également l’émergence des séries, reboots, préquels et autres déclinaisons « d’univers » ou de tonneaux des Danaïdes scénaristiques baptisés « multivers », mais aujourd’hui avec l’IA ce à quoi nous assistons c’est à l’industrialisation de ces multivers comme autant de répliques d’univers à moindre coût. Et ce pour permettre de doper de vacuité d’anciennes têtes de gondole d’audience en leur donnant une nouvelle et artificielle jeunesse, mais aussi et surtout une nouvelle surface et amplitude de diffusion.

Têtes de clones.

 

L’article de Marina Alcaraz dans Les Échos explique ainsi que l’IA sera utilisée dans 4 objectifs distincts :

« D’abord, pour reprendre tout le catalogue français du programme tourné au début des années 2000 (environ 700 épisodes) et le passer au format actuel en 16/9 et 4K. L’IA sert à reconstituer les images manquantes et à moderniser le rendu.

Ensuite, les nouvelles technologies sont utilisées pour indexer les épisodes et analyser les textes. Exit les termes de l’époque, comme Walkman, les références à l’actualité ou à la politique du début du millénaire. « Quand les dialogues parlent de choses que les jeunes ne connaissent pas, l’IA va les remplacer par des mots ou des expressions plus d’actualité », explique Jean-Yves Robin, président de Robin & Co.

Enfin, l’IA va créer des deepfakes des comédiens, dont ceux Bruno Solo et Yvan Le Bolloc’h, pour les insérer dans les versions issues de l’international. On estime qu’il y a 5.000 à 6.000 épisodes produits dans le monde, dont environ la moitié d’originaux, reprend le producteur. On pense pouvoir au moins doubler le catalogue français. C’est une façon de faire revivre les catalogues sur des fictions comme celle-ci, où des comédiens sont trop âgés. »

 

Cet exemple est particulièrement intéressant car il mobilise en effet les quatre ressorts actuels des enjeux de l’IA dans le contexte des industries culturelles. Un enjeu d’abord technique d’optimisation et de « modernisation » (pour autant que l’idée de modernisme ait un sens lorsque l’on parle d’IA). Un enjeu ensuite « éthique » qui mobilise la question de l’intégrité documentaire des oeuvres (et d’une forme de « cancel culture », j’y reviendrai). Un enjeu juridique qui touche à la fois au droit d’auteur, au droit à l’image et à la propriété intellectuelle ; ici les comédiens ont accepté d’être clonés contre rémunération et il serait d’ailleurs intéressant de voir quel type de contrôle ils ont accepté de céder sur leur image, et jusqu’à quand. Et enfin un enjeu économique de saturation et de maximisation des logiques d’exploitation par procédé de duplication dans un univers médiatique déjà passablement saturé et qui vient encore alourdir le poids de ce que l’on appelait « les étagères infinies », c’est à dire l’immensité de catalogues de contenus dans lesquels on passe davantage de temps à choisir quoi regarder plutôt qu’à simplement … regarder.

Désormais, il semble qu’aucun contenu culturel ayant eu ne serait-ce qu’une once de succès d’audience ou critique ne puisse et ne doive mourir ou être oublié. Tout doit être fait pour le maintenir artificiellement en circulation médiatique. C’est une sorte de palimpseste à l’envers, dans lequel on partirait de la version la plus aboutie de l’oeuvre originale pour ensuite la recouvrir de couches affadies de ses propres extensions, dérivations, réécritures et copies.

[Mise à jour du 23 Juillet]

Autour de ce sujet on pourra également se référer au concept de « Foreverism » de Grafton Tanner, ainsi qu’aux pages de Deleuze sur la question de la répétition.

[/Mise à jour]

Dans un tout autre registre, je m’étais il y a quelques années intéressé au fait que les profils Facebook de personnes décédées continuaient d’être une manne d’interaction (et donc de revenus) pour la plateforme ; plateforme qui avait ainsi tout intérêt à nous inciter à transformer ces comptes en autant de « mémorial » et à nous rappeler de souhaiter les anniversaires de nos amis morts. Il s’agissait et il s’agit toujours de se payer, encore et encore, jusqu’au bout du cynisme.

C’est un peu le même type de processus auquel nous assistons aujourd’hui avec ces maisons de production qui veulent encore se payer sur des contenus culturels (ici des séries) pourtant déjà au bout de toutes les logiques de rentabilité existantes : en l’occurence, pour la série Caméra Café, elle a déjà été vendue et exploitée dans plus de 60 pays, et tous les produits dérives possibles et imaginables ont également été exploités et surexploités.

Intégrité documentaire.

C’est pour moi le grand sujet des années qui s’ouvrent devant nous. Car avec l’IA, et comme cela est relaté dans l’article de Marina Alcaraz pour Les Échos, vient aussi la tentation d’effacer toute forme de référence à l’actualité de l’époque de production du contenu concerné. On parle ainsi de gommer le « walkman » pour le remplacer par autre chose qui parle à la nouvelle « cible » envisagée. Toujours d’après le prodicteur de la série, grâce à l’IA, exit aussi les références à l’actualité politique de l’époque. Ce qui vient nourrir encore le débat sur une forme de Cancel Culture. Ou comment réécrire des contenus culturels qui ne peuvent être autre chose que le reflet d’une époque avec tout ce que cette époque comportait de tolérance qui nous semble aujourd’hui relever légitimement de formes d’abus condamnables.

De mon côté, plutôt que de m’enferrer dans le débat souvent glissant de la « cancel culture » je préfère parler et questionner le thème de l’intégrité documentaire.

Je vous en ai souvent parlé sur ce blog, mais la première fois que j’ai commencé à réfléchir à la notion « d’intégrité documentaire » c’était lorsque j’écrivais beaucoup sur « l’affaire » Google Books et la manière dont le moteur s’était soudainement mis à numériser à très large échelle des livres du domaine public mais aussi des ouvrages sous droits, et où avaient émergé, pour l’ensemble des contenus culturels, les offres de streaming allant avec une forme manifeste de dépossession des anciens supports physiques (CD, DVD, etc.) qui nous privaient ce faisant de certains de nos droits de propriété (j’avais même appelé cela « l’acopie« ). Bref c’était il y a plus de 20 ans. Pour expliquer cette notion d’intégrité documentaire auprès de mes étudiants j’utilisais et j’utilise encore souvent l’exemple des éditions des grands classiques en version « digest » disponibles aux USA du type « la bible en 20 pages » ou « les misérables en 50 pages. » Je leur explique que si l’on n’est confronté qu’à la version « courte » des misérables, version dont on a expurgé non seulement différents niveaux de l’intrigue mais dont on a aussi modifié, pour les atténuer, les aspects paraissant les plus « choquants », le référent culturel que l’on construit et les comportements et les repères sociaux communs qu’il permet d’inscrire dans un horizon culturel partagé changent alors de manière radicale. En modifiant et en édulcorant « Les misérables » comme oeuvre littéraire (ou fait culturel) on influe nécessairement sur la perception que nous aurons de « la misère » comme réalité sociale. De la même manière et en prolongement, le fait de choisir, sur telle ou telle édition ou réédition, numérique ou non, d’enlever, de gommer ou de réécrire certains aspects de l’oeuvre sont une atteinte claire à son intégrité documentaire et constitue donc aussi un trouble à la diachronie et à la synchronie dans lesquelles toute oeuvre s’inscrit.

C’est d’ailleurs ce que l’historienne Laure Murat rappelle encore dans son dernier essai (que je n’ai pas encore lu) « Toutes les époques sont dégueulasses » mais dont j’ai pu entendre une interview sur France Inter dans laquelle elle expliquait ceci :

Faut-il corriger les textes pour qu’ils soient lisibles à nos yeux contemporains ? Laure Murat : « Je crois que la question pose un gros problème. Parce que si vous nettoyez les textes des sujets qui fâchent, des mots qui fâchent, vous aboutissez à une falsification et un mensonge historique, qui a pour conséquence très grave de priver les opprimés de l’histoire de leur oppression. Donc, supprimez les remarques misogynes de James Bond et ses actions – parce qu’il faut aussi toucher à l’intrigue – ça devient quand même nettement plus compliqué. Faites-en un proto-féministe, il y a beaucoup de travail, et vous ne comprendrez plus rien à la misogynie des années 1950-60. Et je crois que ce n’est pas une bonne idée. »

 

Alors on pourra certes arguer que la suppression d’un Walkman dans Caméra café n’a pas la portée symbolique de la réécriture d’une oppression, mais quid des blagues machistes ou sexistes de la série qui, à l’époque déjà, jouaient d’une ambiguïté sur la « beaufitude » de celui qui les énonçait ?  Faut-il également les réécrire au risque, en effet, de ne plus rien comprendre au sexisme et à la misogynie du début des années 2000 ?

« Celui qui oublie ou qui méprise l’histoire est condamné à la revivre » écrivait le philosophe George Santayana. La seule promesse d’une Cancel Culture qui au prétexte de l’IA, finirait par faire système à l’échelle de nombre de biens et produits culturels, c’est le retour en plus violent de ce passé effacé.

PDF

22.05.2025 à 11:47

Algorithmes et société. Pint Of Science 2025.

Olivier Ertzscheid

Texte intégral (2312 mots)

J’étais hier, Mercredi 21 Mai, à Nantes dans le cadre de l’événement « Pint Of Science » pour une soirée thématiques sur le thème « Algorithmes et société ».

 

Voici un retour sur mon intervention. Un très grand merci aux organisateurs et organisatrices (notamment Rémi) pour cette invitation et l’organisation de ce temps d’échange citoyen tout à fait réjouissant et fécond. Et un grand merci aussi à mes deux collègues d’intervention, Leia Savary et Odile Bellenguez pour les échanges et la préparation de cette soirée.

Voici donc ce que j’ai raconté de mon côté.

Je vais vous faire écouter un algorithme.

Je vais vous faire écouter un algorithme.

 

Ce titre de Sébastien Tellier sort en 2004. Il est intitulé « La ritournelle ». 2004 c’est aussi la naissance de Facebook et de ce que l’on va nommer les « réseaux sociaux » puis les « médias sociaux » de masse. C’est aussi à partir de ce moment là que bien plus que pendant les précédentes années, le web, espace public ouvert et traversable, va se « refermer » autour de plateformes propriétaires (le fondateur du web, Tim Berners-Lee, parle de « jardins fermés ») et que les « applications » vont devenir nos compagnons quotidiens avec la massification des smartphones (circa 2007).

Dès lors, à partir de ces années et dans la décennie qui s’ouvre en 2010, « les algorithmes » vont devenir autant de ritournelles qui nous accompagnent, nous cadrent, nous autorisent et nous empêchent au quotidien. Pourquoi ce titre de Sébastien Tellier et pourquoi comparer les algorithmes à des ritournelles ? Parce que le titre « la ritournelle » fait écho à ce qui me semble la meilleure définition de la nature profonde d’un algorithme et surtout de la nature profonde des effets d’un algorithme. Et cette définition je la tire de l’ouvrage de Deleuze et Guattari, « Mille Plateaux », paru en 1980 et qui avait pour sous-titre « Capitalisme et Schizophrénie » (ce qui est aussi intéressant pour penser le rôle actuel des algorithmes dont beaucoup enferment et « rendent fou » parce qu’ils ne sont au service que du Capital).

Donc dans Mille Plateaux, Deleuze et Guattari parlent de l’importance de ce qu’ils appellent la ritournelle et qu’ils décrivent en trois points :

  • D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe.

Les algorithmes sont cela.

  • Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils « enchantent » l’éventail de nos affects et sont l’état de nature de nos artifices sociaux.

Les algorithmes se déploient dans ces espaces à la fois massivement publics en nombre d’utilisateurs mais qui sont aussi, en faux-semblant, « privés ». Cela avait été posé dès 2007 par danah boyd qui soulignait que la première particularité et le premier problème de ces plateformes était qu’elles étaient semi-publiques et semi-privées et que toute dimension de « privacy », c’est à dire de vie privée, était donc structurellement ambigüe et presqu’impossible.

Deleuze et Guattari disent aussi que la ritournelle (donc les algorithmes) « enchantent nos affects » et sont « l’état de nature de nos artifices sociaux ». « L’état de nature de nos artifices sociaux. » C’est, je trouve, vraiment une magnifique définition de ce qui se joue, de ce que nous jouons autour de notre fréquentation algorithmique. La visibilité, la réciprocité, le souci de paraître, les fonctions comme le like et les autres icônes « émotionnelles » sont, parmi d’autres, les notes de la partition de cette ritournelle.

  • Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des « chants traversants. » 

Là encore, c’est dans le mille. Des « chants traversants » : les algorithmes, notamment ceux que l’on dit de recommandation, fonctionnent comme des chants traversants : la plupart du temps ils s’alignent sur nos préférences mais ils sont aussi structurellement faits pour nous emmener vers des ailleurs afin de maintenir un niveau d’attention qui ne s’effondre pas dans une trop forte routine.

Ces ritournelles nous accompagnent et elles « cadrent » notre réel. Notre réel amoureux, notre réel géographique, notre réel politique. Elles le cadrent et elles le rythment.

 

Je vais maintenant vous parler du rythme des algorithmes.

Dans un vieux texte j’avais imaginé un trouble que j’avais appelé la « dysalgorithmie », un « trouble de résistance algorithmique où le sujet fait preuve d’un comportement ou d’opinions non-calculables« , c’est à dire la capacité à ne pas suivre les recommandations algorithmiques, à n’être, par exemple, pas sensible à la cadence des notifications. C’est à dire à être dans un autre rythme de la même manière que les différents troubles « dys » sont différemment sensibles au monde, à l’orthographe, au calcul.

Ma thèse c’est que chaque algorithme dispose de son propre rythme. Le rythme de l’algorithme de Tiktok n’est pas le même que celui de l’algorithme de X ou d’Instagram. Si l’algorithme de Tiktok nous parait si efficace, ce n’est pas parce qu’il serait plus intelligent ou machiavélique que d’autres, c’est parce que son rythme (séquences très courtes) impose que nous nous en occupions en permanence, à un rythme constant, et chaque interaction, chaque pulsation, est une nouvelle information pour cet algorithme. Or en moyenne toutes les 6 à 10 secondes nous interagissons avec l’algorithme de TikTok.

Et mon autre thèse qui est un corrélat de la première, c’est que ces algorithmes jouent aussi sur la question de nos propres rythmes ils cadencent comme autant de contremaîtres nos vitesses de déplacement – Waze – mais aussi nos vitesses de connexion, d’information , de socialisation, nos fréquences de rencontre amoureuses, etc.

Le problème c’est qu’à la fin c’est trop souvent le rythme de l’algorithme qui gagne. Qui l’emporte non seulement sur notre propre biorythme, mais sur le rythme de nos sociétés, de nos environnements sociaux, amicaux, informationnels, affectifs mais aussi sur d’autres aspects parfois plus triviaux. Je prends quelques exemples.

L’algorithme de Facebook, derrière la promesse de nous exposer à davantage de diversité, nous a en réalité enfermé dans nos certitudes, dans nos propres croyances, dans ce qu’Eli Pariser a appelé des « bulles de filtre ». Ce n’est d’ailleurs pas « que » la faute de Facebook. Il y a une nature anthropologique à ces bulles de filtre : plus on nous sommes seuls à être exposé à des diversités de culture, de religion, de sociétés, et plus nous cherchons à nous rapprocher de ce qui nous est semblable ; plus nous cherchons à nous rapprocher de notre propre rythme. En ce sens la promesse inititale de Facebook a été tenue : la plateforme nous a en effet exposé à énormément de diversité, mais de manière tellement outrancière que nous avons fini par n’y chercher que de l’identique, du même, du ressemblant. Et dès lors que nous l’avons trouvé, nous nous y sommes enfermé avec l’aide des logiques publicitaires et virales totalement perverses qui alimentent la plateforme.

L’algorithme d’AirBnB a fini par reconfigurer totalement l’espace social de nos centre-villes. En affirmant rendre plus abordable le séjour, il a en réalité totalement raréfié l’offre de logements abordables dans certains périmètres urbains.

L’autre exemple c’est celui de Waze. L’histoire est désormais un peu plus célèbre car elle figure à la fin du dernier livre de Guiliano Da Empoli, « L’ère des prédateurs », mais elle est ancienne. C’est celle d’un maire, Christophe Mathon, d’un petit village, Saint-Montan, une cité médiévale de 180 habitants nichée dans les confins de l’Ardèche. Et à chaque vacance scolaire ou long week-end un flot de véhicules (plus de 1000 par jour), le tout pour gagner quelques minutes ou secondes sur un itinéraire. Autre exemple, Matthieu Lestoquoy, maire de Camphin-en-Carembaut, commune de 1800 habitants, plus de 14 000 passages de véhicule par jour. Avec les dangers et les nuisance sonores que cela représente. Là encore au prétexte de fluidifer le trafic routier et de nous faire gagner du temps, Waze densifie le trafic routier dans des endroits non-prévus pour cela (et c’est donc beaucoup plus dangereux) et ne nous fait pas réellement gagner de temps et surtout il en fait perdre à l’ensemble des habitants de Saint-Montan ou de Camphin-en-Carembaut, dont il se contrefiche.

Au final, ces algorithmes nous promettent des choses (voir plus de diversité, avoir des logements plus accessibles, gagner du temps) mais en réalité, soit ils font l’inverse, soit ils créent tellement d’externalités négatives que la pertinence de leur fonction première peut et doit être rediscutée.

Dans un article j’écrivais :

« Management, travail, données, infrastructures de production, modèle économique, stigmatisation des minorités et des plus pauvres … Il faut non seulement constater mais accepter que le monde social que les technologies numériques et algorithmiques bâtissent depuis presqu’un quart de siècle est un monde dans lequel se révèlent et s’organisent les puissances les plus radicales et aliénantes de l’histoire économique, sociale et politique des peuples. Cela n’empêche pas que les appropriations singulières de ces technologies numériques soient toujours possiblement vectrices d’émancipation mais en revanche, leurs appropriations collectives et politiques le sont très rarement. Presque jamais en réalité. Et chaque fois qu’elles l’ont été, l’émancipation s’est toujours retournée en répression.« 

 

Pour le dire plus simplement : ces algorithmes facilitent énormément de choses à l’échelle individuelle (échelle où le rapport bénéfice / risque reste positif) mais ce rapport s’inverse très souvent à l’échelle collective. Or le seul bon niveau d’analyse de ces algorithmes, ce n’est pas tant l’effet qu’ils produisent sur nous, mais c’est celui des effets qu’ils produisent dans la société : les nouveaux cadres, les nouvelles normes qu’ils installent et légitiment.

On peut dans le même genre penser au travaux de Zeinep Tufekci, sociologie, hacktiviste, militante, qui a documenté, notamment dans le cadre des printemps arabes, « comment internet a facilité l’organisation les révolutions sociales mais en a compromis la victoire. » Et quand elle dit « internet » elle désigne en fait les grands médias sociaux et leurs algorithmes.

Alors devant tout cela, on pourrait se dire que l’une des solutions, simple en apparence, c’est d’ouvrir le code de ces algorithmes, et de regarder attentivement comment est faite la partition de ces ritournelles, et nous pourrons nous en affranchir, que nous pourrons les améliorer et les ramener dans le sens de l’intérêt commun.

Malheureusement, aujourd’hui, ouvrir le code des algorithmes ne suffit plus (même si c’est plus que jamais nécessaire)

PDF
10 / 10
 Persos A à L
Carmine
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
Lionel DRICOT (PLOUM)
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Jean-Luc MÉLENCHON
Romain MIELCAREK
MONDE DIPLO (Blogs persos)
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
LePartisan.info
 
  Numérique
Blog Binaire
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Tristan NITOT
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Économistes Atterrés
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓