LePartisan.info À propos Podcasts Fil web Écologie BLOGS Revues Médias
KHRYS
Souscrire à ce FLUX

Revue hebdomadaire du web


▸ les 20 dernières parutions

29.04.2025 à 07:42

Docilités numériques

Framatophe

L’illusion du progrès numérique masque une réalité brutale : celle d’un monde où chaque geste alimente des systèmes de contrôle, de surveillance et d’exploitation. Ce n’est pas seulement l’intelligence artificielle, mais tout un modèle technologique, celui des plateformes, de la capture … Lire la suite­­
Texte intégral (5021 mots)

L’illusion du progrès numérique masque une réalité brutale : celle d’un monde où chaque geste alimente des systèmes de contrôle, de surveillance et d’exploitation. Ce n’est pas seulement l’intelligence artificielle, mais tout un modèle technologique, celui des plateformes, de la capture de l’attention, de l’extractivisme numérique, qu’il faut interroger. Ce texte n’invite ni à fuir ni à consentir : il appelle à politiser nos usages et à réarmer nos pratiques.


Rhétorique du renoncement

Vers la vingt-deuxième minute de cet entretien matinal sur France Inter, le 09 avril 2025, la journaliste Léa Salamé faisait dire à F. Ruffin qu’il n’y a pas d’alternatives aux GAFAM. « Vous utilisez Google Docs, vous ? ». Tout le monde utilise les outils des GAFAM, on ne peut pas faire autrement…

En écoutant ces quelques secondes, et en repassant mentalement les quelques vingt dernières années passées à militer pour le logiciel libre avec les collègues de Framasoft, je me disais que décidément, le refrain sans cesse ânonné du there is no alternative concernant les outils numériques, n’est pas un argument défaitiste, ce n’est pas non plus un constat et encore moins une lamentation, c’est un sophisme. « Vu que tout le monde les utilise, on ne peut pas faire autrement que d’utiliser soi-même les logiciels des GAFAM » est une phrase qui a une valeur contraignante : elle situe celui ou celle qui la prononce en figure de sachant et exclut la possibilité du contre-argument du logiciel libre et des formats ouverts. Elle positionne l’interlocuteur en situation de renoncement car mentionner les logiciels libres et les formats ouverts suppose un argumentaire pseudo-technique dont le coût cognitif de l’explication l’emporte sur les bénéfices potentiels de l’argument. Face aux sophismes, on est souvent démuni. Ici, il s’agit de l’argumentum ad populum : tout le monde accepte l’affirmation parce qu’un nombre suffisamment important de la population est censé la considérer comme vraie. Et il est clair que dans le bus ou entre le café et la tartine du petit déjeuner, à l’heure de l’interview dont nous parlons ici, beaucoup de personnes ont dû se sentir légitimées et ont abordé leur journée comme ces pauvres prisonniers au fond de la caverne, dans un état de cécité intellectuelle heureuse (mais quand même un peu coupable).

20 ans (et même un peu plus) ! 20 ans que Framasoft démontre, littéralement par A+B que non seulement les alternatives aux outils des GAFAM existent, mais en plus sont utilisables, fiables, souvent conviviales. Depuis que nous avons annoncé que nous n’irions plus prendre le thé à l’Éducation Nationale, nous avons vu passer des pseudo politiques publiques qui tendent vers un semblant de lueur d’espoir : de la confiance dans l’économie numérique, des directives pour les formats ouverts, des débats parlementaires où pointe parfois la question du logiciel libre dans une vague conception de la souveraineté… auxquelles répondent, tout aussi inlassablement des contrats open bar Microsoft dans les fonctions publiques (1, 2, 3), quand il ne s’agit pas carrément du pantouflage de nos ex-élus politiques chez les GAFAM. Comme on dit de l’autre côté du Rhin : Einen Esel, der keinen Durst hat, kann man nicht zum Trinken bringen, que l’Alsacien par chez moi raccourcit ainsi : « on ne donne pas à boire à un âne qui n’a pas soif », autre version de l’historique « laisse béton ». Le salut ne viendra pas des élus. Il ne viendra pas de l’économie libérale, celle-là même qui veut nous faire croire que l’échec tient surtout de nos motivations personnelles, d’un manque de performance, d’un manque de proposition.

Violence capitaliste

Si le logiciel libre n’était pas performant, il ne serait pas présent absolument partout. Il suffit d’ouvrir de temps en temps le capot. Mais comme je l’ai écrit l’année dernière, c’est une situation tout aussi confortable que délétère que de pouvoir compter sur les communs sans y contribuer, ou au contraire d’y contribuer activement comme le font les multinationales pour s’octroyer des bénéfices privés sur le dos des communs. En quelques années, les transformations du monde numérique n’ont pas permis au grand public de s’approprier les outils numériques que de nouvelles frontières, floutées, sont apparues. L’une des raisons principales de l’adoption des logiciels libres dans le domaine de la bureautique personnelle consistait à tenter de s’émanciper de la logique hégémonique des grandes entreprises mondialisées qui imposent leurs pratiques au détriment des besoins réels pour se gaver des données personnelles. Or, l’intégration des services numériques et la puissance de calcul mobilisée, aux dépends de l’environnement naturel comme de nos libertés, ont crée une attraction telle que la question stratégique des pratiques personnelles est passée au second plan. Ce qui importe maintenant, ce n’est plus seulement de savoir ce que deviennent nos données personnelles ou si les logiciels nous émancipent, mais de savoir comment s’extraire du cauchemar de la production frénétique de contenus assistée par IA. Nous perdons pied.

Ein Hitlergruß ist ein Hitlergruß ist ein Hitlergruß. Die Zeit Online

Die Zeit Online. 21/01/2025. Capture d’écran. Source.

Cette logique productiviste numérique est au sommet de la logique formelle du capital. Elle a une histoire dont la prise de conscience collective date des années 1980, contemporaine de celle du logiciel libre. C’est Detlef Hartmann (il y a bien d’autres auteurs) qui nous en livre l’une des formulations que je trouve assez simple à comprendre. Dans Die Alternative : Leben als Sabotage (1981), D. Hartmann procède à une critique de l’idéologie capitaliste en montrant comment celle-ci tend à subsumer l’ensemble des rapports sociaux sous une logique instrumentale, formelle, qui nie les subjectivités concrètes. C’est un processus d’aliénation généralisée : ce que le capitalisme fait au travailleur dans l’atelier taylorisé, il le reproduit à l’échelle de toute la société à travers l’expansion de technologies façonnées par les intérêts du capital. La taylorisation, qu’on peut résumer en une intensification de la séparation entre conception et exécution, devient paradigmatique d’un mode de domination : elle dépouille les individus de leur autonomie, les rendant étrangers à leur propre activité. À partir des années 1970-1980, cette logique d’aliénation se déplace du seul domaine de la production industrielle vers celui de la production symbolique et intellectuelle, via l’informatisation des tâches, toujours au service du contrôle et de la rationalisation capitalistes. Dans cette perspective, ce que Hartmann appelle la « violence technologique » s’inscrit dans le prolongement de la violence structurelle du capital : elle consiste à tenter de formater les dimensions qualitatives de l’existence humaine (l’intuition, l’émotion, l’imaginaire) selon les exigences d’un ordre rationnel formel, celui du capital abstrait. Cette normalisation est une violence parce que, au profit d’une logique d’accumulation et de contrôle, elle nie la richesse des facultés humaines, elle réduit les besoins humains à des catégories qui ne représentent pas l’ensemble des possibilités humaines1. Ce faisant, elle entrave les pratiques d’émancipation, c’est-à-dire la capacité collective à transformer consciemment le monde.

Contrôle et productivisme

La violence technologique capitaliste s’incarne à la perfection dans la broligarchie qui a contaminé notre monde numérique. Ce monde que, par excès d’universalisme autant que de positivisme, nous pensions qu’il allait réussir à connecter les peuples. Cette broligarchie joue désormais le jeu de la domination anti-démocratique. Elle foule même au pied la démocratie libérale dont pourtant nous avions compris les limites tant en termes d’inégalités que d’assujettissement des gouvernements aux intérêts économiques de quelques uns. Pour ces techbros, le combat est le même que le gouvernement chinois ou russe : le contrôle et les systèmes de contrôle ne sont pas des sujets démocratiques, il n’y a pas plus de contrat social et les choix politiques se réduisent à des choix techniques. Et il n’y a aucune raison que nous soyons exemptés dans notre start-up nation française.

Quelles sont les manifestations concrètes de ce productivisme dans nos vies ? il y a d’abord les algorithmes de contrôle qui relèvent du vieux rêve de l’automatisation généralisée dont je parlais déjà dans mon livre. Comme le montre H. Guillaud, ces systèmes décisionnels automatisés influencent les services publics, tout comme les banques ou les assurances avec une efficacité si mauvaise, entraînant des injustices, que l’erreur loin d’être corrigée devient partie intégrante du système. Le droit au recours, la nécessité démocratique du contrôle de ces systèmes, tout cela est nié parce que ces systèmes automatisés sont considérés comme des solutions, et non des problèmes. L’IA arrive alors comme le Graal tant attendu, surfant sur le boom du développement des IA génératives, les projets d’emmerdification maximale des services publics deviennent des projets d’avenir : si les caisses sont vides pour entretenir des services publics performants, utilisez l’IA pour les rendre plus productifs ! Comme l’écrit H. Guillaud :

Dans l’administration publique, l’IA est donc clairement un outil pour supprimer des emplois, constate le syndicat. L’État est devenu un simple prestataire de services publics qui doit produire des services plus efficaces, c’est-à-dire rentables et moins chers. Le numérique est le moteur de cette réduction de coût, ce qui explique qu’il soit devenu omniprésent dans l’administration, transformant à la fois les missions des agents et la relation de l’usager à l’administration. Il s’impose comme un « enjeu de croissance », c’est-à-dire le moyen de réaliser des gains de productivité.

Outre la question antédiluvienne du contrôle, cela fait bien longtemps que nous avons intériorisé l’idée que nous ne sommes pas seulement des usagers, mais surtout des produits. Ce constat ne relève plus de la révélation. Comme le montre David Lyon, c’est un choix culturel, une absorption sociale. En acceptant sans sourciller l’économie des plateformes, nous avons scellé un pacte implicite avec le capitalisme de surveillance, troquant nos données personnelles contre des services dont la pertinence est souvent discutable, dans des contrats où la vie privée se monnaie à vil prix. Ce choix, pour beaucoup, s’est imposé comme une fatalité, tant l’alternative semble absente ou inaccessible : renoncer à ces services reviendrait à se marginaliser et se priver de certains bienfaits structurels.

Pire : nous avons également intégré, souvent sans résistance, le modèle économique des plateformes parasites dont la logique repose sur l’intermédiation. Ces plateformes ne produisent rien : elles captent, organisent, et exploitent la relation entre des prestataires précaires et des clients captifs. Elles génèrent du profit non pas en créant de la valeur, mais en prélevant leur dîme sur chaque interaction. Et pourtant nous continuons à alimenter ces circuits toxiques : d’un côté, une généralisation du travail sous contrainte algorithmique, mal payé, pressurisé, et de l’autre, un mode de consommation séduisant qui reconduit en fait une exploitation des travailleurs qu’on croyait enterrée avec le siècle d’Émile Zola.

The Atlantic. Couverture Nov. 1967.

The Atlantic. Couverture Nov. 1967.

De l’émancipation

Dans sa conception classique, le logiciel libre se proposait d’effacer autant que faire se peut la distinction entre producteur et consommateur. Programmer n’est pas seulement une réponse à une demande industrielle, mais un moyen puissant d’expression personnelle et de possibilités créatives. Utiliser des programmes libres est tout autant créatif car cela renforce l’idée que l’utilisateur ne partage pas seulement un programme mais des savoirs, des rapports complexes avec les machines, au sein d’une communauté d’utilisateurs, dont font aussi partie les programmeurs.

L’efficacité et la durabilité de cette approche obéissent à une logique de « pratique réflexive ». La qualité d’un logiciel libre émerge d’une forme de « dogfooding », c’est-à-dire de la consommation directe du produit par son propre producteur, un processus d’amélioration continue. Cette pratique assure une dynamique auto-correctrice. Au sein de la communauté, la qualité du logiciel est d’autant plus renforcée par un feedback interne, où l’utilisateur se transforme en agent critique, capable d’identifier et de rectifier les dysfonctionnements de manière autonome. Il en résulte une production plus cohérente, car motivée par des intérêts personnels et collectifs qui orientent la création. Le code n’est pas seulement un produit technique, mais aussi un produit socialement inscrit dans une logique de désirs et de partage.

Code is law

Lawrence Lessig

Privacy is power

Carole Cadwalladr

Épuisement

C’est beau, non ? Dans ces principes, oui. Mais les barrières sont de plus en plus efficaces, soit pour élever le ticket d’entrée dans les communautés d’utilisateur-ices de logiciels libres, soit pour conserver la dynamique libriste au sein même de la production de logiciels « communautaires ».

Pour le ticket d’entrée, il suffit de se mettre à la place des utilisateurs. Là où il était encore assez facile, il y a une dizaine d’années, de promouvoir l’utilisation de logiciels libres dans la bureautique personnelle, le cadre a radicalement changé : l’essentiel de nos communications et de nos productions numériques passe aujourd’hui par des services en ligne. Cela pose la question du maintien des infrastructures techniques qui sous-tendent ces services. Il y a dix ans, Nadia Eghbal constatait que, au fil du temps, le secteur de l’open source a une tendance à l’épuisement par une attitude productiviste :

Cette dernière génération de développeurs novices emprunte du code libre pour écrire ce dont elle a besoin, mais elle est rarement capable, en retour, d’apporter des contributions substantielles aux projets. Beaucoup sont également habitués à se considérer comme des « utilisateurs » de projets open source, davantage que comme les membres d’une communauté.

Aujourd’hui, cette attitude s’est radicalisée avec les outils à base d’IA générative qui se sont largement gavés de code open source. Mais en plus de cela, cela a conduit les utilisateurs à s’éloigner de plus en plus des pratiques réflexives que je mentionnais plus haut, car il est devenu aujourd’hui quasi impossible de partager des connaissances tant l’usage des services s’est personnalisé : les services d’hébergement de cloud computing, l’intégration toujours plus forte des services à base d’IA dans les smartphones, l’appel toujours plus contraignant à produire et utiliser des contenus sur des plateformes, tout cela fait que les logiciels qu’on installe habituellement sur une machine deviennent superflus. Ils existent toujours mais sont rendus invisibles sur ces plateformes. Ces dernières vivent de ces communs numériques. Elles y contribuent juste ce qu’il faut, créent au besoin des fondations ou les subventionnent fortement, mais de communautés il n’y a plus, ou alors à la marge : celleux qui installent encore des distributions GNU/Linux sur des ordinateurs personnels, celleux qui veulent encore maîtriser l’envoi et la réception de leurs courriels… Dans les usages personnels (hors cadre professionnel), tout est fait pour que l’ordinateur personnel devienne superflu. Trop subversif, sans doute. Et ainsi s’envolent les rêves d’émancipation numérique.

Même les logiciels dont on pouvait penser qu’il participaient activement à une certaine convivialité d’Internet commencent à emmerdifier les utilisateurs. Par exemple : qui a convaincu la fondation Mozilla que ce dont avaient besoin des utilisateurs de Firefox c’est d’un outil de prévisualisation des liens dont le contenu est résumé par IA ? Que ce soit utile, efficace ou pas, n’est pas vraiment la question. La question est de savoir si les surcoûts énergétiques, environnementaux et cognitifs en valent la peine. Et la réponse est non. Dans un tel cas de figure, où est la communauté d’utilisateurs ? où sont les principes libristes ?

Vers une communauté critique

Il faut re-former des communautés d’utilisateurs, en particulier pour des services en ligne, mais pas uniquement. Avec son projet Frama.space, basé sur Nextcloud, Framasoft a annoncé haut et fort vouloir œuvrer pour « renforcer le pouvoir d’agir des associations ». L’idée mentionnée dans le billet qui était alors consacré portait essentiellement sur la capacité des associations et autres collectifs à faire face aux attaques contre les libertés associatives, la mise en concurrence des associations, les logiques de dépolitisation et de ringardisation. Avoir un espace de cloud partagé pour ne pas dépendre des plateformes n’est pas seulement une méthode pour échapper à l’hégémonie de quelques multinationales, c’est une méthode qui permet d’échapper justement aux logiques formelles qui nous obligent à la productivité, nous contraignent aux systèmes de contrôle, et nous empêchent d’utiliser des outils communs. Nextcloud n’est pas qu’un logiciel libre dont nous pourrions nous contenter d’encourager l’installation. C’est un logiciel dont le mode de partage que nous avons adopté, en mettant à disposition des serveurs payés par des donateurs, consiste justement à outiller une communauté d’utilisateurs. Et nous pouvons le faire dans une logique libriste et émancipatrice. Les communs qui peuvent s’y greffer sont par exemple des logiciels tels l’outil de supervision Argos Panoptès ou Intros, une application spécialement dédié à la prise en main de Frama.space. Ce que Framasoft encourage, ce n’est pas seulement des outils : cela reviendrait à verser dans une forme de solutionnisme infructueux. C’est l’« encapacitation » des utilisateurs.

Mais j’ai aussi écrit plus haut qu’il ne s’agissait pas seulement de services en ligne. Pourquoi avons-nous avancé quelques pions en produisant un logiciel qui utilise de l’IA comme Lokas ? Ce logiciel n’a rien de révolutionnaire. Il tourne avec une IA spécialisée, déjà entraînée, et il existe d’autres logiciels qui font la même chose. Qu’espérons-nous ? Constituer une communauté critique et autonome autour de la question de l’IA. Lokas n’est qu’un exemple : que souhaitons-nous en faire ? Si des modèles d’IA existent, quel avenir voulons nous avec eux ou à côté d’eux ? L’enjeu consiste à construire les conditions d’émancipation numérique face à l’envahissement des pratiques qui nous contraignent à produire des contenus sans en maîtriser la cognition.

J’ai affirmé ci-dessus la raison pour laquelle nous sommes embarqués de force dans un monde où les IA génératives connaissent un tel succès, quasiment sans aucune perspective critique : elles sont considérées comme les outils ultimes de la mise en production des subjectivités, leur dés-autonomisation. Les possibilités sont tellement alléchantes dans une perspective capitaliste que tout argument limitatif comme les questions énergétiques, climatiques, sociales, politiques, éthiques sont sacrifiées d’emblée sur l’autel de la rentabilité start-upeuse au profit de l’impérialisme fascisant des techbros les plus en vue. Ce que nous souhaitons opposer à cela, tout comme Framasoft avait opposé des outils alternatifs pour « dégoogliser Internet », c’est de voir si une alternative à l’« IA über alles » est possible. La question n’est pas de savoir si nous apporterons une réponse à la pertinence de chaque outil basé sur de l’IA générative ou spécialisée. La question que nous soulevons est de savoir quelles sont nos capacités critiques et notre degré d’autonomie stratégique et collective face à des groupes d’intérêts qui nous imposent leurs propres outils de contrôle, en particulier avec des IA.

Capital (poing dans une flaque rouge). Affiche Mai 1968

Capital (poing dans une flaque rouge), Fac. des Sciences. BNF. Collection [Mai 1968]. Affiche. Source.

Une émancipation numérique collective

Il y a vingt ans déjà, nous avions compris que culpabiliser les utilisateurs de Windows constituait non seulement une stratégie inefficace, mais surtout contre-productive, dans la mesure où elle nuisait directement à la promotion et à la légitimation des logiciels libres. Cette attitude moralisatrice présupposait une liberté de choix que la réalité technologique, sociale et économique ne garantit pas à tous. L’environnement numérique est souvent imposé par défaut, par des logiques industrielles, éducatives ou institutionnelles. La posture libriste ne peut être qu’une posture située, consciente des rapports de force et des contraintes concrètes qui pèsent sur les individus.

À l’heure de l’IA générative omniprésente, le rapport de force s’est accentué et l’enfermement technologique est aggravé. Les systèmes d’exploitation en deviennent eux-mêmes les vecteurs, comme le montre la prochaine version de Windows, où la mise à jour n’est plus un choix mais une obligation, dissimulant des logiques de captation des usages et des données.

Dans ce contexte, proposer des alternatives « sans » IA devient de plus en plus difficile – et pourrait s’avérer, à terme, irréaliste. Dans la mesure où l’environnement numérique est colonisé par les intérêts d’acteurs surpuissants, il ne s’agit plus de rejeter globalement l’IA, mais de re-politiser son usage : distinguer entre les instruments de domination et les instruments d’émancipation.

Il serait malhonnête de nier en bloc toute forme d’utilité aux systèmes d’IA. Automatiser certaines tâches, c’est un vieux rêve de l’informatique, bien antérieur à l’essor actuel de l’IA générative. Il arrive que des IA fassent ce qu’on attend d’elles, surtout dans des environnements et des rôles restreints. Lorsqu’on regarde l’histoire des techniques numériques dans l’entreprise dans la seconde moitié du XXe siècle, on constate autant de victoires que de défaites, sociales ou économiques. Mais les usages supposément vertueux sont devenus l’argument marketing préféré des entreprises de l’IA d’aujourd’hui : une vitrine bien propre, bien lisse, pour faire oublier les ravages sociaux, environnementaux et politiques que ces technologies engendrent ailleurs. Comme si quelques cas d’usage médical, par exemple en médecine personnalisée, pouvaient suffire à justifier l’opacité des systèmes, la dépendance aux infrastructures privées, la capture des données sensibles et l’accroissement des inégalités. Ce n’est pas parce qu’une technologie peut parfois servir qu’elle sert le bien commun2.

De même que la promotion des logiciels libres n’avait pas vocation à se cristalliser dans un antagonisme stérile entre Windows (ou Mac) et GNU Linux, la question d’une informatique émancipatrice ne peut aujourd’hui se réduire à un débat binaire « pour ou contre l’IA ». Il faut reconnaître la diversité des IA – génératives, prescriptives, symboliques, décisionnelles, etc. – et la pluralité de leurs usages. L’enjeu est de comprendre leur place dans les systèmes techniques, reflets des rapports socio-économiques, et des visions du monde. Les IA nouvelles, notamment génératives, connaîtront un cycle d’adoption : après l’euphorie initiale et les sur-promesses, viendra probablement une phase de décantation, une redescente vers un usage plus mesuré, plus intégré, moins spectaculaire. Selon moi, cette marche forcée prendra fin. Mais ce qui restera – les infrastructures, les dépendances, les cultures d’usage – dépendra largement de ce que nous aurons su construire en parallèle : des communautés numériques solidaires, résilientes, capables de reprendre la main sur leurs outils et de refuser les logiques de dépossession. Quelle résilience pouvons-nous opposer à la violence technologique que nous subissons ? Il ne s’agit pas d’imaginer un monde d’après, neutre ou apaisé, mais de préparer les conditions de notre autonomie dans un monde où la violence technologique est déjà notre quotidien.

— Christophe Masutti


Notes

  1. J’emprunte cette formulation à Agnès Heller, La théorie des besoins chez Marx, Paris, Les Éditions sociales, 2024, p.51.↩︎

  2. Pour continuer avec l’exemple de la médecine, souvent employé par les thuriféraires de l’IA-partout, on voit poindre régulièrement les mêmes problèmes que soulève depuis longtemps la surveillance algorithmique. Ainsi ce récent article dans Science relate de graves biais relatifs aux groupes sociaux (femmes et personnes noires, essentiellement) dans la recherche diagnostique lorsqu’on utilise une aide à l’analyse d’imagerie assistée par IA. ↩︎

28.04.2025 à 07:42

Khrys’presso du lundi 28 avril 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (9946 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Le facepalm de la semaine

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

RIP

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

  • Le système Bolloré (multinationales.org)

    Dans un rapport publié en partenariat avec Attac, l’Observatoire des multinationales propose une radiographie sans concession du groupe Bolloré et alerte sur les risques démocratiques à continuer à le considérer comme un groupe « comme les autres ».

  • 5,3 milliards d’euros : l’inquiétant pactole de Vincent Bolloré (politis.fr)

    Dans un rapport, Attac et l’Observatoire des multinationales décortiquent le « système Bolloré », expliquant comment le milliardaire, dans l’indifférence, voire avec le soutien des pouvoirs publics, a acquis son empire médiatique. Et s’inquiètent d’une trésorerie largement positive qui laisse craindre le pire.

  • Le groupe Lagardère, propriété de Vincent Bolloré, visé par un redressement fiscal de 200 millions d’euros (humanite.fr)

    Les filiales Lagardère Media et Hachette Livre sont visées par un redressement fiscal de près de 200 millions d’euros […] Bercy leur a respectivement adressé 189,9 millions et 6,5 millions d’euros de rectification pour l’année 2024. Une annonce à rebours de la communication du groupe, qui a loué une année record.

  • Le média identitaire Frontières, ses obsessions, ses alliés et ses dons défiscalisés (basta.media)

    Dans la galaxie des médias d’extrême droite, Frontières occupe une place centrale. Le jeune média identitaire peut compter sur le soutien de l’écosystème pour diffuser ses idées réactionnaires, parfois aux frais du contribuable.

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

  • Pierre Nicodème sur la complicité du ministère de l’Enseignement supérieur avec l’université Reichman : « dégoût et colère » (aurdip.org)

    Pierre Nicodème, mathématicien-informaticien retraité au CNRS, rend la médaille d’honneur du CNRS, qu’il avait reçue en 2013, en réponse aux pressions du ministère de l’Enseignement supérieur sur l’IEP de Strasbourg pour maintenir le partenariat avec l’Université Reichman de Herzliya en Israël.

  • À Paris, les militant·es pro-palestinien·nes accusent l’assureur AXA de complicité dans le génocide à Gaza (humanite.fr)

    Des militant·es de la campagne BDS (Boycott, Désinvestissement, Sanctions) et de la CGT se sont mobilisé·es jeudi 24 avril devant la Salle Pleyel à Paris, en marge de l’assemblée générale du groupe AXA. Iels accusent l’assureur d’investir dans des entreprises d’armements liées au génocide perpétré par Israël à Gaza.

  • Journée internationale de la visibilité lesbienne : la rue contre les idées d’extrême droite (humanite.fr)

    Ce 26 avril, des centaines de personnes se sont donné rendez-vous place de la Nation à Paris pour célébrer la journée de visibilité lesbienne. Une manifestation sous le prisme de la lutte contre l’extrême droite.

  • Il a construit une cellule de prison dans un camion : on vous présente la grotte mobile d’Adama Camara (streetpress.com)
  • Ces habitant·es créent leurs institutions pour combler l’absence de l’État (reporterre.net)

    « Nous, on n’est pas anti-État. C’est plutôt l’État qui est anti-nous »

  • Un silence inquiétant du gouvernement sur la pauvreté (ldh-france.org)

    Les président·es d’associations de solidarité du collectif Alerte ont adressé le 18 mars au Premier ministre un recours gracieux pour lui rappeler ses obligations légales en matière de réduction de la pauvreté. En ce sens, il lui a été demandé de définir un objectif quantifié de la pauvreté pour les 5 ans à venir et de reprendre la remise au Parlement d’un rapport annuel sur le sujet. Il s’agit en effet d’une obligation prévue dans la loi du 1er décembre 2008 généralisant le revenu de solidarité active (RSA). […] Le silence du gouvernement est considéré comme un refus au bout de deux mois selon la loi. Aujourd’hui, à un peu plus d’un mois de l’échéance, une vingtaine de parlementaires déposent une question écrite au gouvernement lui demandant de respecter cette obligation légale.

  • La France développe son élevage de singes de laboratoire (reporterre.net)

    Pour développer un élevage capable de fournir en singes les laboratoires français, le CNRS veut tripler la capacité d’accueil de la station de primatologie de Rousset, dans les Bouches-du-Rhône. Selon ce projet, elle deviendrait d’ici à 2030 le centre national de primatologie et fournirait une part bien plus important qu’aujourd’hui des primates non-humains dont dit avoir besoin la recherche biomédicale. […] Opposée à l’expérimentation animale en général et à celle sur les primates en particulier, l’association One Voice […] dénonce un projet « qui transforme un lieu principalement dédié à l’observation de colonies de babouins en un élevage pour de l’expérimentation animale invasive » […] Aujourd’hui, la station de Rousset accueille en majorité des babouins à des fins de recherche en éthologie, l’étude du comportement animal.

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

  • En Polynésie, « la grandeur de la France, je la porte avec ma leucémie » (terrestres.org)

    Lorsque la France annonce la reprise des essais nucléaires en Polynésie en 1995, Tahiti s’enflamme et le monde se mobilise. Quelques mois plus tard, c’est la fin… sauf pour les victimes des retombées atomiques des 193 bombes explosées dans l’archipel. Hinamoeura Morgant-Cross est l’une d’elles.

  • “À la Réunion, notre “retard”, c’était notre avance” – Entretien avec Gaëlle Fredouille (frustrationmagazine.fr)
  • « Il y a un retour en force du masculinisme, on est retournés 30 ans en arrière » (blogs.mediapart.fr)
  • Séamas O’Reilly : Trans people have spent a decade being attacked in a moral panic (irishexaminer.com)

    I speak of the near-constant refrain that devious men will enter these spaces and pretend to be trans women, in order to spy on, or assault, their occupants. It obviously appals me that our trans friends are constantly cited as monsters, ubiquitously mentioned in the same breath as cisgendered male predators. […] Perhaps my conception of feminism has been mis-calibrated all this time, and true freedom for women is mandating that they carry their birth certificates around with them all day, so they can be checked by citizen genital inspectors, male and female, encouraged to presume you’re a predator first, and work backwards from there. […] The only way any of the absurdities of this ruling make sense, is if its aims are exactly what they appear to be : A punitive attack on the rights and dignity of trans people divorced from any real-world concern about safety or women’s rights, designed to demoralise and punish them simply for the crime of existing.

  • Recréer un second « Gilded Age » (Âge doré) : les illusions de Trump (theconversation.com)
  • Puissance et déclin – La fragile synthèse trumpienne (lundi.am)
  • Understanding “longtermism” : Why this suddenly influential philosophy is so toxic (salon.com)
  • Monstertutional Conarchy (illwill.com)

    One way or another, we are inside a process of fundamentally changing the world. If we don’t want their plan to be the only one on offer, we have to similarly give ourselves the right to dream big, to act boldly, and make clear that it’s our vision against theirs.

    Une traduction de ce texte est proposée ici : Monstruosité constitutionnelle et escroquerie monarchiste (lundi.am)

    La théorie du complot qui permet de comprendre le second mandat Trump

  • Hitler’s Terrible Tariffs (theatlantic.com)

    By seeking to “liberate” Germans from a globalized world order, the Nazi government sent the national economy careening backwards.

  • How Much Injustice Will Americans Take ? (americaamerica.news)

    last night the story broke of three children ages 2, 4 and 7—all U.S. citizens—being taken out of the country without due process […] the “rapid early-morning deportation” involved two mothers (one who is pregnant) and their children, including a two-year-old who suffers from a rare form of metastatic cancer and was removed without needed medication.

  • The courage to be decent (radleybalko.substack.com)

    The Trump administration wants to make us too afraid to look out for one another. Don’t let them.One of the more pernicious effects of authoritarianism is to make the everyday participation in civic life we take for granted feel subversive. The goal isn’t to police all behavior at all times. It’s to make us fearful to the point that we police our own behavior. […] There was no video. “That’s when I learned why my VPN had gone down. It wasn’t the VPN. Someone had shut off my Wifi.” About 15 minutes after the interaction at his front door, Jackson’s Wifi was up and running again.“So there was about a 30-minute period where my Wifi was down, and it happened to be the period where these officers came to my door, which prevented my Ring camera from recording them […] I guess it could be a coincidence. But that’s a big coincidence” […] [Intimidating lawyers has become a key component of the Trump administration’s overall strategy, and this is especially true with respect to mass deportations. Immigrants detained for lacking documentation are more than 10 times more likely to get a favorable outcome if they have an attorney than if they don’t.

  • Alice Kaplan, historienne et écrivaine : « On est dans une ambiance proche de 1984 » (humanite.fr)

    De passage en France pour effectuer des recherches sur son prochain livre, l’historienne, écrivaine et professeure à Yale Alice Kaplan s’inquiète des attaques menées par Donald Trump contre les universités américaines et le langage. Elle revient sur son parcours et ses travaux sur la période de l’Occupation en France et sur l’Algérie.

  • « Nous revendiquons une égalité pleine et entière pour les femmes » (contretemps.eu)

    Claudia Jones (1915-1964) fut une grande militante du Parti Communiste états-unien et une féministe, qui a très tôt théorisé la triple oppression des femmes (de race, de classe et de genre). Après une présentation de son parcours par Carole Boyce Davies, nous publions un de ses textes les plus célèbres, rédigé en 1949.

  • “Je pensais que c’étaient les restes d’une construction” : patrimoine insolite et méconnu, à quoi servent les cheminées géodésiques ? (france3-regions.francetvinfo.fr)
  • Combien de pénis sur la tapisserie de Bayeux ? (huffingtonpost.fr)

    Cette question insolite oppose deux historiens britanniques. Christopher Monk dit avoir repéré un « pénis manqué » sur la broderie médiévale, ce que conteste George Garnett qui avait réalisé un premier comptage il y a six ans.

  • Des canards augmentent la taille de leur pénis s’ils ont des rivaux (sciencesetavenir.fr – article de 2017)

    Les canards font partie des 3 % d’oiseaux seulement dotés de pénis externes (les autres, comme les coqs ont des cloaques ), organes qu’ils ne développent qu’au printemps, avant que celui-ci ne dégénère totalement, puis repousse à la saison des amours suivante. […] En 2011, Patricia Brennan avait déjà montré que les canards se livraient une véritable guerre des sexes dans une course évolutive effrayante : l’anatomie interne des femelles évolue en effet pour empêcher l’accès aux indésirables qui forcent la copulation et leurs cloaques forment même des culs-de-sacs où vont se perdre leurs spermatozoïdes. De leur côté, les mâles développent des sexes de plus en plus longs en forme de tire-bouchon hérissés de crochets de kératine pour augmenter leur chances […] Les accouplements se font dans la majorité des cas par la coercition. Et ils ne durent que quelques secondes

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

27.04.2025 à 09:00

L’État artificiel : la vie civique automatisée

Framasoft

Sommes-nous en passe d’entrer dans un État artificiel, c’est-à-dire un moment où la vie civique n’est plus produite que par le calcul au risque de nous dessaisir de toute action collective ?
Texte intégral (2707 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 19 novembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Sommes-nous en passe d’entrer dans un État artificiel, c’est-à-dire un moment où la vie civique n’est plus produite que par le calcul au risque de nous dessaisir de toute action collective ?

 

 

 

 

 

 

Le philosophe Rob Horning rapporte que des chercheurs de Google ont publié un article décrivant un projet de « Machines d’Habermas » – hommage au philosophe et à sa théorie de l’espace public – décrivant des machines permettant de faciliter la délibération démocratique. L’idée consiste à utiliser des IA génératives pour générer des déclarations de groupes à partir d’opinions individuelles, en maximisant l’approbation collective par itération successive. Le but : trouver des terrains d’entente sur des sujets clivants, avec une IA qui fonctionne comme un médiateur.

Vers des machines pour délibérer à notre place

Dans leur expérimentation, les chercheurs rapportent que les participants ont préféré les déclarations générées par les IA à celle des humains. Pour Horning, cela signifie peut-être que les gens « sont plus susceptibles d’être d’accord avec une position lorsqu’il semble que personne ne la défende vraiment qu’avec une position articulée par une autre personne ». Effectivement, peut-être que le fait qu’elles soient artificielles et désincarnées peut aider, mais peut-être parce que formulées par la puissance des LLM, ces propositions peuvent sembler plus claires et neutres, comme le sont souvent les productions de l’IA générative, donc plus compréhensibles et séduisantes. Les chercheurs mettent en avant l’efficacité et la rapidité de leur solution, par rapport aux délibérations humaines, lentes et inefficaces – mais reconnaissent que les propositions et les synthèses faites par les outils nécessiteraient d’être vérifiées. 404 media rapportait il y a peu le développement d’une IA pour manipuler les réseaux sociaux permettant de cibler les messages selon les discours politiques des publics. Pas sûr effectivement qu’il y ait beaucoup de différence entre les machines d’Habermas de Google et ces outils de manipulation de l’opinion.

Ces efforts à automatiser la sphère publique rappellent à Horning le livre de Hiroki Azuma, General Will 2.0 (2011) qui défendait justement l’utilisation de la surveillance à grande échelle pour calculer mathématiquement la volonté générale de la population et se passer de délibération. « Nous vivons à une époque où tout le monde est constamment dérangé par des « autres » avec lesquels il est impossible de trouver un compromis », expliquait Azuma, en boomer avant l’heure. Il suffit donc d’abandonner la présomption d’Habermas et d’Arendt selon laquelle la politique nécessite la construction d’un consensus par le biais de discussions… pour évacuer à la fois le compromis et les autres. D’où l’idée d’automatiser la politique en agrégeant les données, les comportements et en les transformant directement en décisions politiques.

Rob Horning voit dans cette expérimentation un moyen de limiter la conflictualité et de lisser les opinions divergentes. Comme on le constate déjà avec les réseaux sociaux, l’idée est de remplacer une sphère publique par une architecture logicielle, et la communication interpersonnelle par un traitement de l’information déguisé en langage naturel, explique-t-il avec acuité. « Libérer l’homme de l’ordre des hommes (la communication) afin de lui permettre de vivre sur la base de l’ordre des choses (la volonté générale) seule », comme le prophétise Azuma, correspond parfaitement à l’idéologie ultra rationaliste de nombre de projets d’IA qui voient la communication comme un inconvénient et les rencontres interpersonnelles comme autant de désagréments à éviter. « Le fantasme est d’éliminer l’ordre des humains et de le remplacer par un ordre des choses » permettant de produire la gouvernance directement depuis les données. Les intentions doivent être extraites et les LLM – qui n’auraient aucune intentionnalité (ce qui n’est pas si sûr) – serviraient de format ou de langage permettant d’éviter l’intersubjectivité, de transformer et consolider les volontés, plus que de recueillir la volonté de chacun. Pour Horning, le risque est grand de ne considérer la conscience de chacun que comme un épiphénomène au profit de celle de la machine qui à terme pourrait seule produire la conscience de tous. Dans cette vision du monde, les données ne visent qu’à produire le contrôle social, qu’à produire une illusion d’action collective pour des personnes de plus en plus isolées les unes des autres, dépossédées de la conflictualité et de l’action collective.

Mais les données ne parlent pas pour elles-mêmes, nous disait déjà Danah Boyd, qui dénonçait déjà le risque de leur politisation. La perspective que dessinent les ingénieurs de Google consiste à court-circuiter le processus démocratique lui-même. Leur proposition vise à réduire la politique en un simple processus d’optimisation et de résolution de problèmes. La médiation par la machine vise clairement à évacuer la conflictualité, au cœur de la politique. Elle permet d’améliorer le contrôle social, au détriment de l’action collective ou de l’engagement, puisque ceux-ci sont de fait évacués par le rejet du conflit. Une politique sans passion ni conviction, où les citoyens eux-mêmes sont finalement évacués. Seule la rétroaction attentionnelle vient forger les communautés politiques, consistant à soumettre ceux qui sont en désaccord aux opinions validées par les autres. La démocratie est réduite à une simple mécanique de décisions, sans plus aucune participation active. Pour les ingénieurs de Google, la délibération politique pourrait devenir une question où chacun prêche ses opinions dans une application et attend qu’un calculateur d’opinion décide de l’état de la sphère publique. Et le téléphone, à son tour, pourrait bombarder les utilisateurs de déclarations optimisées pour modérer et normaliser leurs opinions afin de lisser les dissensions à grande échelle. Bref, une sorte de délibération démocratique sous tutelle algorithmique. Un peu comme si notre avenir politique consistait à produire un Twitter sous LLM qui vous exposerait à ce que vous devez penser, sans même s’interroger sur toutes les défaillances et manipulations des amplifications qui y auraient cours. Une vision de la politique parfaitement glaçante et qui minimise toutes les manipulations possibles, comme nous ne cessons de les minimiser sur la façon dont les réseaux sociaux organisent le débat public.

Dans le New Yorker, l’historienne Jill Lepore dresse un constat similaire sur la manière dont nos communications sont déjà façonnées par des procédures qui nous échappent. Depuis les années 60, la confiance dans les autorités n’a cessé de s’effondrer, explique-t-elle en se demandant en quoi cette chute de la confiance a été accélérée par les recommandations automatisées qui ont produit à la fois un électorat aliéné, polarisé et méfiant et des élus paralysés. Les campagnes politiques sont désormais entièrement produites depuis des éléments de marketing politique numérique.

À gauche, une illustration du drapeau étasunien sur fond bleu. C'est une vision d'artiste, avec les traits du drapeau sous forme de fins traits blancs reliant des points, comme pour illustrer les données ses liens.À droite, le texte : « A Critic at Large The Artificial State As American civic life has become increasingly shaped by algorithms, trust in government has plummeted. Is there any turning back? By Jill Lepore November 4, 2024 »

Capture d’écran de la page d’illustration de l’article de Jill Lepore dans The New Yorker.

 

En septembre, le Stanford Digital Economy Lab a publié les Digitalist papers, une collection d’essais d’universitaires et surtout de dirigeants de la Tech qui avancent que l’IA pourrait sauver la démocratie américaine, rien de moins ! Heureusement, d’autres auteurs soutiennent l’exact inverse. Dans son livre Algorithms and the End of Politics (Bristol University Press, 2021), l’économiste Scott Timcke explique que la datafication favorise le néolibéralisme et renforce les inégalités. Dans Théorie politique de l’ère numérique (Cambridge University Press, 2023), le philosophe Mathias Risse explique que la démocratie nécessitera de faire des choix difficiles en matière de technologie. Or, pour l’instant, ces choix sont uniquement ceux d’entreprises. Pour Lepore, nous vivons désormais dans un « État artificiel », c’est-à-dire « une infrastructure de communication numérique utilisée par les stratèges politiques et les entreprises privées pour organiser et automatiser le discours politique ».

Une société vulnérable à la subversion

La politique se réduit à la manipulation numérique d’algorithmes d’exploration de l’attention, la confiance dans le gouvernement à une architecture numérique appartenant aux entreprises et la citoyenneté à des engagements en ligne soigneusement testés et ciblés. « Au sein de l’État artificiel, presque tous les éléments de la vie démocratique américaine – la société civile, le gouvernement représentatif, la presse libre, la liberté d’expression et la foi dans les élections – sont vulnérables à la subversion », prévient Lepore. Au lieu de prendre des décisions par délibération démocratique, l’État artificiel propose des prédictions par le calcul, la capture de la sphère publique par le commerce basé sur les données et le remplacement des décisions des humains par celles des machines. Le problème, c’est qu’alors que les États démocratiques créent des citoyens, l’État artificiel crée des trolls, formule, cinglante, l’historienne en décrivant la lente montée des techniques de marketing numérique dans la politique comme dans le journalisme.

À chaque étape de l’émergence de l’État artificiel, les leaders technologiques ont promis que les derniers outils seraient bons pour la démocratie… mais ce n’est pas ce qui s’est passé, notamment parce qu’aucun de ces outils n’est démocratique. Au contraire, le principal pouvoir de ces outils, de Facebook à X, est d’abord d’offrir aux entreprises un contrôle sans précédent de la parole, leur permettant de moduler tout ce à quoi l’usager accède. Dans l’État artificiel, l’essentiel des discours politiques sont le fait de bots. Et X semble notamment en avoir plus que jamais, malgré la promesse de Musk d’en débarrasser la plateforme. « L’État artificiel est l’élevage industriel de la vie publique, le tri et la segmentation, l’isolement et l’aliénation, la destruction de la communauté humaine. » Dans sa Théorie politique de l’ère numérique, Risse décrit et dénonce une démocratie qui fonctionnerait à l’échelle de la machine : les juges seraient remplacés par des algorithmes sophistiqués, les législateurs par des « systèmes de choix collectifs pilotés par l’IA ». Autant de perspectives qui répandent une forme de grande utopie démocratique de l’IA portée par des technoprophètes, complètement déconnectée des réalités démocratiques. Les Digitalist Papers reproduisent la même utopie, en prônant une démocratie des machines plutôt que le financement de l’éducation publique ou des instances de représentations. Dans les Digitalists Papers, seul le juriste Lawrence Lessig semble émettre une mise en garde, en annonçant que l’IA risque surtout d’aggraver un système politique déjà défaillant.
La grande difficulté devant nous va consister à démanteler ces croyances conclut Lepore. D’autant que, comme le montre plusieurs années de problèmes politiques liés au numérique, le risque n’est pas que nous soyons submergés par le faux et la désinformation, mais que nous soyons rendus toujours plus impuissants. « L’objectif principal de la désinformation n’est pas de nous persuader que des choses fausses sont vraies. Elle vise à nous faire nous sentir impuissants », disait déjà Ethan Zuckerman. Dans une vie civique artificielle, la politique devient la seule affaire de ceux qui produisent l’artifice.

21.04.2025 à 07:42

Khrys’presso du lundi 21 avril 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (8874 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

RIP

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

  • Kanaky-Nouvelle-Calédonie : expédié·es à l’autre bout du monde du jour au lendemain (blogs.mediapart.fr)

    Depuis l’insurrection qui a embrasé la Nouvelle-Calédonie en mai 2024, des dizaines de détenus à la prison de Nouméa ont été transférées vers des prisons de l’Hexagone. Qualifiés de « déportations » par plusieurs associations, qui y voient l’expression d’une justice post-coloniale, ces transferts ont eu lieu dans la plus grande opacité, sans que les personnes concernées aient été prévenues.

  • Manifestations interdites : l’État a-t-il fait preuve d’un “deux poids, deux mesures” ? (la1ere.francetvinfo.fr)

    Depuis les émeutes survenues en Nouvelle-Calédonie, plus aucun rassemblement n’est autorisé dans Nouméa et son agglomération. Pourtant, au premier jour de la visite de Manuel Valls, des partisans de la France ont pu librement chahuter le ministre des Outre-mer et l’accueillir avec des pancartes outrageantes, au motif qu’il s’agissait de cérémonies patriotiques.

  • Acteur « caucasien », cassoulet : les exigences du ministère de l’Agriculture pour sa pub (reporterre.net)

    les coulisses d’une campagne publicitaire de l’Agence bio. Mis en images par l’entreprise de communication The Good Company, le spot télévisé — prévu pour être diffusé à partir du 22 mai — devait vanter une France diverse et métissée, rassemblée autour de produits gourmands et sans pesticides de synthèse.[…] Le 7 avril, veille du tournage, le cabinet de la ministre a exigé des modifications déroutantes via des courriels consultés par Libération. Parmi elles, figurait la demande de « choisir un casting caucasien » en remplacement de l’acteur métis initialement sélectionné. Quant à la séquence principale du repas de famille, le personnel d’Annie Genevard désirait « remplacer » le « couscous » par du « cassoulet avec canard »

  • Un agriculteur de la Coordination rurale accusé de trafic d’êtres humains (streetpress.com)

    Dans le Lot-et-Garonne (47), deux travailleurs marocains auraient porté plainte pour traite d’êtres humains chez un producteur de pommes, élu du syndicat agricole proche de l’extrême droite.

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

20.04.2025 à 09:00

IA, réducteur culturel : vers un monde de similitudes

Framasoft

Plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle de langage. L’IA saura-t-elle nous aider à identifier ce qui est nouveau ?
Texte intégral (1177 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 03 décembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle de langage. L’IA saura-t-elle nous aider à identifier ce qui est nouveau ?

 

 

 

 

 

 

 

Dans sa newsletter, Programmable Mutter, le politiste Henry Farrell – qui a publié l’année dernière avec Abraham Newman, Underground Empire (qui vient d’être traduit chez Odile Jacob sous le titre L’Empire souterrain) un livre sur le rôle géopolitique de l’infrastructure techno-économique mise en place par les Etats-Unis – estime que le risque de l’IA est qu’elle produise un monde de similitude, un monde unique et moyen.

Comme le disait la professeure de psychologie, Alison Gopnick, dans une tribune pour le Wall Street Journal, les LLM sont assez bons pour reproduire la culture, mais pas pour introduire des variations culturelles. Ces modèles sont « centripètes plutôt que centrifuges », explique Farrell : « ils créent des représentations qui tirent vers les masses denses du centre de la culture plutôt que vers la frange clairsemée de bizarreries et de surprises dispersées à la périphérie ».

Farrell se livre alors à une expérience en générant un podcast en utilisant NotebookLM de Google. Mais le bavardage généré n’arrive pas à saisir les arguments à discuter. Au final, le système génère des conversations creuses, en utilisant des arguments surprenants pour les tirer vers la banalité. Pour Farrell, cela montre que ces systèmes savent bien plus être efficaces pour évoquer ce qui est courant que ce qui est rare.

« Cela a des implications importantes, si l’on associe cela à la thèse de Gopnik selon laquelle les grands modèles de langues sont des moteurs de plus en plus importants de la reproduction culturelle. De tels modèles ne soumettront probablement pas la culture humaine à la « malédiction de la récursivité », dans laquelle le bruit se nourrit du bruit. Au contraire, ils analyseront la culture humaine avec une perte qui la biaise, de sorte que les aspects centraux de cette culture seront accentués et que les aspects plus épars disparaîtront lors de la traduction ». Une forme de moyennisation problématique, une stéréotypisation dont nous aurons du mal à nous extraire. « Le problème avec les grands modèles est qu’ils ont tendance à sélectionner les caractéristiques qui sont communes et à s’opposer à celles qui sont contraires, originales, épurées, étranges. Avec leur généralisation, le risque est qu’ils fassent disparaître certains aspects de notre culture plus rapidement que d’autres ».

C’est déjà l’idée qu’il défendait avec la sociologue Marion Fourcadedans une tribune pour The Economist. Les deux chercheurs y expliquaient que l’IA générative est une machine pour « accomplir nos rituels sociaux à notre place ». Ce qui n’est pas sans conséquence sur la sincérité que nous accordons à nos actions et sur les connaissances que ces rituels sociaux permettent de construire. A l’heure où l’IA rédige nos CV, nos devoirs et nos rapports à notre place, nous n’apprendrons plus à les accomplir. Mais cela va avoir bien d’autres impacts, explique encore Farrell, par exemple sur l’évaluation de la recherche. Des tests ont montré que l’évaluation par l’IA ne ferait pas pire que celle par les humains… Mais si l’IA peut aussi bien que les humains introduire des remarques génériques, est-elle capable d’identifier et d’évaluer ce qui est original ou nouveau ? Certainement bien moins que les humains. Pour Farrell, il y a là une caractéristique problématique de l’IA : « plus une caractéristique culturelle est inhabituelle, moins elle a de chances d’être mise en évidence dans la représentation de la culture par un grand modèle ». Pour Farrell, ce constat contredit les grands discours sur la capacité d’innovation distribuée de l’IA. Au contraire, l’IA nous conduit à un aplatissement, effaçant les particularités qui nous distinguent, comme si nous devenions tous un John Malkovitch parmi des John Malkovitch, comme dans le film Dans la peau de John Malkovitch de Spike Jonze. Les LLM encouragent la conformité. Plus nous allons nous reposer sur l’IA, plus la culture humaine et scientifique sera aplanie, moyennisée, centralisée.

14.04.2025 à 07:42

Khrys’presso du lundi 14 avril 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (9427 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial France

Spécial femmes en France

  • Harcèlement sexuel à la SNCF : « ils voulaient étouffer l’affaire » (rapportsdeforce.fr) – voir aussi Des intérimaires harcelées sexuellement à la SNCF, la direction laisse faire (basta.media)

    Deux femmes intérimaires à la SNCF témoignent du harcèlement sexuel subi de la part d’un même agent. Malgré un signalement, ce dernier n’a pas été sanctionné. Le délégué syndical qui a relayé l‘alerte risque en revanche une mesure disciplinaire.

  • Judith Godrèche sur la commission d’enquête #MeToo : “Il y a l’angoisse que ce rapport ne débouche sur rien” (telerama.fr)

    Au terme de cinq mois de travail, la commission d’enquête parlementaire sur les violences commises dans la culture présidée par Sandrine Rousseau présente son rapport ce mercredi au Palais-Bourbon.

  • Gironde : viols aggravés dans le milieu libertin bordelais, quatre hommes écroués (liberation.fr)

    Le parquet de Bordeaux a confirmé vendredi 11 avril que quatre hommes avaient été mis en examen et écroués dans une enquête pour viols avec actes de torture et de barbarie sur cinq victimes. Les faits se sont déroulés entre 2011 et 2024, notamment dans les clubs libertins de la métropole bordelaise.

  • Violences dans le porno : où en sont les poursuites judiciaires dans les affaires French Bukkake et Jacquie et Michel ? (liberation.fr)

    Alors que des femmes victimes de violences de l’industrie pornographique témoignent dans un livre qui paraît vendredi 11 avril, 19 hommes ont été mis en examen dans les deux dossiers au parcours judiciaire à l’avancement contrasté. […] Pour la première circonstance aggravante, la cour d’appel de Paris a estimé que les victimes avaient « accompli une démarche initiale volontaire pour participer à des tournages », que les actes sexuels pouvaient être « douloureux », mais que « les souffrances ne pouvaient être considérées comme exceptionnellement aiguës et prolongées ». Certains « tournages » pouvaient durer 24h […] Malgré les pleurs, les suppliques, les saignements visibles sur les vidéos, la chambre de l’instruction a estimé qu’il n’y avait pas de « blessure distincte délibérément infligée ». Quant aux insultes racistes et sexistes – « vide-couilles », « massacrez-la, la beurette » – elles n’ont pas été retenues au motif que les actes commis sur ces femmes participent « de la réalisation d’œuvres de l’esprit »

  • Violences sexuelles dans le porno : « On n’est pas des actrices, on est des proies » (liberation.fr)

    Quinze femmes témoignent dans un livre qui paraît vendredi des viols subis lors de tournages de films pornographiques extrêmes. Parmi elles, « Emilie », l’une des 42 plaignantes de l’affaire French Bukkake, décrit des méthodes de « cartel » et raconte sa difficile reconstruction.

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

13.04.2025 à 09:00

IA aux impôts : vers un « service public artificiel » ?

Framasoft

L’IA dans les services publics, on en parle plus qu’on ne la voit, regrette le syndicat Solidaires Finances Publiques qui tente de faire le point de ses déploiements au Trésor Public.
Texte intégral (4686 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 13 novembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


L’IA dans les services publics, on en parle plus qu’on ne la voit, regrette le syndicat Solidaires Finances Publiques qui tente de faire le point de ses déploiements au Trésor Public. Les représentants du personnel dénoncent des déploiements opaques pour les usagers comme pour les personnels et regrettent que les agents soient si peu associés aux projets. Ce qui n’est pas sans conséquence sur leur travail et sur la capacité même des agents des impôts à accomplir leur mission. C’est la force de leurs réflexions : faire remonter les difficultés que le déploiement de l’IA génère et nous rappeler que l’enjeu de l’IA n’a rien de technique.

 

 

 

 

Les publications syndicales sur l’IA sont nombreuses. Souvent, elles sont assez généralistes… et peu spécifiques. C’est-à-dire qu’elles interrogent la place des technologies dans les transformations à venir, font des recommandations pour améliorer les modalités de gouvernance, mais ne regardent pas toujours ses déploiements concrets, préférant poser un cadre général pour en comprendre les effets, comme le montrait, parmi les plus récents, le Plaidoyer pour un dialogue social technologique de FO, les réflexions de la CGT sur le sujet ou celles de la CFE-CGC (voir également le manifeste commun de plusieurs organisations syndicales qui défend un dialogue social technologique ainsi que le tout récent site dédié DIAL-IA).

C’est un peu l’inverse que propose Solidaires Finances Publiques dans le court livre que le syndicat publie aux éditions Syllepse, L’IA aux impôts. Les syndicalistes y évoquent d’abord ce que le déploiement de l’intelligence artificielle change pour les agents et les usagers à la Direction générale des finances publiques (DGFIP), l’une des administrations françaises pionnières dans le développement des outils numériques et de l’IA. 

L’opacité comme principe, la désorganisation comme résultat

L’IA y est déployée depuis 2014 notamment pour évaluer les risques et les schémas de fraude en modélisant les fraudes passées. Solidaires rappelle d’ailleurs les limites de ces schémas, qui peinent à détecter les fraudes atypiques et ses nouvelles modalités. Mais l’IA à la DGFIP, c’est d’abord de très nombreux projets que le syndicat lui-même ne parvient pas à recenser.

Ce sont d’abord des outils pour détecter la fraude des entreprises et des particuliers,  notamment en repérant des anomalies ou des incohérences déclaratives depuis les déclarations de revenus, les comptes bancaires, les données patrimoniales et les informations provenant d’autres administrations, via le projet CFVR (« Ciblage de la fraude et valorisation des requêtes »). C’est également le projet Signaux faibles, pour détecter et identifier les entreprises en difficulté qui produit un score de risque depuis des données financières économiques et sociales des entreprises provenant de plusieurs services publics, afin d’évaluer leur rentabilité, leur endettement, leur niveau d’emploi, leurs difficultés à régler leurs cotisations sociales. C’est aussi un projet pour prédire les difficultés financières des collectivités locales à partir d’indicateurs comme l’endettement des communes. Un autre projet encore vise à estimer la valeur vénale et locative des biens immobiliers exploitant les données de transaction immobilières pour produire de meilleures estimations. Le projet Foncier innovant, lui, vise à détecter depuis des images aériennes, les piscines et bâtiments non déclarés par les contribuables (voir la très bonne synthèse sur ce programme réalisé par le projet Shaping AI). Le projet TAAP (« Traitement d’analyse auto prédictive ») vise à contrôler les dépenses à risques que l’Etat doit payer à ses fournisseurs afin d’accélérer ses règlements. Enfin, on trouve là aussi un voire des projets de chatbot pour répondre aux demandes simples des usagers sur impots.gouv.fr… (l’administration fiscale reçoit chaque année 12 millions de demandes par mail des contribuables, cependant une première expérimentation de réponses automatisées sur les biens immobiliers a produit 70 % de réponses erronées ou fausses).

La liste n’est pourtant pas exhaustive. De nombreux autres projets sont en phase d’expérimentations, même si leur documentation fait bien souvent défaut, à l’image de l’utilisation des réseaux sociaux pour lutter contre la fraude (que beaucoup affublent du doux nom de Big Brother Bercy), dont le bilan est très limité, mais qui a pourtant été accéléré, comme l’évoquait Le Monde. Lors d’une récente cartographie des systèmes d’intelligence artificielle en cours de déploiement au ministère des finances, les premiers échanges auraient révélé que l’administration avait du mal à recenser tous les projets.

Même sur les principaux projets qu’on vient d’énumérer, l’information disponible est très lacunaire, non seulement au grand public mais également aux agents eux-mêmes. L’IA publique se déploie d’abord et avant tout dans la plus grande opacité.

Pour Solidaires, cette opacité est entretenue. L’omerta a une composante politique, nous expliquent les représentants du personnel. Elle permet de désorganiser les luttes des personnels. Les nouveaux agents, qu’ils soient contractuels ou statutaires, sont privés de la connaissance de leurs missions, ils ont moins de compréhension de la chaîne de travail, ils ne savent pas pourquoi ils font ce qu’on leur dit de faire. « Le travail automatique empêche la conscientisation du service public, comme du travail. Il place les agents dans une routine qui les noie sous des canaux informatiques de dossier à traiter », nous expliquent-ils. L’IA permet de faire le job, sans avoir de connaissance métier. Il suffit de traiter les listes d’erreurs, de valider des informations. « Le risque, c’est de ne plus avoir d’agents qualifiés, mais interchangeables, d’un service l’autre ». Mis en difficultés par les objectifs de productivité, par des formations très courtes quand elles ne sont pas inexistantes, ils ne peuvent comprendre ni résister au travail prescrit.

L’IA : des projets venus d’en haut 

Le développement de l’IA à la DGFIP « part rarement d’un besoin « terrain » », constatent les syndicalistes, c’est-à-dire que les agents sont rarement associés à l’expression des besoins comme à la réalisation des projets. Ceux-ci sont surtout portés par une commande politique et reposent quasi systématiquement sur des prestataires externes. Pour lancer ces projets, la DGFIP mobilise le Fonds pour la transformation de l’action publique (FTAP), lancé en 2017, qui est le catalyseur du financement des projets d’IA dans l’administration. Pour y prétendre, les projets doivent toujours justifier d’économies prévisionnelles, c’est-à-dire prédire les suppressions de postes que la numérisation doit produire. Dans l’administration publique, l’IA est donc clairement un outil pour supprimer des emplois, constate le syndicat. L’État est devenu un simple prestataire de services publics qui doit produire des services plus efficaces, c’est-à-dire rentables et moins chers. Le numérique est le moteur de cette réduction de coût, ce qui explique qu’il soit devenu omniprésent dans l’administration, transformant à la fois les missions des agents et la relation de l’usager à l’administration. Il s’impose comme un « enjeu de croissance », c’est-à-dire le moyen de réaliser des gains de productivité.

Intensification et déqualification

Pour Solidaires, ces transformations modifient les missions des personnels, transforment l’organisation comme les conditions de travail des personnels, changent « la façon de servir le public ». Le déploiement de l’IA dans le secteur public n’est pas capacitante. « L’introduction de l’IA émane de choix centralisés » de la seule direction, sans aucune concertation avec les personnels ou ses représentants. Les personnels (comme les publics d’ailleurs) ne reçoivent pas d’information en amont. La formation est rare. Et la transformation des métiers que produit l’intégration numérique consiste surtout en une intensification et une déqualification, en adéquation avec ce que répètent les sociologues du numérique. Ainsi par exemple, les agents du contrôle des dépenses de l’État sont désormais assignés à leurs écrans qui leur assènent les cadences. Les nouvelles dépenses à contrôler passent au rouge si elles ne sont pas vérifiées dans les 5 jours ! Les agents procèdent de moins en moins à leurs propres enquêtes, mais doivent valider les instructions des machines. Ainsi, les agents valident les dépenses, sans plus contrôler les « conditions de passation de marché public ». Même constat au contrôle fiscal, rapportent les représentants du personnel : les agents doivent accomplir les procédures répétitives et peu intéressantes que leur soumettent les machines. Les personnels sont dessaisis de la connaissance du tissu fiscal local. Ils ne peuvent même plus repérer de nouveaux types de fraudes. « On détecte en masse des fraudes simples, mais on délaisse les investigations sur la fraude complexe ». Les erreurs demandent des vérifications chronophages, puisque nul ne sait plus où elles ont lieu. Le risque, prévient Solidaires, c’est de construire un « service public artificiel », ou la modernisation conduit à la perte de compétences et à la dégradation du service. Où l’administration est réduite à une machine statistique. Le risque, comme s’en prévenait le Conseil d’Etat, c’est que la capacité à détecter les erreurs soit anesthésiée.

Cette déqualification ne touche pas que les agents, elle touche aussi les administrations dans leur capacité même à mener les projets. Les investissements sont transférés au privé, à l’image du Foncier innovant, confié à Capgemini et Google. Les projets d’IA sont largement externalisés et les administrations perdent leurs capacités de maîtrise, comme le notaient très bien les journalistes Matthieu Aron et Caroline Michel-Aguirre dans leur livre, Les infiltrés. Certains projets informatiques ont un taux d’externalisation supérieur à 80 % explique Solidaires – quand la Dinum estime qu’un taux supérieur à 70 % constitue déjà un risque de défaillance majeur.

Enfin, la numérisation éloigne les administrés de l’administration, comme le pointait la sociologue Clara Deville. Les agents estiment que les risques d’inexactitudes augmentent avec le remplissage automatique des déclarations de revenus. Avant, quand les agents recevaient les déclarations remplies par les usagers, ils pouvaient parfois détecter des erreurs manifestes, par exemple le fait de mettre des enfants mineurs en occupant de propriétés générant une taxe d’habitation à leur destination. Désormais, les données ne sont plus vérifiées. Les contribuables ne sont plus en obligation de reremplir leur déclaration s’il n’y a pas eu de changement de revenus ou de situation. Si le contribuable ne renvoie rien, on reprend les éléments fournis automatiquement. Le risque c’est de ne plus voir les défaillances de déclaration ou les difficultés que peuvent avoir certains publics, sans revenir vers eux. L’automatisation peut devenir un piège pour certains usagers.

Ce que produit l’automatisation des contrôles

Mais surtout, répètent les militants de Solidaires, les personnels sont confrontés à une opacité totale des projets. L’absence d’information sur les projets est d’abord le signe d’un dialogue social inexistant, particulièrement problématique. Mais l’opacité à d’autres conséquences, notamment une déqualification des agents. Les dépenses à contrôler sont désormais sélectionnées par la machine, mais les agents ignorent sur quels critères. « Pourquoi certaines dépenses insignifiantes qui n’étaient jamais contrôlées auparavant, le sont à présent, alors que d’autres sont validées en masse quand elles étaient scrupuleusement regardées avant l’IA. » 

« Le TAAP a pour but d’améliorer les délais de paiement de l’Etat, un objectif louable. Il vise à alléger la sélection des dépenses à contrôler », nous expliquent en entretien les responsables de Solidaires Finances Publiques. Le problème, c’est que le critère n’est plus l’importance, mais le risque. Alors que les agents avaient toute latitude pour contrôler les dépenses qu’ils jugeaient problématiques ou prioritaires, le système leur impose désormais de regarder certaines dépenses plutôt que d’autres. C’est ainsi que des agents se sont vus par exemple devoir contrôler les dépenses d’essence des ambassades qui étaient jusqu’à présent des dépenses à faibles enjeux. La détermination des contrôles par les algorithmes est désormais organisée par en haut. Les data scientists en centrale fournissent aux agents des « listes Data Mining », c’est-à-dire des fichiers avec des listes d’entreprises ou des contribuables à contrôler et vérifier selon des axes de recherche, par exemple des listes d’entreprises soupçonnées de minorer leur TVA ou des listes de particuliers soupçonnés de faire une déclaration de valeur immobilière qui n’est pas au niveau du marché… Le risque, c’est qu’on pourrait dévoyer ces listes pour contrôler certaines catégories de populations ou d’entreprises, préviennent les syndicalistes, qui mettent en garde contre l’absence de garde-fous que produit cette centralisation du contrôle, qui pourrait demain devenir plus politique qu’elle n’est. 

Les listes Data Mining sont générées par les data scientist du service central depuis des croisements de données. Ce sont des listes d’entreprises ou de particuliers à regarder. Ces listes doivent d’abord être apurées par les agents… Quand ils reçoivent des listes d’entreprises qui feraient trop de provisions par exemple (ce qui pourrait être un moyen de faire baisser leurs bénéfices), ils doivent les trier, par exemple sortir les compagnies d’assurances, qui, par nature, sont des entreprises qui font plus de provisions que d’autres. Dans ces listes, les anomalies détectées ne sont pas toutes compréhensibles aux agents chargés du contrôle et parfois le critère de recherche détecté par l’IA ne donne rien. Mais si l’agent trouve un autre axe de recherche de fraude, le dossier est statistiquement compté comme relevant d’une réussite du data mining. Ce qui a pour but d’augmenter les résultats que produit la recherche de fraude automatisée, alors qu’elle demeure bien souvent le résultat d’un travail spécifique des agents plutôt que le produit d’une liste fournie par les machines.

Le contrôle fiscal automatisé représente aujourd’hui 50 % du contrôle, mais les résultats notifiés (et non pas recouvrés) eux n’ont pas beaucoup progressé depuis l’expansion de l’automatisation. Ils stagnent à 13-14 %, c’est-à-dire environ 2 milliards d’euros, quand le contrôle fiscal atteint environ 13 milliards. Réaliser 50 % de contrôle automatisé est devenu un objectif, nous expliquent les syndicalistes. Si un service n’arrive pas à l’atteindre, les agents doivent prioriser le traitement des listes Data mining plutôt que de réaliser des contrôles d’initiatives. La vérification de ces listes produit surtout un travail fastidieux et chronophage, que les agents jugent souvent bien peu intéressant et qui ne produit pas beaucoup de résultats.  

Le grand problème, estime encore Solidaires, c’est que le contrôle automatisé n’est pas très efficace sur la fraude complexe. A la direction de l’international qui s’occupe des fraudes les plus difficiles, il y a très peu d’utilisation de l’IA par exemple. Pour parvenir à mieux détecter les fraudes les plus évoluées, il faudrait que les agents de terrain qui en sont souvent les meilleurs observateurs, soient mieux associés aux orientations du contrôle centralisé des data-scientists. Ce n’est pas le cas. Alors que les outils pourraient venir aider les agents à faire leur travail, trop souvent, ils proposent surtout de le faire à leur place.

La DGFIP soutient qu’elle n’aurait pas mis en place de score de risque sur le contrôle fiscal… mais « certains agents rapportent que le traitement de listes Data mining fait ressortir régulièrement certains types de contribuables ». On peut malgré tout douter de cette absence de scoring, puisque le fait de lister des contribuables ou des entreprises selon des critères consiste bien à produire des listes classées selon un score.

Les personnels de la DGFIP sont inquiets, rapporte Solidaires. Pour eux, les outils d’IA ne sont pas aussi fiables qu’annoncés. Les contrôles engagés suite à des problèmes détectés « automatiquement » ne sont pas si automatiques : il faut des humains pour les vérifier et les traiter. Bien souvent, c’est l’enrichissement de ces dossiers par les services qui va permettre de donner lieu à une notification ou à un recouvrement. Enfin, le taux de recouvrement lié à l’automatisation est bien faible. L’IA peut s’avérer probante pour des fraudes ou des erreurs assez simples, mais ne sait pas retracer les fraudes élaborées.

Dans la surveillance des finances communales, les indicateurs remplacent les relations avec les personnels de mairie. Solidaires dénonce une industrialisation des procédés et une centralisation massive des procédures. L’IA change la nature du travail et génère des tâches plus répétitives. La DGFiP a perdu plus de 30 000 emplois depuis sa création, dénonce le syndicat. L’IA amplifie les dysfonctionnements à l’œuvre et prolonge la dégradation des conditions de travail. Quant au rapport coût/bénéfice des innovations à base d’IA, le syndicat pose la question d’une innovation pour elle-même. Dans le cadre du projet Foncier Innovant, la mise en oeuvre à coûté 33 millions. La maintenance s’élève à quelques 2 millions par an… Alors que le projet aurait rapporté 40 millions de recettes fiscales. Le rapport coût bénéfice est bien souvent insuffisamment documenté. 

Couverture du livre, l’IA aux impôts, par Solidaires Finances Publiques. Le sous-titre du livre est « Réflexions et actions syndicales ».

Couverture du livre, l’IA aux impôts, par Solidaires Finances Publiques.

Face à l’IA, réinventer les luttes

Pour Solidaires, ces constats invitent à réinventer le syndicalisme. Le syndicat estime qu’il est difficile de discuter des techniques mobilisées, des choix opérés. Solidaires constate que l’administration « s’exonère » de la communication minimale qu’elle devrait avoir sur les projets qu’elle déploie : coûts, bilans des expérimentations, communication sur les marchés publics passés, points d’étapes, documentation, rapports d’impacts… Pour Solidaires, l’omerta a bien une composante politique. Faire valoir le dialogue social technologique est une lutte constante, rapporte Solidaires. Trouver de l’information sur les projets en cours nécessite de mobiliser bien des méthodes, comme de surveiller le FTAP, les profils Linkedin des responsables des administrations, leurs interventions… mais également à mobiliser la CADA (commission d’accès aux documents administratifs) pour obtenir des informations que les représentants des personnels ne parviennent pas à obtenir autrement.

Ce patient travail de documentation passe aussi par le travail avec d’autres organisations syndicales et militantes, pour comprendre à quoi elles sont confrontées. Pour Solidaires, l’omerta volontaire de l’administration sur ses projets organise « l’obsolescence programmée du dialogue social » qui semble avoir pour but d’exclure les organisations syndicales du débat pour mieux externaliser et dégrader les services publics.

Pourtant, les personnels de terrains sont les mieux à même de juger de l’efficacité des dispositifs algorithmiques, insiste Solidaires. La difficulté à nouveau consiste à obtenir l’information et à mobiliser les personnels. Et Solidaires de s’inquiéter par exemple de l’expérimentation Sicardi, un outil RH qui vise à proposer une liste de candidats pour des postes à pourvoir, automatiquement, au risque de rendre fonctionnel des critères discriminatoires. Solidaires observe comme nombres d’autres organisations les dysfonctionnements à l’œuvre dans l’administration publique et au-delà. « Aujourd’hui, Solidaires Finances Publiques n’a aucun moyen pour confirmer ou infirmer que les algorithmes auto-apprenants utilisés dans le contrôle fiscal sont vierges de tout biais. À notre connaissance, aucun mécanisme n’a été institué en amont ou en aval pour vérifier que les listes de data mining ne comportaient aucun biais ». 

Avec le déploiement de l’IA, on introduit un principe de rentabilité du contrôle fiscal, estiment les représentants du personnel. Ce souci de rentabilité du contrôle est dangereux, car il remet en cause l’égalité de tous devant l’impôt, qui est le principal gage de son acceptation.

Solidaires conclut en rappelant que le syndicat n’est pas contre le progrès. Nul ne souhaite revenir au papier carbone. Reste que la modernisation est toujours problématique car elle vient toujours avec des objectifs de réduction massive des moyens humains. Dans l’administration publique, l’IA est d’abord un prétexte, non pour améliorer les missions et accompagner les agents, mais pour réduire les personnels. Le risque est que cela ne soit pas un moyen mais un but. Faire que l’essentiel du contrôle fiscal, demain, soit automatisé.

« L’apparente complexité de ces outils ne saurait les faire échapper au débat démocratique ». En tout cas, ce petit livre montre, à l’image du travail réalisé par Changer de Cap auprès des usagers de la CAF, plus que jamais, l’importance de faire remonter les difficultés que les personnes rencontrent avec ces systèmes.

Bien souvent, quand on mobilise la transformation numérique, celle-ci ne se contente pas d’être une transformation technique, elle est aussi organisationnelle, managériale. A lire le petit livre de Solidaires Finances Publiques, on a l’impression de voir se déployer une innovation à l’ancienne, top down, peu impliquante, qui ne mobilise pas les savoir-faire internes, mais au contraire, les dévitalise. Les syndicalistes aussi ne comprennent pas pourquoi le terrain n’est pas mieux mobilisé pour concevoir ces outils. Certes, la fonction publique est structurée par des hiérarchies fortes. Reste que les transformations en cours ne considèrent pas l’expertise et les connaissances des agents. Les décideurs publics semblent répondre à des commandes politiques, sans toujours connaître les administrations qu’ils pilotent. Dans le discours officiel, ils disent qu’il faut associer les personnels, les former. Dans un sondage réalisé auprès des personnels, le syndicat a constaté que 85 % des agents qui utilisent l’IA au quotidien n’ont pas reçu de formation.

Le sujet de l’IA vient d’en haut plutôt que d’être pensé avec les équipes, pour les aider à faire leur métier. Ces exemples nous rappellent que le déploiement de l’IA dans les organisations n’est pas qu’un enjeu de calcul, c’est d’abord un enjeu social et de collaboration, qui risque d’écarter les personnels et les citoyens des décisions et des orientations prises.

10.04.2025 à 16:01

2025 PeerTube Roadmap !

Framasoft

We (Framasoft) are proud to present the 2025 roadmap for the project ! PeerTube is improving thanks to (only) two developers, the financial support of donors, the support of the NLnet foundation, and external contributions, whether in the form of code, … Lire la suite­­
Texte intégral (1385 mots)

We (Framasoft) are proud to present the 2025 roadmap for the project ! PeerTube is improving thanks to (only) two developers, the financial support of donors, the support of the NLnet foundation, and external contributions, whether in the form of code, design (hi La Coopérative des Internets), or user feedback from hundreds of people ! Thanks to all of you !

Already done at the beginning of the year

Before we list future improvements to PeerTube, we can already tell you what we’ve done at the beginning of the year.

Broadly speaking (since you can get the detailed version of what’s new in version 7.1 here), you’ll find the redesign of the « About » page, your PeerTube content as podcasts and improved playback comfort thanks to the update of the p2p-media-loader, the library that allows PeerTube to use P2P in the video player !

As for the released late 2024 app (available on F-Droid, the Play Store and the App Store), it allows you to watch videos (pretty handy for a video-viewing app, isn’t it ?), have a local account so you can add videos to a « to watch later » list, explore platforms, channels and so on, all while avoiding the dark patterns of applications developed by the GAFAMs (like doom scrolling, ubiquitous notifications, etc.).

Version 0.6.0 (released end of January) now allows you to see comments under videos !

Illustration - Dans la mer Sepia, læ poulpe mascotte de PeerTube, dessine un grand chiffre sept avec son encre.

Illustration : David Revoy – Licence : CC-By 4.0

What’s coming this year

Channel transfer

This year will see the arrival of a much requested feature : the ability to transfer ownership of a channel to another account ! Currently, a channel is linked to the PeerTube account that created it. It will soon be possible for the account associated with the channel (or the admin of the instance) to transfer the ownership of this channel and propagate this change throughout the federation (as is already the case when changing the ownership of a video).

This feature goes hand in hand with the development of another much-requested feature : shared administration of a channel (see… below 👀).

Instance customisation

For many instance administrators, it is important to be able to customise their platform as they see fit (in their own image, in the image of the institution they represent, etc.). That’s why we’re working on making it easier to make changes such as the general colours of the interface, the ability to add a logo, customise the video player, allow or disallow the integration of videos according to an allowlist/blocklist, and much more… This extensive customisation of the interface will be accessible to admins directly from the PeerTube web interface.

Set-up wizard

PeerTube is designed for a wide range of audiences : institutions, non-profits, media, companies, etc. In order to simplify the configuration of a platform, we are going to develop a graphical configuration wizard that will allow, after the installation of PeerTube, to apply and display several recommended configuration rules according to the desired profile of the platform (with the installation of plugins depending on the use case : adding chat if lives are authorised, LDAP/OpenID, etc.).

Illustration : David Revoy (CC-By)

Multi-user channel management

Once the work on transferring channel ownership is complete, we’ll finally be able to offer the multi-user channel management ! To the public, the channel will belong to a main account, but can be managed by several other users in the same instance. These co-manager accounts will have the same rights (upload videos, create and manage playlists, customise the channel, etc.) but will not be able to :

  • delete the channel ;
  • transfer it ;
  • manage the list of co-managers

These changes will be accompanied by a number of design and database changes, which is a lot of work !

But also…

This year will also see an improved warning system for sensitive content and « quality of life » features for the management and moderation of instances, allowing institutions, associations, media, administrations, etc. to use PeerTube more serenely. This will be done via shared lists of instances or accounts to be banned and also via auto-tags preventing video publication that contain specific keywords. We’re also planning to add batch action capabilities on videos, so you can update the licence of multiple videos in a single action, for example.

What the year holds for the mobile application

The mobile application is an excellent way to facilitate the adoption of PeerTube by a wide audience. We now want to expand the audience to also include tablet and TV users.

We’ll also allow you to connect to your PeerTube account, giving you access to all your subscriptions, likes, comments, history, notifications, settings and playlists.

By the end of the year, you’ll be able to play your videos in the background, stream them from your phone to your « smart » TV (initially Android ; Apple TVs will take a bit more work) and receive notifications. The video player will also be improved.

For content creators, it will be possible to upload and manage your videos, start a live broadcast and manage your channels directly from the application !

PeerTube moves forward thanks to you !

It’s thanks to the trust you’ve placed in us over the years, your financial (and/or moral) support, the help of la Coopérative des Internets and the funding of the NLnet Foundation that we can offer you this roadmap.

We hope you like it enough to continue to help us !

10.04.2025 à 16:00

Feuille de route PeerTube 2025 !

Framasoft

Nous (Framasoft) sommes fiers de vous présenter la feuille de route 2025 pour le projet ! Si PeerTube s’améliore c’est grâce à (seulement) deux développeurs, au soutien financier des donateurs et donatrices, à celui de la fondation NLnet, et aux contributions … Lire la suite­­
Texte intégral (1583 mots)

Nous (Framasoft) sommes fiers de vous présenter la feuille de route 2025 pour le projet ! Si PeerTube s’améliore c’est grâce à (seulement) deux développeurs, au soutien financier des donateurs et donatrices, à celui de la fondation NLnet, et aux contributions externes, que ce soit au niveau du code, du design (coucou La Coopérative des Internets) ou des retours utilisateurices de centaines de personnes ! Merci à vous !

Déjà fait en ce début d’année

Avant de lister les futures améliorations de PeerTube, nous pouvons déjà vous parler de ce que nous avons réalisé en ce début d’année.

Dans les grandes lignes (puisque vous pouvez avoir la version détaillée des nouveautés de la version 7.1 ici), vous trouverez le redesign de la page « A propos », vos contenus PeerTube en podcasts ou encore un confort de lecture amélioré grâce à la mise à jour de p2p-media-loader, la bibliothèque qui permet à PeerTube de faire du P2P dans le lecteur vidéo !

L’application quant à elle, sortie fin 2024 (disponible sur F-Droid, le Play Store et l’App Store) vous permet de regarder des vidéos (plutôt pratique pour une application de visionnage de vidéos, vous en conviendrez), d’avoir un compte local vous permettant d’ajouter des vidéos à une liste « à voir plus tard », d’explorer les plateformes, les chaînes, etc., tout en sortant des dark patterns des applications développées par les GAFAM (comme le doom scrolling, les notifications omniprésentes, etc.).

La version 0.6.0 (sortie fin janvier) vous permet maintenant de consulter les commentaires sous les vidéos !

 

Illustration - Dans la mer Sepia, læ poulpe mascotte de PeerTube, dessine un grand chiffre sept avec son encre.

Illustration : David Revoy – Licence : CC-By 4.0

Ce que l’année nous réserve

Transfert de chaîne

Cette année arrivera une fonctionnalité très demandée : la possibilité de transférer la propriété une chaîne à un autre compte ! Pour le moment, une chaîne est liée au compte PeerTube qui l’a créée. Il sera bientôt possible pour le compte associé à la chaîne (ou à l’admin de l’instance) de transférer la propriété de cette chaîne et de propager ce changement dans la fédération (comme c’est déjà le cas avec le changement de propriétaire d’une vidéo).

Cette fonctionnalité va de pair avec le développement d’une autre fonctionnalité très demandée : l’administration partagée d’une chaîne (voir… plus bas 👀).

Personnalisation d’instance

Pour beaucoup d’admin d’instances il est important de pouvoir personnaliser sa plateforme comme bon leur semble (à son image, à celle de l’institution qu’iel représente, etc.). C’est pourquoi nous travaillerons à faciliter les changements tels que les couleurs générales de l’interface, la possibilité de mettre un logo, de personnaliser le lecteur vidéo, de permettre ou non l’intégration de vidéos en fonction d’une liste d’autorisation ou de blocage et plus encore… Cette personnalisation poussée de l’interface sera accessible aux admin directement depuis l’interface web de PeerTube.

Assistant de configuration

PeerTube peut s’adresser à différents types de public : institutions, familles, associations, médias, entreprises… Afin de simplifier la configuration d’une plateforme, nous allons développer un assistant de configuration graphique qui permettra, après l’installation de PeerTube, d’appliquer et d’afficher plusieurs règles de configuration recommandées selon le profil voulu de la plateforme (avec l’installation d’extensions selon le cas d’utilisation : ajout du tchat si les lives sont autorisés, LDAP/OpenID, etc.).

 

Illustration : David Revoy (CC-By)

Gestion de chaîne… à plusieurs

Une fois le travail réalisé sur le transfert de propriété de chaîne terminé, nous pourrons enfin vous proposer la gestion de chaîne(s) à plusieurs ! 🎉

Publiquement, la chaîne appartiendra toujours à un compte principal mais pourra être gérée par plusieurs autres utilisateurs de la même instance. Ces comptes co-gérants auront les mêmes droits (téléverser des vidéos, créer et gérer des playlists, personnaliser la chaîne, etc.) mais ne pourront pas :

  • supprimer la chaîne ;
  • la transférer ;
  • gérer la liste des co-gérant⋅es

Ces changements iront de pair avec de nombreux changements au niveau du design et de la base de données, ce qui représente un sacré travail !

Mais aussi…

Cette année apportera aussi une amélioration du système d’avertissement pour les contenus sensibles et des fonctionnalités de « qualité de vie » pour l’administration et la modération des instances, permettant aux institutions, associations, médias, administrations, etc., de s’emparer de PeerTube plus sereinement. Cela pourra se faire via des listes partagées d’instances ou comptes à bloquer, ou via des auto-tags empêchant des publications ou lives utilisant tel ou tel mot clé ! Nous prévoyons aussi d’ajouter des possibilités d’actions en lot, pour par exemple, mettre à jour la licence de plusieurs vidéos en une seule action.

Ce que l’année réserve pour l’application mobile

L’application mobile est un excellent moyen de faciliter l’adoption de PeerTube auprès d’un large public. Nous souhaitons élargir l’audience aux utilisateurs et utilisatrices de tablettes et de télévisions.

Nous allons également permettre la connexion à votre compte PeerTube, vous donnant accès à tous vos abonnements, likes, commentaires, historique, notifications, paramètres et listes de lecture.

En fin d’année, vous aurez la possibilité de lire vos vidéos en arrière-plan, de les diffuser depuis votre téléphone vers votre télévision connectée (Android, dans un premier temps ; les télévisions Apple demandant un peu plus de travail), et de recevoir des notifications. Une amélioration du lecteur vidéo sera aussi effectuée.

Pour les créateurs et créatrices de contenu, il sera possible de téléverser, gérer vos vidéos, démarrer une diffusion en direct et gérer vos chaînes directement depuis l’application.

PeerTube avance grâce à vous !

C’est à la fois grâce à la confiance que vous nous accordez depuis des années, votre soutien financier (et/ou moral), l’aide de la Coopérative des Internets, et le financement de la fondation NLnet que nous pouvons vous proposer cette feuille de route.

Nous espérons donc qu’elle vous plaira suffisamment pour continuer à nous aider !

09.04.2025 à 09:42

FramIActu n°3 — La revue mensuelle sur l’actualité de l’IA !

Framasoft

Google dégrade ses résultats de recherche, Amazon récolte les enregistrements audio des enceintes Echo, OpenAI montre les muscles et l'IA met à mal l'infrastructure du Libre... bienvenue dans la troisième FramIActu !
Texte intégral (4427 mots)

Bienvenue dans ce troisième numéro de FramIActu, la revue mensuelle sur l’actualité de l’IA !

 

Ce mois-ci, encore, nous avons plein de choses à dire au sujet de l’IA et ses impacts sur nos sociétés.
Pour rappel, nous mettons en avant notre veille sur le sujet sur notre site de curation dédié ainsi que sur Mastodon et Bluesky (sur le compte dédié FramamIA) !

 

Vous avez préparé votre boisson chaude (ou froide, c’est le printemps après tout !) préférée ? Alors c’est parti pour la FramIActu !

 

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Celui si est assis et semble parler.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

Tout ce que vous dites à votre Echo est envoyé à Amazon

Dans cet article de Les Numériques, nous apprenons que fin mars, Amazon a retiré le support du traitement local des voix sur les assistants connectés Amazon Echo.

Cela signifie que toutes les enceintes connectées d’Amazon enverront les enregistrements audio sur leurs serveurs pour être traités afin d’améliorer la qualité de leurs services IA.

Amazon promet de ne pas conserver les enregistrements après traitement si l’utilisateurice a modifié ses préférences dans ce sens. Cependant, et comme le rappelle l’article, Amazon a déjà menti concernant cette promesse et l’entreprise a déjà été condamnée pour avoir conservé illégalement des enregistrements vocaux d’enfants.

Outre la question du respect de l’intimité numérique — et donc du RGPD — (mais bon, venant d’Amazon il n’y a aucune surprise sur ce sujet), c’est bien le message envoyé par les géants de la Tech que nous pouvons souligner : l’IA est leur excuse magique pour justifier toute action, même celles supposées illégales. Les géants capitalistes s’embêtent de moins en moins à respecter la loi et cherchent même à la tordre, comme en témoigne cet article de Next.

Mème : deux boutons rouges, un dit « Envoyer toutes mes données à Amazon », l'autre « Envoyer toutes mes données à Amazon ». Un homme tagué « Utilisateur·ice d'Amazon Echo » transpire en ne sachant sur quel bouton appuyer.

L’absence de choix, via Framamèmes. Licence CC-0

C’est assez exceptionnel, mais voici un article, datant de l’année dernière, que nous déterrons ! (En même temps, la FramIActu n’existait pas l’année dernière…)

Nous estimons qu’il est important d’en parler car nous entendons désormais très souvent des témoignages concernant la dégradation des résultats de Google.

Cet article (en anglais), publié par Mashable, traite d’une étude réalisée par des chercheureuses allemand·es décrivant la dégradation de la qualité des résultats de Google.

En effet, en raison du phénomène d’IA Slop, c’est-à-dire l’apparition massive de sites générés par IA et proposant un contenu de faible qualité, une bonne partie des résultats de recherche de Google n’orientent plus vers du contenu pertinent.

Parmi les raisons décrites, les chercheureuses expliquent que les sites générés par IA exploitent parfaitement les algorithmes de Google afin d’être mieux référencés que des contenus rédigés manuellement.

Cependant, on pourrait aussi expliquer la dégradation de la pertinence des résultats de Google, spécifiquement, en se référant à un autre article (en anglais, toujours) d’Edward Zitron, faisant une chronologie complète de comment Google a décidé de réduire volontairement la qualité de ses résultats afin de forcer les utilisateurices à faire plus de recherches sur le moteur de recherche. Cela dans le but d’afficher plus de publicités et donc générer plus de revenus pour l’entreprise.

Une illustration de « l’emmerdification » de Google, comme le souligne Cory Doctorow dans une de ses conférences dont nous avons récemment publié une traduction sur le Framablog.

Une démonstration vulgaire de pouvoir

Dans une note de blog, Jürgen Geuter (connu sous le pseudonyme tante), présente un point de vue intéressant sur l’ajout récent, par OpenAI, de la possibilité de générer des images dans le style du studio d’animation Ghibli.

Dans son analyse, le théoricien souligne l’idée que le choix du style du studio Ghibli n’est pas anodin. Ce choix est une « démonstration vulgaire de pouvoir ».

En effet, le studio, à travers ses œuvres, prône une vision humaniste et littéralement anti-fasciste de la société.
Plus, Hayao Miyazaki, co-fondateur du studio, avait déjà exprimé, en 2016, son effroi vis-à-vis de l’Intelligence Artificielle.
Pour tante, l’utilisation du style emblématique du studio Ghibli, par OpenAI, est la preuve que l’entreprise étasunienne n’a que faire de cette vision et des valeurs du studio, ni même du droit d’auteur ou de tout ce qui n’irait pas dans le sens de ce vampire capitaliste.

Ce comportement fait écho (sans mauvais jeu de mot) avec l’actualité concernant les enceintes connectées d’Amazon.

Comme si les entreprises de l’IA n’avaient pas besoin de respecter la loi, et pouvaient se permettre des pratiques toujours plus agressives, particulièrement depuis l’élection de Donald Trump aux États-Unis.

Mème : sur l'autoroute, un panneau indique « Respecter Les lois, les autres, le vivant » tout droit et « S'en foutre » sur la sortie à droite. Une voiture taguée « Les entreprises de l'IA » fait un dérapage pour prendre la sortie.

Les entreprises de l’IA et le respect. Mème généré avec Framamèmes. Licence CC-0

Aussi, tante appuie l’idée qu’OpenAI doit sortir de nouvelles fonctionnalités et paraître « cool » afin d’attirer les investisseurs. L’ajout du style du studio Ghibli comme « fonctionnalité » de ChatGPT en serait une illustration.

Cette réflexion semble faire sens, surtout lorsqu’on observe une autre actualité décrivant la volonté d’OpenAI de faire une nouvelle levée de fonds à hauteur de 40 milliards de dollars.

L’infrastructure du libre est attaquée par les entreprises d’IA

À travers un article s’appuyant sur les témoignages de différentes acteurices du Libre, nous découvrons la difficulté qu’ont de nombreuses structures à faire face à l’accaparement des ressources du Web par les robots d’indexation de l’IA.

Ces robots, en charge de récupérer le contenu de l’ensemble du Web afin de nourrir les réponses des Intelligences Artificielles génératives, composent parfois presque l’intégralité du trafic affectant un site Web.

Ce trafic représente un véritable problème car il représente une surcharge significative (de manière semblable à une attaque par déni de service) des infrastructures, forçant différents projets à adopter des techniques expérimentales pour se protéger et éviter de tomber en panne.

Par exemple, le projet GNOME a déployé le logiciel Anubis sur sa forge logicielle (où sont déposés les codes sources de l’ensemble des projets de l’organisation).

Anubis permet de détecter si une ressource est accédée par un·e humain·e ou un robot d’IA et permet, dans ce deuxième cas, de bloquer l’accès à la ressource.

Deux heures et demie après avoir installé Anubis, le projet GNOME indiquait que 97 % du trafic avait été bloqué par Anubis, car provenant d’IA.

Malheureusement, des outils comme Anubis nuisent à l’expérience globale du Web et sont peut-être des solutions seulement temporaires jusqu’à ce que les robots d’indexation des IA réussissent à contourner le logiciel et piller les ressources malgré tout.

Alors que l’infrastructure du Libre repose avant tout sur des efforts bénévoles et est déjà largement en tension financière, les géants de l’IA refusent de « respecter » ce fragile écosystème en ignorant ses faiblesses tout en se nourrissant de ses forces (son savoir et tous les communs mis à disposition de toustes).

Là encore, l’exemple le plus flagrant est que les robots d’indexation de l’IA ignorent les directives des sites Web lorsque ces derniers précisent, à l’aide d’un protocole, ne pas souhaiter être indexés par un robot.

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Accroché à son aile gauche, un ballon de baudruche.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

C’est tout pour ce mois-ci mais si vous souhaitez approfondir vos connaissances sur l’Intelligence Artificielle, vous pouvez consulter notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !

Enfin, si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !

Pour nous soutenir, si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié  !

Dans tous les cas, nous nous retrouverons le mois prochain pour un nouveau numéro de FramIActu !

08.04.2025 à 09:42

Faire sa veille informationnelle à l’ère de l’IA générative

Framasoft

Alors que pullulent sur le Web des sites générés par Intelligence Artificielle, il devient de plus en plus difficile de dénouer le vrai du faux parmi les informations qui nous submergent. Explorons, ensemble, quelques pistes pour y voir plus clair !
Texte intégral (8340 mots)

Il y a quelques mois, Hubert Guillaud publiait, dans le média Dans Les Algorithmes, un article sur l’abondance de contenus générés par IA sur le Web (le fameux IA Slop).

Quelques semaines plus tard, le média Next publiait une enquête sur les médias diffusant en partie ou exclusivement des articles générés par IA.

Récemment encore, la Chine mettait en place une mesure imposant d’étiqueter les contenus générés par IA, prétextant un besoin de lutter contre la désinformation.

Les techniques d’Intelligence Artificielle générative sont aujourd’hui massivement utilisées pour publier du contenu sur la toile et il devient difficile de déterminer si une information est réelle ou non.

C’est pourquoi nous vous proposons un article permettant d’explorer quelques pistes pour faciliter l’exercice de l’esprit critique !

Bonne lecture !

En quoi la généralisation de l’IA générative nuit à la qualité des informations ?

IA Générative et réalité

L’IA générative (parfois abrégée GenAI) est une technique d’intelligence artificielle ayant pour objectif de produire du contenu qui semble naturel.

Ce qui marque quand on expérimente avec une IA générative, c’est la vraisemblance des réponses : celles-ci nous semblent plausibles.

Pourtant, une IA générative n’a aucune compréhension du réel, de ce qui existe ou non, de ce qui est donc vrai, ou non. Quand on lui demande « Qui est Framasoft ? », celle-ci va faire des calculs complexes et énergivores pour tenter de deviner quel est le résultat le plus probable attendu, en se basant sur toutes les données à partir desquelles elle a été « entraînée ».

Le logiciel nous fournira ainsi une réponse, parfois juste, parfois à côté de la plaque, parce que son algorithme aura estimé que c’est le résultat le plus probable attendu.

Mème : un homme tagué « l'ia » regarde d'un œil intéressé une femme taguée « Réponse probable », pendant que sa compagne taguée « La réalité » lui lance un regard noir.

L’IA est la réalité.

Parmi les gros problèmes de l’IA générative se situe l’incapacité à pouvoir décrire le cheminement de l’algorithme pour générer une réponse. Aucune IA générative ne peut, à ce jour, décrire ses sources ni indiquer pourquoi elle a préféré donner telle réponse plutôt qu’une autre. Nous nous retrouvons, au mieux, avec une chaîne de pensée et un score de probabilité et au pire, avec seulement le contenu de la réponse. À nous alors de faire preuve d’esprit critique pour déterminer si l’IA générative a donné une réponse probable et juste ou probable mais fausse. À nous aussi, comme le décrit Hubert Guillaud dans son article, de douter de la machine pour ne pas nous laisser induire en erreur.

Nous n’en sommes pas habitué·es, pourtant.

En effet, nous avons plutôt tendance à croire aveuglément les machines, persuadé·es que nous en maîtrisons de bout en bout tous les processus. Or, l’IA générative, malgré son ton toujours sûr, sa verve parfois moralisatrice et son incapacité à dire « Je ne sais pas », n’est pas une technique dont nous maîtrisons tous les processus (de la construction à la réponse). Il y a des zones d’ombre, des zones incomprises (du fait de l’essence même de cette technique) qui nous empêchent de pouvoir faire confiance en ses affirmations.

Enfin, l’IA générative inverse notre rapport à la production (d’écrits, notamment). Si autrefois, il était plus long de produire un contenu textuel que de le lire, c’est aujourd’hui l’inverse et ce fait, qui peut sembler anodin de prime abord, transfigure pourtant une bonne partie de notre société, notamment numérique.

IA Slop

Depuis quelques temps, le terme de « Slop » ou d’ « IA Slop » devient de plus en plus populaire pour décrire les contenus de mauvaise qualité réalisés via IA générative et qui pullulent désormais sur le Web.

Le Web, avec l’IA générative, se remplit peu à peu de contenus vides de sens, entièrement pensés pour créer de l’engagement ou plaire aux algorithmes de SEO (Search Engine Optimisation, les techniques mises en place pour être mieux référencé·e sur Google).
L’objectif final étant d’engranger facilement des revenus, via les mécanismes de réseaux sociaux ou la publicité.

La surabondance de ces contenus a plusieurs effets :

    • La raréfaction de contenus « originaux » (créés par un·e humain·e).

    • Une tendance à la réduction de la qualité des résultats de l’IA générative. Les données générées par IA générative écrasant sous leur masse celles créées par des humain·es, ces dernières deviennent donc plus difficiles à retrouver en bout de chaîne.

    • La mise en place d’un environnement « douteux ». Il devient difficile, aujourd’hui, de faire confiance en la qualité réelle d’un contenu a priori.

C’est en réaction à cette vague d’IA Slop et après la lecture de cette excellente enquête de Next sur la présence de plus de 3000 médias français générés par IA que nous avons décidé d’écrire cet article, dont le but est d’aider à mettre en lumière la problématique, mais aussi de présenter des pistes de solution.

Nous y reviendrons plus bas !

Comment reconnaître un texte produit par une IA Générative ?

Dans son enquête sur les sites de médias dont les contenus sont des plagiats générés par des IA génératives, Next a élaboré une méthode pour pouvoir reconnaître ceux-ci et nous la partage dans un article dont nous reprenons ici quelques points (mais nous vous recommandons chaudement de lire l’article de Next pour en découvrir l’intégralité des éléments) !

    • ChatGPT a des « tics de langage » et utilise, abusivement, certains termes tels que « crucial », « fondamental », « captivant », « troublant », « fascinant », « besoin urgent », « il est essentiel », etc ;

    • Les contenus produits par l’IA générative sont très scolaires alors que les journalistes tendent à adopter un « angle », c’est-à-dire un choix particulier dans la manière de traiter le sujet, aidant à se démarquer de ce qui est déjà écrit ;

    • Les fins d’articles générés par ChatGPT résument souvent l’article et/ou abordent des conclusions moralisantes ;

    • Les images d’illustration sont le plus souvent des copiés-collés des articles plagiés, parfois modifiés avec une rotation à 180° pour éviter d’être détectées par des moteurs de recherche d’images inversés. Sinon, elles sont générées par des IA génératives et sont particulièrement grossières et caricaturales, ou n’ont rien à voir avec le sujet ;

    • …

La méthodologie de Next permet de nous outiller pour exercer notre esprit critique dans notre navigation quotidienne.

Cependant, cela peut rapidement être fastidieux, notamment avec l’immense quantité d’articles générés par IA générative auxquels nous sommes confronté·es au quotidien. Dans son enquête, Next souligne d’ailleurs que des milliers d’articles mis en avant par Google Actualités sont en fait le fruit d’IA génératives.

Afin de faciliter la reconnaissance des sites proposant des articles générés par IA, Next a développé une extension de navigateur permettant d’afficher un message d’information lorsque nous accédons à un site GenAI. L’extension est actuellement capable de reconnaître plus de 3000 sites ( !) et sa base de données continue de grossir.

Gardons cependant à l’esprit que si cette extension nous pré-mâche énormément le travail, elle ne suffit cependant pas pour nous permettre de lever notre vigilance. De nouveaux sites émergent chaque jour et l’extension ne peut tous les recenser.

Notons qu’il existe des outils pour détecter si un texte a été écrit par un humain, comme le détecteur de QuillBot ou GPTZero. Cependant, nous ne recommandons pas leur usage (ou du moins pas sans un regard très critique).
Premièrement, ces outils ne sont pas libres, il convient donc de ne pas y envoyer de textes privés ou sensibles. Mais surtout, ces détecteurs sont réputés pour leur manque de fiabilité.
Par exemple, OpenAI proposait un détecteur de textes générés par ChatGPT
jusqu’en 2023, mais a décidé de l’arrêter, car il produisait trop d’erreurs.
Beaucoup de textes écrits par des humain·es peuvent être marqués par erreur comme générés par une IA. Ces détecteurs ont tendance à
défavoriser les locuteurs et locutrices non-natives : les textes en anglais écrits par des personnes dont l’anglais n’est pas la langue maternelle seront plus souvent marqués à tort comme étant écrits par une IA. Et inversement, il existe de nombreuses techniques pour contourner ces détecteurs.
Par exemple, des chercheur·euses ont montré qu’il est possible de paraphraser un texte généré par une IA afin que le texte soit marqué comme écrit par un·e humain·e.

Si nous décidons quand même d’utiliser ces outils, ne nous fions pas à leur décision ou à la probabilité affichée. Remettons-les en perspective avec d’autres éléments, dont ceux mentionnés précédemment.
Sinon nous risquons
d’accepter un texte écrit par une IA.
À l’inverse nous risquerions de jeter le discrédit sur un texte écrit par un·e humain·e, ce qui peut être emb
êtant, en particulier dans le cas des enseignant·es corrigeant des copies d’élèves.

De l’importance de la confiance

Il n’y a pas de méthode stricte et infaillible pour déterminer si un média est de source fiable ou non.
Au final, nous nous basons avant tout sur la confiance qu‘il nous inspire.
Et justement, il n’est pas toujours aisé de déterminer si nous souhaitons faire confiance ou non en un média.

Quelques questions peuvent néanmoins nous aider à affiner notre perception.

Quel est l’objectif du média ?

Se questionner sur l’objectif du média que l’on consulte peut grandement aider à y voir plus clair.

Pourquoi est-ce que celui-ci a été créé ?
Est-ce pour le « bien commun », un intérêt financier ou encore de pouvoir ?
Aucun média n’est totalement objectif, ce qui est normal, mais quel est le positionnement politique du média ?
Cherche-t-il à convaincre plutôt qu’informer ?

Quels sont les engagements du média pour parvenir à l’objectif évoqué ?

Parfois, certains objectifs peuvent n’être que des vœux pieux.
Regarder concrètement quels sont les actes et les engagements mis en place du média pour faire advenir ces objectifs peut nous aiguiller à jauger le degré de confiance que nous donnerons à celui-ci.

Qui possède le média ?

Et donc, quels sont les intérêts des personnes qui possèdent le média ?
Et quel
s pouvoirs exercent ces personnes sur lui ?

La cartographie mise à jour chaque année par Le Monde Diplomatique et ACRIMED est édifiante sur le fait que la majorité des médias « mainstream » sont — au moins en partie — possédés par des milliardaires ou des groupes de milliardaires.

Ces derniers semblent pouvoir orienter les journaux dans certaines directions, comme encore récemment avec Jeff Bezos (patron de, entre autres, Amazon, Twitch ou le Washington Post, quotidien emblématique étasunien), qui a souhaité ne pas faire publier la traditionnelle recommendation de vote du journal à l’approche de l’élection présidentielle étasunienne (alors que cette recommandation allait dans le sens de Harris, l’opposante de Trump).

Cependant, s’il est possible que les médias possédés par les milliardaires soient, en partie, influencés par leurs dirigeant·es, ce n’est pas forcément systématiquement le cas.

Le Monde Diplomatique, par exemple, est possédé à 51 % par le groupe Le Monde, mais à 49 % par l’association de lecteurs et lectrices du journal et l’association composée de toute l’équipe de rédaction. Ce sont ces 49 % qui choisissent le ou la rédacteurice en chef et iels possèdent un droit de veto pour les décisions prises.

Nous y retrouvons là un exemple de contre-pouvoir.

Comment est financé le média ?

Dans une société capitaliste, l’argent est au cœur de bien des choses et nous pensons essentiel de nous questionner sur la manière dont un média est financé.

Est-ce via la publicité ?
Sont-ce les liens d’affiliation (permettant de récolter des sous en fonction du nombre de visites/d’achats sur le lien) ? Les abonnements ? Les aides de l’État ? Les dons ?

Et si c’est un peu de tout ça, dans quelles proportions ?

Il y a bien des manières de financer un média, et toutes ne sont pas forcément viables dans le long terme ou ne correspondent à notre propre idée de la déontologie.

Le média cite-t-il ses sources ?

C’est une des premières choses que nous cherchons en général à consulter : d’où vient l’information mise en avant dans l’article.

Est-ce que c’est une revue scientifique ? Une dépêche AFP ? Un autre journal ? Un vieux Skyblog fait par Camille Dupuis-Morizeau ?

Si — comme trop souvent à notre goût 😬 — les sources ne sont pas citées, il est difficile de prouver la véracité de l’information et il nous faudra chercher celles-ci nous-même.

L’article est-il relu par les pair·es ?

C’est un processus obligatoire dans beaucoup de médias, chaque article est supposé être relu par au moins une autre personne que l’auteur·ice.

Cela permet d’avoir un regard frais sur le sujet, sur la qualité de l’article, etc.
Cependant et évidemment, la relecture n’empêche pas toujours certaines erreurs ou une ligne éditoriale idéologique.

Parfois, nous sommes convaincu·es que l’angle adopté par un article est le bon alors que d’autres estimeront que non.
D’autres fois, nous aurons tout simplement fait une erreur : choisi une source peu fiable, mal interprété une situation, etc.


Les erreurs arrivent et c’est pourquoi le processus de relecture et validation par d’autres existe !

Il y a-t-il une mise en avant des corrections apportées à l’article ?

Comme les erreurs arrivent, il est courant d’apporter des corrections aux articles publiés.

Est-ce que le média met en avant (en haut de son article, voire même en fin) ces corrections ?

Une mise à jour de l’article suite à l’apparition d’un événement nouveau mais crucial à la compréhension du sujet, par exemple ?

Toutes ces questions ne constituent pas une liste exhaustive, bien sûr, mais celles-ci peuvent déjà grandement nous aider à nous positionner vis-à-vis d’un média.

En nous prêtant à l’exercice, nous nous rendrons compte qu’il est parfois difficile de savoir clairement si un média est de confiance et nous devrons donc faire preuve de vigilance à son égard.

Enfin, aujourd’hui, avec la quantité faramineuse de sites générés par IA, nous ressentons facilement un sentiment de submersion et l’énergie nécessaire pour pouvoir exercer notre esprit critique sur tous ces sites dépasse l’entendement.

Faire sa veille, à l’heure de l’IA générative, est un vrai défi !

Mème. À gauche, une carte Uno avec marqué « Crois le premier site venu ou pioche 25 cartes ». À droite, un personnage tagué « Nous » a pioché 25 cartes.

L’exercice de l’esprit critique à l’heure de l’IA, une entreprise difficile.

C’est pourquoi dans la dernière partie de cet article, nous vous proposons de découvrir un outil pouvant aider à faciliter la veille informationnelle !

Vigilance cependant, si cet outil technique peut aider à assumer notre veille, il nous demande tout de même de rester attentifs et attentives, notamment avec la fonctionnalité de veille partagées !

Découvrons cet outil ensemble !

Flus, outil de veille simple

Flus est un outil de veille conçu par Marien, membre de Framasoft.

Ce n’est pas le premier coup d’essai de Marien dans la conception d’un tel outil, il a en effet, en 2012, initié un autre projet de veille : FreshRSS.

C’est grâce à l’enseignement des expériences apprises en concevant FreshRSS qu’il a pu concevoir une expérience aussi fluide dans Flus.

 

Un schéma montrant des sites agrégés vers Flus, d’où ressortent différents services.

Liste des services proposés par Flus.

 

Au cœur de FreshRSS et Flus se situe une technique majeure du Web : les flux RSS.

C’est quoi un flux RSS ?

Les flux RSS existent depuis 1999 et permettent à des applications tierces de savoir, presque en temps réel, si un nouvel article a été publié sur notre site.

Logo des flux RSS

Le gros avantage est de pouvoir centraliser dans un unique logiciel tous les flux auxquels nous souhaitons nous « abonner » et donc prendre connaissance des mises à jour de dizaines (voire centaines ou milliers, c’est à nous de choisir) de sites sans avoir à les ouvrir individuellement !

Le flux RSS est une technique légère, simple, mais terriblement efficace, simplifiant énormément le processus de veille.

C’est grâce aux flux RSS que de nombreux outils de veille fonctionnent… dont Flus !

Flus : un outil pensé pour éviter d’être submergé·es d’informations

Une des problématiques auxquelles nous pouvons être confronté·es en regroupant des centaines de flux RSS dans un logiciel permettant de les lire (ces logiciels sont appelés des agrégateurs) est que nous pouvons nous sentir submergé·es d’informations.

Si nous nous abonnons à des sites qui publient beaucoup d’actualités ou si nous avons beaucoup d’abonnements, il est fréquent de ressentir une forme « d’info-pollution ».

C’est pourquoi Flus a été pensé avec deux fonctionnalités nous permettant de contrôler le flot d’informations auquel nous sommes confronté·es.

Premièrement, l’espace de lecture des flux est conçu pour ne pas laisser s’accumuler les contenus, évitant ainsi une surcharge d’informations. Cet espace est limité volontairement à 50 contenus qui doivent être traités (ex. marqué comme lu, rangé, ou retiré) avant de pouvoir passer à la suite. 

Capture d'écran du journal de Flus.

Capture d’écran du journal de Flus.

Deuxièmement, chaque flux dispose d’un indicateur de fréquence de publication, indiquant le nombre de liens postés chaque jour.

Si ce rythme est trop élevé, il est possible de configurer le filtre définissant sur quelle période Flus va récupérer les publications pour l’abonnement.

Ce dernier point est très utile et est configuré par défaut pour ne récupérer que les publications de la dernière semaine. Cependant, si nous souhaitons tout recevoir d’un flux RSS, il est possible de configurer celui-ci pour tout nous afficher, sans limite temporelle.

Un outil de veille collaborative

Autre aspect intéressant de Flus : la possibilité de partager sa veille avec d’autres ou de construire des veilles collaboratives.

Le site propose d’ailleurs, dans son interface, de découvrir la veille d’autres personnes, triées par catégories.

Cette fonctionnalité est bien chouette lorsque l’on cherche à sortir un peu de ce que l’on connaît et chercher à découvrir d’autres sites ou sujets.

Attention encore ! Ce n’est pas parce que quelqu’un publie sa veille sur Flus que les informations partagées sont forcément fiables.

Là aussi, nous devons trouver où placer notre confiance !

Un modèle de financement basé sur la solidarité

Flus utilise un modèle de financement basé sur le prix libre.

Le principe est simple : vous pouvez profiter de Flus au prix qui vous convient, y compris gratuitement. Cela permet à ses utilisateurs et utilisatrices de participer au fonctionnement de la plateforme à hauteur de leurs moyens.

Afin d’avoir une idée de ce que peut être une contribution financière juste, Marien affiche trois tarifs références : un tarif solidaire pour celles et ceux qui ne peuvent offrir plus, un tarif équilibre qui correspond au juste prix et un tarif soutien qui correspond à l’objectif financier de l’auteur.

 

Alors que l’IA générative transforme agressivement le Web en un immense catalogue de contenus approximatifs, conçus par des IAs pour plaire à des algorithmes (principalement ceux du moteur de recherche de Google), la société capitaliste nous demande toujours plus d’efforts pour réussir à exercer notre esprit critique.

Pourtant il existe encore des espaces de respiration, où nous pouvons relâcher (un peu) notre attention, et des outils nous permettant d’y accéder plus facilement.

Le flux RSS est un outil émancipateur d’une rare simplicité qui, grâce à des plateformes comme Flus ou des outils comme FreshRSS, nous permet de décider de la manière avec laquelle nous nous confrontons aux informations de ce monde.

Alors profitons de ces joyaux techniques pour partager nos veilles, créer des veilles collectives, exercer ensemble notre esprit critique et lutter, solidairement et joyeusement, contre la désinformation en ligne !

08.04.2025 à 08:08

Bullshit sur Graf’hit

Stéphane Crozat

Depuis 2023 et la mise à disposition du grand public des IAG, l’exercice rédactionnel à l’université dysfonctionne. Stéphane Crozat en retranscrit un nouvel épisode dans cet article (les noms des étudiants ont été anonymisés). « En effet, il y a un vrai … Lire la suite­­
Texte intégral (7336 mots)

Depuis 2023 et la mise à disposition du grand public des IAG, l’exercice rédactionnel à l’université dysfonctionne. Stéphane Crozat en retranscrit un nouvel épisode dans cet article (les noms des étudiants ont été anonymisés).

« En effet, il y a un vrai risque de dénaturer le rôle principal de l’école : aider les élèves à développer leur esprit critique et leur autonomie. Imaginez un monde où les machines réalisent nos tâches à notre place. Selon une étude de John Doe en 2022, s’appuyer trop souvent sur des outils comme l’IA pourrait rendre les élèves moins capables de structurer leurs idées ou de résoudre des problèmes par eux-mêmes. »
(Alice, Bob, Claude & Daniel, 2024)

Lire et écrire sur le Web (introduction)

Je suis enseignant-chercheur à l’Université de Technologie de Compiègne (UTC) et cet article fait suite à deux publications précédentes liées au déploiement de l’IA générative (IAG) dans le contexte de l’enseignement supérieur :

À l’automne 2024 j’ai animé le cours WE01 à l’UTC avec deux collègues Quentin Duchemin et Stéphane Poinsart. C’est un cours du département Technologie, Sociétés, Humanités (TSH) que suivent des élèvent ingénieurs. Le cours était intitulé « Écrire, communiquer et collaborer sur le web » et il consistait en des apports théoriques autour du fonctionnement technique de l’Internet, de l’histoire du Web, du droit d’auteur et de la culture libre, du capitalisme de surveillance ou encore des enjeux sociaux-écologiques liés au numérique. Le cours comporte également des apports méthodologiques autour de la lecture et la production d’articles scientifiques ou la critique de ce que le Web produit.

Le travail demandé aux étudiants en WE01 était essentiellement tourné vers la réalisation de fiches de lecture et de productions écrites de type scientifique autour de ces thématiques, en groupe, publiées en ligne sous licence libre, finalisées par une présentation en direct sur la radio locale Graf’hit.

IA et école (le récit en bref)

Alice, Bob, Claude et Daniel ont rédigé ensemble 3 séries d’articles, dont la dernière a donné lieu à une lecture en direct sur la radio Graf’hit. Nous faisons ici une synthèse du processus de rédaction qui a été mobilisé. Le déroulé complet de leurs travaux, détaillé article par article, peut-être consulté en annexe de l’article original, que nous n’avons pas reproduit ici.

Un robot dit « Bonjour ! Comment puis-je vous aider à écrire de la merde, aujourd'hui ?»

Image générée par un être humain grâce au Générateur de Grise Bouille

Étape 1a, le plan détaillé de Bob (fait avec ChatGPT)

Bob injecte dans ChatGPT la bibliographie, et probablement le sujet, donnés par les enseignants au début de cours, afin d’obtenir un plan détaillé. On y trouve des rubriques comme « concepts vus en cours » qui ne correspondent pas à des concepts vus en cours ou des « arguments réfutables » qui répondent à une demande de produire des arguments réfutables, mais au sens de Karl Popper, alors qu’ici le sens et plutôt le sens trivial (ChatGPT n’a pas assisté au cours).

Exemple d’extrait de plan détaillé obtenu avec ChatGPT à partir du sujet fourni en entrée par les enseignants

Valeur éducative et éthique des exercices rédactionnels

  • Concepts vus en cours : l’éthique du travail intellectuel et la question de l’authenticité dans la production du savoir. Importance de la production d’écrits personnels dans l’éducation pour développer l’individualité.
  • Contre-argument réfutable : peut-on se contenter d’une écriture automatisée sans perdre en humanité et en sens critique ?

Image générée par un être humain grâce au générateur de mèmes de Framasoft – https://framamemes.org/

Étape 1b, les références de Bob (produites avec ChatGPT)

Bob demande également à ChatGPT des références bibliographiques pour étayer les propos, ce qui est aussi une consigne donnée dans le cours. Cela conduit à l’apparition de sept sources hallucinées, c’est à dire sept références bibliographiques crédibles mais totalement inventées (les revues scientifiques mentionnées existent pour la plupart).

On note le J. Doe du début, qui correspond en anglais à une personne non identifiée (typiquement en cas de découverte d’un cadavre sans papier dans une série américaine). L’enseignant relit le plan détaillé, mais ne vérifie pas les références. Il prend donc le temps de corriger ce travail de ChatGPT et le trouve globalement de bonne qualité. Bravo ChatGPT.

 

Image générée par un être humain grâce au Générateur de Grise Bouille

Exemple de références bibliographiques hallucinées obtenues avec ChatGPT

  • Doe, J. (2022). Privacy Concerns in AI-Powered Education Systems. Journal of Educational Technology, 45(3), 123-145.
  • Jones, L. (2019). Automated Grading Systems : Benefits and Challenges. Educational Review, 32(2), 250-265.
  • Miller, A. (2021). Bias in Educational AI Algorithms : A Critical Review. AI & Society, 36(1), 89-102.
  • Smith, P., Johnson, T., & Davis, R. (2021). Adaptive Learning Platforms and Their Impact on Student Success. Journal of Learning Analytics, 5(1), 45-67.
  • Tanaka, S. (2020). AI in Classroom Management : Pilot Projects in Japan. Japanese Journal of Educational Technology, 36(4), 210-225.
  • Taylor, M. (2022). Artificial Intelligence in Education : Friend or Foe ? Educational Futures, 12(2), 98-115.
  • Helsinki Study (2023). AI and Pedagogy : Experimental Schools in Finland. Educational Research Quarterly, 40(3), 78-95.
Un étudiant se réjouit : « Première fois que je rends un truc avec une bibliographie aussi fouillée. Il va être content, le prof ! » Un autre doute : « Hum... Je me demande qui est ce "John Doe". Jamais rien lu de lui. »

(image réalisée par le Générateur de Grise Bouille)

Étape 2, la rédaction de Claude (faite sans ChatGPT et sans esprit critique)

Claude ne participe pas du tout à la mise au point du plan détaillé, il laisse Bob travailler seul. Il repart ensuite de ce plan détaillé, et sans aucune interaction avec Bob, sans consulter les sources, il fait un travail de développement du plan sous forme de phrases. Il ajoute néanmoins quelques éléments provenant de sources authentiques.

Ici on note donc que Claude ne fait pas directement usage de l’IA, mais qu’il finalise un article complet sur la base d’un plan complètement produit par IA et de références inventées. C’est un très bon cas de prolétarisation, on a une division des tâches et des responsabilités : Bob produit le plan puis Claude l’article sans connexion avec le travail de Bob.

Exemple d’extrait de plan détaillé obtenu avec ChatGPT mobilisé en entrée pour mener une rédaction sans ChatGPT

L’IA pourrait-elle remplacer l’enseignant ?

Argumentation face à l’hypothèse que l’IA pourrait réduire les interactions humaines en classe (Taylor, 2022).

Proposition : L’IA doit être considérée comme un outil complémentaire et non comme un substitut de l’enseignant.

Exemple de rédaction réalisée par Claude sans ChatGPT sur la base du plan détaillé précédent

L’IA pourrait-elle remplacer l’enseignant ? Si l’IA permet d’automatiser des tâches et de personnaliser l’apprentissage, elle ne peut remplacer l’interaction humaine essentielle. C’est d’ailleurs ce que défend Taylor (2022) avec l’avertissement qu’il propose face à la baisse d’interactions humaines en classe. Or, l’enseignant apporte un soutien émotionnel et une compréhension de l’humain que l’IA ne peux bien entendu pas produire. (Cuisinier, 2007).

L’IA devrait donc compléter l’enseignant et non le remplacer. De plus nous agissons différemment quand on se sait observé (effet Hawthorne), ce qui rajoute une limite supplémentaire, qu’il convient de notifier.

Étape 3, la réponse de Daniel (faite avec ChatGPT)

Alice et Daniel produisent en réponse un autre texte qui défend une position plus en faveur des IA, afin de construire pour la radio un dialogue autour d’études scientifiques orientées pour et contre.

Daniel injecte dans ChatGPT le texte de Bob et Claude et demande à ChatGPT un nouveau plan pour y répondre. Celui-ci sera donc basé sur un plan déjà généré avec ChatGPT et des fausses références. Il demande aussi à ChatGPT de nuancer ses propos. Il mobilise également un article réel, celui de Crozat (qui existe bien, nous pouvons en témoigner). Notons que cet article traite d’un cas précédent d’usage frauduleux de ChatGPT dans le même cours WE01 un an auparavant. Daniel l’a-t-il lu ?

Le résultat obtenu n’est plus cohérent avec les propos prêtés aux auteurs inventés, personne ne se rend compte que cela n’a plus de sens, même au sein de la fiction créée par ChatGPT.

Alice et Daniel se retrouvent avec une seconde bibliographie hallucinée. Il y a une cohérence partielle avec la première, on retrouve presque les mêmes entrées… Mais les auteurs, articles et revues se mélangent, suivant la logique combinatoire de l’IAG. Doe est remobilisé autour des données personnelles, tandis que Miller est dans un cas mobilisé sur les algorithmes de recommandations, dans l’autre sur les inégalités de ressources dans les écoles.

 

Image générée par un être humain grâce au Générateur de Grise Bouille

Exemple de proposition de ChatGPT avec nuance et avec citation de faux articles

Enfin, l’affirmation selon laquelle l’IA « ne remplacera pas l’enseignant » mérite également d’être nuancée. Smith et Lee rappellent que l’IA peut modifier de manière intrinsèque le rôle de l’enseignant, le faisant passer d’un « transmetteur de savoirs » à un « facilitateur d’apprentissages ».

Seconde bibliographie hallucinée, variation combinatoire de la première

  • Doe, J. (2022). Educational Spaces and Data Privacy : Rethinking Schools in the Age of AI. Journal of Educational Ethics.
  • Miller, A. (2021). Equality in Education : Addressing Technological Disparities in the Classroom. International Review of Educational Technology.
  • Smith, L., & Lee, R. (2021). Adapting Learning with Artificial Intelligence : Challenges and Opportunities. Advances in Educational Technologies.
  • Tanaka, H. (2020). Administrative Efficiency through AI : An Educational Perspective. Asian Journal of School Management.
  • Taylor, C. (2022). The Role of Teacher-Student Interaction in Non-Digital Classrooms. Educational Research and Practice.
  • Helsinki Study. (2023). Human-Centered Education in the Digital Age : Case Studies from Finnish Schools. Nordic Journal of Pedagogical Innovation.

Étape 4, la réponse d’Alice (faite avec ChatGPT)

Alice rédige partiellement sans ChatGPT, exclusivement à partir de la seconde version de la bibliographie. On note dans cette intervention l’apparition des prénoms des faux auteurs. Peut-être ont-ils été demandés à ChatGPT pour correspondre au format demandé en cours.

On note aussi l’apparition de nouveaux arguments prêtés à certains auteurs inventés. Comme les articles n’existent pas, la seule façon d’étayer leur contenu avec de nouveaux arguments était d’interroger à nouveau ChatGPT.

Premier argument généré avec ChatGPT

L’éducation sans IA privilégie l’interaction directe entre enseignants et élèves, permettant un lien pédagogique plus fort, difficilement remplaçable par des technologies (Taylor, 2022)

Argument complémentaire demandé à ChatGPT

Charlotte Taylor en 2022 ajoute que cela peut même appauvrir le processus d’apprentissage en rendant les enseignements moins inspirants et moins personnalisés.

Travail à la chaîne

Là où les étudiants avaient comme consigne de travailler ensemble, en groupe, ils ont plutôt mis en place un travail séquentiel. Dans ce cadre, ils semblent avoir très peu communiqué entre eux et de pas s’être relus les uns et les autres.

S’ils n’avaient pas utilisé ChatGPT ils auraient probablement été obligés de collaborer, certains travaux trop peu qualitatifs les auraient fait réagir et auraient, sinon, fait intervenir l’enseignant.

J’ai failli oublier

Vous l’avez peut-être deviné, mais leur sujet c’était… IA et école.

Image générée par un être humain grâce au générateur de mèmes de Framasoft – https://framamemes.org/

On a pas envie de lire des textes écrits par des machines (consignes et autres éléments de contexte)

« L’usage d’IA génératives est simplement interdit dans le cadre de l’UV : ça ne vous apportera rien puisque le but est d’apprendre à écrire par vous-même. »
(extrait de la présentation du cours WE01 en 2024)

Contexte

L’usage des IAG était donc interdit dans le cadre du cours et le règlement des études de l’UTC a été aménagé en 2024 pour interdire a priori l’usage des IAG (elles ne sont autorisées que si les profs l’explicitent).

Nous avons découvert l’usage d’IAG uniquement à la fin, en direct, à la radio alors que des références inventées par ChatGPT étaient mobilisées et que l’auteur John Doe interpelle l’enseignant qui anime l’émission. Après ré-étude du contenu nous avons soulevé un usage pluriel de l’IAG dans le cadre de WE01 par ces 4 étudiants (voir le récit complet en Annexe).

Nous avons rencontré ces quatre personnes pour un entretien d’environ quinze minutes chacune et leur avons posé trois questions :

— Avez-vous utilisé une IAG dans le cadre de l’un de vos exercices rédactionnels ?

— Saviez-vous que l’IAG était interdite dans le cadre de ces exercices ?

— Auriez-vous été capables de réaliser les exercices sans utiliser l’IAG ?

Premières hypothèses

À l’issue de cet échange, voici ce que nous avons relevé :

  • Claude a un usage marginal de ChatGPT de son côté (mais néanmoins existant malgré l’interdiction). Il s’est appuyé sur des travaux générés avec ChatGPT par ses collègues dont il est surprenant qu’il n’ait pas questionné l’origine. Il savait que l’usage de ChatGPT était interdit.
  • Alice et Daniel ont un usage récurrent de ChatGPT, ils ne sont pas à l’origine des fausses références détectées, mais leur usage de ChatGPT a conduit à continuer le projet jusqu’au bout avec ces fausses références. Ils savaient que l’usage de ChatGPT était interdit.
  • Bob est à l’origine du plan détaillé avec fausses références ; il a un usage important de ChatGPT qu’il justifie par le fait qu’il ne savait pas que c’était interdit ; sa moins bonne maîtrise du français étant non francophone ; une situation personnelle qui l’a conduit à être moins disponible pour ses études et peut-être à une situation d’isolement. Il affirme qu’il ne savait pas que l’usage de ChatGPT était interdit.
  • Il est peu crédible que Bob ne savait pas que l’usage de ChatGPT était interdit, cela supposerait une absence de communication totale entre lui et les autres membres du groupe. Si Bob ne sait pas que c’est interdit, il n’a pas de raison de le cacher ; donc il le dit aux autres, qui lui disent que c’est interdit.
  • Il est peu crédible qu’un des membres du groupe ne savait pas que ChatGPT avait été assez largement utilisé par d’autres membres et donc que le rendu final dont il est signataire avait largement mobilisé ChatGPT.

Les quatre étudiants avaient correctement suivi l’UV tout au long de l’année et étaient considérés par leur encadrant comme des élèves sérieux. Ils ont semblé honnêtes et désolés dans les échanges que nous avons eus avec eux. Ils ont présenté des excuses et ont semblé prendre conscience du caractère fâcheux de la situation.

J’ai l’impression que ces étudiants ont tellement intégré l’IA générative dans leurs usages qu’ils ne sont pas rendus compte de l’importance de ce qu’ils faisaient malgré leur connaissance de l’interdiction :

  1. jusqu’à énoncer des références inventées en direct à la radio dans le cadre d’un exercice qu’ils ont trouvé très intéressant et valorisant ;
  2. dans un contexte avec très peu de pression scolaire, leur régularité dans le cours leur en assurait la validation, même avec un rendu médiocre à la fin ;
  3. dans un cadre relationnel de confiance assez horizontal avec les enseignants.

D’abord ne pas lire (quelques perles)

Nous sélectionnons ici quelques citations provenant du travail fourni par les étudiants. La citation de début d’article leur est également créditée.

Nous nous passerons de commentaire, sidérés en quelque sorte, par la pertinence de tels propos critiques vis-à-vis de l’usage de l’IAG dans le contexte pédagogique, écrits sous la dictée de l’IAG.

« Avec l’avènement de l’intelligence artificielle (IA), les pratiques éducatives, notamment les exercices de rédaction, sont mises à l’épreuve. Il devient tentant de laisser les machines écrire à notre place, mais la question se pose : est-ce réellement bénéfique pour les étudiants ? »

« Au cœur de la question se trouve l’importance cognitive et créative de l’écriture. Bien plus qu’un simple moyen de communication, l’écriture est un outil puissant pour structurer notre pensée. »

« Si l’on délègue ces tâches à une IA, on risque de perdre cette précieuse occasion d’entraîner nos capacités cognitives. »

« C’est une démarche éthique : l’apprenant ne se contente pas de répéter des informations, il les reformule et se les approprie. En remplaçant cette démarche par l’automatisation, ne risquons-nous pas de perdre cette dimension humaine, essentielle à la construction de notre individualité ? »

« Pourtant, n’y a-t-il pas un risque que cette facilité entraîne une paresse intellectuelle, voire une dépendance à l’IA pour formuler nos pensées ? »

« Son utilisation massive par les étudiants est pourtant indiscutable ; nos professeurs qui se plaignent régulièrement de corriger des copies réalisées par IA ce qu’il considère, à juste titre, comme une perte de temps. »

Si les étudiants étaient passés à côté de leur sujet il y aurait eu une certaine cohérence, mais ici les problématiques sont très bien transcrites par leurs travaux. Qui tire quel bénéfice de l’IAG ? Quelles conséquences ? Déstructuration de la pensée ? Perte cognitive ? Question éthique ? Construction de l’individualité ? Paresse ? Dépendance ? Perte de temps…

Si l’on fait l’hypothèse que les étudiants ont tout de même lu ce qu’ils ont rendu, on observe donc une décorrélation entre la prise de recul proposée par leurs propos et l’absence totale de distance manifestée dans leur pratique.

Des étudiants modèles (c’est surprenant, malgré tout)

Un cas exemplaire

On pourra penser que ce cas est isolé est qu’il ne fait pas bon raisonner à partir d’un cas particulier.

Mais le cas n’est pas isolé. Je relève des cas similaires depuis 2023 et l’arrivée de ChatGPT. Suite à l’émission de radio, nous avons pris un temps de relecture d’autres travaux, révélant l’usage, moins évident, sans rôle principal pour John Doe, mais néanmoins régulier, d’IAG. Les échanges avec les collègues et les étudiants confirment également cette généralisation.

Par ailleurs, les étudiants forment un modèle raisonnable pour notre analyse. Ils sont assez représentatifs de la population UTCéenne, un étudiant étranger en reprise d’étude, deux étudiants tout juste sortis du lycée et un dernier en second semestre d’étude. Ces étudiants sont tout ce même tous les quatre présents à l’UTC depuis moins d’un an, on pourra faire l’hypothèse que des personnes plus expérimentées auraient moins utilisées l’IAG… ou se seraient moins fait détectées.

Rappelons que l’entrée à l’UTC est fortement sélective, les étudiants qui entrent à l’UTC étaient tous des « premiers de la classe » au lycée. Je ne sais pas exactement quoi faire de cette information, on pourra penser que des bons élèves sont moins enclins à tricher, au contraire que ce qui a fait leur réussite est leur habitude à optimiser, ou encore que confrontés pour la première fois à des difficultés scolaires à l’UTC ils n’ont pas su bien réagir. Les échanges avec des élèves de terminale font penser que tous utilisent les IAG, élèves à l’aise avec leur scolarité ou non.

Il y avait néanmoins des raisons objectives de penser que dans le cadre du cours WE01 les étudiants auraient pu être moins enclins à l’usage d’un ChatGPT.

Un cas surprenant sur le fond

Sur le fond, le sujet même du cours porte sur une dimension critique vis-à-vis du numérique, des enjeux socio-techniques associées, avec, notamment une réflexion sur le capitalisme du surveillance et la captation des données par les GAFAM. Surtout, le cours comporte une partie consacrée à l’écriture scientifique, qui expose le concept de réfutabilité de Karl Popper ou encore… l’importance de vérifier et citer ses sources !

« Lorsqu’une ressource est pré-sélectionnée, vérifier et qualifier la source permet de pré-évaluer la fiabilité de la ressource. »
Cours de WE01

Un cas surprenant sur la forme

Sur la forme, WE01 est un cours plutôt « cool », avec du travail horizontal et des méthodes assez proches de l’éducation populaire. Certains étudiants tutoient les profs ce qui assez inhabituel en début de cursus. On pourrait penser que l’idée de tricher dans ce contexte aurait posé des freins moraux. Enfin le cours n’intégrait pas d’examen et la validation était assurée sur la base d’une « obligation de moyen » : être présent, faire le job honnêtement. Tricher dans ce contexte était surprenant.

Une hypothèse néanmoins est que nous avons insisté sur le caractère « pour de vrai » des exercices proposés : articles publiés sur le web et communiqués via les médias sociaux, passage en direct à la radio. Peut-être avons nous réussi, en quelque sorte, sur ce point, et que leur interprétation du « pour de vrai » a impliqué pour eux, in fine, une obligation de résultat, quelques soient les moyens.

IA embarquée

Une hypothèse complémentaire est que ces étudiants ont tellement intégré l’IA générative dans leurs usages qu’ils ne sont plus aptes à en évaluer les conséquences pour eux. Il se retrouvent à tricher et prendre des risques importants pour leur scolarité dans un contexte avec très peu de pression scolaire et dans un cadre relationnel de confiance. C’est donc à la fois une très mauvaise évaluation bénéfices/risques et une mauvaise attitude vis-à-vis de leur propre sens éthique.

Je pense que cet usage est fortement généralisé à l’UTC, ce qui les dédouane un peu et nous interroge fortement en retour ; leur erreur est un usage tellement médiocre qu’ils ont laissé passer une ou deux fausses références grossières, mais nous aurions pu ne pas nous en apercevoir, et nous pensons que ça a été le cas pour d’autres groupes.

Je fais l’hypothèse que ces habitudes ont été ancrées au lycée et même qu’ils ont perdu des compétences de rédaction et de travail en groupe que nous attendons de leur part (et cela peut nous interroger, peut-être encore plus que nous le faisons déjà, sur les conséquences à l’UTC). Cela va plus vite de faire faire par ChatGPT, que de s’installer et prendre un temps pour partager un espace de travail à plusieurs. Donc : ça vaut le coup. Ils ne se sont pas « fait prendre » ou n’ont pas subi de conséquences importantes jusque-là. Donc : ça marche.

Effets de constitutivité technique (quelques réflexions)

Thèse TAC

La thèse TAC, pour Technologie Anthropologiquement Constitutive, formalisée à l’Université de Technologie de Compiègne, trouve son origine dans les travaux des anthropologues et philosophes André Leroi-Gourhan, Gilbert Simondon ou Bernard Stiegler. Une hypothèse fondatrice de cette théorie est que les humains et les objets techniques forment un couplage indissociable, dès l’origine. On abandonne l’idée que l’humain précède et surplombe la technique, que celle-ci n’est que le simple produit du travail ou de l’intelligence humaine, postérieure à une humanité qui en serait indépendante (Steiner, 2010).

La technique n’est pas un élément extérieur à l’humanité, mais la façon même dont celle-ci conçoit le monde. Les trains modifient la proximité entre les villes selon les connexions existantes ou non, la lumière artificielle modifie les cycles du jour et de la nuit, ou celui des saisons, les voyages spatiaux permettent d’imaginer exploiter des ressources situées dans l’espace ou se réfugier une autre planète si la terre n’est plus habitable.

Technique non neutre

Les objets techniques portent en leurs propriétés physiques des possibles et des probables. Le couteau, dur, pointu, solide, avec une lame d’une certaine taille embarque le geste de planter. Une propriété fondamentale du téléphone portable est qu’il est… portable. Sa taille, son autonomie, son mode de préhension rendent sa présence permanente au côté de l’humain aisée, naturelle en quelque sorte.

La technique n’est donc jamais neutre puisqu’elle configure notre rapport au monde. Nos usages, nos intentions, nos projets, ce que l’on veut faire, sont déjà, au moins en partie, pré-configurés par l’accès au monde rendu possible via la technique. La technique n’est pas neutre non plus car ceux qui la développent ne sont pas neutres. Les concepteurs d’une technique ont des représentations du monde qui sous-tendent ce pourquoi il veulent la faire advenir, ils visent un objectif qui est souhaitable, bon, selon eux. (Steiner, 2024)

Raison computationnelle

Écrire avec un ordinateur, c’est écrire avec une machine à calculer. Donc, à un moment ou un autre, on a envie de la faire calculer. J’ai fait de l’ingénierie documentaire pendant 20 ans, l’objectif de mes travaux via la conception de chaîne éditoriales était d’automatiser, de calculer donc, des tâches de manipulation documentaires (Crozat, 2007). Parce que l’on considère que la mise en forme n’est pas une étape créative, qu’elle n’a pas de réelle valeur ajoutée, que l’on peut la déléguer à la machine. Je me souviens, tout de même, avoir croisé des éditeurs, des artisans de la mise en forme, qui n’étaient pas d’accord. Je devais penser qu’ils étaient rétrogrades, qu’ils s’accrochaient à un savoir-faire en voie de disparition. On dirait, à présent que c’est moi qui m’accroche…

En tous cas, en fin de compte, puisque la technique n’est pas neutre, ce qui compte c’est de se demander ce que le numérique en général, et l’utilisation de l’IA en particulier fait à notre pensée. Dans le lignée de Jack Goody, Bruno Bachimont (2000) parle de raison computationnelle pour désigner ces transformations induites par l’usage du numérique.

Pharmakon

La technique pose toujours problème, c’est par essence un pharmakon, un remède en même temps qu’un poison, au sens qu’a réactivé Bernard Stiegler depuis Platon). Par exemple, l’écriture est un remède aux limites de la mémoire humaine, en même temps, ce qui amoindrit cette mémoire. L’informatique permet d’objectiver des impacts socio-écologiques tout en engendrant de nouveaux impacts socio-écologiques.

« [Platon] décrit alors l’écriture alors comme un pharmakon, mot grec signifiant à la fois le remède et le poison : à la fois remède pour la mémoire, car elle permet de stocker et de conserver les connaissances accumulées, mais aussi poison pour la pensée, car en fixant les connaissances et en épargnant aux individus de se les remémorer, l’écriture empêche leur mémoire de s’exercer. Bref, l’écriture, qui semblait innocente et bénéfique, a aussi de quoi inquiéter. »
(Alombert, 2023)

Prolétarisation

Un problème soulevé par l’usage des IAG qui doit être considéré en contexte pédagogique est celui de la prolétarisation intellectuelle, phénomène déjà largement observé et étudié sur le plan des activités manuelles dans le cadre de l’industrialisation. La prolétarisation est « ce qui consiste à priver un sujet (producteur, consommateur, concepteur) de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser) » (Petit, 2013).

« Passer une commande à une machine, aussi performante soit-elle, ne revient pas à exercer techniquement sa pensée ; au contraire, le savoir-écrire a ici été extériorisé dans la machine numérique sous forme d’automatismes algorithmiques, de même que les savoir-faire avaient été extériorisés dans les machines-outils sous forme d’automatismes mécaniques. De même que l’artisan privé de ses savoir-faire s’était vu prolétarisé. En perdant nos savoir-écrire, nous risquons de devenir des prolétaires de la pensée. »
(Alombert, 2023)

Anne Alombert (2025) précise que « nous risquons de perdre notre capacité à nous exprimer en la déléguant aux algorithmes et en nous contentant de lire bêtement les textes produits » et avec elle notre capacité non seulement de mémorisation, mais, peut-être surtout d’imagination.

Substitution

En tous cas, l’idée que la machine est un instrument de délégation des travaux humains pénibles est ancré depuis la période industrielle au moins, probablement depuis la révolution agraire. L’ordinateur est dédié aux tâches cognitives, certains trouveront les tâches d’écriture fastidieuses, il est logique que l’ordinateur soit alors mobilisé comme assistance. Puis, de l’assistance au remplacement il n’y a qu’un pas. L’histoire de l’industrie nous le montre également.

À ce stade, la question que l’on doit se poser, c’est quel sens cela a-t-il de former la lecture et à l’écriture dans un monde où les IAG savent faire ce travail infiniment plus rapidement ?

Apprendre à bien rédiger ses « prompts » ? (apprendre à bien visser des boulons…)

Une idée défendue par certains comme une évidence, puisqu’il faut bien vivre avec son temps, serait de faire évoluer les formations pour, non plus enseigner comment, par exemple, bien lire et écrire, mais plutôt comment bien utiliser les IAG pour faire ce travail à notre place. C’est aussi applicable à l’expression graphique ou à l’écriture de code informatique. S’il est raisonnable de penser, sur le modèle de l’artisanat, que certaines tâches intellectuelles continueront d’échapper à la machine, il est tout aussi raisonnable de penser, sur le modèle de la mécanisation des tâches manuelles déjà opérée, que le bon usage d’une machine avancée ne nécessitera pas de compétences avancées.

Ces 14 prompts ChatGPT vont te transformer en machine à productivité (LinkedIn, 2024)

 

Selon Jacques Ellul, c’est la recherche systématisée de l’efficacité qui est problématique, car elle vide de leur sens les tâches qui sont menées, transformant le pourquoi on fait en comment on fait le plus efficacement possible (Rognon, 2020). Ainsi, l’idée de faire évoluer nos cours vers des formations à l’usage des IAG pourrait bien impliquer une évolution de l’ingénierie, de la conception de machines donc, à un objectif amoindri, d’utilisation de machines, voire d’utilisation par les machines.

ChatGPT 1 – Nous 0

WE01 v2

Nous observons donc que les étudiants ne savent plus, en entrant à l’université, jouer le jeu de la lecture et de l’écriture, et qu’il le font faire, au moins en partie, par une IAG. D’autre part, nous nous questionnons sur l’intérêt même de défendre ce type de compétence quand on observe en aval que les ingénieurs mobilisent également massivement ces outils pour faire de la veille, produire des rapports ou des présentations. Eux non plus ne veulent plus ni lire ni n’écrire.

En attendant de mieux comprendre ce qui se passe et comment faire évoluer nos formations, nous avons procédé à quelques modifications. WE01 était intitulé « Écrire, communiquer et collaborer sur le web », nous le renommons « Questionner le Web » et le faisons évoluer en conséquence. Nous avons assoupli les exercices rédactionnels, décidés à être moins exigeants et à demander un travail plus modeste en volume. En contre-partie nous avons restitué un examen de contrôle des connaissances. L’objectif du cours devient alors moins de savoir écrire que de disposer d’éléments pour aider à se poser des questions et à remettre en cause les évidences du numérique, dans une logique technocritique.

Nous déconseillons l’usage des IAG tout en les autorisant. Nous imposons en revanche une prise de recul, inspirés par ce que notre collègue Hugues Choplin à développé à l’UTC dans le cadre de son cours IS04.

« Vous ajouterez une section IAG à votre projet pour spécifier si vous avez utilisé des IAG (ou des IA de correction, de traduction…) et si oui : Indiquez quelles IA ont été utilisées, pour quelles parties du travail et pour quelles raisons ; Reproduisez une copie des prompts et des résultats ; Indiquez si les résultats ont été retravaillés et comment. »
Extrait de la présentation du cours WE01 en 2025

Attendre, observer, agir, réagir

Nous réfléchissons à un cours WE02 « Questionner l’IA » qui serait un pendant de WE01, orienté vers l’IA donc. Nous avons pris la décision d’attendre deux ou trois ans pour cela, histoire de se donner de l’espace pour consacrer l’énergie nécessaire au suivi d’une actualité très dynamique. Histoire également de se donner un peu de temps pour mieux analyser les évolutions en amont au lycée, en aval dans le monde socio-économique, et à les initiatives prises dans l’enseignement supérieur. Histoire, peut-être, que le domaine se stabilise un peu… ou pas.

  • D’autres collègues du département TSH à l’UTC envisagent d’intégrer le questionnement de l’IA à leur enseignement. Un service d’IAG hébergée localement est expérimentée, afin, a minima de sortir de la dépendance aux géants étatsuniens (Poinsart, 2025).
  • L’association Picasoft de l’UTC et l’association Framasoft (dont je fais partie) ont signé le manifeste Hiatus, « une coalition composée d’une diversité d’organisations de la société civile française qui entendent résister au déploiement massif et généralisé de l’intelligence artificielle ».
  • L’association Framasoft a lancé le site Framamia, pour aider à suivre et comprendre, et pour faire des propositions alternatives dans le domaine de l’IAG, dans une perspective de littératie technique.

Ces diverses attitudes sont autant de pistes pour maintenir une attitude active et critique vis-à-vis d’un phénomène qui percute l’ensemble de la société et que nous ne pouvons ignorer dans l’enseignement supérieur. Même quand on ne s’y intéresse pas par plaisir, donc.

07.04.2025 à 07:42

Khrys’presso du lundi 7 avril 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (10515 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

RIP

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

06.04.2025 à 09:00

Ralentir la traduction ?

Framasoft

La traduction automatique n’a pas été conçue à des fins professionnelles, mais pour produire une traduction moins chère et suffisante. C’est-à-dire, une ubérisation.
Texte intégral (1794 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 16 janvier 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


La traduction automatique n’a pas été conçue à des fins professionnelles, mais pour produire une traduction moins chère et suffisante. C’est-à-dire, une ubérisation.

 

 

 

 

 

 

Dans un passionnant article pour la revue Traduire, la traductrice indépendante Laura Hurot explique comment le secteur de la traduction a changé ces dernières années, sous la forme d’une ubérisation silencieuse.

Nombre d’agences de traduction imposent de travailler sur des plateformes dotées d’un système de chronométrage intégré qui évalue la productivité des traductrices et traducteurs. Mais cette accélération n’affecte pas seulement la phase traductionnelle : des agences recourent également à des systèmes de révision et de contrôle qualité en partie automatisés reposant sur des outils de catégorisation des erreurs. Ces changements conduisent à une accélération de la productivité et à une perte d’autonomie, des savoir-faire et du bien-être des traducteurs indépendants plateformisés. D’ailleurs, on ne parle plus de traduction, mais de post-édition, pour désigner une correction de traduction automatique, dont la conséquence première est de lisser les tarifs de traduction vers le bas.

Dans un article plus récent de la même revue, le collectif en chair et en os, qui défend une traduction humaine contre la généralisation des machines, souligne que dans l’édition, la traduction automatique touche d’abord certains genres littéraires dont la langue n’est pas plus facile à prendre en charge par la machine, mais des genres qui sont périphériques dans la hiérarchie culturelle et où la précarité est depuis longtemps plus forte (les secteurs de la romance, des livres pratiques, des livres pour les jeunes ou des sciences humaines sociales sont également des secteurs où les rémunérations sont moindres et les statuts plus précaires… et ils se sont précarisés avec la forte féminisation du secteur depuis les années 80). Et les auteurs de rappeler qu’“un outil développé puis déployé à des fins d’économie n’est pas qu’un outil : il est l’élément d’un système”. Et de rappeler que la traduction automatique n’a pas été conçue à des fins professionnelles mais pour produire une traduction moins chère et suffisante. Pour les acteurs de la tech, traduire un texte consiste en effet à le transposer en miroir, dans une vision purement mathématique, en remplaçant simplement un mot par un autre mot, même si désormais ces agencements sont largement statistiques. Ce n’est pourtant pas si simple, surtout quand les textes sont complexes et les langues rares, comme le pointent les limites à l’utilisation croissante d’outils de traduction automatiques pour accomplir des tâches trop complexes pour eux, comme pour remplir des formulaires de demandes d’asiles sans maîtrise de la langue, conduisant à des erreurs multiples et aux rejets massives des demandes.

Il n’y a pas que la traduction depuis des langues rares qui se révèlent complexe, dans leur numéro de décembre, les Cahiers du Cinéma revenaient, à la suite d’une tribune de l’Association des traducteurs et adaptateurs de l’audiovisuel (Ataa), sur la perte de qualité des sous-titres des films, trop souvent réalisés automatiquement. Le problème n’est pas seulement économique et lié au fait que le sous-titrage ou le doublage viennent en bout de chaîne de la production, qui échappe souvent à la production, que de savoir à qui elle incombe : producteur, distributeur, diffuseur… Un conflit de responsabilité qui permet de justifier la perte de qualité. Le plus fascinant pourtant est de constater combien la traduction automatique échoue sur des phrases assez simples, même depuis l’anglais. Ainsi cet « How’s my room ? » traduit par « Comment va ma chambre ?  » au lieu de « Où en est ma chambre ? », nous montrant toutes les limites de l’approche de la traduction statistique, qui se révèle bien moins performante qu’on ne le pense souvent.

L’observatoire de la traduction automatique rappelait récemment que sa tribune de 2023 demandant la transparence réelle des données d’entraînements de l’IA générative, la possibilité de refuser que le travail de traduction serve à l’entraînement des machines qui détruisent le métier, que les aides publiques soient exclusivement réservées aux créations humaines ou que les produits culturels créés avec de l’IA soient obligatoirement signalés… n’avait toujours reçu aucune réponse des autorités.

Signalons enfin que le 10e numéro de la revue Contrepoint, la revue du Conseil européen des associations de traducteurs littéraires, est entièrement consacré à la question de la traduction sous IA. Pour Damien Hansen, qui rappelle que la traduction automatique reste incapable de comprendre le texte, “le problème n’est pas tant l’outil en soi que le fait qu’on l’impose aux professionnels et qu’on l’emploie pour des raisons purement économiques”. Plutôt que de venir aider et soutenir le traducteur, la traduction automatique est produite pour le contraindre voire le faire disparaître. L’utilisation de l’IA comme outil de contrôle montre à nouveau que leur orientation vers des outils de contrainte plutôt que d’assistance, contrairement à ce qui nous est asséné, risque de devenir une limite forte à son développement.

Dans son article, Laura Hurot, rappelle, à la suite du livre du spécialiste de la cognition, Olivier Houdé, L’intelligence humaine n’est pas un algorithme (Odile Jacob, 2019), que la clé de l’intelligence réside certainement bien plus dans le ralentissement de la pensée plutôt que dans son accélération. À l’heure où la vitesse est une idole indétrônable, il faudrait pouvoir mieux mesurer ce qu’elle nous fait perdre.

MAJ du 26/01/2025 : Dans un passionnant article sur un secteur assez proche, le Monde revient sur les transformations du secteur du doublage et le péril imminent de l’IA. Le journal rappelle qu’aux Etats-Unis, la grève des acteurs et scénaristes de l’automne 2023 a négocié des contreparties financières en cas d’utilisation de leur image ou de leurs œuvres par une IA générative, mais pas pour le doublage vocal, qui est resté l’angle mort des négociations.

En France, les doubleurs s’inquiètent, explique l’association de défense de la profession, Les Voix. Les acteurs s’interrogent : « l’IA risque de dénaturer totalement l’énergie du jeu, née de la proximité de plusieurs comédiens dans une même pièce », lors du doublage. « Le risque économique lié à l’avènement de l’IA dans le doublage concerne directement 15 000 personnes dans l’Hexagone, dont 5 000 comédiens, le personnel de 110 studios de doublage, donc des ingénieurs du son, des assistants de production, ainsi que 2 500 auteurs-adaptateurs ». Les syndicats réclament des protections pour interdire l’utilisation du travail de doublage pour entraîner les systèmes. Mais, « pour l’heure, rien n’empêche les studios étrangers, notamment américains, de proposer des films doublés directement en français grâce à l’IA, en clonant, par exemple, les voix des acteurs américains ». L’article rappelle enfin que les protections juridiques existent… mais seront-elles suffisantes face aux contraintes économiques qu’imposent les studios ?

02.04.2025 à 10:42

Un grand pouvoir mais aucune responsabilité

Framalang

Mise à jour – 2 avril 16:20 : Remplacement du terme « merdification » par « emmerdification ».   Cory Doctorow, blogueur, journaliste et auteur de science-fiction canado-britannique bien connu chez les lecteur·ices assidu·es du Framablog, et étant notamment à l’origine du néologisme d’ « emmerdification » … Lire la suite­­
Texte intégral (15071 mots)

Mise à jour – 2 avril 16:20 : Remplacement du terme « merdification » par « emmerdification ».

 

Cory Doctorow, blogueur, journaliste et auteur de science-fiction canado-britannique bien connu chez les lecteur·ices assidu·es du Framablog, et étant notamment à l’origine du néologisme d’ « emmerdification » des espaces numériques, a récemment publié sur son blog une transcription d’une conférence qu’il donnait lors de la conférence Ursula Franklin ayant lieu au Innis College de l’Université de Toronto. Si l’auteur parle avant tout de son point de vue de canadien, son analyse de la situation et ses pistes de réflexion nous semblent mériter toute votre attention.

Notez enfin que l’auteur a aussi récemment été publié en français chez C&F Éditions avec l’ouvrage « Le rapt d’Internet ».

Cet article est une traduction de la publication de Cory Doctorow. Il est traduit et republié avec l’accord de l’auteur selon les termes de la licence CC BY 4.0. Cette traduction apporte un certain nombre d’illustrations et de liens non présents dans la version originale, afin de rendre la lecture plus agréable. Une vidéo de la conférence est également disponible.

Traduction Framalang : cwpute, retrodev, MO, Jums, spf, Booteille, tcit


Photo portrait de Cory Doctorow, prise en 2009.Photo en noir et blanc. Il a les cheveux courts, des lunettes et sourit légèrement.

Cory Doctorow, CC-BY-SA Jonathan Worth

Hier soir, je me suis rendu à Toronto pour pour l’évènement annuel de la Conférence Ursula Franklin, pour lequel j’ai donné un discours, au Innis College de l’Université de Toronto.

La conférence était intitulée « Un grand pouvoir n’a impliqué aucune responsabilité : comment l’emmerdification a conquis le XXIème siècle, et comment nous pouvons la renverser ». Il s’agit du dernier grand discours de ma série sur le sujet, qui avait commencé avec la conférence McLuhan de l’année dernière à Berlin.

Et qui s’était poursuivie pendant l’été avec une conférence introductive au Defcon.

Ce discours aborde spécifiquement les opportunités uniques de désemmerdification créées par le « désassemblage imprévu en plein-air » du système de libre-échange international par Trump. Les États-Unis ont utilisé des accords commerciaux pour forcer presque tous les pays du monde à adopter les lois sur la propriété intellectuelle qui rendent l’emmerdification possible, et peut-être même inévitable. Alors que Trump réduit en cendres ces accords commerciaux, le reste du monde a une opportunité sans précédent pour riposter à l’intimidation américaine en se débarrassant de ces lois et en produisant les outils, les appareils et les services qui peuvent protéger chaque utilisateur·ice de la Tech (étasunien·nes y compris) de se faire arnaquer par les grandes entreprises étasuniennes de la Tech.

Je suis très reconnaissant à l’idée de pouvoir donner cette conférence. J’ai été accueilli pour la journée par le Centre for Culture and Technology, fondé par Marshall McLuhan, et installé dans le relais de poste qu’il utilisait comme bureau. La conférence, elle, s’est déroulée dans le Innis College, nommé en hommage à Harold Innis, le Marshall McLuhan des penseurs et penseuses. De plus, j’ai eu pour enseignante la fille d’Innis, Anne Innis Dagg, une biologiste féministe, brillante et radicale, qui a quasiment inventé le domaine de giraffologie (l’étude des girafes fossiles, NDT).

Cependant, et avec tout le respect que j’ai pour Anne et son père, Ursula Franklin est la Harold Innis des penseur·euses. Une scientifique, activiste, et communicante brillante qui a dédié sa vie à l’idée que ce n’est pas tant ce que la technologie fait qui est important, mais plutôt à qui elle le fait et pour le bénéfice de qui.
Avoir l’opportunité de travailler depuis le bureau de McLuhan afin de présenter une conférence dans l’amphithéâtre d’Innis qui tient son nom de Franklin ? Ça me fait tout chaud à l’intérieur !

Voici le texte de la conférence, légèrement modifié.

Je sais que la conférence de ce soir est sensée porter sur la dégradation des plateformes tech, mais j’aimerais commencer par parler des infirmières.

Un rapport de janvier 2025, provenant du Groundwork Collective, documente comment les infirmières sont de plus en plus recrutées par des applis de mise en relation — « le Uber des infirmières » ­— ce qui fait qu’elles ne savent jamais d’un jour sur l’autre si elles vont pouvoir travailler et combien elles seront payées.

Il y a quelque chose de high-tech qui se trame ici vis-à-vis du salaire des infirmières. Ces applis pour infirmières — un cartel de trois entreprises : Shiftkey, Shiftmed et Carerev — peuvent jouer comme elles l’entendent avec le prix de la main d’œuvre.

Avant que Shiftkey ne fasse une offre d’emploi à une infirmière, l’entreprise achète l’historique d’endettement de sa carte de crédit via un courtier en données. Plus spécifiquement, elle paie pour savoir combien l’infirmière a de dettes sur sa carte de crédit, et s’il y a un retard de remboursement.

Plus la situation financière de l’infirmière est désespérée, plus le salaire qu’on lui proposera sera bas. Parce que plus vous êtes désespérée, moins ça coûtera de vous faire venir travailler comme un âne à soigner les malades, les personnes âgées et les mourant·es.

Bon, il y a plein de choses qui se passent dans cette histoire, et elles sont toutes terrifiantes. Plus encore, elles sont emblématiques de l’ « emmerdification » (« enshittification » en anglais), ce mot que j’ai forgé pour décrire la dégradation des plateformes en ligne.

Quand j’ai commencé à écrire sur le sujet, je me focalisais sur les symptômes externes de l’emmerdification, un processus en trois étapes :

D’abord, la plateforme est bénéfique pour ses usager·es, tout en trouvant un moyen de les enfermer.

Comme Google, qui limitait les pubs et maximisait les dépenses en ingénierie du moteur de recherche, tout en achetant leur position dominante, en offrant à chaque service ou produit qui avait une barre de recherche de la transformer en barre de recherche Google.

Ainsi, peu importe le navigateur, le système d’exploitation mobile, le fournisseur d’accès que vous utilisiez, vous feriez toujours des recherches Google. C’était devenu tellement délirant qu’au début des années 2020, Google dépensait tous les 18 mois assez d’argent pour acheter Twitter tout entier, juste pour s’assurer que personne n’essaie un autre moteur de recherche que le sien.

C’est la première étape : être bon envers les utilisateur·ices, enfermer les utilisateur·ices.

La deuxième étape c’est lorsque la plateforme commence à abuser des utilisateur·ices pour attirer et enrichir ses client·es professionnel·les. Pour Google, il s’agit des annonceur·euses et des éditeur·ices web. Une part toujours plus importante des pages de résultats Google est consacrée aux annonces, qui sont signalées par des libellés toujours plus subtils, toujours plus petits et toujours plus gris. Google utilise ses données de surveillance commerciales pour cibler les annonces qui nous sont adressées.

Donc voilà la deuxième étape : les choses empirent pour les utilisateur·ices et s’améliorent pour les client·es professionnel·les.

Mais ces client·es professionnel·les sont également fait·es prisonnier·ères de la plateforme, dépendant·es de ces client·es. Dès lors que les entreprises tirent au moins 10 % de leurs revenus de Google, quitter Google devient un risque existentiel. On parle beaucoup du pouvoir de « monopole » de Google, qui découle de sa domination en tant que vendeur. Mais Google est aussi un monopsone, un acheteur puissant.

Ainsi, vous avez maintenant Google qui agit comme un monopoliste vis-à-vis de ses utilisateur·ices (première étape) et comme un monopsoniste vis-à-vis de ses client·es professionnel·les (deuxième étape), puis vient la troisième étape : Google récupère toute la valeur de la plateforme, à l’exception d’un résidu homéopathique calculé pour garder les utilisateur·ices prisonnier·ères de la plateforme, et les client·es professionnel·es enchaîné·es à ces utilisateur·ices.

Google se merdifie.

En 2019, Google a connu un tournant décisif. Son activité de recherche avait cru autant que possible. Plus de 90 % d’entre-nous utilisaient Google pour leur recherches, et nous l’utilisions pour absolument tout. Chaque pensée ou vaine question qui nous venait en tête, nous la tapions dans Google.

Comment Google pouvait-il encore grandir ? Il n’y avait plus d’autre utilisateur·ice pour adopter Google. On allait pas se mettre à chercher plus de choses. Que pouvait faire Google ?

Eh bien, grâce à des mémos internes publiés dans le cadre du procès anti-trust de l’année dernière contre Google, nous savons ce qu’ils ont fait. Ils ont dégradé la recherche. Ils ont réduit la précision du système, de sorte que vous ayez à faire deux recherches ou plus afin de trouver votre réponse, doublant ainsi le nombre de requêtes et doublant la quantité de publicités.

Pendant ce temps, Google a conclu un accord secret et illégal avec Facebook, nom de code Jedi Blue, pour truquer le marché de la publicité, en fixant les prix de manière à ce que les annonceur·euses paient plus et que les éditeur·ices gagnent moins.

Et c’est ainsi que nous arrivons au Google merdifié d’aujourd’hui, où chaque requête renvoie une bouillie générée par IA, au dessus de cinq résultats payants signalés par le mot SPONSORISÉ écrit en gris police 8pt sur fond blanc, eux-même, placés au dessus de dix liens remplis de spam qui renvoient vers des sites SEO (Search Engine Optimization, des sites conçus pour être affichés dans les premiers résultats de Google, NDT) produits à la pelle et remplis d’encore plus de bouillie générée par IA.

Et pourtant, nous continuons d’utiliser Google, parce que nous y sommes enfermé·es. C’est l’emmerdification, vue de l’extérieur. Une entreprise qui est bénéfique pour ses utilisateur·ices, tout en les enfermant. Puis les choses empirent pour les utilisateur·ices, de manière à ce qu’elles s’améliorent pour les client·es professionnel·les, tout en enfermant ces dernier·ères. Puis elle récupère toute la valeur pour elle-même et se transforme en un énorme tas de merde.

L’emmerdification, une tragédie en trois actes.

Un meme fait dans un style de bande dessiné.On voit trois personnages.Une personne, représentée par le texte #Moulaga, marche dans la rue. Dans son dos, une autre personne représentant Google la regarde avec intérêt. À ses côtés, une personne, représentant les utilisateur·ices, voit les yeux doux de Google et est en colère.

Meme célèbre, généré à partir d’un dessin de Gee. CC0

J’ai commencé en me concentrant sur les signes extérieurs de l’emmerdification, mais je pense qu’il est temps de commencer à réfléchir à ce qu’il se passe à l’intérieur des entreprises qui rendent cette emmerdification possible.

Quel est le mécanisme technique de l’emmerdification ? J’appelle cela le bidouillage (« twiddling »). Les merveilleux ordinateurs qui les font tourner lèguent aux entreprises du numérique leur infinie flexibilité. Cela veut dire que les entreprises peuvent bidouiller les commandes qui contrôlent les aspects les plus fondamentaux de leur activité. Chaque fois que vous interagissez avec une entreprise, tout est différent : les prix, les coûts, l’ordre des résultats, les recommandations.

Ce qui me ramène à nos infirmières. Vous vous rappelez de l’arnaque, celle où vous consultez le degré d’endettement de l’infirmière pour réduire en temps réel le salaire que vous lui offrez ? Ça c’est du bidouillage. C’est quelque chose qu’on ne peut faire qu’avec un ordinateur. Les patrons qui le font ne sont pas plus malfaisants que les patrons d’antan, ils ont juste de meilleurs outils.

Notez que ce ne sont même pas des patrons de la Tech. Ce sont des patrons de la santé, qui se trouvent disposer des outils de la Tech.

La numérisation — tisser des réseaux informatiques à l’intérieur d’une entreprise ou d’un domaine d’activité — rend possible ce genre de bidouillage qui permet aux entreprises de déplacer la valeur depuis les utilisateur·ices vers les client·es professionnel·les, puis des client·es professionnel·les vers les utilisateur·ices, et enfin, inévitablement, vers elles-mêmes.

Et la numérisation est en cours dans tous les domaines — dont celui des infirmières. Ce qui signifie que l’emmerdification est en cours dans tous les domaines — dont celui des infirmières.

La juriste Veena Dubal a inventé un terme pour décrire le bidouillage qui comprime le salaire des infirmières endettées. Ça s’appelle la « Discrimination Salariale Algorithmique » (Algorithmic Wage Discrimination), et cela fait suite à l’économie à la tâche.

L’économie à la tâche est un lieu central de l’emmerdification, et c’est la déchirure la plus importante dans la membrane séparant le monde virtuel du monde réel. Le boulot à la tâche, c’est là où votre patron de merde est une application de merde, et où vous n’avez même pas le droit de vous considérer comme un employé·e.

Uber a inventé cette astuce. Les chauffeurs et chauffeuses qui font les difficiles pour choisir les contrats que l’appli leur affiche commencent par recevoir des offres avec de meilleurs paies. Mais si iels succombent à la tentation et prennent l’une de ces options mieux payées, alors les paies commencent à nouveau à réduire, à intervalles aléatoires, petit à petit, imaginés pour être en dessous du seuil de perception humain. Évitant de cuire la grenouille pour seulement la pocher, l’entreprise attend que lae chauffeur·euse Uber se soit endetté·e pour acheter une nouvelle voiture et ait abandonné tout boulot annexe qui lui permettait alors de choisir les meilleures contrats. Et c’est ainsi que leurs revenus diminuent, diminuent, diminuent.

Le bidouillage est une astuce grossière faite à la va-vite. N’importe quelle tâche assez simple mais chronophage est une candidate idéale à l’automatisation, et ce genre de vol de revenus serait insupportablement pénible, fastidieux et coûteux à effectuer manuellement. Aucun entrepôt du XIXème siècle rempli de bonhommes à visière vertes penchés sur des livres de compte ne pourrait faire ça. La numérisation est nécessaire.

Bidouiller le salaire horaire des infirmières est un exemple parfait du rôle de la numérisation dans l’emmerdification. Parce que ce genre de choses n’est pas seulement mauvais pour les infirmières, c’est aussi mauvais pour les patient·es. Pensons-nous vraiment que payer les infirmières en fonction de leur degré de désespoir, avec un taux calculé pour accroître ce niveau de désespoir, et donc décroître le salaire pour lequel elles vont sans doute travailler, aura pour conséquence de meilleurs soins ?

Voulez-vous que votre cathéter soit posé par une infirmière nourrie par les Restos du Cœur, qui a conduit un Uber jusqu’à minuit la nuit dernière, et qui a sauté le petit déjeuner ce matin pour pouvoir payer son loyer ?

Voilà pourquoi il est si naïf de dire « si c’est gratuit, c’est que c’est vous le produit ». « Si c’est gratuit » attribue aux services financés par la publicité un pouvoir magique : celui de contourner nos facultés critiques en nous surveillant, et en exploitant les dossiers qui en résultent pour localiser nos angle-morts mentaux, et en les transformant en armes pour nous faire acheter tout ce qu’un publicitaire vend.

Avec cette expression, nous nous rendons complices de notre propre exploitation. En choisissant d’utiliser des services « gratuits », nous invitons les capitalistes de la surveillance à notre propre exploitation, ceux-là même qui ont développé un rayon-laser de contrôle mental alimenté par les données de surveillance que nous fournissons volontairement en choisissant des services financés par la publicité.

La morale, c’est que si nous revenions à simplement payer pour avoir des choses, plutôt que de demander leur gratuité de manière irréaliste, nous rendrions au capitalisme son état fonctionnel de non-surveillance, et les entreprises recommenceraient à mieux s’occuper de nous, car nous serions les client·es, et non plus les produits.

C’est pour cette raison que l’hypothèse du capitalisme de surveillance élève les entreprises comme Apple au rang d’alternatives vertueuses. Puisqu’Apple nous fait payer avec de l’argent, plutôt qu’avec notre attention, elle peut se concentrer sur la création de services de qualité, plutôt que de nous exploiter.

Si on regarde de façon superficielle, il y a une logique plausible à tout cela. Après, tout, en 2022, Apple a mis à jour son système d’exploitation iOS, qui tourne sur les iPhones et autres appareils mobiles, ajoutant une case à cocher qui vous permet de refuser la surveillance par des tiers, notamment Facebook.

96 % des client·es d’Apple ont coché cette case. Les autres 4 % étaient probablement ivres, ou des employé·es de Facebook, ou des employé·es de Facebook ivres. Ce qui est logique car, si je travaillais pour Facebook, je serais ivre en permanence.

Il semble donc, à première vue, qu’Apple ne traite pas ses client·es comme un « produit ». Mais, en même temps que cette mesure de protection de la vie privée, Apple activait secrètement son propre système de surveillance pour les propriétaires d’iPhone, qui allait les espionner de la même manière que Facebook l’avait fait, et exactement dans le même but : vous envoyer des publicités ciblées en fonction des lieux que vous avez visités, des choses que vous avez recherchées, des communications que vous avez eues, des liens sur lesquels vous avez cliqué. Apple n’a pas demandé la permission à ses client·es pour les espionner. Elle ne leur a pas permis de refuser cette surveillance. Elle ne leur en a même pas parlé et, quand elle a été prise la main dans le sac, Apple a menti.

Il va sans dire que le rectangle à distractions à 1000 dollars d’Apple, celui-la même qui est dans votre poche, c’est bien vous qui l’avez payé. Le fait que vous l’ayez payé n’empêche pas Apple de vous traiter comme un produit. Apple traite aussi ses client·es professionnel·les — les vendeur·euses d’applications — comme un produit, en leur extorquant 30 centimes sur chaque dollar qu’ils gagnent, avec des frais de paiement obligatoires qui sont 1000 % plus élevés que les normes dans le domaine, déjà exorbitantes. Apple traite ses utilisateur·ices — les gens qui déboursent une brique pour un téléphone — comme un produit, tout en les espionnant pour leur envoyer des publicités ciblées.

Apple traite tout le monde comme un produit.

Voilà ce qu’il se passe avec nos infirmière à la tâche : les infirmières sont le produit. Les patient·es sont le produit. Les hôpitaux sont le produit. Dans l’emmerdification, « le produit » est chaque personne qui peut être productifiée.

Un traitement juste et digne n’est pas quelque chose que vous recevez comme une récompense de fidélité client, pour avoir dépensé votre argent plutôt que votre attention. Comment recevoir un traitement juste et digne alors ? Je vais y venir, mais restons encore un instant avec nos infirmières.

Les infirmières sont le produit et elles sont bidouillées, parce qu’elles ont été enrôlées dans l’industrie de la Tech, via la numérisation de leur propre industrie.

Il est tentant de rejeter la faute sur la numérisation. Mais les entreprises de la Tech ne sont pas nées merdifiées. Elles ont passé des années — des décennies — à concevoir des produits plaisants. Si vous êtes assez vieille ou vieux pour vous souvenir du lancement de Google, vous vous souviendrez que, au départ, Google était magique.

Vous auriez pu interroger Ask Jeeves pendant un million d’années, vous auriez pu remplir Altavista avec dix trilliards d’opérateurs booléens visant à éliminer les résultats médiocres, sans jamais aboutir à des réponses aussi nettes et utiles que celles que vous auriez obtenues avec quelques mots vaguement descriptifs dans une barre de recherche Google.

Il y a une raison pour laquelle nous sommes tous passé·es à Google, pour laquelle autant d’entre nous ont acheté des iPhones, pour laquelle nous avons rejoint nos amis sur Facebook : tous ces services étaient nativement numériques, ils auraient pu se merdifier à tout moment, mais ils ne l’ont pas fait — jusqu’à ce qu’ils le fassent, et ils l’ont tous fait en même temps.

Si vous étiez une infirmière, que tous les patient·es qui se présentent aux urgences en titubant présentent les mêmes horribles symptômes, vous appelleriez le ministère de la Santé pour signaler la potentielle apparition d’un nouvelle et dangereuse épidémie.

Ursula Franklin soutenait que les conséquences de la technologie n’étaient pas prédestinés. Elles sont le résultat de choix délibérés. J’aime beaucoup cette analyse, c’est une manière très science-fictionnesque de penser la technologie. La bonne science-fiction ne porte pas seulement sur ce que la technologie fait, mais pour qui elle le fait, et à qui elle le fait.

Ces facteurs sociaux sont bien plus importants que les seules spécifications techniques d’un gadget. Ils incarnent la différence entre un système qui vous prévient lorsqu’en voiture vous commencez à dévier de votre route et qu’un système informe votre assurance que vous avez failli dévier de votre route, pour qu’ils puissent ajouter 10 dollars à votre tarif mensuel.

Ils incarnent la différence entre un correcteur orthographique qui vous informe que vous avez fait une erreur et un patrongiciel qui permet à votre chef d’utiliser le nombre de vos erreurs pour justifier qu’il vous refuse une prime.

Ils incarnent la différence entre une application qui se souvient où vous avez garé votre voiture et une application qui utilise la localisation de votre voiture comme critère pour vous inclure dans un mandat de recherche des identités de toutes les personnes situées à proximité d’une manifestation contre le gouvernement.

Je crois que l’emmerdification est causée par des changements non pas des technologies, mais de l’environnement réglementaire. Ce sont des modifications des règles du jeu, initiées de mémoire d’humain·e, par des intervenants identifiés, qui étaient déjà informés des probables conséquences de leurs actions, qui sont aujourd’hui riches et respectés, ne subissant aucune conséquence ou responsabilité pour leur rôle dans l’avènement du merdicène. Ils se pavanent en haute société, sans jamais se demander s’ils finiront au bout d’une pique.

En d’autres termes, je pense que nous avons créé un environnement criminogène, un parfait bouillon de culture des pratiques les plus pathogènes de notre société, qui se sont ainsi multipliées, dominant la prise de décision de nos entreprises et de nos États, conduisant à une vaste emmerdification de tout.

Et je pense qu’il y a quelques bonnes nouvelles à tirer de tout ça, car si l’emmerdification n’est pas causée par un nouveau genre de méchantes personnes, ou par de grandes forces de l’histoire joignant leur poids pour tout transformer en merde, mais est plutôt causée par des choix de réglementation spécifiques, alors nous pouvons revenir sur ces règles, en produire de meilleures et nous extraire du merdicène, pour reléguer cet internet merdifié aux rebuts de l’histoire, simple état transitoire entre le bon vieil internet et un bon internet tout neuf.

Mème dessiné dans le style d'une bande dessinée.On y voit une voiture faire une sortie d'autoroute au dernier moment.En haut de la voie d'autoroute, un panneau "Merdicène". Au dessus de la voie vers laquelle se dirige finalement la voiture, le panneau "Bon internet tout neuf".

Sortie d’autoroute, par Gee. CC0

Je ne vais pas parler d’IA aujourd’hui, parce que, mon dieu, l’IA est un sujet tellement ennuyeux et tellement surfait. Mais je vais utiliser une métaphore qui parle d’IA, pour parler de l’entreprise à responsabilité limitée, qui est une sorte d’organisme colonisateur immoral et artificiel, au sein duquel les humain·es jouent le rôle d’une sorte de flore intestinale. Mon collègue Charlie Stoss nomme ces sociétés des « IA lentes ».

Vous avez donc ces IA lentes, dont les boyaux grouillent de gens, et l’impératif de l’IA, le trombone qu’elle cherche à optimiser, c’est le profit. Pour maximiser les profits, facturez aussi cher que vous le souhaitez, payez vos travailleur·euses et vos fournisseur·euses aussi peu que vous le pouvez, dépensez aussi peu que possible pour la sécurité et la qualité.

Chaque dollar que vous ne dépensez pas pour les fournisseur·euses, les travailleur·euses, la qualité ou la sécurité est un dollar qui peut revenir aux cadres et aux actionnaires. Il y a donc un modèle simple d’entreprise qui pourrait maximiser ses profits en facturant un montant infini de dollars, en ne payant rien à ses travailleur·euses et à ses fournisseur·euses, et en ignorant les questions de qualité et de sécurité.

Cependant, cette entreprise ne gagnerait pas du tout d’argent, pour la très simple raison que personne ne voudrait acheter ce qu’elle produit, personne ne voudrait travailler pour elle ou lui fournir des matériaux. Ces contraintes agissent comme des forces punitives disciplinaires, qui atténuent la tendance de l’IA à facturer à l’infini et ne rien payer.

Dans la Tech, on trouve quatre de ces contraintes, des sources de discipline anti-emmerdificatoires qui améliorent les produits et les services, rémunèrent mieux les travailleur·euses et empêchent les cadres et des actionnaires d’accroître leur richesse au détriment des client·es, des fournisseur·euses et des travailleur·euses.

La première de ces contraintes, c’est le marché. Toutes choses égales par ailleurs, une entreprise qui facture davantage et produit moins perdra des client·es au profit d’entreprises qui sont plus généreuses dans leur partage de la valeur avec les travailleur·euses, les client·es et les fournisseur·euses.

C’est la base de la théorie capitaliste, et le fondement idéologique de la loi sur la concurrence, que nos cousins étasuniens nomment « loi anti-trust ».

En 1890, le Sherman Act a été première loi anti-trust, que le sénateur John Sherman, son rapporteur, défendit devant le Sénat en disant :

Si nous refusons de subir le pouvoir d’un roi sur la politique, nous ne devrions pas le subir sur la production, les transports, ou la vente des produits nécessaires à la vie. Si nous ne nous soumettons pas à un empereur, nous ne devrions pas nous soumettre à un autocrate du commerce disposant du pouvoir d’empêcher la concurrence et de fixer les prix de tous les biens.

Le sénateur Sherman faisait écho à l’indignation du mouvement anti-monopoliste de l’époque, quand des propriétaires de sociétés monopolistiques jouaient le rôle de dictateurs, ayant le pouvoir de décision sur qui pouvait travailler, qui mourait de faim, ce qui pourrait être vendu et à quel prix.

En l’absence de concurrence, ils étaient trop gros pour échouer, trop gros pour être emprisonnés, et trop gros pour s’en préoccuper. Comme Lily Tomlin disait dans ses publicités parodiques pour AT&T dans l’émission Saturday Night Live : « Nous n’en avons rien à faire. Nous n’en avons pas besoin. Nous sommes l’entreprise de téléphone. »

Qu’est-il donc arrivé à la force disciplinaire de la concurrence ? Nous l’avons tuée. Depuis une quarantaine d’années, la vision reaganienne des économistes de l’École de Chicago a transformé l’anti-trust. Ils ont rejeté l’idée de John Sherman selon laquelle nous devrions maintenir la concurrence entre les entreprises pour empêcher l’émergence d’« autocrates du commerce », et installé l’idée que les monopoles sont efficaces.

En d’autres termes, si Google possède 90 % des parts de marché, ce qui est le cas, alors on se doit d’inférer que Google est le meilleur moteur de recherche au monde, et le meilleur moteur de recherche possible. La seule raison pour laquelle un meilleur moteur de recherche n’a pas pu se démarquer est que Google est tellement compétent, tellement efficace, qu’il n’y a aucun moyen concevable de l’améliorer.

On peut aussi dire que Google est le meilleur parce qu’il a le monopole, et on peut dire que le monopole est juste puisque Google est le meilleur.

Il y a 40 ans, donc, les États-Unis — et ses partenaires commerciaux majeurs — ont adopté une politique de concurrence commerciale explicitement pro-monopole.

Vous serez content·es d’apprendre que ce n’est pas ce qui s’est passé au Canada. Le Représentant du Commerce étasunien n’est pas venu ici pour nous forcer à bâillonner nos lois sur la compétitivité. Mais ne faites pas trop les fier·es ! Ce n’est pas arrivé pour la simple raison qu’il n’y en avait pas besoin. Parce que le Canada n’a pas de loi sur la concurrence qui mérite cette appellation, et n’en a jamais eue.

Au cours de toute son histoire, le Bureau de la Concurrence (« Competition Bureau ») a contesté trois fusions d’entreprise, et a empêché exactement zéro fusion, ce qui explique comment nous nous sommes retrouvés avec un pays qui doit tout aux ploutocrates les plus médiocres qu’on puisse imaginer comme les Irving, les Weston, les Stronach, les McCain et les Rogers.

La seule raison qui explique comment ces prodiges sans vergogne ont été capables de conquérir ce pays est que les étasuniens avaient boosté leurs monopolistes avant qu’il ne soient capables de conquérir les États-Unis et de porter leur attention sur nous. Mais il y a 40 ans, le reste du monde adoptait le « standard de bien-être du consommateur » pro-monopole de la Chicago School (Consumer Welfare Standard, CWS), et on s’est retrouvé·es avec… des monopoles. Des monopoles en pharmaceutique, sur le marché de la bière, celui des bouteilles de verre, des Vitamine C, des chaussures de sport, des microprocesseurs, des voitures, des lunettes de vue, et, bien sûr, celui du catch professionnel.

Souvenez-vous : ces politiques spécifiques ont été adoptées de mémoire d’humain·e, par des individus identifiables, qui ont été informés, qui sont devenus riches, et n’en ont jamais subi les conséquences. Les économistes qui ont conçu ces politiques sont encore dans le coin aujourd’hui, en train de polir leurs faux prix Nobel, de donner des cours dans des écoles d’élite, de se faire des millions en expertise-conseil pour des entreprise de premier ordre. Quand on les interroge sur le naufrage que leurs politiques ont provoqué, ils clament leur innocence, affirmant — sans ciller — qu’il n’y a aucune manière de prouver l’influence des politiques pro-monopole dans l’avènement des monopoles.

C’est comme si on avait l’habitude d’utiliser de la mort-au-rat sans avoir de problème de rats. Donc ces gens nous demandent d’arrêter, et maintenant les rats nous dévorent le visage. Alors ils prennent leurs grands yeux innocents et disent : « Comment pouvez-vous être sûrs que notre politique contre la mort-au-rat et l’invasion globale de rats soient liées ? C’est peut-être simplement l’Ère des Rats ! Peut-être que les tâches solaires ont rendu les rats plus féconds qu’à d’autres moments de l’histoire ! Ils ont acheté les usines de mort-au-rat puis les ont fermé, et alors quoi ? Fermer ces usines après qu’on ait décidé d’arrêter d’utiliser de la mort-au-rat est une décision rationnelle et Pareto-optimale. »

Les marchés ne punissent pas les entreprises de la Tech parce qu’elles ne font pas de concurrence avec leurs rivaux, elles les achètent. C’est une citation, de Mark Zuckerberg :

Il vaut mieux acheter que d’entrer en concurrence.

C’est pour cela que Mark Zuckerberg a acheté Instagram pour un milliard de dollars, même si l’entreprise n’avait que 12 salarié·es et 25 millions d’utilisateur·ices. Comme il l’écrivait à son Directeur Financier dans un e-mail nocturne particulièrement mal avisé, il était obligé d’acheter Instagram, parce que les utilisateur·ices de Facebook étaient en train de quitter Facebook pour Instagram. En achetant Instagram, Zuck s’assurait que quiconque quitterait Facebook — la plateforme — serait toujours prisonnier·ère de Facebook — l’entreprise.

Malgré le fait que Zuckerberg ait posé sa confession par écrit, l’administration Obama l’a laissé entreprendre cette fusion, parce que tous les gouvernement, de tous les bords politiques, et ce depuis 40 ans, ont pris comme position de croire que les monopoles sont performants.

Maintenant, pensez à notre infirmière bidouillée et paupérisée. Les hôpitaux font partie des secteurs les plus consolidés des États-Unis. D’abord, on a dérégularisé les fusions du secteur pharmaceutique, les entreprises pharmaceutiques se sont entre-absorbées à la vitesse de l’éclair, et elles ont gonflé les prix des médicaments. Alors les hôpitaux ont eux aussi fusionné vers le monopole, une manœuvre défensive qui a laissé une seule chaîne d’hôpitaux s’accaparer la majorité d’une région ou d’une ville et dire aux entreprises pharmaceutiques : « Soit vous baissez le prix de vos produits, soit vous ne pouvez plus les vendre à aucun de nos hôpitaux ».

Bien sûr, une fois cette mission accomplie, les hôpitaux ont commencé à arnaquer les assureurs, qui mettaient en scène leur propre orgie incestueuse, achetant et fusionnant jusqu’à ce que les étasunien·nes n’aient plus le choix qu’entre deux ou trois assurances. Ça a permis aux assureurs de riposter contre les hôpitaux, en laissant les patient·es et les travailleur·es de la santé sans défense contre le pouvoir consolidé des hôpitaux, des entreprises pharmaceutiques, des gestionnaire de profits pharmacologiques, des centrales d’achats, et des autres cartels de l’industrie de la santé, duopoles et monopoles.

Ce qui explique pourquoi les infirmières signent pour travailler dans des hôpitaux qui utilisent ces effroyables applis, remplaçant des douzaines d’agences de recrutement qui entraient auparavant en compétition pour l’emploi des infirmières.

Pendant ce temps, du côté des patient·es, la concurrence n’a jamais eu d’effet disciplinaire. Personne n’a jamais fait de shopping à la recherche d’une ambulance moins chère ou d’un meilleur service d’urgences alors qu’iel avait une crise cardiaque. Le prix que les gens sont prêts à payer pour ne pas mourir est « tout ce que j’ai ».

Donc, vous avez ce secteur qui n’a au départ aucune raison de devenir une entreprise commerciale, qui perd le peu de restrictions qu’elle subissait par la concurrence, pavant le chemin pour l’emmerdification.

Un mème dessiné dans le style d'une BD.Une personne a le choix cornélien entre deux options : "Payer tout ce que j'ai" ou "Mourir".

L’emmerdification des services médicaux, généré à partir d’un dessin de Gee, CC0.

Mais j’ai dit qu’il y avait 4 forces qui restreignaient les entreprises. La deuxième de ces forces, c’est la régulation, la discipline imposée par les états.

C’est une erreur de voir la discipline du marché et la discipline de l’État comme deux champs isolés. Elles sont intimement connectées. Parce que la concurrence est une condition nécessaire pour une régulation effective.

Laissez-moi vous l’expliquer en des termes que même les libertariens les plus idéologiques peuvent comprendre. Imaginons que vous pensiez qu’il n’existe précisément qu’une seule régulation à faire respecter par l’État : honorer les contrats. Pour que le gouvernement puisse servir d’arbitre sur le terrain, il doit avoir le pouvoir d’inciter les joueurs à honorer leurs contrats. Ce qui veut dire que le plus petit gouvernement que vous pouvez avoir est déterminé par la plus grande entreprise que vous voulez bien tolérer.

Alors même si vous êtes le genre de libertarien complètement gaga de Musk et qui ne peut plus ouvrir son exemplaire de La Grève tellement sont toutes collées entre elles, qui trépigne à l’idée d’un marché du rein humain, et demande le droit de se vendre en esclavage, vous devriez quand même vouloir un robuste régime anti-monopole, pour que ces contrats puissent être honorés. Quand un secteur se cartelise, quand il s’effondre et se transforme en oligarchie, quand internet devient « cinq sites internet géants, chacun d’eux remplit des d’écran des quatre autres », alors celui-ci capture ses régulateurs.

Après tout, un secteur qui comporte 100 entreprises en compétition est une meute de criminels, qui se sautent à la gorge les uns les autres. Elles ne peuvent pas se mettre d’accord sur quoi que ce soit, et surtout pas sur la façon de faire du lobbying.

Tandis qu’un secteur de 5 entreprises — ou 4 — ou 3 — ou 2 — ou une — est un cartel, un trafic organisé, une conspiration en devenir. Un secteur qui s’est peu à peu réduit en une poignée d’entreprises peut se mettre d’accord sur une position de lobbying commune.

Et plus encore, elles sont tellement isolées de toute « concurrence inefficace » qu’elles débordent d’argent, qu’elles peuvent mobiliser pour transformer leurs préférences régulatoires en régulations. En d’autres termes, elles capturent leurs régulateurs.

La « capture réglementaire » peut sembler abstraite et compliquée, aussi laissez-moi vous l’expliquer avec des exemples concrets. Au Royaume-Uni, le régulateur anti-trust est appelé l’Autorité des Marchés et de la Concurrence (« Competition and Markets Authority », abbrégé CMA), dirigé — jusqu’à récemment — par Marcus Bokkerink. Le CMA fait partie des enquêteurs et des régulateurs les plus efficaces du monde contre les conneries de la Big Tech.

Le mois dernier (le 21 janvier 2025, NDT), le Premier ministre britannique Keir Starmer a viré Bokkerink et l’a remplacé par Doug Gurr, l’ancien président d’Amazon UK. Hey Starmer, on a le poulailler au téléphone, ils veulent faire entrer le renard.

Mais revenons à nos infirmières : il y a une multitude d’exemples de capture réglementaire qui se cachent dans cette situation, mais je vais vous sélectionner le plus flagrant d’entre eux, le fait qu’il existe des courtiers en données qui vous revendront les informations d’étasunien·nes lambda concernant leurs dettes sur carte de crédit.

C’est parce que le congrès étasunien n’a pas passé de nouvelle loi sur la vie privée des consommateur·ices depuis 1988, quand Ronald Reagan a signé la loi appelée « Video Privacy Protection Act » ( Loi de Protection de la Vie Privée relative aux Vidéos) qui empêche les vendeur·euses de cassettes vidéo de dire aux journaux quelles cassettes vous avez emmenées chez vous. Que le congrès n’ait pas remis à jour les protections de la vie privée des étasunien·nes depuis que Die Hard est sorti au cinéma n’est pas une coïncidence ou un oubli. C’est l’inaction payée au prix fort par une industrie irrespectueuse de la vie privée, fortement concentrée — et donc follement profitable — et qui a monétisé l’abus des droits humains à une échelle inconcevable.

La coalition favorable à maintenir gelées les lois sur la vie privée depuis la dernière saison de Hôpital St Elsewhere continue de grandir, parce qu’il existe une infinité de façons de transformer l’invasion systématique de nos droits humains en argent. Il y a un lien direct entre ce phénomène et les infirmières dont le salaire baisse lorsqu’elles ne peuvent pas payer leurs factures de carte de crédit.

Mème dessiné dans un style de BD.On voit les bras de deux personnes. Les deux mains sont serrées, comme pour signer un pacte.À gauche, le bras représente l'État. À droite, les entreprises. Les mains serrées symbolisent la régulation.

La régulation des entreprises, mème généré à partir d’un dessin de Gee. CC0.

Donc la concurrence est morte, la régulation est morte, et les entreprises ne sont punies ni par la discipline du marché, ni par celle de l’état. Mais il y a bien quatre forces capables de discipliner les entreprises, de contribuer à l’environnement hostile pour la reproduction des monstres merdifiants et sociopathes.

Alors parlons des deux autres forces. La première est l’interopérabilité, le principe selon lequel deux ou plusieurs autres choses peuvent fonctionner ensemble. Par exemple, vous pouvez mettre les lacets de n’importe qui sur vos chaussures, l’essence de n’importe qui dans votre voiture, et les ampoules de n’importe qui dans vos lampes. Dans le monde non-numérique, l’interopérabilité demande beaucoup de travail, vous devez vous mettre d’accord sur une direction, une grandeur, un diamètre, un voltage, un ampérage, une puissance pour cette ampoule, ou alors quelqu’un va se faire exploser la main.

Mais dans le monde numérique, l’interopérabilité est intégrée, parce que nous ne savons faire qu’un seul type d’ordinateur, la machine universelle et Turing-complète de von Neumann, une machine de calcul capable d’exécuter tout programme valide.

Ce qui veut dire que pour chaque programme d’emmerdification, il y a un programme de contre-emmerdification en attente d’être lancé. Quand HP écrit un programme pour s’assurer que ses imprimantes refusent les cartouches tierces, quelqu’un d’autre peut écrire un programme qui désactive cette vérification.

Pour les travailleur·euses à la tâche, les applis d’anti-emmerdification peuvent endosser le rôle du fidèle serviteur. Par exemple, les conducteur·ices de taxi à la tâche en Indonésie se sont monté·es en coopérative qui commissionnent les hackers pour écrire des modifications dans leurs applis de répartition de travail. Par exemple, une appli de taxi ne contractera pas un·e conducteur·ice pour aller cherche un·e client·e à la gare, à moins qu’iel soit juste à la sortie de celle-ci, mais quand les gros trains arrivent en gare c’est une scène cauchemardesque de chaos total et létal.

Alors les conducteur·ices ont une appli qui leur permet d’imiter leur GPS, ce qui leur permet de se garer à l’angle de la rue, mais laisse l’appli dire à leur patron qu’iels sont juste devant la sortie de la gare. Quand une opportunité se présente, iels n’ont plus qu’à se faufiler sur quelques mètres pour prendre leur client·e, sans contribuer à la zizanie ambiante.

Aux États-Unis, une compagnie du nom de Para proposait une appli pour aider les conducteur·ices chez Doordash à être mieux payé·es. Voyez-vous, c’est sur les pourboires que les conducteur·ices Doordash se font le plus d’argent, et l’appli Doordash pour ses conducteur·ices cache le montant du pourboire jusqu’à ce que vous acceptiez la course, ce qui veut dire que vous ne savez pas avant de la prendre si vous acceptez une course qui vous paiera 1,15$ ou 11,50$ avec le pourboire. Alors Para a construit une appli qui extrayait le montant du pourboire et le montrait aux conducteur·ices avant qu’iels ne s’engagent.

Mais Doordush a fermé l’appli, parce qu’aux États-Unis d’Amérique, les applis comme Para sont illégales. En 1998, Bill Clinton a signé une loi appelée le « Digital Millenium Copyright Act » (Loi du Millénaire Numérique relative aux Droits d’auteur, abrégé DMCA), et la section 1201 du DMCA définit le fait de « contourner un accès contrôlé par un travail soumis aux droits d’auteur » comme un délit passible de 500.000$ d’amende et d’une peine de prison de 5 ans pour une première condamnation. Un simple acte de rétro-ingénierie sur une appli comme Doordash est un délit potentiel, et c’est pour cela que les compagnies sont tellement excitées à l’idée de vous faire utiliser leurs applis plutôt que leurs sites internet.

La toile est ouverte, les applis sont fermées. La majorité des internautes ont installé un bloqueur de pubs (qui est aussi un outil de protection de vie privée). Mais personne n’installe de bloqueur de pubs pour une appli, parce que c’est un délit de distribuer un tel outil, parce que vous devez faire de la rétro-ingénierie sur cette appli pour y arriver. Une appli c’est juste un site internet enrobé dans assez de propriété intellectuelle pour que la compagnie qui l’a créée puisse vous envoyer en prison si vous osez la modifier pour servir vos intérêts plutôt que les leurs.

Partout dans le monde, on a promulgué une masse de lois qu’on appelle « lois sur la propriété intellectuelle », qui rendent illégal le fait de modifier des services, des produits ou des appareils afin qu’ils servent vos propres intérêts, plutôt que les intérêts des actionnaires.

Comme je l’ai déjà dit, ces lois ont été promulguées de mémoire d’humain·e, par des personnes qui nous côtoient, qui ont été informées des évidentes et prévisibles conséquences de leurs plans téméraires, mais qui les ont tout de même appliquées.

En 2010, deux ministres du gouvernement Harper (Premier ministre canadien, NDT) ont décidé de copier-coller le DMCA étasunien dans la loi canadienne. Ils ont entrepris une consultation publique autour de la proposition qui rendrait illégale toute rétro-ingénierie dans le but modifier des services, produits ou appareils, et ils en ont pris plein les oreilles ! 6138 canadien·nes leurs ont envoyé des commentaires négatifs sur la consultation. Ils les ont mis en garde que rendre illégale le détournement des verrous propriétaire interférerait avec la réparation des appareils aussi divers que les tracteurs, les voitures, et les équipements médicaux, du ventilateur à la pompe à insuline.

Ces canadien·nes ont prévenu que des lois interdisant le piratage des verrous numériques laisseraient les géants étasuniens de la Tech s’emparer du marché numérique, nous forçant à acheter nos applis et nos jeux depuis les magasins d’appli étasuniens, qui pourraient royalement choisir le montant de leur commission. Ils ont prévenu que ces lois étaient un cadeau aux monopolistes qui cherchaient à gonfler le prix de l’encre ; que ces lois sur les droits d’auteur, loin de servir les artistes canadien·nes, nous soumettraient aux plateformes étasuniennes. Parce que chaque fois que quelqu’un dans notre public achèterait une de nos créations, un livre, une chanson, un jeu, une vidéo verrouillée et enchaînée à une appli étasunienne, elle ne pourrait plus jamais être déverrouillée.

Alors si nous, les travailleur·euses créatif·ves du Canada, nous mettions à migrer vers un magasin canadien, notre public ne pourrait pas venir avec nous. Il ne pourrait pas transférer leurs achats depuis l’appli étasunienne vers l’appli canadienne.

6138 canadien·nes le leur ont dit, tandis que seulement 54 répondant·es se sont rangé·es du côté du Ministre du Patrimoine canadien, James Moore, et du Ministre de l’Industrie, Tony Clement. Alors, James Moore a fait un discours, à la réunion de la Chambre Internationale du Commerce ici à Toronto, où il a dit qu’il allait seulement écouter les 54 grincheux·ses qui supportaient ses idées affreuses, sur la base que les 6138 autres personnes qui n’étaient pas d’accord avec lui étaient des « braillard·es… extrémistes radicaux·ales ».

Donc en 2012, nous avons copié les horribles lois de verrouillage numérique étasuniennes dans notre livre de lois canadien, et nous vivons maintenant dans le monde de James Moore et Tony Clement, où il est illégal de pirater un verrou numérique. Donc si une entreprise mets un verrou numérique sur un produit, ils peuvent faire n’importe quoi derrière ce verrou, et c’est un crime de passer passer outre.

Par exemple, si HP met un verrou numérique sur ses imprimantes qui vérifie que vous n’êtes pas en train d’utiliser des cartouches d’encre tierces ou de recharger une cartouche HP, c’est un crime de contourner ce verrou et d’utiliser une encre tierce. Et c’est pour ça que HP peut continuer de nous racketter sur le prix de l’encre en le faisant monter, et monter, et monter.

L’encre d’imprimante est maintenant le fluide le plus coûteux qu’un·e civil·e peut acheter sans permis spécial. C’est de l’eau colorée qui coûte 10.000$ le gallon (environ 2000€ le litre, NDT) ce qui veut dire que vous imprimez votre liste de courses avec un liquide qui coûte plus cher que la semence d’un étalon gagnant du Derby dans le Kentucky.

C’est le monde que nous ont laissé Clement et Moore, de mémoire d’humain·e, après qu’on les ait avertis, et qu’ils aient tout de même appliqué leur plan. Un monde où les fermier·ères ne peuvent pas réparer leurs tracteurs, où les mécanicien·nes indépendant·es ne peuvent pas réparer votre voiture, où les hôpitaux pendant les confinements de l’épidémie ne pouvaient pas mettre en service leurs respirateurs artificiels défectueux, où chaque fois qu’un·e utilisateur·ice canadien·ne d’iPhone achète une appli d’un·e auteur·ice canadien·ne de logiciel, chaque dollar qu’iels dépensent fait un petit tour par les bureaux d’Apple à Cupertino en Californie, avant de revenir allégés de 30 centimes.

Laissez-moi vous rappeler que c’est le monde dans lequel une infirmière ne peut pas avoir de contre-appli ou d’extension pour son appli « Uber-des-infirmières » qu’elles doivent utiliser pour trouver du travail, qui les laisserait échanger avec d’autres infirmières pour refuser des gardes tant que les salaires pour celles-ci ne montent à des niveaux corrects, ou bloquer la surveillance de leurs déplacements et de leur activité.

L’interopérabilité était une force disciplinante majeure pour les entreprises de la Tech. Après-tout, si vous rendez les publicités sur votre site internet suffisamment inévitables, une certaine fraction de vos utilisateur·ices installera un bloqueur de pubs, et vous ne toucherez jamais plus un penny d’eux. Parce que personne dans l’histoire des bloqueurs de pub n’a jamais désinstallé un bloqueur de pubs. Mais une fois qu’il est interdit de construire un bloqueur de pubs, il n’y a plus aucune raison de ne pas rendre ces pubs aussi dégoûtantes, invasives et inévitables que possible, afin de déplacer toute la valeur depuis les utilisateur·ices vers les actionnaires et les dirigeants.

Donc on se retrouve avec des monopoles et les monopoles capturent les régulateurs, et ils peuvent ignorer les lois qu’ils n’aiment pas, et empêcher les lois qui pourraient interférer avec leur comportement prédateur — comme les lois sur la vie privée — d’être entérinées. Ils vont passer de nouvelles lois, des lois qui les laissent manipuler le pouvoir gouvernemental pour empêcher d’autres compagnies d’entrer sur le marché.

Un mème dessiné.Il y a deux cases.La première montre un personnage représentant un·e utilisateur·ice essayant d'attraper un ballon représentant "un web sans pub". Dans la deuxième case, ce même personnage se fait attraper par un autre, représentant un régulateur, l'empêchant d'atteindre son objectif.

Un web sans pub, mème généré à partir d’un dessin de Gee. CC0

Donc trois des quatre forces sont neutralisées : concurrence, régulation, et interopérabilité. Ce ne laissait plus qu’une seule force disciplinaire capable de contenir le processus d’emmerdification : la main d’œuvre.

Les travailleur·euses de la Tech forment une curieuse main d’œuvre, parce qu’iels ont historiquement été très puissants, capables d’exiger des hauts salaires et du respect, mais iels l’ont fait sans rejoindre de syndicat. La densité syndicale dans le secteur de la Tech est abyssale, presque indétectable. Le pouvoir des travailleur·euses de la Tech ne leur est pas venu de la solidarité, mais de la rareté. Il n’y avait pas assez de travailleur·euses pour satisfaire les offres d’emploi suppliantes, et les travailleur·euses de la Tech sont d’une productivité inconcevable. Même avec les salaires faramineux que les travailleur·euses exigeaient, chaque heure de travail qu’iels effectuaient avaient bien plus de valeur pour leurs employeurs.

Face à un marché de l’emploi tendu, et la possibilité de transformer chaque heure de travail d’un·e travailleur·euse de la Tech en or massif, les patrons ont levé tous les freins pour motiver leur main d’œuvre. Ils ont cajolé le sens du devoir des travailleur·euses, les ont convaincus qu’iels étaient des guerrier·ères saint·es, appelant l’avènement d’une nouvelle ère numérique. Google promettait qu’iels « organiseraient les informations du monde et les rendraient utiles ». Facebook leur promettait qu’iels allaient « rendre le monde plus ouvert et plus connecté ».

Il y a un nom pour cette tactique : la bibliothécaire Fobazi Ettarh l’appelle la « fascination vocationnelle » (« vocational awe » en anglais, NDT). C’est lorsque l’intérêt pour le sens du devoir et la fierté sont utilisés pour motiver les employé·es à travailler plus longtemps pour de moins bons salaires.

Il y a beaucoup d’emplois qui se basent sur la fascination vocationnelle : le professorat, le soin aux enfants et aux personnes âgées, et, bien sûr, le travail d’infirmière.

Les techos sont différent·es des autres travailleur·euses cependant, parce qu’iels ont historiquement été très rares, ce qui veut dire que bien que les patrons pouvaient les motiver à travailler sur des projets auxquels iels croyaient, pendant des heures interminables, à l’instant-même où les patrons leurs ordonnaient de merdifier les projets pour lesquels iels avaient raté l’enterrement de leur mère pour livrer le produit dans les temps, ces travailleureuses envoyaient chier leurs patrons.

Si les patrons persistaient dans leurs demandes, les techos quittaient leur travail, traversaient la rue, et trouvaient un meilleur travail le jour-même.

Donc pendant de longues années, les travailleur·euses de la Tech étaient la quatrième et dernière contrainte, tenant bon après que les contraintes de concurrence, de régulation et d’interopérabilité soient tombées. Mais alors sont arrivés les licenciements de masse. 260 000 en 2023 ; 150 000 en 2024 ; des dizaines de milliers cette année, et Facebook qui prévoit d’anéantir 5 % de sa masse salariale, un massacre, tout en doublant les bonus de ses dirigeants.

Les travailleur·euses de la Tech ne peuvent plus envoyer chier leurs patrons, parce qu’il y a 10 autres travailleur·euses qui attendent derrière pour prendre le poste.

Bon, j’ai promis que je ne parlerai pas d’IA, mais je vais devoir un tout petit peu briser cette promesse, juste pour signaler que la raison pour laquelle les patrons de la Techs sont aussi excités par l’IA c’est qu’ils pensent qu’ils pourront virer tous leurs techos et les remplacer par des chatbots dociles qui ne les enverront jamais chier.

Donc voilà d’où vient l’emmerdification : de multiples changements dans l’environnement. L’effondrement quadruple de la concurrence, de la régulation, de l’interopérabilité et du pouvoir de la main d’œuvre crée un environnement merdigène, où les éléments les plus cupides et sociopathes du corps entrepreneurial prospèrent au détriment des éléments modérateurs de leur impulsion merdificatoire.

Nous pouvons essayer de soigner ces entreprises. Nous pouvons utiliser les lois anti-monopole pour les briser, leur faire payer des amendes, les amoindrir. Mais tant que nous n’aurons pas corrigé l’environnement, la contagion se répandra aux autres entreprises.

Alors discutons des manières de créer un environnement hostile aux merdificateurs, pour que le nombre et l’importance des agents merdificateurs dans les entreprises retrouvent leurs bas niveaux des années 90. On ne se débarrassera pas de ces éléments. Tant que la motivation du profit restera intacte, il y aura toujours des gens dont la poursuite du profit sera pathologique, immodérée par la honte ou la décence. Mais nous pouvons changer cet environnement pour qu’ils ne dominent pas nos vies.

Discutons des lois anti-trust. Après 40 ans de déclin anti-trust, cette décennie a vue une résurgence massive et globale de vigueur anti-trust, qu’on retrouve assaisonnée aux couleurs politiques de gauche comme de droite.

Au cours des quatre dernières années, les anti-monopolistes de l’administration Biden à la Federal Trade Commission (Commission Fédérale du Commerce, abrégé en FTC) au Department of Justice (Département de la Justice, abrégé en DoJ) et au Consumer Finance Protection Bureau (Bureau de Protection des Consommateurs en matière Financière) ont fait plus de répression anti-monopole que tous leurs prédécesseurs au cours des 40 années précédentes.

Il y a certainement des factions de l’administration Trump qui sont hostiles à ce programme mais les agents de répression anti-trust au DoJ et au FTC disent maintenant qu’ils vont préserver et renforcer les nouvelles lignes directrices de Biden concernant les fusions d’entreprises, qui empêchent les compagnies de s’entre-acheter, et ils ont effectivement déjà intenté une action pour bloquer une fusion de géants de la tech.

Bien évidemment, l’été dernier Google a été jugé coupable de monopolisation, et doit maintenant affronter la banqueroute, ce qui explique pourquoi ils ont été si généreux et amicaux envers l’administration de Trump.

Pendant ce temps, au Canada, le Bureau de la Concurrence édenté s’est fait refaire un dentier au titane en juin dernier, lorsque le projet de loi C59 est passé au Parlement, octroyant de vastes nouveaux pouvoirs à notre régulateur anti-monopole.

Il est vrai que le premier ministre britannique Keir Starmer vient de virer le chef du Competition and Markets Authority (Autorité des Marchés et de la Concurrence, abrégé en CMA) et l’a remplacé par l’ex patron d’Amazon UK. Mais ce qui rend le tout si tragique c’est que le CMA faisait un travail incroyablement bon au sein d’un gouvernement conservateur.

Du côté de l’Union Européenne, ils ont passé la Législation sur les marchés numériques (Digital Markets Act) et le Règlement sur les Services Numériques (Digital Services Act), et ils s’attaquent aux entreprises de la Big Tech avec le tranchant de la lame. D’autres pays dans le monde — Australie, Allemagne, France, Japon, Corée du Sud et Chine (oui, la Chine !) — ont passé de nouvelles lois anti-monopole, et lancent des actions majeures de répression anti-monopole, donnant souvent lieu à des collaborations internationales.

Donc vous avez le CMA britannique qui utilise ses pouvoirs d’investigation pour faire des recherches et publier des enquêtes de marché approfondies sur la taxe abusive pratiquée par Apple sur les applis, et ensuite l’UE qui utilise ce rapport comme feuille de route pour sanctionner Apple, puis interdire le monopole d’Apple sur les paiements grâce à de nouvelles régulations. Ensuite les anti-monopolistes en Corée du Sud et au Japon traduisent l’affaire européenne et gagnent des affaires quasi-identiques dans leurs propres cours de justice.

Et quid de la capture réglementaire ? Et bien, on commence à voir les régulateurs faire preuve d’astuce pour contrôler les grosses entreprises de la tech. Par exemple, la Législation sur les Marchés Numériques et le Règlement sur les Services Numériques européens ont été imaginés pour contourner les cours de justice national des états membres de l’UE, et spécifiquement de l’Irlande, le paradis fiscal où les entreprises étasuniennes de la Tech prétendent avoir leurs bureaux.

Le truc avec les paradis fiscaux c’est qu’ils deviennent immanquablement des paradis criminels, parce qu’Apple peut prétendre être irlandaise cette semaine, être maltaise ou chypriote ou luxembourgeoise la semaine d’après. Alors l’Irlande doit laisser les géants de la Tech étasuniens ignorer les lois européennes sur la vie privée et autres régulations, ou le pays les perdra au profit de nations plus sordides, plus dociles et plus compétitives.

Donc à partir de maintenant, la régulation européenne sur le secteur de la Tech sera exécutée en cour fédérale européenne, et pas en cour nationale, en considérant les cours irlandaises capturées comme endommagées et en les contournant.

Le Canada doit renforcer sa propre capacité à appliquer les régulations sur le secteur de la Tech, en détricotant les fusions monopolistes comme celle de Bell et Rogers, mais par dessus tout, le Canada doit poursuivre son programme sur l’interopérabilité.

L’année dernière, le Canada a passé deux projets de loi très excitants : le projet de loi C244, une loi nationale sur le Droit de Réparation ; et le projet de loi C294, une loi d’interopérabilité. Nommément, ces deux lois permettent aux canadien·nes de tout réparer, depuis les tracteurs aux pompes à insuline, et de modifier les logiciels dans leurs appareils, que ce soient les consoles de jeux comme les imprimantes, pour qu’ils puissent fonctionner avec des magasins d’applis, des consommables, ou des extensions tierces.

Pourtant, ces projets de loi sont fondamentalement inutiles, parce qu’ils ne permettent pas aux canadien·nes d’acquérir les outils nécessaires pour briser les verrous numériques. Vous pouvez modifier votre imprimante pour qu’elle accepte des encres tierces, ou interpréter les codes diagnostiques d’une voiture pour que n’importe quel mécanicien·ne puisse la réparer, mais seulement si il n’y a pas de verrou numérique qui vous empêche de le faire, parce que donner à quelqu’un l’outil qui permet de briser un verrou numérique reste illégal grâce à la loi que James Moore et Tony Clement ont fourré dans la gosier du pays en 2012.

Et chaque imprimante sans exception, chaque enceinte connectée, voiture, tracteur, appareil ménager, implant médical ou appareil médical hospitalier aura un verrou numérique qui vous empêchera de le réparer, de le modifier, ou d’utiliser des pièces, un logiciel ou des consommables tiers.

Ce qui veut dire que ces deux lois remarquables sur la réparation et l’interopérabilité sont inutiles.

Mème d'Anakin et Padmé, dessiné dans un style BD.Anakin dit "On va faire deux lois sur l'interopérabilité". Padmé répond "On va pouvoir réparer nos imprimantes !". Anakin la regarde, sans rien dire. Padmé continue, inquiète : "On va pouvoir réparer nos imprimantes, hein ?".

Mème sur les lois canadiennes sur l’interopérabilité, généré à partir d’un dessin de Gee. CC0

Alors pourquoi ne pas se débarrasser de la loi de 2012 qui interdit de briser les verrous numériques ? Parce que ces lois font partie d’accords d’échange avec les États-Unis. C’est une loi dont on a besoin pour garder un accès sans taxe aux marchés étasuniens.

Je ne sais pas si vous êtes au courant, mais Donald Trump va imposer 25 % de taxe sur toutes les exportations vers le Canada. La réponse de Trudeau c’est d’imposer des taxes de représailles, qui rendront les produits étasuniens 25 % plus chers pour les canadien·nes. Drôle de façon de punir les États-Unis !

Vous savez ce qui serait mieux encore ? Abolir les lois canadiennes qui protègent les compagnies des géants de la Tech étasuniens de la concurrence canadienne. Rendre légale la rétro-ingénierie, le jailbreak (le fait de contourner les limitations volontairement imposées par le constructeur) et la modification des produits technologiques et services américains. Ne demandez pas à Facebook de payer une taxe pour chaque lien vers un site d’information canadien, légalisez le crochetage de toutes les applis de Méta et de bloquer toutes les pubs qui en proviennent, pour que Mark Zuckerberg ne puisse plus se faire un sou sur notre dos.

Légalisez le jailbreak de votre Tesla par des mécanicien·nes canadien·nes, pour débloquer toutes les fonctionnalités normalement disponibles sur inscription, comme le pilotage automatique, et l’accès complet à la batterie, pour un prix fixe et pour toujours. Pour que vous puissiez mieux profiter de votre voiture et que, quand vous la revendrez, lae prochain·ne propriétaire continue de jouir de ces fonctionnalités, ce qui veut dire qu’iel paiera davantage pour votre voiture d’occasion.

C’est comme ça que l’on peut faire du tort à Elon Musk : pas en s’affichant publiquement comme horrifié·es par ses saluts nazi. Ça ne lui coûte rien. Il adore qu’on parle de lui. Non ! Frappez dans sa machine à sous incroyablement lucrative du marché de l’abonnement d’occasion sur lequel il se repose pour son entreprise de Swastikamions. Frappez-le en plein dans le câble d’alimentation !

Laissez les canadien·nes monter un magasin d’applis canadien pour les appareils Apple, le genre qui prend 3 % de commission sur les transactions, pas 30 %. En conséquence, chaque journal canadien qui vend des abonnements en passant par cette appli, et chaque créateur·ice de logiciel, musicien·ne ou écrivain·ne canadien·ne qui vend quelque chose en passant par une plateforme numérique verra ses revenus augmenter de 25 % du jour au lendemain, sans enregistrer un·e seul nouvelle·eau client·e.

Mais nous pouvons rallier de nouvelles·aux client·es, en vendant des logiciels de jailbreak et un accès aux magasins d’applis canadiens, pour tous les appareils mobiles et les consoles, partout dans le monde, et en incitant tous les éditeur·ices de jeux vidéos et les développeur·euses d’applis à vendre via les magasins canadiens pour les client·es du monde entier sans payer 30 % aux géantes entreprises étasuniennes de la Tech.

Nous pourrions vendre à chaque mécanicien·ne dans le monde un abonnement à 100$CAD par mois pour un outil de diagnostique universel. Chaque fermier·ère du monde pourrait acheter un kit qui leur permettrait de réparer leurs propres tracteurs John Deere sans payer 200$CAD de frais de déplacement à un·e technicien·ne de Deere pour inspecter les réparations.

Ils traceraient un chemin dans notre direction. Le Canada pourrait devenir un moteur de l’export des technologies, tout en baissant les prix pour les usager·ères canadien·nes, tout en rendant les affaires plus profitables pour tous ceux qui vendent des médias ou des logiciels sur des magasins en ligne. Et — c’est la partie la plus intéressante — ce serait un assaut frontal contre les entreprises étasuniennes les plus grandes, les plus profitables, les entreprises qui, à elles seules, maintiennent le S&P 500 à flot, en frappant directement dans leurs lignes de compte les plus profitables, en réduisant à néant, en l’espace d’une nuit et dans le monde entier, les centaines de milliards de revenus de ces arnaques.

Nous pouvons aller plus loin qu’exporter pour les étasuniens des médicaments à prix raisonnable. Nous pourrions aussi exporter pour nos amis étasuniens les outils extrêmement lucratifs de libération technologique.

C’est comme ça que vous gagnez une bataille commerciale.

Qu’en est-t-il des travailleur·euses ? Là, nous avons de bonnes et de mauvaises nouvelles.

La bonne nouvelle, c’est que la popularité des syndicats dans l’opinion publique est à son plus haut niveau depuis le début des années 1970, que le nombre de travailleur·euses souhaitant rejoindre un syndicat n’a pas été aussi haut depuis des générations, et que les syndicats eux-mêmes sont assis sur des réserves financières battant tous les records, qu’ils pourraient utiliser pour organiser la lutte de ces travailleur·euses.

Mais voilà la mauvaise nouvelle. Les syndicats ont passé toutes les années Biden — alors qu’ils disposaient de l’environnement réglementaire le plus favorable depuis l’administration Carter, que l’opinion public était à son maximum, qu’un nombre record de travailleur·euses voulaient rejoindre un syndicat, qu’ils avaient plus d’argent que jamais à dépenser pour syndiquer ces travailleur·euses — à faire que dalle. Ils n’ont alloué que des clopinettes aux activités de syndicalisation, aboutissant à la fin des années Biden à un nombre de travailleur·euses syndiqué·es inférieur à celui de leur début.

Et puis nous avons eu Trump, qui a illégalement viré Gwynne Wilcox du National Labor Relations Board, laissant le NLRB sans quorum et donc incapable de réagir à des pratiques professionnelles injuste ou de certifier des élections syndicales.

C’est terrible. Mais la partie n’est pas terminée. Trump a viré les arbitres, et il pense que cela signifie la fin de la partie. Mais je vais vous dire un truc : virer l’arbitre ne termine pas la partie, ça veut juste dire que l’on rejette les règles. Trump pense que c’est le code du travail qui crée les syndicats, mais il a tord. Les syndicats sont la raison par laquelle nous avons un code du travail. Bien avant que les syndicats ne soient légalisés, nous avions des syndicats, qui combattaient dans la rue les voyous à la solde des patrons.

Cette solidarité illégale a conduit à l’adoption d’un code du travail, qui légalisait le syndicalisme. Le code du travail est passé parce que les travailleur·euses ont acquis du pouvoir à travers la solidarité. La loi ne crée pas cette solidarité, elle lui donne seulement une base légale. Retirez cette base légale, et le pouvoir des travailleur·euses reste intacte.

Le pouvoir des travailleur·euses est la réponse à la fascination vocationnelle. Après tout, il est bon pour vous et pour vos camarades travailleur·euses de considérer votre travail comme une sorte de mission. Si vous ressentez cela, si vous ressentez le devoir de protéger vos utilisateur·ices, vos patient·es, vos patron·nes, vos étudiant·es, un syndicat vous permet d’accomplir ce devoir.

Nous avons vu cela en 2023, lorsque Doug Ford (premier ministre de l’Ontario, NDT) a promis de détruire le pouvoir des fonctionnaires d’Ontario. Des travailleur·euses de toute la province se sont soulevés, annonçant une grève générale, et Doug Ford a plié comme l’un de ses costumes bas de gamme. Les travailleur·euses lui on mis une raclée, et on le refera si il le faut. Chose promise, chose due.

Le « désassemblage imprévu en plein-air » du code du travail étasunien signifie que les travailleur·euses peuvent à nouveau se soutenir les uns les autres. Les travailleur·euses de la Tech ont besoin de l’aide des autres travailleur·euses, parce qu’eils ne sont plus rares désormais, plus après un demi-million de licenciements. Ce qui signifie que les patrons de la Tech n’ont plus peur d’eux.

On sait comment les patrons de la Tech traitent les travailleur·euses dont ils n’ont pas peur. Regardez Jeff Bezos : les travailleur·euses dans ses entrepôts se blessent trois fois plus que la moyenne nationale, ses livreur·euses doivent pisser dans des bouteilles, et iels sont surveillé·es par des caméras IA qui les balancent si leurs yeux ne regardent pas dans la direction requise ou si leur bouche est ouverte trop souvent pendant qu’iels conduisent, parce que le règlement interdit de chanter avec la radio.

En comparaison, les développeur·euses d’Amazon ont le droit de venir travailler avec des crêtes roses, des piercings au visage et des tshirts noirs qui parlent de choses incompréhensibles pour leurs patrons. Iels ont le droit de pisser quand iels veulent. Jeff Bezos n’est pas tendre avec les travailleur·euses de la Tech, de la même manière qu’il ne nourrit pas une haine particulière contre les travailleur·euses des entrepôts ou les livreur·euses. Il traite ses travailleur·euses aussi mal qu’il est permis de le faire. Ce qui veut dire que les dévelopeur·euses aussi connaîtrons bientôt les bouteilles de pisse.

Ce n’est pas seulement vrai pour Amazon, bien entendu. Prenons Apple. Tim Cook a été nommé directeur général en 2011. Le comité directeur d’Apple l’a choisi pour succéder au fondateur Steve Jobs parce c’est le gars qui a compris comment délocaliser la production d’Apple vers des sous-traitants en Chine, sans rogner sur la garantie de qualité ou risquer une fuite des spécifications de produit en amont des lancements de produit légendaires et pompeux l’entreprise.

Aujourd’hui, les produits d’Apple sont fabriqués dans une gigantesque usine Foxconn à Zhengzhou, surnommée « iPhone City« . Effectivement, ces appareils arrivent par conteneurs dans le Port de Los Angeles dans un état de perfection immaculée, usinés avec les marges d’erreur les plus fines, et sans aucun risque de fuite vers la presse.

Photo d'un chantier de construction de l'autre côté d'une route, avec plein de grues.

Chantier de construction d’une usine Foxconn (sous-traitant principal d’Apple) à Zhengzhou.
Photo sous licence CC BY-NC-SA par Bert van Dijk.

Pour aboutir à cette chaîne d’approvisionnement miraculeuse, Tim Cook n’a eu qu’à faire d’iPhone City un enfer sur Terre, un lieu dans lequel il est si horrible de travailler qu’il a fallu installer des filets anti-suicide autour des dortoirs afin de rattraper les corps de travailleur·euses tellement brutalisé·es par les ateliers de misère de Tim Cook qu’iels tentent de mettre fin à leurs jours en sautant dans le vide. Tim Cook n’est pas attaché sentimentalement aux travailleur·euses de la Tech, de même qu’il n’est pas hostile aux travailleur·euses à la chaîne chinois·es. Il traite simplement ses travailleur·euses aussi mal qu’il est permis de le faire et, avec les licenciements massifs dans le domaine de la Tech, il peut traiter ses développeur·euses bien, bien pire.

Comment les travailleur·euses de la Tech s’organisent-iels en syndicat ? Il y a des organisations spécifiques au domaine de la Tech, comme Tech Solidarity et la Tech Workers Coalition. Mais les travailleur·euses de la Tech ne pourront massivement se syndiquer qu’en faisant preuve de solidarité avec les autres travailleur·euses et en recevant leur solidarité en retour. Nous devons toustes soutenir tous les syndicats. Toustes les travailleur·euses doivent se soutenir les un·es les autres.

Nous entrons dans une période de polycrise omnibordélique. Le grondement menaçant du changement climatique, de l’autoritarisme, du génocide, de la xénophobie et de la transphobie s’est transformé en avalanche. Les auteurs de ces crimes contre l’humanité ont transformé internet en arme, colonisé le système nerveux numérique du XXIème siècle, l’utilisant pour attaquer son hôte, menaçant la civilisation elle-même.

L’internet merdifié a été construit à dessein pour ce genre de co-optation apocalyptique, organisée autour de sociétés gigantesques qui échangeraient une planète habitable et des droits humains contre un abattement fiscal de 3 %, qui ne nous présentent plus que des flux algorithmiques bidouillables et bloquent l’interopérabilité qui nous permettrait d’échapper à leur emprise, avec le soutien de gouvernements puissants auxquels elles peuvent faire appel pour « protéger leur propriété intellectuelle ».

Ça aurait pu ne pas se passer comme ça. L’internet merdifié n’était pas inévitable. Il est le résultat de choix réglementaires spécifiques, réalisés de mémoire d’humain·e, par des individus identifiables.

Personne n’est descendu d’une montagne avec deux tablettes de pierre en récitant « Toi Tony Clement, et toi James Moore, tu ne laisseras point les canadien·nes jailbreaker leurs téléphones ». Ces gens-là ont choisi l’emmerdification, rejetant des milliers de commentaires de canadien·nes qui les prévenaient de ce qui arriverait par la suite.

Nous n’avons pas à être les éternel·les prisonnier·ères des bourdes politiques catastrophiques de ministres conservateurs médiocres. Alors que la polycrise omnibordélique se déploie autour de nous, nous avons les moyens, la motivation et l’opportunité de construire des politiques canadiennes qui renforcent notre souveraineté, protègent nos droits et nous aident à rendre toustes les utilisateur·ices de technologie, dans chaque pays (y compris les États Unis), libres.

La présidence de Trump est une crise existentielle, mais elle présente aussi des opportunités. Quand la vie vous donne le SRAS, vous faites des sralsifis. Il fut un temps où nous avions un bon vieil internet, dont le principal défaut était qu’il requérait un si haut niveau d’expertise technique pour l’utiliser qu’il excluait toustes nos ami·es « normalles·aux » de ce merveilleux terrain de jeu.

Les services en ligne du Web 2.0 avaient des toboggans bien graissés pour que tout le monde puisse se mettre en ligne facilement, mais s’échapper de ces jardins clos du Web 2.0 c’était comme remonter la pente d’une fosse tout aussi bien graissée. Un bon internet tout neuf est possible, et nécessaire. Nous pouvons le construire, avec toute l’auto-détermination technologique du bon vieil internet, et la facilité d’usage du Web 2.0.

Un endroit où nous pourrions nous retrouver, nous coordonner et nous mobiliser pour résister à l’effondrement climatique, au fascisme, au génocide et à l’autoritarisme.

Nous pouvons construire ce bon internet tout neuf, et nous le devons.

01.04.2025 à 09:42

Framamèmes : vos mèmes préférés en versions libres et accessibles !

Framasoft

Vous voulez produire du mème libre, artisanal et remixé ? Framasoft sort (vraiment) le service Framamèmes. Vraiment. Promis. Un générateur de mèmes libres ? C’est une blague ? Noyons le poisson dans le bocal : Framamèmes est une blague… mais une blague durable, qu’on … Lire la suite­­
Texte intégral (1340 mots)

Vous voulez produire du mème libre, artisanal et remixé ? Framasoft sort (vraiment) le service Framamèmes. Vraiment. Promis.

Un générateur de mèmes libres ? C’est une blague ?

Noyons le poisson dans le bocal : Framamèmes est une blague… mais une blague durable, qu’on compte bien continuer de maintenir même après ce 1er avril.

Vous pouvez d’ores et déjà vous rendre sur Framamemes.org, et tester vous-mêmes les mèmes à faire… comme chez mémé. Même que mémé aime les mèmes de millenials : si Framasoft a 20 ans, ses membres en ont (en moyenne) deux fois plus 😊.

Capture d'écran du site Framamèmes

Notez que ce n’est pas la première fois qu’à Framasoft, on prend la blague au sérieux et maintient le petit projet fun au-delà de l’annonce (l’occasion de vous faire redécouvrir Framaprout, Framadsense ou le fameux bingo du troll).

Les mèmes sont hors la loi… sauf chez Framamèmes !

Il faut dire que la culture du remix et du partage est (à peine) tolérée par les industries culturelles qui capitalisent sur le droit d’auteur et le copyright.

Fi du fair use, exit l’exception pour parodie… les mèmes pourraient tout à fait être considérés comme illégaux, et mener à des poursuites judiciaires si leurs ayants droits y voyaient un intérêt (même que c’est déjà arrivé).

C’est pour cela que Gee s’est jeté sur sa tablette graphique au cours d’un stream (sur PeerTube, parce qu’ici, on est libres de bout en bout) et s’est dit : « tiens, et si je faisais mes propres versions libres des mèmes les plus populaires ? »

La route est longue, mais le mème est libre

Avec son propre style de dessin bien connu du lectorat du Framablog, et en n’hésitant pas à franciser les mèmes, que ce soit simplement en traduisant les textes inclus dans les images (« draw 25 » sur la carte Uno devient « pioche 25 cartes ») ou même en appliquant le style français aux panneaux autoroutiers !

Comparaison entre les mèmes originaux et ceux de Framamèmes.

À gauche, les versions originales ; à droite, les versions dessinées ET francisées par Gee !

Quelques mèmes plus tard, il est devenu évident qu’un site web était nécessaire pour les partager. En ajoutant une pincée de JavaScript pour inclure un éditeur (libre, évidemment), et même une police libre (parce que All Fonts Are Beautiful, comme on dit)… on obtient Framamèmes !

Pour l’instant, une sélection restreinte de mèmes est proposée, mais Gee compte bien continuer à enrichir l’éditeur dans les semaines à venir ! N’hésitez pas à proposer les mèmes que vous voudriez voir adaptés en commentaires.

Des mèmes libres… et accessibles !

Partager des images en ligne, c’est bien : si elles sont accessibles à toutes et à tous, c’est mieux ! Une bonne pratique consiste à systématiquement inclure une description des images porteuses d’informations dans la balise prévue à cet effet (la fameuse balise alt en HTML).

Pas mal de médias sociaux, notamment Mastodon (le réseau de microblogging libre et décentralisé que nous plébiscitons à Framasoft), permettent d’inclure un tel texte alternatif au moment d’intégrer une image dans un message.

Eh bien avec Framamèmes, on a décidé de vous simplifier la tâche : lorsque vous créez un mème, vous avez la possibilité de copier en un clic un texte descriptif de votre image dans le presse-papier ! Parce qu’il n’y a pas de raison que tout le monde ne puisse pas profiter de vos créations dont on ne doute pas qu’elles vaudront le détour…

Lancé sur un coup de tête et de crayon

Franchement : c’était pas prévu, à Framasoft, de faire un 1er avril cette année. On a du boulot plein le cloud. On a une Assemblée Générale ce week-end.

Alors faire un 1er avril qui en plus est un vrai service que vous pouvez vraiment utiliser… on ne l’imaginait pas. Sauf que Gee nous l’a servi sur un plateau. Et puis ça nous amuse. Et puis c’est une raison de rappeler que les monopoles de la propriété intellectuelle, ça peut très vite effacer de jolis sourires.

Alors on dit merci à Gee (et aux petites mains qui ont aidé à l’accouchement 😄) et on rappelle que cet artiste libre essaie de vivre de son art : vous pouvez le soutenir en achetant son nouveau livre, en jouant à ses jeux vidéo, ou encore par un don.

L’art libre, c’est vraiment bien plus intéressant que de voir ces mèmes refaits par des IA, avec OpenAI qui pille tranquillement le style de Hayao Miyazaki… le même Miyazaki qui déclarait que l’art généré par IA était « tout à fait écœurant » et constituait « une insulte à la vie même » (voir notamment cet article (en anglais).

Mème. Sophie n'aime pas : mèmes générés par I.A. Sophie aime : mèmes faits main.

Et puis surtout : amusez-vous avec Framamèmes, faites tourner autour de vous, et faites des mèmes libres, quelle que soit la date !

31.03.2025 à 07:42

Khrys’presso du lundi 31 mars 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (8589 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Special outils anti-IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

30.03.2025 à 09:00

Spotify, la machine à humeur

Framasoft

Dans son livre, Mood Machine, la journaliste indépendante Liz Pelly, décortique ce que Spotify a changé dans la musique, pour les clients du service, comme pour les musiciens. Entre ubérisation et syndrome de Stockholm.
Texte intégral (2386 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 17 janvier 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Dans son livre, Mood Machine, la journaliste indépendante Liz Pelly, décortique ce que Spotify a changé dans la musique, pour les clients du service, comme pour les musiciens. Entre uberisation et syndrome de Stockholm.

 

 

 

 

 

 

 

 

 

Cela fait des années que la journaliste indépendante Liz Pelly observe Spotify. Son essai, Mood Machine : The Rise of Spotify and the Costs of the Perfect Playlist (Simon & Schuster, 2025) estime que la musique est devenue un utilitaire plus qu’un art. Pour les fans de musique, le streaming est, malheureusement, un « produit spectaculaire » : « un jukebox universel et infini ».  Pour les musiciens cependant, Spotify a été une menace plus existentielle que la révolution du partage de fichiers qui l’a précédée, car le streaming, lui, a reçu le vernis de la légitimité, explique le Washington Post dans sa critique du livre. Mais Spotify a surtout détourné les bénéfices de la musique a son profit, tout en préparant le terrain pour remplacer les musiciens par de la musique générée par l’IA. Le secteur d’ailleurs s’y prépare : un récent rapport de la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac) annonce la chute de la rémunération des artistes et le déferlement à venir de la musique générée par IA

La musique, une activité purement fonctionnelle

Liz Pelly rappelle que les origines de Spotify plongent directement dans The Pirate Bay, l’emblème du téléchargement illégal de musique du début des années 2000, notamment parce que le service était une réponse au comportement des gens et à l’envolée du téléchargement illégal. Pour le fondateur de Spotify, la musique a été considérée comme Amazon a considéré les livres : un cheval de Troie pour exploiter les clients. La recette de la suprématie auditive de Spotify a surtout reposé sur les playlists, spécifiques, homogènes et de plus en plus automatisées, descendant monotone de la radio commerciale et des musiques d’ambiance. Nos habitudes d’écoute culturelles ont été peu à peu déformées par la domination de Spotify. « Les auditeurs ont été encouragés à aborder la musique comme une activité purement fonctionnelle – pour dormir, étudier ou meubler un lieu public – sans avoir à fournir aucun investissement particulier dans des artistes individuels et identifiables ». En fait, Spotify vise avant tout à maintenir ses clients dans leur zone de confort. Spotify incarne « un modèle de créativité axé sur le service client qui conduit à une stagnation esthétique », explique Pelly. Le « son Spotify » ressemble à la décoration des appartements sur Airbnb, partout identique.

« À quel moment un système de recommandation cesse-t-il de recommander des chansons et commence-t-il à recommander une idée complète de la culture ? » demande Pelly. Spotify préfère que vous vous engagiez de la manière la plus passive et la plus distraite possible. Comme en politique, les superstructures panoptiques fonctionnent mieux lorsque leurs sujets ne leur accordent pas trop d’attention. Comme l’aurait dit un jour Daniel Ek, le fondateur de Spotify, « notre seul concurrent est le silence ». Dans le New Yorker, le prof de littérature Hua Hsu qui discute du même livre, parle d’un syndrome Spotify comme d’un syndrome de Stockholm. « Tout comme nous entraînons l’algorithme de Spotify avec nos goûts et nos dégoûts, la plateforme semble, elle, nous entraîner à devenir des auditeurs 24 heures sur 24 ». Pelly soutient, en fait, que la plus grande innovation de Spotify a été sa compréhension de l’affect, de la façon dont nous nous tournons vers la musique pour nous remonter le moral ou nous calmer, nous aider à nous concentrer sur nos devoirs ou simplement nous dissocier. Contrairement aux maisons de disque, son but n’était pas de nous vendre un tube dont on se lasse, mais de nous vendre un environnement sonore permanent. Quand on écoutait MTV ou la radio, nous pouvions parfois tomber sur quelque chose de différent ou d’inconnu. Désormais, la personnalisation « laisse présager d’un avenir sans risque, dans lequel nous ne serons jamais exposés à quoi que ce soit que nous ne voudrions pas entendre ». Sur Spotify, « les sons flottent en grande partie sans contexte ni filiation ». Les artistes y sont finalement assez invisibles. La musique décontextualisée de son histoire.

Internet était censé libérer les artistes de la monoculture, en offrant les conditions pour que la musique circule de manière démocratique et décentralisée. Certes, elle circule plus que jamais, mais la monoculture, elle, s’est terriblement renforcée.

Spotify, une ubérisation comme les autres

Dans les bonnes feuilles du livre que publie Harpers, Pelly évoque une autre dimension des transformations qu’a produit la plateforme, non pas sur les utilisateurs et clients, mais sur la musique et les musiciens eux-mêmes. Elle décrit les artistes fantômes de la plateforme, une polémique où les playlists populaires de Spotify semblaient se peupler de musiques de stock et d’artistes qui n’existaient pas. Pelly montre que Spotify avait en fait, malgré ses longues dénégations, bel et bien des accords avec des sociétés de productions pour produire des flux de musique moins chers. Ce programme, baptisé Perfect Fit Content (PFC, que l’on peut traduire par « contenu parfaitement adapté »), offrait des conditions de rémunération moindre et visait clairement à réduire les droits payés par Spotify aux artistes, normalisant des titres bons marchés pour remplir les playlists. « Au milieu des années 2010, le service s’est activement repositionné pour devenir une plateforme neutre, une méritocratie axée sur les données qui réécrivait les règles de l’industrie musicale avec ses playlists et ses algorithmes ». En se rendant compte que de nombreux abonnés écoutaient de la musique en fond sonore, Spotify a opté pour une solution qui lui permettait de réduire les dividendes qu’elle versait au majors (représentant quelques 70 % de ses revenus) afin de devenir bénéficiaire. Pour cela, elle a misé sur les recommandations par playlists d’humeur qui se sont peu à peu peuplées de titres PFC – et ce alors que Spotify se défend de faire des placements de chansons dans ses playlists.

De nombreuses entreprises fournissent désormais Spotify en musique libre de droits à petits budgets, au détriment d’artistes indépendants. Loin d’être la plateforme de la méritocratie musicale qu’elle prétend être, Spotify, comme bien des entreprises, « manipule secrètement la programmation pour favoriser le contenu qui améliore ses marges ». Pour les musiciens précarisés qui produisent ces musiques, cela ressemble surtout à une ubérisation à marche forcée, avec des enregistrements à la chaîne et des musiques écrites sur un coin de table pour correspondre à un style précis, qui signent des contrats avec des droits réduits. « La musique de fond est à certains égards similaire à la musique de production, un son produit en masse sur la base d’un travail à la demande, qui est souvent entièrement détenu par des sociétés de production qui le rendent facilement disponible pour la publicité, la sonorisation de magasin, la production de films… » Ce que l’on appelle « la musique de production » est d’ailleurs en plein essor actuellement, explique Pelly, notamment pour créer des fonds sonores aux micro-contenus vidéo de Youtube, Insta ou TikTok, afin d’éviter des accords de licences compliqués voire la suppression de contenus lié à la violation du droit d’auteur. Pour ces entreprises qui produisent de la musique à la chaîne, comme Epidemic Sound, la musique n’est rien d’autre qu’une « activité de données », aplanissant les différences entre les musiques, produisant un brouillage des frontières esthétiques.

Les musiciens de l’Ivors Academy, une organisation britannique de défense des auteurs-compositeurs, affirment que les « frictions » que des entreprises comme Epidemic cherchent à aplanir sont en fait des protections industrielles et de droit d’auteur durement gagnées. Nous sommes entrés dans une course au moins disant, explique un producteur. Quand ces morceaux décollent en audience, ils génèrent bien plus de revenus pour Spotity et les labels fantômes que pour leurs auteurs, par contrat. « Ce traitement de la musique comme rien d’autre que des sons de fond – comme des pistes interchangeables de playlists génériques et étiquetées en fonction de l’ambiance – est au cœur de la dévalorisation de la musique à l’ère du streaming. Il est dans l’intérêt financier des services de streaming de décourager une culture musicale critique parmi les utilisateurs, de continuer à éroder les liens entre les artistes et les auditeurs, afin de faire passer plus facilement de la musique à prix réduits, améliorant ainsi leurs marges bénéficiaires. Il n’est pas difficile d’imaginer un avenir dans lequel l’effilochage continu de ces liens érode complètement le rôle de l’artiste, jetant les bases pour que les utilisateurs acceptent la musique créée à l’aide de logiciels d’IA générative. » Epidemic Sound a déjà prévu d’autoriser ses auteurs à utiliser les outils d’IA pour générer des pistes musicales. Et Spotify, pour sa part, a fait part ouvertement de sa volonté d’autoriser la musique générée par l’IA sur la plateforme.

L’exploitation de l’IA par Spotify ne s’arrête pas là. Elle est toujours corrélée à des initiatives pour réduire les coûts, rappelle Pelly, en évoquant par exemple le Discovery Mode, un programme de promotion automatique où les artistes qui acceptent d’y participer acceptent également une redevance inférieure. Bien sûr,  Discovery Mode a attiré l’attention des artistes, des organisateurs et des législateurs et il est probable que PFC attise également les critiques… Mais « les protestations pour des taux de redevance plus élevés sont plus difficiles quand les playlists sont remplies d’artistes fantômes ».

La couverture du livre de Liz Pelly, Mood Machine.On y voit le titre « Mood Machine » ainsi que le sous-titre « The rise of the Spotify and the cost of perfect playlist ». Il y a une douzaine de carrés de couleur, agencés sur l'ensemble de la couverture, dont certains contiennent des photos de personnes représentant des moments de la vie (dormir, écouter de la musique, rire, méditer en bord de mer) et d'autres représentant dans formes abstraites.

La couverture du livre de Liz Pelly, Mood Machine.

MÀJ du 27/01/2025 : Liz Pelly est en interview dans le Monde.

24.03.2025 à 07:42

Khrys’presso du lundi 24 mars 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (11100 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

L’histoire de la semaine

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

RIP

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

La mauvaise conduite de la semaine

  • Paris : 13 blessés dont 10 policiers après un refus d’obtempérer (liberation.fr)

    on voit le véhicule des mis en cause percuter le feu rouge, avant d’être à son tour heurté par une voiture de police qui le suivait. Une deuxième voiture de police suivant juste après s’encastre à son tour dans la première voiture de police. Un peu plus tard, une troisième voiture de police vient percuter les deux premières.

  • La vidéo associée (tube.fdn.fr)

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

23.03.2025 à 09:00

Y aura-t-il une alternative au technofascisme ?

Framasoft

Dans « Les prophètes de l’IA », le journaliste Thibault Prévost nous explique que le futur est désormais un programme idéologique et politique, celui des grands acteurs de la Tech. Leur objectif : faire perdurer la religion, le capitalisme et le colonialisme en les rendant fonctionnels.
Texte intégral (3824 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 08 novembre 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Dans « Les prophètes de l’IA », le journaliste Thibault Prévost nous explique que le futur est désormais un programme idéologique et politique, celui des grands acteurs de la Tech. Leur objectif : faire perdurer la religion, le capitalisme et le colonialisme en les rendant fonctionnels. La méthode que met en œuvre cette petite élite de technomilliardaires consiste à prendre le pouvoir par la technologie, non pas pour sauver le monde, mais uniquement pour se sauver eux-mêmes. La perspective technofasciste est un récit éminemment séducteur… mais sans horizon, puisque cette élite ne propose ni d’améliorer notre futur ni d’en partager les fruits. Seulement de renforcer leur pouvoir.

 

 

 

 

 

Le livre du journaliste Thibault Prévost, Les prophètes de l’IA (Lux éditeur, 2024), a une grande vertu : nettoyer notre regard de ce qui l’embrume.

Il permet d’abord de comprendre que la technologie ne mobilise pas tant des imaginaires, comme on l’entend trop souvent, mais bien des idéologies. Imaginaire, le terme fait référence à quelque chose qui n’existerait que dans l’imagination, qui serait sans réalité, comme dévitalisé, sans effet autre que sûr le rêve et l’irréel. Rien ne me semble moins vrai. Ce que nous sommes capables de composer dans nos esprits à une puissance d’évocation sans précédent, qui mobilise et galvanise les énergies et façonne le réel. Le terme d’imaginaire dépolitise ce que nos esprits façonnent, quand les récits que nous brodons et partageons construisent d’abord des ralliements, des adhésions ou leur exact inverse, des rejets, des défections, des oppositions. Ce que nous imaginons ne flotte pas dans l’éther, bien au contraire. Nos imaginaires reflètent tout le temps des idées et conduisent nos agissements, décrivent des façons de voir le monde, de le régir, de le gouverner. Imaginaire : le terme ne vise qu’à dépolitiser ce qui est à l’œuvre dans la mise en représentation du monde, à savoir dévitaliser les luttes idéologiques par des récits neutralisés qui ont pour but de les rendre plus séduisants, plus accrocheurs, plus malléables, plus appropriables, plus diffusables. Mais derrière le storytelling, les récits que l’on construit sur l’IA, les discours que l’on porte sur la technologie, il n’est question de rien d’autre que d’une lutte idéologique.

A mesure que la technologie a pris une place prépondérante dans nos sociétés, le discours qui la porte s’est chargé de promesses, de prophéties, de mythes, de prédictions qui se sédimentent en idées politiques qui annoncent, au choix, la fin du monde ou le retour des Lumières. L’un comme l’autre d’ailleurs n’ont qu’un objectif : nous éloigner de la réalité et nous faire adhérer à leur promesse. À savoir qu’il n’y a pas d’alternative au futur que propose la technologie. Qu’il soit rose ou sombre, c’est la technologie qui le façonne, c’est l’élite technologique qui le construit. Le futur est devenu une religion.

Prévost rappelle trop rapidement la longue histoire de l’avènement des religions technologiques, schismes du rêve transhumaniste, pour se concentrer surtout sur les courants et les figures les plus récents. Ce qui l’intéresse, c’est de regarder les habits les plus neufs du transhumanisme, cette consécration de la science et de la technologie, qui promet d’améliorer la condition humaine. Qui souhaite rendre la religion, le capitalisme et le colonialisme fonctionnels, effectifs, comme pour les faire perdurer à jamais. Ces courants qui déifient les sciences de l’ingénierie ne proposent pas qu’une transcendance, c’est-à-dire un dépassement de l’homme par la technique, mais bien l’avènement d’une technocratie toute puissante. L’essai, qui se présente sous forme d’un catalogue des idées du secteur, devient vite épuisant à lire, tant ces délires mis bout à bout se concatènent dans leur logique rance, qui ne produit rien d’autre qu’un total mépris pour la société comme pour les individus qui la composent.

Un monde de… tarés

Le livre de Thibault Prévost a une autre vertu. Il nous montre que les grands ingénieurs, les grands investisseurs, les grands entrepreneurs et les grands penseurs de l’IA sont tous complètement… tarés ! Excusez du peu ! Les récits de dépassement, de conquête, de croisade, de puissance ou d’IApocalypse qu’ils nous vendent forment un ramassis de technodélires qui n’ont rien de sérieux ou de rationnel, malgré le fait qu’ils se présentent ainsi. Ces délires sur l’intelligence artificielle générale, sur la transcendance par la machine comme sur l’effondrement, nous abreuvent d’idéologies hors-sol, sectaires, fanatiques et vides pour mieux invisibiliser leur autoritarisme et leur cupidité débridée (à l’image de celle qu’exprimait Mustafa Syleyman dans son livre particulièrement confus, La déferlante). Tous les grands gourous de la tech que Prévost évoque dans son livre (et il n’y a pas que Musk) semblent d’abord et avant tout des individus totalement perchés et parfaitement lunaires. Ils sont tous profondément eugénistes, comme le répète le chercheur Olivier Alexandre (voir aussi dans nos pages). Ils sont obsédés par le QI et la race. Ils ont à peu près tous tenu à un moment ou à un autre des propos racistes. Ils sont tous profondément opposés à la démocratie. Ils partagent tous des discours autoritaires. Derrière leurs récits, aussi barrés les uns que les autres, tous n’oeuvrent qu’à leur propre puissance. A peu près tous partagent l’idée que ceux qui ne croient pas en leurs délires sont des parasites. Leur délire élitiste, eugéniste et cupide a de quoi inquiéter. Le futur qu’ils nous vendent n’a rien d’un paradis, puisqu’il ne remet en rien en cause des privilèges qui sont les leurs, bien au contraire. Tous nient les biens communs. Tous veulent détruire la régulation, à moins qu’ils en soient en maîtres. Ils nous exhortent à penser un futur si lointain qu’il permet de ne plus être fixé dans un cadre politique normé, ce qui permet de totalement le dépolitiser. Tous cachent les enjeux politiques qu’ils défendent sous des questions qui ne seraient plus que technologiques. Remplacer le discours politique par un discours technique permet d’abord de déplacer son caractère politique, comme pour l’aseptiser, l’invisibiliser.

A le lire, Prévost nous donne l’impression de nous plonger dans les disputes sectaires, rances et creuses… qui anônent un « cocktail d’arrogance élitiste et de naïveté qui défend férocement la légitimité morale des inégalités ». Qu’ils se définissent comme altruistes efficaces, longtermistes, doomers, ultralibertariens, extropiens ou rationalistes… (tescralistes, comme les ont qualifiés Timnit Gebru et Emile Torres), ils semblent avant tout en voie de fascisation avancée.

L’IA ne va pas sauver le monde, elle vise à sauver leur monde !

L’IA ne va pas sauver le monde. Elle vise à sauver leur monde, celui d’une caste de milliardaires au-dessus des lois qui cherchent à se garder du reste de l’humanité qu’elle abhorre. « L’IA n’est que le paravent technique d’une entreprise tout à fait classique de privatisation et de captation des richesses ». L’IA vise d’abord la préservation du taux de profit.

La Tech a longtemps été Démocrate et pro-démocratie, rappelle le journaliste, mais c’est de moins en moins le cas. La perspective que la Silicon Valley perde de sa puissance, explique en partie son réalignement. Le techno-solutionnisme progressiste qu’ils ont longtemps poussé a fait long feu : la Tech n’a produit aucun progrès social, bien au contraire. Ses solutions n’ont amélioré ni la démocratie, ni l’économie, ni l’égalité, ni l’espérance de vie… surtout quand on les compare aux technologies sociales du XXᵉ siècle comme l’hygiène publique, le développement des services publics ou la justice économique.

Si ces évolutions politiques ont plusieurs origines, l’influence de grandes figures, de financeurs milliardaires, sur le secteur, semble déterminant, à l’image des Marc Andreessen et Peter Thiel, qui ne sont pas tant des évangélistes de la tech, que des évangélistes néolibéraux ultra-conservateurs, qui promeuvent par leurs discours et leurs investissements des projets anti-régulation et autoritaires. Prévost rappelle que la grande caractéristique de cette élite financière est d’être férocement opposée à la démocratie. Ces milliardaires rêvent d’un monde où une poignée d’individus – eux – captent toutes les richesses et tous les pouvoirs. « La tech est un système immunitaire développé par le capitalisme pour lutter contre tout ce qui pourrait le mettre en crise », disait déjà Antoinette Rouvroy. Ces gens sont tous admirateurs de régimes autoritaires. Ils rêvent d’un progrès technique sans démocratie tel qu’ils le font advenir dans les outils qu’ils façonnent et les entreprises qu’ils dirigent.

En compilant toutes ces petites horreurs qu’on a déjà croisées, éparses, dans l’actualité, Prévost nous aide à regarder ce délire pour ce qu’il est. Nous sommes confrontés à « un groupe radicalisé et dangereux », d’autant plus dangereux que leur fortune astronomique leur assure une puissance et une impunité politique sans précédent. Leurs exploits entrepreneuriaux ou financiers ne peuvent suffire pour les absoudre des horreurs qu’ils prônent. Prévost les montre comme ce qu’ils sont, un freak-show, des sortes de monstres de foire, complotistes, fascistes, prêts à rejoindre leurs bunkers et dont le seul rêve est de faire sécession. Le journaliste décrit un monde réactionnaire qui ne craint rien d’autre que son renversement. « Ces patrons méprisent nos corps, nos droits, nos existences ». Leur discours sur les risques existentiels de l’IA permet de masquer les effets déjà bien réels que leurs outils produisent. « L’IA est une métaphore du système politique et économique capitaliste qui menace l’espèce humaine ». Pour sécuriser leur avenir, cette élite rêve d’un technofascisme qu’elle espère mettre en œuvre. Notamment en manipulant les peurs et les paniques morales pour en tirer profit.

Le pire finalement c’est de constater la grande audience que ces pensées rances peuvent obtenir. La réussite fait rêver, la domination fait bander… oubliant qu’il s’agit de la domination et de la réussite d’un petit monde, pas de celui de l’Occident ou de tous les entrepreneurs du monde. En nous répétant que le futur est déjà décidé et qu’ils en sont les maîtres, ils nous intoxiquent. « À force de se faire dire que le futur est déjà plié, que c’est la Silicon Valley qui décide de l’avenir de l’humanité, le public, convaincu qu’il n’a pas son mot à dire sur des enjeux qui le dépassent, remet son destin entre les mains des Google, Microsoft, Meta ou Amazon. » Ce déplacement permet d’orienter la régulation vers des dangers futurs pour mieux laisser tranquille les préjudices existants. Derrière la promotion de leur agenda néolibéral pour maximiser leurs profits aux dépens de l’intérêt général, se profile le risque d’une bascule vers un capitalisme autoritaire qui contamine le monde au-delà d’eux, comme le notait la chercheuse Rachel Griffin. « À l’instar de la Silicon Valley, l’Union européenne semble être en train de mettre à jour son logiciel idéologique vers un capitalisme autoritaire qui privilégie l’économie de la rente et les monopoles à l’économie de marché et la concurrence ». Cette transformation du capitalisme est assurée par la technologie. Les systèmes s’immiscent dans nos institutions, à l’image de leurs LLM que les acteurs publics s’arrachent en permettant aux entreprises de la Silicon Valley « d’étendre leur intermédiation sur un corps social médusé ». Qu’importe si ChatGPT raconte n’importe quoi. Les prophètes de l’IA, ces « bullionaires » (contraction de bullshitters et de millionnaires) eux aussi mentent avec assurance. Derrière leurs délires apparents, un transfert de pouvoir est en cours. Pas seulement une privatisation du futur, mais bien son accaparement par quelques individus qui font tout pour n’avoir de compte à rendre à personne. La fétichisation de l’individu rationnel, tout puissant, du génie solitaire, du milliardaire omnipotent, du grotesque individualiste ne nous conduit à aucune société qu’à son délitement. La métaphore computationnelle qui permet d’affirmer que la seule intelligence est désormais celle de la machine, vise à nous reléguer, à nous transformer en une marchandise dévaluée, puisque nos esprits valent désormais moins que le calcul, tout comme notre force de travail a été dévaluée par l’énergie fossile.

La couverture du livre de Thibault Prévost : « Les prophètes de l'IA ». On y voit un champignon nucléaire formant un cerveau, le tout sur un fond de circuits imprimés.

Couverture du livre de Thibault Prévost.

Du grand leurre de l’IA au risque technofasciste

Prévost rappelle que les machines nous trompent. Que l’automatisation est un leurre qui masque les ingénieurs et les travailleurs du clic qui font fonctionner les machines à distance. L’IA générative aussi. Nombre d’utilisateurs de ChatGPT l’abandonnent au bout d’une quarantaine de jours, comme un jouet qu’on finit par mettre de côté. Google SGE produit des fausses informations après plus d’un an de tests. Par essence, la prédiction statistique ne permet pas de produire de résultats fiables. Partout où ils se déploient, ces systèmes se ridiculisent, obligeant à les surveiller sans cesse. Notre avenir sous IA n’est pas soutenable. Il repose sur un pillage sans précédent. Les « cleptomanes de la Valley » ne cessent de nous dire que l’IA doit être illégale pour être rentable. L’IA est une bulle financière qui risque de finir comme le Metavers (que McKinsey évaluait à 5000 milliards de dollars d’ici 2030 !).

« Arrêtons pour de bon de donner du crédit aux entrepreneurs de la tech. Depuis le début de la décennie 2020, le technocapitalisme ne fonctionne plus que par vagues d’hallucinations successives, suivies de (très) brèves périodes de lucidité. La Silicon Valley semble bloquée dans un trip d’acide qui ne redescend pas, et dont l’IA n’est que la plus récente hallucination », rappelle, cinglant, Thibault Prévost, fort des punchlines saisissantes auxquelles il nous a habitués dans ses articles pour Arrêt sur Images.

L’IA n’est que la nouvelle ligne de front de la lutte des classes, où les systèmes d’analyse dégradent les conditions d’existence des plus mal notés, ce lumpenscoretariat. Sa grande force est d’avancer masqué, opaque, invisible à ceux qu’il précarise. Nous n’utilisons pas l’IA, mais nous y sommes déjà assujetties, explique très justement Prévost. Les systèmes de calculs se démultiplient partout. « Aucun d’entre eux n’est fiable, transparent ou interprétable. Nous vivons tous et toutes à la merci de l’erreur de calcul sans recours ».

« Les systèmes d’IA sont le reflet des oligopoles qui les commercialisent : privés, opaques, impénétrables, intouchables, toxiques et dangereux. » L’IA prolonge le continuum des discriminations et de l’injustice sociale et raciale. La faute aux données bien sûr, jamais « à leurs beaux algorithmes neutres et apolitiques ».

« Comme l’idéologie d’extrême droite, l’IA échoue à représenter le monde. Elle ne fonctionne que par archétypes et biais, par catégorisation a priori ». Elle rappelle aux humains la distance qui les sépare de la norme masculine, blanche et riche. L’IA n’est rien d’autre qu’une « prothèse pour le maintien de l’ordre social racial et l’avancée des projets capitalistes impérialistes », comme le dit Yarden Katz dans son livre Artificial Whiteness. Elle n’est rien d’autre que le nouvel auxiliaire du pouvoir. Elle exploite la violence structurelle comme une grammaire et un grand modèle d’affaires. « Si la Silicon Valley essaie de nous vendre l’apocalypse, c’est parce que son projet technique, économique et politique en est une ». Ce que veulent les milliardaires de la tech, c’est la fin du monde social pour imposer le leur.

Avec l’élection de Trump, c’est exactement là où nous sommes. La Silicon Valley a obtenu ce qu’elle voulait, dit Brian Merchant.

Dan McQuillan nous avait mis en garde du risque fasciste de l’IA. Les opportunités politiques sont devenues des prises de risques financières. La victoire de Trump vient d’assurer à Musk et quelques autres la rentabilité de tous leurs investissements. Son rachat de Twitter n’était rien d’autre que l’achat d’une arme qu’il a transformée en site suprémaciste, pour amplifier ses délires, permettant d’attiser la haine en ligne et la traduire en vote et en violence dans le monde physique. Comme l’explique Martine Orange pour Mediapart, l’enjeu, désormais, consiste à éradiquer la régulation et mettre l’ensemble de l’appareil d’État à la disposition de la Tech, c’est-à-dire assurer la mainmise de la Tech sur le pouvoir politique.

Face au technofascisme qui vient, le risque est que nous soyons démunis d’alternatives technologiques et donc idéologiques. Sans récit et réalisations progressistes de la tech, la seule option pour beaucoup ne consistera qu’en une chose : abandonner la technologie et arrêter les machines.

Hubert Guillaud

 

MAJ du 19/11/2024 : Allez lire également ce très bon entretien avec Thibault Prévost qui explique que l’IA n’est pas qu’un outil de puissance au service des technoprophètes, il est aussi un outil d’asservissement et de déresponsabilisation de la puissance publique.

20 / 20
 Persos A à L
Mona CHOLLET
Anna COLIN-LEBEDEV
Julien DEVAUREIX
Cory DOCTOROW
EDUC.POP.FR
Marc ENDEWELD
Michel GOYA
Hubert GUILLAUD
Gérard FILOCHE
Alain GRANDJEAN
Hacking-Social
Samuel HAYAT
Dana HILLIOT
François HOUSTE
Tagrawla INEQQIQI
Infiltrés (les)
Clément JEANNEAU
Paul JORION
Michel LEPESANT
Frédéric LORDON
Blogs persos du Diplo
LePartisan.info
 
 Persos M à Z
Henri MALER
Christophe MASUTTI
Romain MIELCAREK
Richard MONVOISIN
Corinne MOREL-DARLEUX
Timothée PARRIQUE
Thomas PIKETTY
PLOUM
VisionsCarto
Yannis YOULOUNTAS
Michaël ZEMMOUR
 
  Numérique
Christophe DESCHAMPS
Louis DERRAC
Olivier ERTZSCHEID
Olivier EZRATY
Framablog
Francis PISANI
Pixel de Tracking
Irénée RÉGNAULD
Nicolas VIVANT
 
  Collectifs
Arguments
Bondy Blog
Dérivation
Dissidences
Mr Mondialisation
Palim Psao
Paris-Luttes.info
ROJAVA Info
 
  Créatifs / Art / Fiction
Nicole ESTEROLLE
Julien HERVIEUX
Alessandro PIGNOCCHI
XKCD
🌓