LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
Réseau d'éducation populaire au Libre.

ACCÈS LIBRE

▸ les 20 dernières parutions

14.08.2025 à 08:42

Techno parade

Framatophe

La prétendue « neutralité technologique » est un écran de fumée politique au service d’un discours néolibéral. Face à cela, il ne s’agit pas de rejeter la technologie en bloc, mais de l’aborder selon plusieurs perspectives qu’il faut sans cesse renouveler. Si … Lire la suite­­
Texte intégral (12127 mots)

La prétendue « neutralité technologique » est un écran de fumée politique au service d’un discours néolibéral. Face à cela, il ne s’agit pas de rejeter la technologie en bloc, mais de l’aborder selon plusieurs perspectives qu’il faut sans cesse renouveler. Si la technique reconfigure toujours nos rapports sociaux, la bonne approche qui s’impose consiste à résister aux systèmes de pouvoir et de continuer à débattre.


L’arrivée des IA génératives dans le grand public permet d’observer la manière dont s’enchaînent les discours sur les techniques dans la société. Ils s’enchaînent, dis-je, car ils ne naissent pas. Ils se répètent. Et pourtant depuis Marc Bloch et Lucien Febvre, les universitaires ont fait du chemin pour dresser les méthodes et concepts de l’histoire des techniques. À leur tour, l’anthropologie et la sociologie ont spécialisé des branches disciplinaires sur les techniques. Et je pense que depuis les années 1970 il n’y a pas eu un instant où le rapport entre technique et société n’a pas été interrogé. Cela tient sans doute au fait qu’avec les Trente Glorieuses et l’informatisation de la société, les occasions d’identifier de multiples objets d’étude n’ont cessé de se multiplier. Et malgré tout cela, rien n’y semble faire. Une émission de radio (service public) sur l’arrivée des IA génératives (IAg) dans nos usages quotidiens ? elle se terminera invariablement sur le poncif relativiste du « c’est ni bon ni mauvais, tout dépend de comment on s’en sert ».

Je me suis toujours demandé d’où pouvait bien provenir cet indécrottable relativisme qui brouille nos rapports sociaux. Peut-être faut-il en chercher la cause dans le fait qu’on on apprend très tôt que faire usage d’un argument, c’est déjà presque commettre un abus. Dans nos démocraties libérales où, souvent, les égaux sont seulement supposés, parler haut et clair revient à menacer l’autre de le faire apparaître confus — donc à l’opprimer. À moins d’être couvert par le statut d’autorité institutionnelle, ou d’exercer la raison du genre dominant, et donc effectivement exercer un pouvoir, mieux vaut donc se taire ou douter, et retourner bosser. Résultat : une société intellectuellement désarmée, éduquée à la déférence molle au service des « gagnants ».

Alors parlons fort, à défaut parfois d’être clair : ce relativisme est le terreau idéal pour une absorption efficace des discours politiques qui instrumentalisent les idées vaseuses de progrès et de neutralité des techniques. De là vient le pouvoir non des techniques elles-mêmes mais de ceux qui les instrumentalisent. Le débat sur la neutralité des techniques vise deux objectifs : d’une part soutenir la vision instrumentale des groupes d’intérêts économiques, en vue de nous faire croire qu’il faut s’adapter à leur monde, et d’autre part un détournement du cadre de nos libertés qui limite les techniques à leur contrôle hiérarchique. Un autre objectif dont nous ne parlerons qu’à la marge dans ce billet est celui des groupes complotistes : ils concernent des pratiques de déstabilisation politique en vue d’intérêts économiques, mais les étudier revient à partir sur d’autres considérations que celles développées ici.

Ce billet est expérimental. Je vais tâcher d’aligner quelques arguments à partir d’une analyse du relativisme technologique et de son instrumentalisation politique. Je déconstruirai ensuite le mythe de la neutralité de la technique en explorant différentes perspectives entre Marx et Langdon Winner, en envisageant plusieurs postures. Enfin, je tâcherai de trouver une porte de sortie vers une décentralisation des techniques.

Le symptôme idéologique

Il faut l’affirmer ici avec, peut-être, une certaine condescendance envers ceux qui se torturent les méninges à ce sujet : la technique n’est pas neutre, et nous le savons depuis très longtemps que ce soit d’un point de vue purement intuitif ou d’un point de vue épistémologique ou philosophique. Il faut être sérieux sur ce point. La question formulée « La technique est-elle neutre ? » est un artifice dissertatif visant à poser un cadre conceptuel sur le rapport entre technique et société. Et c’est d’ailleurs ce que nous allons faire ici.

Si je précise cela, c’est parce les discours politiques sur la neutralité technologique sont souvent caricaturés : on les réduit à des prises de position légères, comme s’ils ignoraient ou négligeaient les responsabilités liées aux impacts sociaux des techniques. Nous avons nous mêmes pratiqué cet artifice sur le Framablog, par souci de concision (et aussi à cause d’un esprit quelque peu revanchard, mais justifié) lorsque nous avons parlé des mots de la ministre de l’Éducation Najat Vallaud-Belkacem à l’époque de la signature d’un partenariat avec Microsoft. Mais caricaturer amène parfois à ignorer naïvement combien la posture en question est en réalité retorse et malsaine. Les responsabilités ne sont ni négligées ni ignorées, elles sont évacuées par la trame néolibérale à laquelle adhèrent les acteurs politiques. C’est d’autant plus grave.

Il s’agit bien ici de technologie et non de technique. La technique, c’est le savoir-faire, le métier, l’outil, le dispositif. La technologie est un mot plus récent, il décrit l’ensemble du système qui va des connaissances à la mise en œuvre technicienne. Pour faire vite, le clavier est un objet technique, la frappe est une technique, là où il y a une foule de technologies qui font qu’Internet existe. Dans le monde de la décision publique, ce qu’on appelle les politiques technologiques sont les décisions stratégiques (négociations, lois, contrats et accords) qui sont censées donner les orientations technologiques d’un pays.

Dans ce contexte, la plupart des discours politiques, et même des lois promulguées par les élus, postulent une « neutralité technologique » des institutions, des fonctions représentatives, ou plus généralement des organes de l’État. Pour donner un exemple récent, on peut citer l’examen au Sénat Français de la proposition de loi Programmation et simplification dans le secteur économique de l’énergie, dans la séance du 8 juillet 2025. Un amendement (num. 19 rectifié bis) portait sur l’ajout de la mention « neutralité technologique » en complément à la question de la maîtrise des coût. Le rapporteur arguait sur le fond que « la neutralité technologique est un bon principe en matière de politique énergétique, dans la mesure où il permet de ne pas opposer les différentes énergies décarbonées entre elles – il ne faut surtout pas le faire ! –, qu’elles soient d’origine nucléaire ou renouvelables ». L’amendement fut adopté.

Ce principe de « neutralité technologique » se retrouve à de multiples échelons des politiques internationales. Ainsi, les politiques européennes prônent depuis longtemps ce principe au risque parfois de quelques pirouettes rhétoriques. Par exemple au lieu de persister à affirmer que l’objectif consiste à ne plus vendre de voitures thermiques en 2035, la Commission Européenne invoque le principe de neutralité technologique : l’objectif est que les voitures n’émettent plus de CO2, mais comme la Commission est « neutre technologiquement », elle n’imposerait rien d’autre et encore moins les voitures électriques, or il se trouve que les voitures thermiques émettent du CO2…

Qu’il s’agisse de la Commission Européenne ou de ce débat au Sénat Français, ils révèlent tous deux la manière dont le pouvoir de l’État est pensé, c’est-à-dire une tartufferie néolibérale qui impose d’un côté un contrôle effectif à l’encontre de tout favoritisme pour une technologie dont seules certaines entreprises pourraient se prévaloir d’un monopole ou d’une hégémonie, et d’un autre côté une logique de diminution de l’autorité publique sur les équilibres en jeu entre technologie, société et environnement. C’est à la société de se réguler toute seule, « yaka proposer » (pour reprendre les termes de Najat Vallaud-Belkacem). C’est évidemment faire fi de toutes les questions liées à la propriété des techniques (la propriété intellectuelle, entre autre), aux pouvoirs financiers qui fixent les prix et imposent à la société des modèles la plupart du temps insupportables (pour les humains comme la planète en général).

Au sommet de cette tartufferie, on retrouve notre cher président E. Macron affirmant en novembre 2024 :

« Et moi, je me fiche de savoir que l’électron qui m’aide à faire l’électrolyse pour produire de l’hydrogène vert soit un électron qui est fait à base d’éoliens offshore au Danemark, de solaire en Espagne ou de nucléaire en France. Ce que je veux, c’est que ce soit de l’hydrogène européenne compétitive décarbonée. »

Pourvu que ce soit compétitif et que cela satisfasse les accords Européens, la messe est dite. Et pour les conséquences, on repassera.

Terminal de contrôle de la centrale électrique du Fort de Mutzig (1893)

Terminal de contrôle de la centrale électrique de la forteresse Kaiser Wilhelm II (Fort de Mutzig, 1893), produite par l’entreprise Siemens-Schuckert. Ce fort rassemble une foule d’innovations de la fin du XIXe siècle mises au service de la logique de guerre (électricité, télécommunications, armement…). Photographie : Thomas Bresson , CC-By 3.0 (Wikimédia), 2010.

L’injonction néolibérale

C’est pas sans arrière-pensée que j’aborde le sujet de la neutralité technologique par le prisme des postures politiques. Habituellement, on s’interroge sur la manière dont le politique s’empare de la question après avoir analysé le cadre. Or, comme je l’ai dit, nous avons déjà la réponse : la technique n’est pas neutre, on le sait depuis Platon (cf. Le Gorgias). Ce qui est étonnant en revanche, c’est de voir comment le principe de neutralité technologique est en fait un instrument de régulation (ou de non-régulation, justement). C’est ce qui fait par exemple que la souveraineté numérique d’un pays Européen est un objectif géostratégique rendu impossible à cause de l’entrisme permanent des géants multinationaux comme Microsoft qui, au nom de cette neutralité technologique des institutions, ont réussi à imposer leurs systèmes techniques au détriment de solutions alternatives qui ne sont justement pas choisies par la décision publique, toujours au nom de cette neutralité.

C’est là que se fait la jonction. La neutralité technologique des institutions est elle-même un instrument (un sophisme dirait Socrate à Gorgias) car elle trouve sa justification sur deux plans. Le premier : laisser le marché déterminer les coûts tout en garantissant les équilibres concurrentiels sans que les enjeux sociétaux (les externalités négatives) viennent susciter un contrôle intempestif (i.e. : vous pouvez chopper des cancers, les exportations agricoles sont plus importantes que votre santé). Le second : si c’est à la société de s’auto-équilibrer en composant avec l’état du marché qui est lui-même une émanation de la société (vision simpliste du monde entrepreneurial), c’est à elle de proposer des alternatives technologiques et par conséquent toutes les techniques sont en soi neutres puisque c’est la manière dont elles sont employées qui a des conséquences, pas la manière dont elles se répartissent sur le marché.

Pour les institutions dans un monde capitaliste, il importe donc, devant toutes les innovations, de s’interroger sur leurs rentabilités et leur viabilité sur le marché avant que de s’interroger sur les valeurs que leur accorde la société. Si on voit bien que le néolibéralisme n’y accorde aucune importance, c’est justement parce que pour une telle politique, la neutralité de la technique n’est pas un sujet. Le sujet, c’est la libéralisation du marché. On considérera donc qu’une bonne politique sociale, obligée de naviguer dans ce même cadre néolibéral, aura tout intérêt à se soucier de ces valeurs, de la manière dont les technologies sont reçues et incorporées dans la société, afin que les institutions puissent apporter des réponses, des recours (i.e. soigner les cancéreux atteints par la pollution agricole, par exemple). Or, dans la mesure où, comme nous l’avons vu, une politique technologique ne peut ni ne doit favoriser qui que ce soit (par exemple favoriser des entreprises de logiciels libres ou open source au détriment de Microsoft au nom de la concurrence), elle ne peut pas émettre d’avis en faveur d’une technologie ou d’une autre, sauf si cela entre dans une stratégie économique donnée (une orientation générale industrielle, par exemple). Et si une bonne politique sociale ne peut pas changer les institutions du néolibéralisme, elle ne peut que se réfugier derrière la neutralité de la technique et émettre une bonne vieille réponse de normand : c’est à la société de voir comment réceptionner les techniques, pas au politique d’imposer un cadre qui relèverait de la société et non du marché.

Et c’est pourquoi on retrouve un Mitterrand expliquant tranquillement en novembre 1981 que la technique est neutre, que les innovations techniques s’imposent à nous et que c’est une question de maîtrise et de volonté que de faire en sorte qu’on puisse s’en arranger : en somme, il faut s’adapter (maîtriser les techniques, les introduire intelligemment…) :

« (… L)’informatique, parmi d’autres innovations majeures, aujourd’hui, est, me semble-t-il, capable de démultiplier considérablement les moyens de créer et de travailler de chacun. Cela certes, si elle était mal maîtrisée, si elle ne s’inscrivait pas dans un projet d’ensemble, l’informatique pourrait n’être, comme tant d’autres sciences et techniques, qu’une agression supplémentaire des individus, la source d’une aggravation de l’insécurité et du chômage, des inégalités, des oppressions. Elle pourrait conduire à une solitude croissante de l’homme, abandonné à un face à face tragique avec des objets de plus en plus sophistiqués, de plus en plus capables de raisonner et de communiquer entre eux.
Mais, au contraire, si elle est introduite intelligemment, dans le contexte d’un projet global de société, elle pourra transformer la nature du travail, créer des emplois, favoriser la décentralisation, la démocratisation des institutions, donner au commerce, au travail de bureau, à la poste, à la banque, aux entreprises petites et moyennes, des outils efficaces pour se développer. Enfin, et peut-être et surtout, elle apportera à la santé des hommes, à leur formation, à leur culture des moyens sans comparaison avec ceux dont ils disposent maintenant pour s’exprimer, leur permettant de multiplier, à un échelon considérable, leurs moyens d’apprendre, de créer et de communiquer. »

C’est ce genre de réflexion qui eut des conséquences tout à fait concrètes dans la société française. Par exemple : le plan Informatique Pour Tous lancé en 1985. Avant de devenir l’échec que l’on connaît, il eu un intérêt certain pour les élèves (dont moi) qui en ont bénéficié et qui ont pu se frotter à l’informatique et à la programmation très tôt. Mais, au fond, ce Plan ne disait pas autre chose que c’est à chacun de s’adapter à l’informatisation de la société, une « Révolution » qui n’est autre que la révolution des entreprises qui se lançaient toutes dans la grande aventure de l’optimisation de la production grâce à l’économie des données informatiques (c’est ce que j’ai montré dans mon bouquin). Message reçu par les enfants : l’informatique change le monde, si vous ne vous y mettez pas, c’est le chômage qui vous guette. Injonction néolibérale par excellence.

Le néolibéralisme a mit un demi-siècle pour imposer au monde ses principes. Alors que le libéralisme pensait à un « homme économique », le néolibéralisme pense l’homme en situation de concurrence permanente, c’est un humain « entrepreneur de lui-même », un mélange de volontarisme individuel et d’abdication des valeurs collectives et de commun. M. Foucault l’analysait ainsi dès 1979 : « Il s’agit de démultiplier le modèle économique, le modèle offre et demande, le modèle investissement-coût-profit, pour en faire un modèle des rapports sociaux, un modèle de l’existence même, une forme de rapport de l’individu à lui-même, au temps, à son entourage, à l’avenir, au groupe, à la famille. » (Foucault 2004, p. 247)

Dans nos subjectivités à tout instant l’injonction néolibérale résonne. C’est l’objet du livre de Barbara Stiegler (Stiegler 2019) qui résume la conception de Walter Lippmann, selon laquelle l’homme est incapable de s’adapter par nature à un état du monde qui s’impose et ne négocie pas (l’état économique industriel et productiviste du monde) et que c’est à l’État d’impulser la transformation de l’humain par l’éducation ou l’hygiénisme. Il en résulte cette injonction permanente, soit par des techniques comme le nudge et le jeu de l’influence-surveillance des individus, soit par l’autorité parfois brutale qui nous soumet aux dogmes néolibéraux.

Pour le discours politique de la « neutralité technologique », les innovations sont inéluctables, peu importe qui les produit et pourquoi. Que les plateformes aient créé un capitalisme de surveillance qui produit de la haute rentabilité sur la marchandisation de nos intimités numériques est un sujet qui n’est finalement pas interrogé par la décision publique sauf sur un mode réactif après moult plaidoyers et recours juridiques. Il faut s’y faire, c’est tout, parce que c’est ainsi que fonctionne l’économie numérique. On ira faire des courbettes à Zuckerberg et Musk pour leur demander de bien vouloir respecter le RGPD et verser quelques miettes pour toute indemnité.

C’est ce qui défini le « progrès technologique » : dans le cadre néolibéral, l’émergence des innovations et leur rôle dans la sphère économique sont conçus par le politique, de droite comme de gauche, comme une logique de marché à laquelle la société doit s’adapter. En matière d’économie numérique, par exemple, on sort de l’équation toute idée d’autogouvernance (pour ne pas dire autogestion) des outils numériques, ainsi que toute possibilité de réflexion collective qui irait à l’encontre des logiques de marché au profit des valeurs de justice ou de bien-être portées dans la société.

Dans un livre co-écrit par l’ex-syndicaliste (viré bien à droite dans ses vieux jours) Jacques Juillard et le philosophe Jean-Claude Michéa, les deux auteurs s’échangent des lettres (Michéa, Julliard 2018). Pour le premier, « Le progrès technique est axiologiquement neutre, (…) et le mauvais usage qui en a été fait par le capitalisme sous sa forme sauvage et prédatrice ne le condamne pas ». Dans sa lettre-réponse, le second lui rétorque, à raison, de prendre en compte niveau de complexité d’un système technique et d’interroger l’« usage émancipateur et humainement positif » des innovations. J.-C. Michéa souligne : « Or à partir du moment où l’accumulation du capital (…) ne repose pas sur la production de valeurs d’usage mais uniquement sur celle de valeurs d’échange (…), il est inévitable que le système libéral en vienne peu à peu à soumettre le pouvoir d’inventer lui-même au seuls impératifs de la rentabilité à tout prix. »

Se demander si les techniques sont émancipatrices et en faire un principe d’action et de décision, c’est éclater le carcan néolibéral dans lequel le politique s’est fourvoyé depuis tant d’années.

Un contrôle autoritaire

Mais il y a d’autres choix. Avant d’engager plus loin la réflexion, arrêtons-nous un instant sur les libertariens comme Peter Thiel (on se pincera le nez). Si nous nous interrogeons sur les « usages émancipateurs » des techniques, c’est que la conjoncture actuelle n’y est pas favorable. Une autre solution pourrait donc, comme le fait P. Thiel, consister à comparer les périodes et regretter que le rythme des innovations et de leur imprégnations dans la société soit fortement ralenti ces dernières années (Thiel 2025).

Une analyse économique pourrait nous montrer qu’il en va ainsi des cycles des innovations. Par exemple l’informatisation de la société a atteint un point d’inflexion, un ralentissement de croissance, une phase asymptotique où, bien que des nouveautés apparaissent, leur diffusion ne joue pas un grand rôle dans l’économie globale. Par exemple l’arrivée des IA génératives fait certes beaucoup parler, mais les équilibres économiques ne changent guère si ce n’est du point de vue des valeurs spéculatives (les « gros » restent les mêmes) créant une bulle technologique en manque de rentabilité. En pratique, si de nouveaux usages apparaissent, on est encore loin du bouleversement structurel de l’informatique d’entreprise des années 1970 ou de l’arrivée d’Internet dans les foyers. N’ayant pas de boule de cristal, je suppose qu’il est possible qu’un renversement se produise, néanmoins, pour l’instant, rien de semblable et on se préoccupe plutôt d’une économie de guerre, ce qui n’est pas plus réjouissant.

Or, P. Thiel propose un autre point de vue. Selon lui, si les techniques nous opposent des risques existentiels, comme la bombe atomique, nous avons tout fait pour ralentir leurs rythmes d’innovation, de création, et de changements sociaux. La raison plus profonde, c’est que les gouvernements au pouvoir on laissé (selon le cadre néolibéral) se développer des contraintes qui, aux yeux de P. Thiel, sont bien trop importantes pour que le « progrès » technique puisse se développer correctement et « augmenter » l’humanité. Les structures institutionnelles ont satisfait les revendications sociales et la politique fait bien trop appel à l’expertise scientifique, réputée contradictoire et laissant trop de place au doute. Telles seraient les causes de ce ralentissement. Il faudrait donc sortir de ce cadre, et effectuer des choix stratégiques qui accélèrent les techniques « bénéfiques » et contrôlent celles que l’on jugerait dangereuses. Reprenant les idées du philosophe transhumaniste Nick Bostrom, P. Thiel affirme que la solution pourrait consister en…

« un gouvernement mondial efficace, avec une police extrêmement efficace, pour empêcher le développement de technologies dangereuses et forcer les gens à ne pas avoir des opinions trop diverses — car c’est cette diversité qui pousserait certains scientifiques à pousser des technologies qu’ils ne devraient pas développer. »

En somme une dictature bienveillante en faveur du transhumanisme, qui ne prendrait pas en compte l’axiologie, trop complexe pour définir une unique ligne conductrice autoritaire. En d’autres termes, débarrassons-nous de la morale et de l’éthique qui ne font que nous embrouiller. Quant à savoir qui seront les dépositaires de l’autorité : ceux qui produisent ces techniques, bien entendu, et qui prennent l’engagement que l’humanité ne tombera pas dans la catastrophe qui nous attend si nous continuons à développer les techniques de manière erratique (Slobodian 2025 ; Prévost 2024).

On voit ici que ce monde sans démocratie que voudrait nous imposer ce type de libertarien remet assez radicalement en cause la prétendue « neutralité technologique » des institutions. Il affirme d’autant moins que la technique serait neutre. C’est au contraire une position assumée que de dire que, la technique n’étant pas neutre, il nous faut une structure de gouvernement capable de la contrôler tout en contrôlant les intérêts des novateurs. Nous reviendrons plus loin sur la question du contrôle car elle implique assez directement celle des conditions de nos libertés. Toujours est-il que cet exemple de P. Thiel montre que le plus important est de définir le cadre épistémique et axiologique dans lequel on se place pour parler de la prétendue neutralité des techniques et que, justement, c’est parce que nous remettons sans cesse en jeu cette problématique que nous faisons évoluer le rapport entre technique et société. C’est là tout l’intérêt de s’interroger sur cette neutralité (depuis Platon).

Humains et machines

Extrait du film d’animation Wall-E réalisé par Andrew Stanton (Disney/Pixar), 2008.

On ressort le vieux Marx

Le premier réflexe que nous pourrions avoir face à ce qui précède, consisterait à établir une opposition stricte entre les structures de domination du capitalisme, les possédants de l’outil de production, et les autres, travailleurs, utilisateurs. Les dispositifs techniques seraient des instruments d’aliénation et non d’émancipation. De là émerge une conception économique de la situation qui voit dans le développement des technologies un horizon de libération de la condition humaine à condition de se libérer de la domination capitaliste. C’est une vision du rapport social à la technique qui s’oriente vers une certaine idée de la neutralité de la technique en tant que simple instrument : dans les mains des capitalistes (ou des libertariens aujourd’hui) la technique est un instrument de domination.

Dans ce cas, le pivot est Marx et l’épouvantail serait le luddisme. En effet, une lecture un peu rapide de Marx ferait de notre ami à barbe grise l’un des tenants de la neutralité de la technique. Que nous dit-il, après avoir raconté quelques épisodes où, dans l’Angleterre des XVIIe et XVIIIe siècles, des ouvriers privés d’emploi à cause des innovations qui automatisaient une grande partie de leurs tâches finirent par y mettre le feu ?

« Il faut du temps et de l’expérience avant que l’ouvrier apprenne à distinguer la machinerie de son utilisation capitaliste, et donc à transférer ses attaques du moyen matériel de production lui-même, à la forme sociale d’exploita­tion de celui-ci. » – (Marx 1993, p. 481)

Partant d’un certain bon sens, ce n’est évidemment pas par un acte de destruction sans revendication claire qu’on gagne une cause… Rien ne nous dit non plus que ces ouvriers des siècles passés n’avaient pas de revendication autre que celle de retrouver leur emploi. Mais c’est aussi la thèse de Marx que de montrer que ces révoltes sont un préalable à un mouvement ouvrier de prise de conscience de sa propre classe (et pour certains historiens aussi, c’est un peu ce que montre E. P. Thompson, dans La formation de la classe ouvrière anglaise). Cependant, à partir de cette citation, on conclu généralement que selon Marx, les machines et plus généralement les techniques de production sont neutres, elles ne seraient que des instruments qui, dans certaines mains seraient des instruments de domination, dans d’autres, seraient des instruments de libération de classe.

En réalité, Marx adopte une approche articulée autour de deux aspects. Le premier consiste en une analyse des rapports sociaux, qu’il considère comme fondamentalement différents selon qu’il s’agit de l’usage d’un simple instrument ou de celui d’une machine, un dispositif technique élémentaire ou une technologie plus complexe : « Dans la manufacture et le métier, l’ouvrier se sert de son outil ; dans la fabrique il sert la machine » (Marx 1993, p. 474). C’est-à-dire que la machine non seulement inverse le rapport de l’ouvrier à l’outil de production (il sert la machine), mais en plus elle modifie la structure même du modèle économique de la production (l’atelier devient la fabrique). Sur un second aspect, Marx nous dit aussi : « Les rapports sociaux sont intimement liés aux forces productives. En acquérant de nouvelles forces productives, les hommes changent leur mode de production, et en changeant le mode de production, la manière de gagner leur vie, ils changent tous leurs rapports sociaux. Le moulin à bras vous donnera la société avec le suzerain ; le moulin à vapeur, la société avec le capitaliste industriel » (Marx 2019, chap. 2). Il y aurait donc un certain déterminisme technique qui influe sur les conditions historiques d’émergence du capitalisme et avec lui toute une culture technique. Si les conditions sociales changent avec le capitalisme, c’est parce que celui-ci procède d’un auto-engendrement : il modifie et « révolutionne » les structures (et le progrès technique est un facteur déterminant) pour pouvoir s’installer. L’innovation technique qui a lieu « dans » le capitalisme est capitaliste, elle est là pour satisfaire ses exigences de productivité et de rentabilité. Pire encore, pour Marx, le développement technologique du capital a pour conséquence (et réciproquement) que le gain de productivité doit s’accomplir dans une dynamique toujours plus rapide (par exemple éviter que le stockage ne soit un manque à gagner sur la vente des produits) ce qui impose une exigence de rentabilité où l’ouvrier est englouti par la machinerie et le capital devient son propre « sujet automate » (Marx 2011, pp. 652-653).

Comme je l’ai dit plus haut, nous savons que la technique n’est pas neutre, et il n’y a aucune raison pour que Marx puisse défendre un autre point de vue sur cette question précise. En revanche, Marx est aussi l’héritier d’une conception civilisationnelle du progrès technique, héritée des Lumières, même s’il s’en montre critique. Il reconnaît ainsi au capital une force destructive qui cesse d’être productive uniquement « lorsque le développement de ces forces productives elles-mêmes rencontre un obstacle, dans le capital lui-même » (Marx 2011, p. 286). Et c’est bien là le reproche qu’on pourrait lui faire, à savoir que la critique de la technique ne s’élabore qu’au regard du développement du capitalisme et dans l’attente d’une révolution prolétariennne, une attente d’où les luddites ne sont jamais sortis. En ce sens (et uniquement : n’allez pas me faire dire ce que je ne dis pas) la conception de Marx et celle de P. Thiel aujourd’hui se rejoignent sur un point : les tergiversations de la société quant à son aliénation par la technique ont tendance à péricliter. Pour l’un la sortie est une révolution de la base, pour l’autre c’est une révolution par le haut, dans les deux cas, un accaparement des techniques-moyen de production, soit par les prolétaires en créant un État autoritaire de transition (et on aura assez reproché, à raison, cette conception marxiste), soit par les bourgeois en créant un État autoritaire… pour toujours. L’enjeu est toujours le même : le contrôle du système technicien.

Capture d'écran de la vidéo YouTube de l'INA sur Pierre Dac

Intervention lors du dernier séminaire d’expression scientifique d’avant-garde : le Biglotron. Par Pierre Dac, 1965. Archives INA

Technique moderne et déterminisme

Il faut donc changer de braquet. Le problème est le mode formel du capitalisme duquel il faut sortir en opposant une axiologie et un principe de vie. L’analyse économique seule ne peut pas nous aider davantage.

Si on pense la technique en termes instrumentariens, et que le capitalisme est le cadre auto-reproductif de notre rapport à la technologie, alors, que nous soyons conscients ou pas de nos classes sociales, nos rapports sociaux sont déterminés par la dynamique des innovations. Sortir de ce déterminisme suppose une révolution. Cependant, bien qu’assez longtemps après Marx, il a été largement démontré que l’électronicisation de la société, c’est-à-dire l’apparition des micro-conducteurs puis l’informatisation à tous les échelons du travail et du quotidien, impose dans nos vies la logique formelle du capitalisme. Le travail s’est de plus en plus taylorisé pour devenir un ensemble de traitements séquentiels (si le métier ne s’y prête pas, on aura tout de même des indicateurs de mesure, des systèmes d’évaluation pour rendre calculable ce qui ne l’est pas) et avec la surveillance, nos vies intimes ont intégré la sphère marchande grâce à l’extractivisme des plateformes et l’exploitation des données de profilage comportemental.

Cela implique un raisonnement plus ontologique. On peut le trouver chez Martin Heidegger qui, dans les années 1950, anticipait avec assez de clairvoyance le changement technique et proposait le terme d’arraisonnement pour décrire la manière dont, par la technique, se dévoile un mode où l’être n’est plus conçu que comme quelque chose d’exploitable (Heidegger 1958). Pour lui, la technique moderne n’est plus l’art, mais un rapport paradoxal. Elle résulte d’une volonté qui soumet l’homme à son propre destin technologique. Devenu lui-même un être technique, l’homme instrumentalise et « arraisonne » le monde, le réduisant à une simple ressource, incapable de le percevoir autrement. Par la suite, les Guy Debord ou Jacques Ellul ont en réalité cherché à montrer que l’homme pouvait encore échapper à ce destin funeste en prenant conscience ici de la prégnance de l’idéologie capitaliste et là d’une autonomie de la technique (hors de l’homme). Cependant, on ne peut s’empêcher de penser que l’extraction de données à partir de la vie privée comme à partir des performance individuelles dans le travail taylorisé est bien une forme d’arraisonnement poussé à l’extrême, sur l’homme lui même, désormais objet de la technique.

Le discours du déterminisme technologique qui implique que la société doit s’adapter à la technique prend une dimension tout à fait nouvelle dans le contexte de l’informatisation de la société. À travers l’histoire de la « Révolution Informatique », ce cauchemar heideggerien est né d’un discours aliénant, où l’ordinateur devient l’artefact central, et contre lequel la simple accusation d’aliénation technologique n’est plus suffisante pour se prémunir des dangers potentiels de cette désormais profonde acculturation informatique. Les combats pour la vie privée, loin d’être technophobes, sont autant de manifestations de l’inquiétude de l’homme à ne pouvoir se réapproprier la logique technicienne.

Dans ce contexte, voilà qu’arrive une autre idée encore de la neutralité de la technique : la technique ne serait que l’application de nos connaissances scientifiques. Elle n’aurait aucune sociologie propre (des gens comme Bruno Latour auraient travaillé pour rien). Cela implique des visions simplistes de « la » science et de « la » technique : la science nous dit le réel, la technique est l’application de la science, donc la technique est une nécessité par laquelle nous agissons sur le monde et le comprenons. Et comme la science ne serait que l’explication des chaînes de causalité du réel, alors la technique nous détermine comme une partie des chaînes causales (notre action sur le monde) : nous n’avons pas le choix, nous devons changer le monde ou nous y adapter ou nous mourrons (il faut bien nourrir nos datacenter avec de l’eau, tout est une question de choix). Si on s’en tient à ce formalisme, on rejoint ce que disait Detlef Hartmann (Hartmann 1981) à propos du capitalisme : le capitalisme nous rêve sur un mode formel (si… alors… et/ou). Pour reprendre les parenthèses de la phrase précédente, cela veut dire que nous devons croire en la technique : si nous avons besoin des datacenter pour vivre dans un monde numérisé qui nous apporte tout le confort nécessaire ( !), alors nous avons besoin de beaucoup d’eau pour refroidir nos data center, quitte à pomper dans les nappes et priver les terres agricoles… mais pas d’inquiétude, tout se fera toujours à l’équilibre car nous savons ce que nous faisons, nous maîtrisons les techniques. On pourrait construire la même logique pour tout, l’essentiel serait de s’en remettre à ceux qui maîtrisent les techniques : ce n’est ni un choix politique ni un choix moral, c’est neutre, et nous y sommes poussés par la nécessité technique.

Si on ne pense qu’avec des machines et dans la mesure où tout ce qu’on donne à une machine et tout ce qu’on attend d’elle est une somme d’informations computables, le résultat sera uniquement un résultat quantitatif. D’un autre côté, ce qui est incomputable n’est pas pour autant non-déterminé. Pour s’en sortir, la théorie algorithmique de l’information (voir notamment les travaux de Kolmogorov) montre que la complexité d’un objet dépend de la taille de l’algorithme qui rend possible cet objet. Par exemple la sélection naturelle ne suppose pas une nécessité absolue de chaque forme (un déterminisme causal absolu), mais un jeu de contraintes. Ce jeu de contrainte peut être décrit de manière algorithmique mais cette description serait d’une longueur telle qu’elle relève d’un niveau de complexité inatteignable. Mais cela ne signifie pas qu’il ne sera jamais atteignable (ça, c’est pour les positivistes optimistes). Il y aurait donc du déterminisme partout, tout le temps ? Dans le déterminisme classique, l’action est expliquée comme l’effet d’une chaîne causale mécanique. L’homme agit parce qu’il y est poussé par des causes antérieures, comme une bille roule parce qu’on l’a poussée. Il y a cependant une autre manière de voir les choses : le déterminisme n’est pas une limitation de notre liberté ou de notre créativité, mais un ordre immanent au réel. Les sciences cherchent à découvrir ce déterminisme, ses causalités, mais on sait, contrairement à ce que soutenait Spinoza, que tout n’est pas déterminé (que dit la théorie quantique sur l’imprédictibilité ?). Pour autant, la spontanéité dans le processus créatif n’est pas une négation du déterminisme, mais un phénomène émergent dans un système trop complexe pour être calculé (à l’échelle macroscopique, quelles longueurs d’algorithmes faut-il pour décrire le monde ? l’arrivée des nouvelles IA aujourd’hui pourrait nous surprendre)1.

Une posture démiurgique considérerait que la liberté humaine influence le réel et son déterminisme immanent. C’est la posture de Peter Thiel : les sciences se contredisent trop et distillent trop de doutes, il nous faut une science uniforme dont la technique serait l’application pure, et cette conception performative de la connaissance (au besoin sous la coupe d’un pouvoir autoritaire) permettrait de redynamiser la croissance technicienne. Sauf qu’il y a des lois causales immanentes au réel, sur lesquelles la liberté humaine ne peut rien : les sciences explorent le réel mais ne l’engendrent pas. Cette impuissance est souvent vue comme une contrainte à laquelle nous devrions nous adapter (néolibéralisme) ou contre laquelle nous devrions lutter (libertariannisme néo-fascisant).

En fait, il y a au moins deux niveaux de nécessité : celle du réel et celle des valeurs. La nécessité axiologique selon laquelle nous exerçons notre liberté est celle qui répond, par exemple, aux exigences de justice. C’est une nécessité parce que ce n’est pas un monde d’où les causes sont absentes, au contraire, il s’agit d’un ensemble de causes que nous classons et arrangeons en fonction de leurs valeurs. Il n’y a pas d’un côté un déterminisme mécanique et de l’autre la contingence de nos sociétés, mais il y a le plan des valeurs. Et ce plan n’échappe pas pour autant à la connaissance scientifique (voir par exemple la longue introduction épistémologique de Bernard Lahire dans Les structures fondamentales des sociétés humaines). Nous n’agissons donc pas malgré le réel ou contre lui, mais dans un monde emprunt de causalités et à un autre niveau de nécessité. Soulignons en passant qu’une autre tendance radicale consiste à faire passer l’axiologique au rang de principe premier qui transcende toutes les causalités, je veux parler de la plaie de la religion qui amène invariablement à une lutte de pouvoir sur le contrôle des techniques et à empêcher tout rapport rationnel entre éthique et technique2. Je ne m’étendrai pas davantage sur le sujet, ce texte est déjà assez long.

Une approche non-réactionnaire

Dans d’autres textes, j’ai eu l’occasion de me rapporter à la pensée de Detlef Hartmann. Selon lui, dans le monde capitaliste, la technologie exerce une violence. Elle échoue à transformer en logique formelle ce qui échappe par essence au contrôle formel (l’intuition, le savoir-être, le pressentiment, etc.). Dès lors, d’après D. Hartmannn, l’application d’une logique formelle aux comportements est toujours une violence car elle vise à restreindre la liberté d’action, mais aussi l’imagination, la prise de conscience que d’autres possibilités sont envisageables. Pour moi, cette approche a au moins un avantage, celui de mettre fin à l’idée d’une « force » ou d’une « intelligence » technique qui produirait une conscience de classe qui se retournerait contre le capital. C’était la thèse de Rudolf Bahro qui cherchait une alternative concrète au communisme dont il critiquait l’appareillage (technique lui aussi) d’État écrasant. Il s’agissait de croire que l’intelligence technologique (le progrès, les sciences, l’éducation) pouvait permettre de se libérer des mécanismes de domination et permettre aux groupes (autogestionaires) de prendre le contrôle de tous les processus de décision. Or, l’autogestion appliquée à l’échelle d’un État, même si elle se compose de multiples autogestions locales, finit par devenir une sorte de mégamachine centralisée. En réalité, l’autogestion authentique est celle qui fédère les initiatives tout en offrant la plus grande diversité possible d’alternatives. En somme, c’est celle qui préserve et nourrit un imaginaire libre et foisonnant. C’est ce que D. Hartmannn appelle un principe vital, un principe qui échappe au contrôle formel du capital comme à tout pouvoir centralisé.

Même si D. Hartmann n’est pas un penseur anarchiste, il y a tout de même quelque chose d’intéressant là-dedans. Cependant, les anarchistes « classiques » sont bien souvent tombés dans le piège positiviste qui perçoit la technologie comme intrinsèquement positive. C’est vieux comme les écrits de Proudhon, bercés par le positivisme de Comte bien qu’il s’en montrait extrêmement critique du point de vue de sa sociologie dont il disait qu’elle ne faisait que substituer la sociabilité à l’individualisme et faisait disparaître le droit. Chez Proudhon, avec la critique de la division technique du travail, qui serait le reflet de la division sociale, il y a aussi l’opposition entre l’état de nature et l’état social, où l’homme est par la technique en perpétuelle recherche d’augmentation de sa puissance d’agir. Si Proudhon se montre critique vis-à-vis de la technique, c’est pourtant par l’apprentissage polytechnique que passe l’émancipation du travailleur. La pensée de Proudhon ne permet pas (pas encore) de penser le système technicien dans ce qu’il pourrait avoir d’aliénant en dehors de la productivité.

Cherchons encore. Un penseur comme Murray Bookchin a très tôt dans ses écrits considéré la technique comme un instrument de domination : c’est dans la mesure où la technique est assimilée à un instrument de production qu’elle est instrument de domination. Il ne peut alors y avoir de porte de sortie qu’à partir du moment où l’on prend en compte que cette domination représente en fait les deux faces d’une même pièce : l’extractivisme capitaliste sur l’homme et l’instrument qui déséquilibre et la société et la nature.

Il ne faut pas dénoncer à la légère l’attitude schizoïde du public à l’égard de la technologie, attitude qui associe la terreur et l’espoir. Elle exprime en effet instinctivement une vérité fondamentale : cette même technologie, qui pourrait libérer l’être humain dans une société organisée en vue de satisfaire ses besoins, ne peut que le détruire dans une société visant uniquement « la production pour la production ». Il est bien certain que l’ambivalence manichéenne imputée à la technologie n’est pas un trait de la technologie comme telle. La capacité de créer et celle de détruire que recèle la technologie moderne ne sont que les deux faces de la dialectique sociale, le reflet de la positivité et de la négativité de la société hiérarchique. S’il y a quelque vérité à soutenir, comme Marx, que la société hiérarchique fut « historiquement nécessaire » afin de « dominer » la nature, on ne doit pas oublier pour autant que cette notion de « domination de la nature » est elle-même issue de la domination de l’humain par l’humain. L’être humain et la nature ont toujours été associés en tant que victimes de la société hiérarchique. Que l’un comme l’autre soient aujourd’hui menacés d’un cataclysme écologique est la preuve que les instruments de production ont fini par devenir trop puissants pour servir d’instruments de domination. – (Bookchin 2016, p. 32)

Ce qui est important pour M. Bookchin, c’est le mode d’organisation sociale qui contrôle les moyens de production et plus largement la technique. L’émancipation s’appuie donc sur la technique. Pour autant, n’est-ce pas un point de vue trop idéaliste qui revient à promouvoir une croyance dans une « bonne » intelligence technique ? Car après tout, le problème est là : si nous rejetons la thèse de la neutralité de la technique, c’est parce qu’elle n’envisage à aucun moment la manière dont la technique reconfigure sans cesse les rapports entre les humains entre eux et avec leur environnement. Mais envisager une « bonne » intelligence technique contre une « mauvaise » revient à se précipiter tout aussi bien dans une impasse.

C’est le choix des anarcho-primitivistes, du moins ceux qui se réclament d’une posture aussi radicale que John Zerzan, par exemple. La lecture civilisationnelle qu’ils ont de la technique revient à la réduire à une question de besoin et d’adéquation comportementale. Avec une certaine lecture de l’anthropologie, on peut effectivement prétendre assimiler le « progrès » technique à un productivisme aliénant et redéfinir l’abondance comme une simple adéquation à des besoins limités, plus ou moins fantasmée à partir de ce que l’on sait effectivement des sociétés de chasseurs-cueilleur d’autrefois (et l’archéologie récente a fait des découvertes qui remettent largement en cause ces conceptions certes utopistes mais faussées). S’opposer à cela ne réduit pas à savoir si on veut revenir à l’âge de pierre ou à la bougie. Ce serait réduire le débat. Il s’agit de savoir ce qui distingue le radicalisme d’une posture purement réactionnaire qui revient finalement à faire de la technique une émanation en soi négative sans en considérer les conditions d’existence mais en vouant une haine à des pseudo-représentants du monde économique ou politique. Une chasse aux sorcières dont le but est avant tout moral que réellement constructif. On retrouve aujourd’hui même des résurgences de ce type dans des globiboulgas malfaisants comme le montrait récemment le groupe Technopolice.

Le refus catégorique d’une ou plusieurs technologies représente une impasse conceptuelle et pratique, car toute technique s’inscrit dans un processus cumulatif d’innovations successives et dans un réseau de systèmes techniques dont certains point de convergence peuvent être fort éloignés les uns des autres. Prenez par exemple la physique nucléaire et la médecine et voyez-en le développement en ingénierie d’imagerie ou de génétique. L’histoire des sciences et des techniques montre que les avancées techniques ne sont jamais isolées, mais s’insèrent dans des chaînes complexes de savoirs et d’applications. Par exemple, l’intelligence artificielle regroupe un ensemble très diversifié de technologies — apprentissage automatique, réseaux neuronaux, traitement du langage naturel — qui interagissent et évoluent continuellement depuis… 50 ans. Ainsi, un rejet global de l’IA comme phénomène homogène est conceptuellement inexact et socialement problématique.

La solution n’est pas dans le rejet mais dans le questionnement. Plus haut, je faisais référence au machinisme. On peut se demander effectivement comment l’introduction de l’automatisation dans la fabrique redéfini le rapport de l’ouvrier au travail et en conclure une dépossession, une prolétarisation. Mais en augmentant la productivité, l’automatisation — par exemple la robotique — redéfini assez radicalement ce qu’est le travail en soi. Sur ce point, dans La baleine et le réacteur, Langdon Winner a proposé l’idée de « somnambulisme technologique » pour décrire comment les sociétés adoptent de vastes transformations technologiques sans en examiner les implications profondes3. L. Winner argumente que le développement technologique est un processus de construction du monde, où en modifiant les choses matérielles, nous nous changeons nous-mêmes. La question centrale n’est pas seulement « comment les choses fonctionnent », mais « quel genre de monde sommes-nous en train de créer ? » Les technologies ne sont pas de simples aides, mais de puissantes forces qui remodèlent l’activité humaine et sa signification. Elles structurent notre quotidien, créant de nouvelles « formes de vie ».

À mesure que les technologies sont développées et mises en œuvre, des changements importants dans les modes d’activité humaine et les institutions humaines sont déjà en cours. De nouveaux mondes sont en train de voir le jour. Ce phénomène n’a rien de « secondaire ». Il s’agit en fait de la réalisation la plus importante de toute nouvelle technologie. La construction d’un système technique qui implique les êtres humains comme éléments opérationnels entraîne une reconstruction des rôles et des relations sociales. Cela résulte souvent des exigences de fonctionnement du nouveau système : celui-ci ne peut tout simplement pas fonctionner si le comportement humain ne s’adapte pas à sa forme et à son processus. Ainsi, le simple fait d’utiliser les machines, les techniques et les systèmes à notre disposition génère des modèles d’activités et des attentes qui deviennent rapidement une « seconde nature ». Nous « utilisons » effectivement les téléphones, les automobiles, l’éclairage électrique et les ordinateurs au sens conventionnel du terme, c’est-à-dire en les prenant et en les reposant. Mais notre monde devient rapidement un monde dans lequel la téléphonie, l’automobilité, l’éclairage électrique et l’informatique sont des formes de vie au sens le plus fort du terme : la vie serait difficilement concevable sans eux. – (Winner 2020, chap. 1)

Un peu comme Jacques Ellul, nous devrions non plus tellement nous interroger sur les techniques elles-mêmes mais sur le système technicien. Pour J. Ellul la technique est déterminante dans les transformations sociales même si tout fait social ne se détermine pas par la technique. Mais ce qui alarmait J. Ellul, c’est que la technicisation de la société est un mouvement apparemment inéluctable, et la technologie moderne adopte une logique autonome, engendre son propre principe de perpétuation et d’accroissement au détriment de l’axiologie. C’est le somnambulisme auquel fait référence L. Winner et c’est en même temps la situation avec laquelle nous devons perpétuellement nous arranger : d’un côté les critiques à l’encontre des innovations sont souvent perçues comme des discours anti-technologiques voire anti-sociaux, d’un autre côté l’innovation s’inscrit dans un contexte politico-économique dont il ne serait que très difficile de sortir (le capitalisme, le néolibéralisme) sans une révolution. Dans les deux cas, nous ne sortirons pas de notre condition d’êtres appartenant à un système technicien.

Pour terminer cette section sur un exemple clivant actuellement : devons-nous adopter les IA génératives (IAg) dans nos pratiques quotidiennes ? On pourra toujours accuser les firmes qui produisent les services d’IAg de satisfaire le modèle oppressif du capitalisme de plateformes. La question ne devrait pas être posée en ces termes (pour ou contre l’IAg ?). La question est de savoir ce qui a fait que dans le développent du système technicien nous soyons arrivés à ces inventions, pourquoi se sont-elles si rapidement intégrées dans les pratiques et qu’est-ce que cela produit comme changements sociaux, quelles « formes de vie » ? On peut certes craindre, pour reprendre les mots de L. Winner, qu’« une fois de plus, on dit à ceux qui poussent la charrue qu’ils conduisent un char d’or ».

My Human Kit

Capture d’une illustration du site de l’association My Human Kit. « En utilisant la force combinée de la solidarité, du fait maison et de la fabrication numérique, My Human Kit démontre que la diversité et l’intelligence collective sont essentielles à une société inclusive. ». myhumankit.org

Pour une politique anarchiste des techniques

Cela ne nous dit toujours rien des principes que nous devrions adopter. Cela ne dit rien non plus sur ce qu’il faudrait sacrifier en adoptant quels principes que ce soit. Le développement technologique est un processus cumulatif qui incorpore les relations sociales dans la réalité matérielle. À chaque point d’inflexion, il faut reposer la question, sans cesse ! Je terminerai alors sur ce point : il faudra toujours tenter d’échapper aux logiques de pouvoir qui se servent des techniques pour arriver à leurs fin dans la situation de choix politique qui s’avance devant nous.

Nous vivons un instant clé où le changement climatique, l’effondrement écologique et la crise démocratique font que le capitalisme atteint une aporie. Si P. Thiel nous parle de la fin des temps (et il n’est pas le seul) c’est bien parce que ce genre de libertarien voudrait s’assurer d’être du « bon » côté des inégalités qui s’annoncent à une échelle mondiale, avec les guerres qui s’ensuivront. Pourra-t-on l’éviter ? je n’en sais rien. Mais il est toujours possible de s’interroger sur l’ordre social que nous pourrions établir dans le but, justement, de limiter les effets des erreurs passées et envisager l’avenir de manière plus sereine.

Si nous souhaitons conserver le système actuel, la manière dont nous produisons nos technologies ne peut qu’être centralisée autour de structures d’État, plus ou moins au service des groupes d’intérêts. Cette centralisation a du bon car elle permet de faire des choix politiques au nom d’une neutralité technologique du pouvoir : les technologies militaires ont besoin d’un contrôle hiérarchique, le marché de l’énergie a besoin d’être compétitif au prix des inégalités, les biotechnologies doivent pouvoir rendre l’agriculture toujours plus rentable, etc.

Si en revanche nous prenons conscience que nous ne pouvons continuer à croître indéfiniment dans un monde fini, que ce fait s’impose à nous ou que nous anticipions tant qu’il est encore possible de le faire, c’est d’une décentralisation des institutions et de la production de technologies dont nous avons besoin. Je reprends alors à mon compte la proposition d’Uri Gordon (Gordon 2009) pour une politique anarchiste de la technologie en trois points. Chacun de ces points renvoie à une posture utopiste (mais concrète) de décision collective, démocratique, car, finalement, c’est bien la clé de l’affaire :

  1. La résistance abolitionniste : s’opposer fermement à tout système technique qui renforce la centralisation du pouvoir, détruit l’environnement ou sert principalement les intérêts des États autoritaires et des grandes entreprises. Par exemple : les technologies militaires, la surveillance, l’exploitation des énergies fossiles. Ce n’est pas du primitivisme ou du luddisme, c’est « reconnaître que certaines formes d’abolitionnisme technologique sont essentielles à la politique anarchiste ». C’est un principe d’action qui cherche à identifier et contester les technologies qui, loin d’améliorer la vie collective, aggravent les inégalités et menacent les plus vulnérables en consolidant le pouvoir économique et politique d’une minorité.
  2. L’adoption désabusée : certaines technologies, comme Internet, peuvent être utilisées stratégiquement malgré leurs infrastructures bien trop centralisées (par exemple les câbles sous-marins aux enjeux géostratégiques). Du côté des utilisateurs, des alternatives existent et proposent d’une part des pratiques non capitalistes (prenons l’exemple du Fediverse), et d’autre part la création de communs en opposition frontale avec l’économie classique. De manière générale, c’est bien la création de communs dans tous les interstices où le pouvoir est faible qui permet d’utiliser des techniques de manière décentralisée. D’autres exemples existent, par exemple dans le monde agricole les semences paysannes contre les multinationales, ou encore les coopératives de réparation ou d’invention de matériels agricoles.
  3. La promotion active : il s’agit d’œuvrer en ayant conscience des limites matérielles, tout en gardant la part de subversion nécessaire à la créativité et à la réappropriation de la production. En ingénierie, il s’agit d’encourager les innovations « low-tech », la valorisation des savoirs traditionnels et de l’artisanat, le recyclage, la réparation et la reconstruction de matériel open-source, voire de redonner vie à d’anciennes technologies pour une utilisation à plus petite échelle et plus durable. Pour reprendre l’expression qu’emprunte lui-même Uri Gordon, cette approche vise une « micropolitique subversive d’autonomisation techno-sociale » pour construire des espaces alternatifs matériels et sociaux.

Ces principes doivent cependant être critiqués. La résistance aux techniques de surveillance en vue de les abolir nécessite des efforts considérables de plaidoyer si et seulement si nous nous imaginons être dans un État démocratique dont les organes sont effectivement à l’écoute des citoyens. Dans une dictature, faut-il même en parler ? On voit bien ici que ce principe est d’emblée soumis aux conditions politiques de l’usage des techniques.

Concernant les technologies militaires, pour faire simple, nous pouvons prendre l’exemple de l’armement atomique. Un contrôle hiérarchique strict est nécessaire pour encadrer l’usage : compte-tenu de l’enjeu géostratégique, nous devons nous résoudre à ce que l’usage de l’arme nucléaire soit soumis aux jeux de pouvoir en politique extérieure (la dissuasion) comme en politique intérieure (prémunir l’arrivée au pouvoir d’un parti belliqueux). L’arme nucléaire existe et ce simple fait ne peut que nous cantonner à un plaidoyer en faveur du désarmement nucléaire mondial.

Concernant l’arrivée de nouvelles technologies, l’étude de cas des IA génératives (IAg) pourrait servir d’illustration. Comme je l’ai dit plus haut, nous devons sans cesse interroger le cadre axiologique par lequel nous élaborons une critique des techniques. Quelle est la dynamique des dispositifs socio-techniques et leurs points de jonction qui font que les IAg sont apparues et aient, de manière aussi spectaculaire, intégré nos pratiques quotidiennes ? Il faudrait en faire des études et elles sont encore loin d’être rédigées. Quelques éléments nous mettent sur la voie, par exemple les positions hégémoniques des entreprises qui fournissent des services d’IAg. Parmi les trois principes ci-dessus, lequel adopter ? sans doute un mixte. Mais c’est là l’un des points critiques que de définir ex ante trois attitudes possibles : si l’on veut rester honnête, elles ne sont pas exclusives entre elles et, dans cette mesure, elles aboutissent invariablement à des positions mitigées. Mais peut-être est-ce là la leçon de l’histoire des techniques : l’ambivalence des techniques nous pousse nous-mêmes à nous positionner de manière ambivalente, en acceptant nos contradictions et pourvu qu’on puisse en débattre sans relativisme. La manière dont nous conduisons nos systèmes techniques est le reflet de notre humanité.

Notes

  1. Il y a peu de références dans ce paragraphe car il serait laborieux d’expliquer dans le détail la construction de cet argumentaire. J’ai été l’un des étudiants en philosophie à Strasbourg de Miguel Espinoza qui nous a alors expliqué (avec plus ou moins de réussite) ses travaux remarquables sur l’intelligibilité de la nature. Prolonger la discussion ici nous amènerait bien trop loin.↩︎
  2. Oui, je sais bien que la religion n’a jamais empêché la rationalité, il y a assez de textes critiques théologiques pour le démontrer. Ce n’est pas mon sujet. C’est simplement qu’il est impossible de positionner un curseur fiable entre une simple approche critique religieuse des techniques et la volonté d’influence sociale qu’imposent les religieux sur le prétexte des techniques. Un exemple au hasard : les campagnes anti-avortement. Lorsque les religieux en auront fini avec ça, je commencerai peut-être éventuellement à leur tendre une oreille distraite si j’ai du temps à perdre.↩︎
  3. Sur ce point j’ajouterai une nuance car nous sommes aussi passés maîtres dans l’art de l’évaluation des risques, mais la question du principe de précaution se pose toujours dans un mouchoir de poche, par exemple lorsque le risque est à des années lumières de l’état des connaissances.↩︎
  4. L’image d’illustration de l’en-tête de ce billet est un extrait d’une image générée par Google Gemini 2.5. Voir la FAQ de Framasoft à ce propos.

Références

BOOKCHIN, Murray, 2016. Au-delà de la rareté : l’anarchisme dans une société d’abondance. Montréal Québec, Canada : Éditions Écosociété. ISBN 978-2-89719-239-6.

FOUCAULT, Michel, 2004. Naissance de la biopolitique : cours au Collège de France, 1978-1979. Paris, France : EHESS : Gallimard : Seuil. ISBN 978-2-02-032401-4.

GORDON, Uri, 2009. Anarchism and The Politics of Technology. WorkingUSA [en ligne]. 5/1/2009. Vol. 12, n° 3, pp. 489‑503. [Consulté le 27/7/2025]. DOI 10.1163/17434580-01203010. Disponible à l’adresse : https://brill.com/view/journals/wusa/12/3/article-p489_10.xml

HARTMANN, Detlef, 1981. Die Alternative : Leben als Sabotage. Iva-Verlag Polke. Tübingen.

HEIDEGGER, Martin, 1958. La question de la technique. In : Essais et Conférences. Paris : Gallimard. pp. 9‑48.

MARX, Karl, 1993. Le Capital. Critique de l’économie politique. Livre premier. Paris : PUF. Quadrige.

MARX, Karl, 2011. Manuscrits de 1857-1858 dits « Grundrisse ». Paris : Éditions sociales.

MARX, Karl, 2019. Misère de la philosophie. Paris : Payot.

MICHÉA, Jean-Claude et JULLIARD, Jacques, 2018. La Gauche et le peuple : lettres croisées. Paris, France : Flammarion.

PRÉVOST, Thibault, 2024. Les prophètes de l’IA : pourquoi la Silicon Valley nous vend l’apocalypse. Montréal, Canada : Lux Éditeur. ISBN 978-2-89833-161-9.

SLOBODIAN, Quinn, 2025. Le capitalisme de l’apocalypse : ou le rêve d’un monde sans démocratie. Paris, France : Éditions du Seuil. ISBN 978-2-02-145140-5.

STIEGLER, Barbara, 2019. « Il faut s’adapter » : sur un nouvel impératif politique. Paris, France : Gallimard. ISBN 978-2-07-275749-5.

THIEL, Peter, 2025. Peter Thiel et la fin des temps (parties 1 et 2) [en ligne]. [Le Grand Continent]. 20/4/2025. [Consulté le 26/4/2025]. Disponible à l’adresse : https://legrandcontinent.eu/fr/2025/04/20/peter-thiel-apocalypse-1/

WINNER, Langdon, 2020. The Whale and the Reactor. A Search for Limits in an Age of High Technology. Chicago : University of Chicago Press.

PDF

11.08.2025 à 16:13

FramIActu – Le bilan après six mois de veille

Framasoft

Peut-être l’attendiez-vous impatiemment, et pourtant, la FramIActu de juillet n’a pas vu le jour.Nous l’annoncions à demi-mot en juin : nous ne publierons plus la FramIActu sur un rythme mensuel. Les raisons à cela sont multiples et c’est pourquoi nous vous … Lire la suite­­
Texte intégral (10422 mots)

Peut-être l’attendiez-vous impatiemment, et pourtant, la FramIActu de juillet n’a pas vu le jour.
Nous l’annoncions à demi-mot en juin : nous ne publierons plus la FramIActu sur un rythme mensuel. Les raisons à cela sont multiples et c’est pourquoi nous vous proposons un article « bilan », qui fait le point sur des mois (voire des années) de veille sur l’intelligence artificielle.

 

Différents termes techniques liés au champ de recherche de l’Intelligence Artificielle ont été utilisés dans cet article.
Si certains termes vous échappent, nous vous invitons à consulter le site FramamIA où nous avons cherché à expliquer la plupart d’entre eux.

Les évolutions techniques des derniers mois

De meilleures performances

Au cours des derniers mois, les entreprises et start-ups du domaine n’ont cessé d’améliorer les grands modèles de langage (LLMs) et autres systèmes d’IA, afin que ceux-ci puissent accomplir des tâches plus variées, être plus efficaces, et soient moins chers à produire et à déployer.

L’institut sur l’intelligence artificielle centré sur l’humain de l’université de Standford a récemment publié un index analysant ces états et évolutions sous différents aspects.
Dans ce rapport, nous constatons une forte amélioration des performances des IA sur les tests de référence servant à évaluer leurs capacités.
L’écart de performances entre les différents modèles est d’ailleurs largement réduit en comparaison de l’année dernière.
En revanche, de nouveaux tests comparatifs, bien plus exigeants, ont été développés (comme le fameux « Dernier examen de l’humanité ») et les IA y réalisent, pour le moment, des scores très faibles.

Autre amélioration : alors qu’en 2022 le plus petit modèle (PaLM) réalisait un score de 60 % à un un test comparatif spécifique (MMLU) avait besoin de 540 milliards de paramètres, le modèle Phi-3-mini de Microsoft accompli aujourd’hui les mêmes performances avec 3,8 milliards de paramètres. Il est donc aujourd’hui possible de construire des modèles qui nécessitent bien moins de ressources.

Vous avez dit six doigts ?

Les améliorations des performances et des capacités des différents modèles d’IA génératives (IAg) sont particulièrement visibles pour les IAg spécialisées dans la génération d’images et de vidéo.
Si à leurs débuts les IAg comme Dall-E ou Midjourney étaient moquées par le public en raison des absurdités qu’elles généraient, leurs résultats sont aujourd’hui bien plus difficiles à différencier de la réalité. Finies les mains à six doigts !

Les IAg permettant de créer des vidéos sont d’autant plus impressionnantes (techniquement), notamment Veo 3, de Google, récemment sortie et permettant de créer des vidéos en tout genre avec une cohérence sans précédent. Il est désormais extrêmement difficile de discerner une vidéo générée par Veo 3 d’une vidéo filmée par des humain·es.

Voici de nombreux exemples de vidéos générées par Veo 3.

Mistral, de son côté, a publié un nouveau modèle de compréhension audio nommé Voxtral. Celui-ci aurait de meilleures performances que Whisper, le modèle d’OpenAI, jusqu’alors considéré comme le meilleur en terme de rapport qualité/prix.
Voxtral propose des performances similaires ou supérieures à ses concurrents pour un coût bien plus bas.

Toutes ces améliorations sont déjà utilisées par de nombreuses entités à travers le monde.

Comme Netflix, qui a utilisé l’IAg pour créer une scène d’effondrement d’immeuble dans une de ses séries1, ou Disney, ayant utilisé ChatGPT pour écrire les paroles d’une des chansons de sa série indienne Save the Tigers2.

Netflix, d’ailleurs, souhaite mettre en place des coupures publicitaires générées par IA pendant le visionnage des vidéos3.

L’arrivée d’un nouveau paradigme : les modèles de raisonnement

Les modèles d’IAg traditionnels sont basés sur un paradigme consistant à « entraîner » les IA à partir du plus grand nombre de données possible afin de créer les millions (voire les milliards) de paramètres qui composeront le modèle. Le coût de ce type de modèle est principalement concentré sur cette phase d’entraînement.

Par exemple, le première modèle GPT d’OpenAI, GPT-1, sorti en juin 2018, contenait 117 millions de paramètres4. Un an plus tard, le modèle GPT-2 en comportait 1,5 milliards5. Quelques mois plus tard, GPT-3 en comportait 175 milliards6. Enfin, le modèle GPT-4.5, en comporterait, d’après les rumeurs7 (car nous n’avons pas de donnée officielle)… entre 5 et 10 billions (10 000 milliards) !

Ce paradigme, s’il fonctionnait très bien au cours des années précédentes, semble atteindre aujourd’hui un plafond de verre. Malgré l’augmentation massive du nombre de paramètres, les résultats obtenus ne sont pas aussi impressionnants que l’on pourrait s’y attendre, mais surtout, le coût pour exploiter de tels modèles devient difficile à assumer pour des entreprises comme OpenAI.

L’entreprise a d’ailleurs rapidement retiré GPT-4.5 de son offre8, au profit d’un nouveau modèle nommé GPT-4.1, bien moins cher pour la compagnie. (On est d’accord, c’est un peu n’importe quoi les noms de modèle chez OpenAI !)

Pour faire face aux limites qui semblent se dessiner, un nouveau paradigme a vu le jour : celui des modèles de raisonnement.

L’idée est qu’au lieu de se concentrer principalement sur l’entraînement du modèle, les modèles de raisonnement sont conçus pour accomplir des étapes supplémentaires (par rapport aux modèles classiques) afin d’achever des résultats similaires voire meilleurs sans avoir à augmenter la taille du modèle.

Contrairement à un modèle classique qui cherchera à donner directement une réponse lors de l’étape d’inférence, les modèles de raisonnement découpent cette étape en différents processus plus petits, cohérents les uns vis-à-vis des autres.

Comparaison d'un LLM classique avec un LLM de raisonnement.Trois étapes pour le LLM classique :
Une question est posée, le LLM la traite puis donne une réponse.

Pour un LLM de raisonnement, plusieurs étapes s'ajoutent avant de donner une réponse : ces étapes peuvent être potentiellement illimitées et constituent le raisonnement.
Comparaison d’un LLM classique avec un LLM de raisonnement.
Source : Maarten Grootendorst – A visual guide to reasoning LLMs

Le nombre d’étapes qu’un modèle de raisonnement va effectuer est configurable, et peut aussi bien varier d’une étape unique à des dizaines ou des milliers. En revanche, plus le nombre d’étapes est conséquent, plus le coût (en temps, en énergie, en puissance de calcul) est élevé.

Ce dernier point représente un changement majeur : les modèles de raisonnement peuvent potentiellement être bien plus coûteux en termes de ressources que les modèles classiques car le nombre d’étapes de raisonnement revient à multiplier — souvent de façon cachée à l’utilisateurice — la quantité de calculs nécessaires pour fournir une réponse.

Or, face au succès de modèles comme Open-o1 ou DeepSeek-R1, les modèles de raisonnement ont le vent en poupe et sont souvent ceux privilégiés, aujourd’hui.

L’émergence des IA agentiques

Les IA agentiques sont des IA conçues pour être capables d’interagir avec leur environnement.

Là où les IAg classiques s’appuient sur un jeu de données figé et apportent une réponse « simple » en fonction de la demande qu’on leur fournit, les IA agentiques ont pour objectif de pouvoir accéder à d’autres applications afin d’accomplir la tâche demandée en toute autonomie. De plus, l’IA agentique est capable d’exécuter une série de sous-tâches jusqu’à l’accomplissement de la demande.

En théorie, vous pouvez demander à une IA agentique de créer votre site vitrine. Celle-ci va alors concevoir la structure du site, établir une charte graphique et l’appliquer. Elle le testera ensuite pour s’assurer qu’il fonctionne. Enfin, l’agent pourra très bien pousser le code sur une forge logiciel (comme Github, Gitlab, ou autre) et exécuter des actions sur la forge afin de créer un site accessible au public. Dans tout ce processus, votre seule action aurait été de demander à l’IA agentique de vous réaliser ce site.

Dans la pratique, les IA agentiques sont encore largement peu efficaces, les plus performantes ne réussissent pour le moment que 30 % des tâches en totale autonomie9. Cependant, comme pour les IAg auparavant, on peut assez facilement imaginer, au regard de la vitesse d’évolution des techniques d’IA, que des progrès fulgurants arriveront d’ici un an ou deux.

On peut d’ailleurs noter l’émergence d’un protocole nommé MCP, initié par Anthropic, pour standardiser la manière dont les IA se connectent à d’autres applications.

À noter que’OpenAI vient de sortir ChatGPT Agent10 prétendant pouvoir presque tout réaliser et Google a annoncé différentes applications d’IA agentiques11.

Il est probable que l’utilisation d’IA agentiques se démocratise à mesure que leurs capacités s’améliorent et que les géants comme Google les intègrent aux applications de notre quotidien.

Une accumulation de problèmes sociétaux

Nous l’avons vu, les IAg ne cessent de s’améliorer techniquement. Cependant, nombre des problèmes soulevés lors de l’apparition de ChatGPT n’ont pas été traités et de nouveaux apparaissent.

Les robots indexeurs d’IA attaquent le Web

Pour collecter les données nécessaires à l’entraînement des IA génératives, les acteurs de l’IA parcourent l’ensemble du Web pour en extraire le contenu. Aujourd’hui, de nombreux acteurs ont déployé leur propre robot pour y parvenir.

Le problème est que ces robots mettent à mal l’ensemble de l’infrastructure faisant tourner le Web et ne respectent pas les sites précisant ne pas souhaiter être indexés par ces robots.

Comme nous en parlions dans la FramIActu d’avril certains sites ont constaté que plus de 90 % de leur trafic proviennent désormais des robots d’IA. Pour Wikipédia, cela représente 50 % de trafic supplémentaire depuis 202412.

Afin de palier ce pillage des ressources et garantir l’accès de leurs sites internet aux humain·es, des organisations comme l’ONU ont opté pour la mise en place d’un logiciel « barrière » à l’entrée de leurs site13. Nommé Anubis, ce logiciel permet d’empêcher les robots d’IA d’accéder au site web. Cependant, cette barrière n’est pas sans coût : les utilisateurices doivent parfois patienter quelques fractions de seconde (voire, parfois, quelques secondes) avant de pouvoir accéder à un site internet, le temps qu’Anubis s’assure que la demande d’accès provient bien d’un·e humain·e.

À Framasoft, nous avons aussi été confronté à cette situation et certains de nos services sont désormais protégés par Anubis.

D’autres acteurs se tournent vers Cloudflare puisque cette entreprise a mis en place un outil permettant de bloquer les robots d’IA par défaut14. Cloudflare est utilisé par environs 1/5 des sites web15. Cela signifie que l’entreprise se place dans une position privilégiée pour décider de qui a le droit d’accéder au contenu de ces sites web.

À l’avenir, il est possible que les acteurs d’IA les plus riches doivent finir par payer Cloudflare pour accéder au contenu des sites protégés par l’entreprise.

Si cela se produit, un des risques possibles est qu’au lieu d’empêcher l’essor de l’IA, la situation accentue plutôt l’écart entre les géants du numérique et les autres acteurs, plus modestes.

Le Web est pollué

Depuis l’arrivée de l’IA générative, un changement majeur dans l’histoire de l’humanité a eu lieu : il est désormais plus rapide de « créer » du contenu que d’en lire.
Ce simple fait semble totalement transfigurer notre rapport au Web puisque celui-ci se rempli à une vitesse vertigineuse de contenus générés par IA, dont une bonne partie se fait passer pour du contenu rédigé par des humain·es.

Aussi, les IAg sont très fortes pour créer du contenu adapté aux règles de Google Search, permettant à des entités peu scrupuleuses de faire apparaître leur contenu en tête des résultats du moteur de recherche. Cette pratique, nommée IA Slop, représente un véritable fléau. Le contenu diffusé n’a pas besoin d’exprimer un propos en rapport avec le réel, il est généré et publié automatiquement à l’aide d’IAg afin d’attirer du public en espérant générer du trafic et des revenus publicitaires.
À ce sujet, nous republiions il y a quelques mois sur le Framablog un article passionnant d’Hubert Guillaud.

De plus, le média Next publiait, il y a quelques mois, une enquête sur le millier de médias générés par IA mis en avant par Google Actualités, la principale plateforme d’accès aux médias16.

L’IAg est aussi utilisée pour concevoir des articles et messages de médias sociaux promouvant des discours complotistes ou climato-sceptiques à une échelle presque industrielle17,18.
Les promoteurs de ces théories peuvent plus facilement que jamais trouver de nouvelles adhésions à leur discours. Cette facilité pour générer du contenu vraisemblable contribue fortement à l’accroissement des discours visant à désinformer.

À mesure que le Web se rempli de contre-vérités, celles-ci risquent de prendre de plus en plus de poids dans les réponses des futurs modèles d’IAg. On parle d’une forme d’autophagie, où les IAg se nourrissent d’éléments générés par d’autres IAg19.

C’est à cause de ce phénomène d’autophagie que des entreprises comme Reddit (un média social très populaire dans le monde anglo-saxon) peuvent se permettre de revendre à prix d’or leurs données : du texte rédigé par des humain·es et facilement identifiable comme tel20,21.

La pollution du Web ne s’arrête cependant pas aux contenus textuels… désormais, avec la facilité d’accès aux IAg d’images et de vidéos, des millions de contenus générés par l’IA pullulent sur internet.
À la sortie de Veo3, Tiktok s’est retrouvé noyé sous la quantité de vidéos généré par l’IAg, dont un certain nombre contenant des propos racistes22. Certain·es artistes ont même cherché à profiter de la tendance en prétendant que leurs vidéos étaient générée par l’IAg, alors que celles-ci étaient réalisées par des humain·es23.

Certaines entreprises se spécialisent aussi dans la génération de DeepFake pornographiques. Ces outils permettent alors à des harceleurs de nuire à leurs ex petites-amies24 et à des adolescents de nuire leurs camarades25.
Les principales victimes de ces DeepFakes sont des femmes26.

Ces contenus générés par IA et la difficulté à les différencier des contenus « humains » participent à un sentiment d’abandon du réel. Il devient tellement difficile et exigeant de différencier le contenu généré par IA des autres que l’on peut être tenté·e de se dire « À quoi bon ? ».

À la manière de ce que décrit Clément Viktorovitch vis-à-vis de la perception des discours politiques27, il est possible que nous entrons ici aussi dans une ère de post-vérité : qu’importe si le contenu est vrai ou faux, tant qu’il nous plaît.

Un rapport au savoir bouleversé

En construisant une encyclopédie collaborative, gérée comme un commun et disponible mondialement, Wikipédia a révolutionné l’accès au savoir.
Non seulement la plus grande bibliothèque de l’histoire de l’humanité est à portée de clics, mais nous pouvons désormais participer aussi à son élaboration.

Wikipédia a permis de renverser un paradigme ancré depuis longtemps qui consistait à réserver la rédaction d’une encyclopédie aux experts du sujet. Grâce à quelques règles permettant d’assurer la qualité des contributions, l’encyclopédie en ligne permet un effort d’intelligence collective inédit dans l’histoire.

Or, si Wikipédia est accessible librement dans la plupart des pays du monde, la majorité des personnes accèdent à son contenu… via le moteur de recherche Google.

En effet, le réflexe commun pour accéder à Wikipédia est de chercher un terme sur son moteur de recherche préféré (Google pour l’immense majorité de la planète) et d’espérer que celui-ci nous présente un court résumé de la page Wikipédia correspondante et nous pointe vers celle-ci.

Google sert donc aujourd’hui d’intermédiaire, de porte d’accès principale, entre une personne et la plus grande encyclopédie de l’humanité.
Le problème, c’est que Google est bien plus qu’un simple moteur de recherche.

Google possède un système éditorial complexe, « personnalisant » les résultats en fonction de l’identité d’un individu, sa culture, son pays28, et poussant les éditeurs des sites Web à se plier à la vision que l’entreprise a du Web. Ne pas respecter cette vision nuit à notre bon référencement sur le moteur de recherche et donc, fait encourir le risque de ne jamais être trouvé·e dans la masse des sites existants.
Cette vision se confond avec le but lucratif de l’entreprise, dont le profit prévaut sur le reste. C’est pourquoi les liens sponsorisés prennent une place importante (principale, presque) dans l’interface du moteur. Il est ainsi nécessaire de payer Google pour s’assurer que notre site Web soit vu.

Cette éditorialisation du contenu chez Google a encore évolué récemment avec la mise en place d’AI Overviews. Cette fonctionnalité (pas encore activée en France), s’appuyant sur l’IA de l’entreprise, résume automatiquement les contenus des différents sites Web. Certes, la fonctionnalité semble pratique, mais elle pourrait encourager une tendance à ne jamais réellement visiter les sites.
Avec l’AI Overviews, nous ne quittons plus de Google.

À travers cette fonctionnalité, Google apporte d’autres briques pour transformer notre rapport au Web29 et asseoir sa position dominante dans l’accès au savoir.

Cependant, Google n’est pas le seul acteur à transformer notre rapport au Web et à l’accès au savoir. Les IA conversationnelles prennent de plus en plus de place et récemment ChatGPT est même devenu plus utilisé que Wikipédia aux États-Unis30.
Sans que cela n’indique pour le moment une diminution dans l’usage de Wikipédia par les humain·es, il est possible que celui-ci se raréfie à mesure que la qualité des réponses des IAg s’améliorent ou recrachent directement le contenu de Wikipédia.

Les acteurs de l’IA risquent donc de devenir les nouvelles portes principales pour accéder à l’encyclopédie. Nous pouvons imaginer différents risques à cela, semblables à ceux déjà existants avec Google, comme lorsque l’entreprise a volontairement dégradé la qualité des résultats des recherches pour que les utilisateurices consultent davantage de publicités31.

Le rapport au savoir évolue aussi dans le monde de la recherche, où l’IA est aussi en train de bousculer des lignes, car de plus en plus de projets scientifiques s’appuient désormais sur ces outils32. Une étude estime que 13.5 % des recherches bio-médicales réalisées en 2024 étaient co-rédigé·es à l’aide d’une IAg33.

Les auteurices de l’étude indiquent :

Si les chercheurs peuvent remarquer et corriger les erreurs factuelles dans les résumés générés par IA de leurs propres travaux, il peut être plus difficile de trouver les erreurs de bibliographies ou de sections de discussions d’articles scientifiques générés par des LLM

et ajoutent que les LLMs peuvent répliquer les biais et autres carences qui se trouvent dans leurs données d’entraînement « ou même carrément plagier ».

De plus, l’IA n’est pas utilisée que pour la rédaction des papiers scientifiques. De plus en plus de chercheureuses basent leurs études sur des modélisations faites par IA34, entraînant parfois des résultats erronés et des difficultés à reproduire les résultats des études… voire même rendre la reproduction impossible.

Il est difficile de mettre en lumière tous les impacts sociétaux de l’IA (et particulièrement l’IAg) dans un article de blog. Nous avons simplement sélectionné quelques points qui nous semblaient intéressants mais si vous souhaitez approfondir le sujet, le site FramamIA peut vous fournir des clés de compréhension sur l’IA et ses enjeux.

L’Intelligence Artificielle n’est pas un simple outil

Depuis le tsunami provoqué par l’arrivée de ChatGPT, nous entendons souvent que l’Intelligence Artificielle n’est qu’un « simple outil », sous-entendant que son impact sur nos vies et nos sociétés dépend avant tout de notre manière de l’utiliser.

Illustration CC-By David Revoy.

Ce discours s’appuie sur le postulat que l’outil — et la technique en général —, quel qu’il soit, est foncièrement neutre.

Or, si on reconnaît l’ambivalence de la technique, c’est-à-dire qu’elle puisse avoir à la fois des effets positifs et négatifs, cela ne signifie pas pour autant que les conséquences de ces effets s’équilibrent les unes les autres et encore moins que la technique est neutre d’un point de vue idéologique, politique, social ou économique.

Au contraire, tout outil porte forcément les intentions de ses créateurices et s’intègre dans un système économico-historico-social qui en fait un objet fondamentalement politique, éliminant toute possibilité de neutralité. De plus, les conditions d’existence d’un outil et son intégration dans nos sociétés l’intègrent de fait dans un système qui lui est propre, occultant ici l’idée de « simple outil ». Un outil est forcément plus complexe qu’il n’y paraît.

Dans son blog, reprenant un billet d’Olivier Lefebvre paru sur Terrestre.org, Christophe Masutti écrivait récemment qu’« on peut aisément comprendre que comparer une IAg et un marteau pose au moins un problème d’échelle. Il s’agit de deux systèmes techniques dont les conditions d’existence n’ont rien de commun. Si on compare des systèmes techniques, il faut en déterminer les éléments matériels et humains qui forment chaque système. »

Si le système technique du marteau du menuisier peut se réduire à des conditions matérielles et sociales relativement faciles à identifier dans un contexte restreint, il en va tout autre des IAg « dont l’envergure et les implications sociales sont gigantesques et à l’échelle mondiale ». On peut reprendre ainsi l’inventaire des conditions que dresse Olivier Lefebvre :

  • des centres de données dont les constructions se multiplient, entraînant une croissance vertigineuse des besoins en électricité35,36,
  • des réseaux de télécommunication étendus et des usines de production de composants électroniques, ainsi que des mines pour les matières premières qui sont elles mêmes assez complexes (plus complexes que les mines de fer) et entraînent des facteurs sociaux et géopolitiques d’envergure37,
  • les investissements colossaux (en milliards de dollars) en salaires d’ingénieurs en IA, en infrastructures de calcul pour entraîner les modèles, en recherche, réalisés dans une perspective de rentabilité38,39,40,41,
  • l’exploitation humaine : des millions de personnes, majoritairement dans les pays du Sud, sont payées à la tâche pour labelliser des données, sans lesquelles l’IA générative n’existerait pas42,43,44,
  • le pillage d’une immense quantité d’œuvres protégées par droits d’auteurs pour l’entraînement des modèles45,46,
  • et nous pouvons rattacher plein d’autres éléments en cascade pour chacun de ceux cités ci-dessus.

L’Intelligence Artificielle est une bulle économique mais…

… mais cela signifie pas que lorsque celle-ci éclatera, l’IA (et particulièrement les IA génératives) disparaîtra. Les changements apportés à la société semblent indiquer tout le contraire. L’IA a déjà commencé à transformer drastiquement notre société.

Alors que de nombreux pays du monde et d’entreprises s’étaient engagés à atteindre une neutralité carbone d’ici 2050, ces engagements semblent aujourd’hui ne plus intéresser personne. Google a augmenté de 65 % ses émissions de gaz à effet de serre en 5 ans47, Microsoft de 29 % en 4 ans48, Trump relance la filière charbon aux États-Unis49

Au nom des sacro-saintes compétitions et productivités, les engagements climatiques reculent alors même que nous constatons qu’il est désormais impossible de limiter le réchauffement climatique à +1,5°C par rapport à l’ère pré-industrielle50.

Les conséquences du recul de ces engagements et l’amplification du réchauffement climatique liée aux effets directs (construction de nouveaux centre de données, de nouvelles sources d’énergie, etc.) et indirects (encouragement du climato-scepticisme, report des engagements climatiques, etc.) sont des effets dont les conséquences nous affectent déjà et qui s’accentueront très certainement à l’avenir.

Cependant, les bouleversements climatiques ne sont pas les seuls sujets sur lesquels s’exerce l’influence de l’IAg dans notre société. L’IAg est aussi un système poussant à la prolétarisation des sociétés.

Aujourd’hui, 93 % des 18-25 ans ont utilisé une IAg ces six derniers mois, et 42 % les utilisent au quotidien, soit deux fois plus que l’année dernière51.

Il est probable que des milliers (voire des millions) d’étudiant·es ont déjà développé une dépendance à l’IAg dans le cadre de leurs études et ne peuvent aujourd’hui plus s’en passer pour accomplir les tâches que la société et ses institutions attendent d’elles et eux.

Alors qu’un tiers des PME (Petites et Moyennes Entreprises) l’utilisent déjà, la France souhaite que 80 % des PME et ETI (Entreprises de Taille Intermédiaire) adoptent l’IA dans leurs pratiques de travail d’ici 203052.

ChatGPT est aujourd’hui utilisé par 400 millions d’utilisateurices hebdomadaires53… et nous parlons uniquement de ChatGPT, pas de Gemini, Claude, ou autre concurrent.

Dans leur excellente étude sur le « forcing de l’IA », le collectif Limites Numérique décortiquait la manière dont les géants du numérique imposent l’utilisation de l’IA à leurs utilisateurices en l’intégrant absolument partout.

WhatsApp et ses 2,4 milliards d’utilisateurices ? Meta AI est intégré par défaut.

Android et ses 3,3 milliards d’utilisateurices ? Gemini est désormais activé par défaut.
Google Search et ses 190 000 recherches par seconde ? Intégration d’AI Overviews pour 200 pays, permettant de résumer automatiquement les contenus des sites.

En trois ans, l’IA générative s’est imposée absolument partout dans notre environnement numérique et même si de nombreuses start-ups tomberont lors de l’explosion de la bulle financière54, il est probable que les géants du secteur restent en place.

Par contre, nos habitudes, nos pratiques de travail, notre rapport au monde et au savoir… eux, auront bel et bien changé.

Conclusion

Nous l’avons dit en introduction de cet article, cela fait des années que nous observons et cherchons à comprendre ce que représente l’IA et ses enjeux. Pour être honnête, ce n’est clairement pas chose aisée.

Comme nous avons essayé de le faire comprendre à travers le site FramamIA, l’IA est bien plus qu’un « simple outil ». C’est d’abord un champ de recherche mais aussi un système complexe, similaire au système numérique (dans lequel il s’intègre).

Depuis ChatGPT, notre temps de veille pour suivre l’actualité du numérique, déjà conséquent à l’époque, a presque doublé. Nous avons passé littéralement des centaines d’heures à lire des articles, à réfléchir à leur propos, à en discuter en interne. À chercher à comprendre comment techniquement fonctionne une IA générative et ses différences avec une IA spécialisée ou un algorithme n’étant pas considéré comme une IA. À chercher à comprendre, aussi, si l’adoption de cette technique n’est qu’une simple mode ou si celle-ci est bel et bien en train de révolutionner notre environnement.

Nous continuerons, à l’avenir, d’accomplir cette veille même si le rythme de publication de la FramIActu sera moins dense. Malgré tout, nous continuerons de partager notre veille sur notre site de curation dédié.

Aussi, comme nous sommes une association « qui fait », nous explorons d’autres pistes pour accomplir notre objet associatif (l’éducation populaire aux enjeux du numérique) autour de ce sujet. Nous souhaitons aider la société à subir le moins possible les conséquences négatives de l’imposition de l’IA dans nos vies.

Nous avons des pistes d’action, nous vous les partagerons quand nous seront prêt·es !

Belle fin d’été à toutes et tous !

À bientôt sur le Framablog !

  1. L’IA générative utilisée par Netflix dans “L’Éternaute” génère surtout… des économies — Télérama ↩︎
  2. Disney a crédité ChatGPT au générique de l’une de ses séries — BFMTV ↩︎
  3. Netflix will show generative AI ads midway through streams in 2026 — ArsTechnica ↩︎
  4. GPT-1 ­— Wikipédia ↩︎
  5. GPT-2 — Wikipédia ↩︎
  6. GPT-3 — Wikipédia ↩︎
  7. How Big Is GPT-4.5 and Why ? — Github ↩︎
  8. OpenAI lance GPT-4.1 et met déjà GPT-4.5 à la retraite — Next ↩︎
  9. TheAgentCompany : Benchmarking LLM Agents on Consequential Real World Tasks — arXiv ↩︎
  10. OpenAI dégaine son ChatGPT Agent, qui prétend pouvoir presque tout faire — Next ↩︎
  11. IA chez Google : des annonces, des annonces, mais quelle stratégie ? ­— Next ↩︎
  12. Comment les robots d’exploration impactent les opérations des projets Wikimedia — Wikimédia ↩︎
  13. Anubis works — Xe Iaso ↩︎
  14. Cloudflare va bloquer les crawlers des IA par défaut — Next ↩︎
  15. Usage statistics and market share of Cloudflare — W3Techs ↩︎
  16. [Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google) — Next ↩︎
  17. The ABCs of AI and Environmental Misinformation — DeSmog ↩︎
  18. Anatomy of an AI-powered malicious social botnet — arXiv ↩︎
  19. Self-Consuming Generative Models Go MAD — arXiv ↩︎
  20. Exclusive : Reddit in AI content licensing deal with Google — Reuters ↩︎
  21. Reddit says it’s made $203M so far licensing its data — TechCrunch ↩︎
  22. TikTok is being flooded with racist AI videos generated by Google’s Veo 3 — ArsTechnica ↩︎
  23. Real TikTokers are pretending to be Veo 3 AI creations for fun, attention — ArsTechnica ↩︎
  24. A Deepfake Nightmare : Stalker Allegedly Made Sexual AI Images of Ex-Girlfriends and Their Families — 404 Media ↩︎
  25. Enquête ouverte en Normandie après la diffusion de deepfakes d’une douzaine de collégiennes — Next ↩︎
  26. Photos intimes, deepnudes : 13 femmes en colère s’organisent — Next ↩︎
  27. Clément Viktorovitch : « Le discours politique a perdu pied et s’est affranchi du réel » — L’est éclair ↩︎
  28. Ce site montre à quel point les moteurs de recherche ne sont pas neutres et impartiaux — Numerama ↩︎
  29. Pour la première fois, un géant de la tech affirme que l’IA va tuer le web — Numerama ↩︎
  30. Aux États-Unis, ChatGPT est plus utilisé que Wikipédia — Le Grand Continent ↩︎
  31. The Man Who Killed Google Search — Where’s your Ed at ? ↩︎
  32. Intégrité scientifique à l’heure de l’intelligence artificielle générative : ChatGPT et consorts, poison et antidote ? — Cairn.info ↩︎
  33. En 2024, 13,5 % des résumés d’articles de recherche biomédicale étaient co-rédigés par IA — Next ↩︎
  34. Why an overreliance on AI-driven modelling is bad for science — Nature ↩︎
  35. Intelligence artificielle : Stargate, le projet fou américain à 500 milliards de dollars — Next ↩︎
  36. Après Microsoft et Google, Amazon annonce aussi des investissements dans le nucléaire — Next ↩︎
  37. Nvidia dépense 500 milliards de dollars pour des usines dédiées à l’IA aux États-Unis — Frandroid ↩︎
  38. IA : une nouvelle impulsion pour la stratégie nationale — info.gouv.fr ↩︎
  39. Sharing : The Growing Influence of Industry in AI Research — Medium ↩︎
  40. ACL 2023 The Elephant in the Room : Analyzing the Presence of Big Tech in Natural Language Processing Research — arXiv ↩︎
  41. NVIDIA a franchi les 4 000 milliards de dollars de capitalisation — Next ↩︎
  42. Les sacrifiés de l’IA — France TV ↩︎
  43. Vidéos sur les travailleurs du clic — DataGueule ↩︎
  44. Meta poaches 28-year-old Scale AI CEO after taking multibillion dollar stake in startup — Reuters ↩︎
  45. « Vous ne pouvez plus faire sans nous » : les acteurs culturels cherchent l’accord juste avec les sociétés d’IA — Libération ↩︎
  46. Intelligence artificielle : Open AI copie Ghibli sans l’accord de Miyazaki — Libération ↩︎
  47. Google undercounts its carbon emissions, report finds — The Guardian ↩︎
  48. Depuis 2020, les émissions de Microsoft ont augmenté de 29 % — Next ↩︎
  49. Trump relance le charbon américain pour alimenter les datacenters d’IA — Datacenter Magazine ↩︎
  50. Limiter le réchauffement climatique à 1,5 °C est désormais impossible — Le Monde ↩︎
  51. Étude : 93 % des 18-25 ans utilisent l’IA en 2025 — Blog du Modérateur ↩︎
  52. Avec « Osez l’IA », le gouvernement veut accélérer l’adoption de l’IA en entreprise — Next ↩︎
  53. OpenAI’s weekly active users surpass 400 million — Reuters ↩︎
  54. Generative AI experiences rapid adoption, but with mixed outcomes – Highlights from VotE : AI & Machine Learning — S&P Global ↩︎
PDF

11.08.2025 à 07:42

Khrys’presso du lundi 11 août 2025

Khrys

  Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à … Lire la suite­­
Texte intégral (8564 mots)

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

RIP

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

04.08.2025 à 07:42

Khrys’presso du lundi 4 août 2025

Khrys

  Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à … Lire la suite­­
Texte intégral (7619 mots)

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

  • Les ex-conjointes libérées, délivrées de la solidarité fiscale (alternatives-economiques.fr)
  • Rokhaya Diallo-Rima Hassan : pourquoi tant de haines ? (politis.fr)

    Ces deux voix fortes sont marginalisées. Ce qui révèle une peur profonde : entendre des femmes qui incarnent une société diverse, lucide, qui ne demande plus la permission pour parler de justice et d’égalité.[…]Il y a un paradoxe frappant autour de figures comme Rima Hassan et Rokhaya Diallo : tout le monde a un avis sur elles, mais peu prennent le temps de les écouter réellement ou de les lire

  • Zététique : le sexisme au nom de la rationalité ? (revueladeferlante.fr)

    Mouvement néo­ra­tio­na­liste qui prospère sur YouTube, la zététique entend lutter contre les fake news, mais l’approche scien­tiste de cette com­mu­nau­té invi­si­bi­lise les condi­tions maté­rielles et sociales de la démarche scien­ti­fique. Au risque de favoriser la confusion politique.

Spécial médias et pouvoir

  • Face au mythe de la neutralité, un journalisme situé (revueladeferlante.fr)

    Considérée comme un pilier de l’éthique du jour­na­lisme, la neu­tra­li­té est remise en question depuis quelques années par des professionnel·les de l’information qui lui opposent des points de vue situés. À l’ère des fake news, de la concen­tra­tion et de l’extrême-droitisation des médias, ce jour­na­lisme situé et incarné s’attache plus que jamais à la vérité des faits.

  • Wikipédia, au cœur de la bataille informationnelle (revueladeferlante.fr)

    Gratuite, par­ti­ci­pa­tive, trans­pa­rente et démo­cra­tique, l’encyclopédie en ligne fondée en 2001 est récemment devenue la bête noire des réac­tion­naires, qui sou­haitent contrôler les infor­ma­tions circulant à leur sujet.

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

  • Facial recognition : How to protect yourself from surveillance (tuta.com)
  • « Les propriétaires se retrouvent dans des situations kafkaïennes » : les squats de locations Airbnb se multiplient (immobilier.lefigaro.fr)

    Les « faux » locataires prennent leurs quartiers, installent leurs affaires et surtout changent la serrure de la porte. Et refusent de partir. Une fois averti, le propriétaire est impuissant. Les forces de l’ordre le sont souvent tout autant. Car, contrairement aux apparences, les occupants ne peuvent pas être considérés comme des squatteurs. Certes, ils se maintiennent illégalement dans le logement. Mais pour être considérés comme des squatteurs, il aurait fallu qu’ils y entrent illégalement. Or, ce n’est pas le cas car ils ont réservé leur logement sur une plateforme d’hébergement. Dans ce cas, il n’est pas possible, comme pour les squatteurs, d’expulser rapidement (comme le prévoit la loi « anti-squats) les occupants illégaux. Les propriétaires doivent lancer, comme dans le cas de locataires mauvais payeurs, une procédure judiciaire, longue (au moins 6 mois et jusqu’à plusieurs années) et coûteuse (plusieurs milliers d’euros).

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

28.07.2025 à 07:42

Khrys’presso du lundi 28 juillet 2025

Khrys

  Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à … Lire la suite­­
Texte intégral (8770 mots)

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

  • Et si les journalistes boycottaient Rachida Dati ? (arretsurimages.net)

    En 2017, le président Macron nouvellement élu promettait qu’“un ministre doit quitter le gouvernement s’il est mis en examen” (certes devenu “un ministre doit quitter le gouvernement s’il est condamné” en 2022). Quid d’une ministre qui, outre être mise en examen dans une première affaire et renvoyée en correctionnelle dans une seconde, fait passer son projet de holding de l’audiovisuel en 44.3 malgré l’opposition de l’Assemblée et l’opinion générale au sein dudit audiovisuel public d’un projet délétère, et s’autorise à menacer, de façon régulière, les journalistes qui relèvent de son ministère ? Quid d’une ministre qui crache sur la liberté de la presse avec une agressivité et une impunité aux relents trumpistes ?

  • « La télé d’Ardisson, une machine à broyer » (politis.fr)

    L’animateur et producteur de télévision était sans nul doute le « roi » d’une certaine époque. Mais le roi est mort, et l’époque avant lui. On ne la pleurera pas.

  • À l’école de journalisme de Bolloré et Arnault, licenciements, soupçons de racisme et « mises à pied » d’élèves (streetpress.com)

    Depuis le rachat de l’ESJ Paris fin 2024 par plusieurs milliardaires, la nouvelle direction semble vouloir faire du ménage : plusieurs salarié·es et élèves, en grande partie noir·es ou d’origine arabe, ont été licencié·es ou sanctionné·es ces derniers mois.

  • De pire en pire : l’éditeur Fayard, du groupe Bolloré, a tenté d’imposer un assistant éditorial condamné pour pédocriminalité (humanite.fr)

    Selon les informations de Blast, les salariés de l’éditeur Fayard, sous la coupe du groupe Bolloré, ont découvert le recrutement d’un assistant éditorial condamné en première instance et en appel pour avoir diffusé des contenus pédopornographiques. Ce dernier a été licencié suite à ces révélations.

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

RIP ?

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

21.07.2025 à 07:42

Khrys’presso du lundi 21 juillet 2025

Khrys

  Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à … Lire la suite­­
Texte intégral (9269 mots)

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Pas RIP

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial Foutons le Zbeul

Spécial GAFAM et cie

Les autres lectures de la semaine

  • Les camps de concentration, de l’Algérie à Gaza (orientxxi.info)

    L’annonce faite par Israël de l’établissement de « zones de transit humanitaire » n’est pas sans rappeler les « camps de regroupement » installés par la France en Algérie dans sa guerre contre le FLN. Les deux stratégies coloniales partagent la conviction de la responsabilité collective de la population et d’un contrôle fantasmé sur les corps colonisés.

  • Conçu pour dominer. Palantir Technologies, bras armé numérique de la répression mondiale (contretemps.eu)
  • Are a few people ruining the internet for the rest of us ? (theguardian.com)

    social media is less like a neutral reflection of society and more like a funhouse mirror. It amplifies the loudest and most extreme voices while muting the moderate, the nuanced and the boringly reasonable. And much of that distortion, it turns out, can be traced back to a handful of hyperactive online voices. Just 10 % of users produce roughly 97 % of political tweets.

  • Toxic platforms, broken planet (globalwitness.org)

    How online abuse of land and environmental defenders harms climate action

  • Why Science Hasn’t Solved Consciousness (Yet) (noemamag.com)

    To understand life, we must stop treating organisms like machines and minds like code.

  • A transatlantic communications cable does double duty (phys.org)

    Monitoring changes in water temperature and pressure at the seafloor can improve understanding of ocean circulation, climate, and natural hazards such as tsunamis. In recent years, scientists have begun gathering submarine measurements via an existing infrastructure network that spans millions of kilometers around the planet : the undersea fiber-optic telecommunications cables

  • Before Macintosh : The Story of the Apple Lisa (hackaday.com)
  • The First Photograph Ever Taken (1826) (openculture.com)

    In his­to­ries of ear­ly pho­tog­ra­phy, Louis Daguerre faith­ful­ly appears as one of the fathers of the medi­um. […] But had things gone dif­fer­ent­ly, we might know bet­ter the hard­er-to-pro­nounce name of his one­time part­ner Joseph Nicéphore Niépce, who pro­duced the first known pho­to­graph ever, tak­en in 1826.

  • Conspiratorialism and neoliberalism (pluralistic.net)

    Trump’s day-one Executive Order blitz contained a lot of weird, fucked-up shit, but for me, the most telling (though not the most important) was the decision to defund all medical research whose grant applications contained the word “systemic”

  • « Le validisme, lui, ne prend jamais de vacances » (politis.fr)

    Nous avons passé une semaine à Berlin. Pas de différence pour réserver au musée, pas de barrière dans le métro, le train, tout est accessible. Ils étaient même étonnés que je sorte ma carte CMI pour me justifier.20 ans après la loi, rien n’est fait afin qu’elle soit respectée en France, pour que nous soyons enfin respectés en tant que citoyennes à part entière. Nous sommes discriminées, en toute impunité, et sans pause.

  • La révolte des prostituées : 1975 – 2025 50 ans de luttes (rebellyon.info)
  • On nous a appris que le spermatozoïde le plus rapide féconde l’ovule : c’est complètement faux (slate.fr)

    L’ovule capture chimiquement les spermatozoïdes pour choisir son partenaire génétique. Un processus loin du mythe du « chevalier spermatozoïde » perforant la paroi d’un œuf passif. […] Cette réalité, pourtant établie depuis plus de quarante ans, continue d’être ignorée ou redécouverte[…] « On s’obstine à voir le spermatozoïde comme un preux chevalier qui part à la conquête de l’ovule, alors que la science montre tout l’inverse. » Cette persistance du récit du « sperme actif » et de « l’ovule passif » prouve combien il demeure difficile d’abandonner des mythes culturels qui influent encore sur notre vision du monde biologique.

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

14.07.2025 à 07:42

Khrys’presso du lundi 14 juillet 2025

Khrys

  Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à … Lire la suite­­
Texte intégral (12094 mots)

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

  • ROJAVA : « Une expérience toujours inspirante et si fragile » (lempaille.fr)

    Rencontre avec Mylène Sauloy qui revient du Rojava, territoire autonome du Nord et de l’Est de la Syrie, où les attaques de la Turquie et des islamistes redoublent de vigueur. Coautrice du livre Les Filles du Kurdistan, une révolution féministe, elle suit de près ces populations kurdes, arabes et syriaques qui ont pris les armes pour défendre leur projet de société laïque, féministe et socialiste.

  • Lettre aux dirigeants européens signataires de l’accord de Vienne sur le nucléaire iranien (humanite.fr)

    Nous, Iraniennes éprises de paix, refusons que notre pays soit livré à des puissances étrangères, et nous efforcerons de le préserver jusqu’à la fin de nos jours.[…] Au lieu de punir les bellicistes israéliens et américains qui ont attaqué l’Iran, alors que des négociations étaient en cours. Vous avez l’intention de châtier le peuple iranien !

  • La CEDH condamne la Suisse dans l’affaire Semenya (24heures.ch)

    L’athlète privée de compétition parce qu’elle refuse de faire baisser son taux de testostérone n’a pas eu droit à un procès équitable, a tranché jeudi la Cour européenne des droits de l’homme.

  • Sur TikTok, des femmes popularisent la trend « Man of the Year » (huffingtonpost.fr)

    Au son de la chanson « Man of the Year » de Lorde, des milliers de femmes affichent le comportement toxique de leur ex-compagnon. Un révélateur cru des abus commis à bas bruit dans les couples.« Les hommes pourraient être surpris par le nombre de leurs amis qui maltraitent les femmes en privé. Il est essentiel qu’ils prennent la parole pour les femmes »

  • En montrant sa jupe tachée de sang à Wimbledon, cette mannequin brise le tabou des règles (huffingtonpost.fr)

    Grâce à sa vidéo, la jeune femme dédramatise la situation, mais a aussi rappelé à quel point la loi vestimentaire de Wimbledon était contraignante pour les joueuses, pour qui les tâches de règles sur leurs vêtements immaculés étaient une véritable angoisse. Depuis 2023, elles ont le droit de porter un short plus foncé sous leurs jupes blanches.

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

  • Artificial Power : 2025 Landscape Report (ainowinstitute.org)

    Artificial Power, our 2025 Landscape Report, puts forward an actionable strategy for the public to reclaim agency over the future of AI. In the aftermath of the “AI boom,” the report examines how the push to integrate AI products everywhere grants AI companies – and the tech oligarchs that run them – power that goes far beyond their deep pockets. We need to reckon with the ways in which today’s AI isn’t just being used by us, it’s being used on us. The report moves from diagnosis to action : offering concrete strategies for community organizers, policymakers, and the public to change this trajectory.

  • Surveillance funding (surveillancewatch.io)

    The diagram below shows the high level flow of funding towards different areas of investment, broken down into various surveillance technology types. Click on a type to view filtered list of funders supporting these technologies.

  • Loi Duplomb : découvrez si votre député·e a voté pour ou contre la loi Duplomb (franceinfo.fr)
  • Guide d’Autodéfense RSA-France Travail (bourrasque-info.org)

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

07.07.2025 à 07:42

Khrys’presso du lundi 7 juillet 2025

Khrys

  Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à … Lire la suite­­
Texte intégral (11032 mots)

 

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

  • Un an après sa libération, le message de Julian Assange (investigaction.net)
  • Max Schrems — Europe’s data fighter (euobserver.com)

    Europe’s personal data crusader, Max Schrems, is a bête noire of the EU Commission, after over a decade spent challenging and unpicking both the EU’s rules and third country agreements on data protection.

  • Le choc des capitalismes (politis.fr)

    La mondialisation n’a pas abouti à une convergence vers un modèle uniforme de capitalisme de type occidental.

  • La grande peur nucléaire (blog.mondediplo.net)

    « L’ère des réductions du nombre d’armes nucléaires dans le monde, qui a commencé à la fin de la guerre froide, touche à sa fin », diagnostique Hans M. Kristensen, maître de recherche associé au programme de l’Institut international de recherche sur la paix de Stockholm (SIPRI) sur les armes de destruction massive. « Au lieu de cela, relève-t-il dans le dernier rapport sur les armements mondiaux, nous observons une tendance claire à l’augmentation des arsenaux nucléaires, à l’intensification de la rhétorique nucléaire, et à l’abandon des accords de contrôle des armements ».

  • Le transhumanisme selon Peter Thiel : l’IA, Mars, la géopolitique (legrandcontinent.eu)

    Il n’est d’ailleurs pas convaincu du bien fondé ou de la supériorité de l’IA en soi. Pour lui, l’intérêt est ailleurs : un peu comme un drogue aux effets très durs — même s’il n’utilise pas cette image — il faudrait « l’essayer » car elle permettrait peut-être de retenir la fin. Il le dit presque aussi explicitement ; pour lui, l’IA est une sorte d’excitant : « toutes sortes de choses intéressantes peuvent arriver. Peut-être que, dans un contexte militaire, les drones seront combinés à l’IA. C’est effrayant, dangereux, dystopique. Mais si vous enlevez l’IA, il ne se passe tout simplement plus rien. »

  • The rise of Whatever (eev.ee)

    I think what really gets me here, and what no one really talks about, is that the bar has been revealed to be so low. LLM features get bolted onto fucking everything because what they do, what they really do, at their core, is this : Whatever. They do Whatever. And that’s great, because Whatever is something. There’s no such thing as an error, no empty results page, no such thing as a missing feature or an uncovered case. Almost without fail, you’ll get something. Is it useful ? Is it correct ? Is it remotely based in reality ? Who cares ? Far more important is that there is output. Whatever is apparently better than nothing. Cheap and inoffensive and disposable, like a red beer cup. We are doing to the Internet what we already did to the ocean : filling it with a great swirling vortex of trash.

  • « On ne peut pas s’adapter à une France à +4°C » (lareleveetlapeste.fr)

    Une France à +4 degrés en 2100 correspond à des sécheresses en série, des températures pouvant atteindre 50 degrés, 10 fois plus de jours de vagues de chaleur, un risque de feu de forêt généralisé à l’ensemble du territoire.

  • « Contre les irresponsables », par l’historien Johann Chapoutot (liberation.fr)

    L’antienne du retour des années 30 se révèle au fond commode pour incriminer l’électorat populaire : la crise économique engendre le malheur social qui aboutit à la victoire « des extrêmes ». Autrement dit, la démocratie est un pari risqué, car les gueux se retournent contre elle en votant nazi. Toutes les études montrent le contraire : les nazis n’ont jamais gagné une élection nationale en Allemagne et l’électorat populaire a voté contre eux de manière réitérée. Ce viatique répété à longueur de plateaux est donc faux.

  • La France insoumise, le fascisme et la révolution (lundi.am)

    Quel mouvement révolutionnaire en France ?

  • Le piège des ZRR : entretien avec un collègue (cgt.fercsup.net)

    L’Écho du Sup a rencontré un universitaire dont la collaboration avec un collègue membre d’un labo à Zone à Régime Restrictif (ZRR) a eu des conséquences très lourdes : surveillance, soupçon d’espionnage, plusieurs jours en garde à vue, confiscation de matériel de travail…. Cette histoire kafkaïenne doit nous faire prendre conscience que 1) les choses peuvent aller très loin, 2) c’est un changement profond du fonctionnement académique qui nous est imposé sans forcément qu’on en soit conscient·e.

  • La drépanocytose ou la douleur invisible (laviedesidees.fr)

    On devrait considérer que læ patient·e est guéri·e quand iel n’a plus de douleurs ; or, ce n’est jamais le critère de guérison.

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

30.06.2025 à 07:42

Khrys’presso du lundi 30 juin 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (8405 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial Iran et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

23.06.2025 à 07:42

Khrys’presso du lundi 23 juin 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (9223 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial Iran et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

22.06.2025 à 09:00

L’IA est une technologie comme les autres

Framasoft

L’IA ne sera pas la révolution que l’on pense. Son déploiement concret va prendre du temps. Elle ne sera pas non plus la menace existentielle qu’on imagine, parce qu’elle ne se développera pas là où les risques de défaillances sont trop importants. L’IA va rester sous contrôle malgré sa diffusion, estiment les chercheurs Arvind Narayanan et Sayash Kapoor dans une mise en perspective stimulante de notre avenir.
Texte intégral (5120 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 03 mars 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.

Après une vingtaine d’articles republiés tous les dimanches depuis plusieurs mois, nous prenons une pause estivale ! Vous pouvez néanmoins toujours consulter, chaque semaine, les articles proposés par Hubert Guillaud sur le site de Dans Les Algorithmes !


L’IA ne sera pas la révolution que l’on pense. Son déploiement concret va prendre du temps. Elle ne sera pas non plus la menace existentielle qu’on imagine, parce qu’elle ne se développera pas là où les risques de défaillances sont trop importants. L’IA va rester sous contrôle malgré sa diffusion, estiment les chercheurs Arvind Narayanan et Sayash Kapoor dans une mise en perspective stimulante de notre avenir.

 

 

 

 

 

 

Les chercheurs Arvind Narayanan et Sayash Kapoor – dont nous avions chroniqué le livre, AI Snake Oil – signent pour le Knight un long article pour démonter les risques existentiels de l’IA générale. Pour eux, l’IA est une « technologie normale ». Cela ne signifie pas que son impact ne sera pas profond, comme l’électricité ou internet, mais cela signifie qu’ils considèrent « l’IA comme un outil dont nous pouvons et devons garder le contrôle, et nous soutenons que cet objectif ne nécessite ni interventions politiques drastiques ni avancées technologiques ». L’IA n’est pas appelée à déterminer elle-même son avenir, expliquent-ils. Les deux chercheurs estiment que « les impacts économiques et sociétaux transformateurs seront lents (de l’ordre de plusieurs décennies) ».

Selon eux, dans les années à venir « une part croissante du travail des individus va consister à contrôler l’IA ». Mais surtout, considérer l’IA comme une technologie courante conduit à des conclusions fondamentalement différentes sur les mesures d’atténuation que nous devons y apporter, et nous invite, notamment, à minimiser le danger d’une superintelligence autonome qui viendrait dévorer l’humanité.

La vitesse du progrès est plus linéaire qu’on le pense

« Comme pour d’autres technologies à usage général, l’impact de l’IA se matérialise non pas lorsque les méthodes et les capacités s’améliorent, mais lorsque ces améliorations se traduisent en applications et se diffusent dans les secteurs productifs de l’économie  » , rappellent les chercheurs, à la suite des travaux de Jeffrey Ding dans son livre, Technology and the Rise of Great Powers : How Diffusion Shapes Economic Competition (Princeton University Press, 2024, non traduit). Ding y rappelle que la diffusion d’une innovation compte plus que son invention, c’est-à-dire que l’élargissement des applications à d’innombrables secteurs est souvent lent mais décisif. Pour Foreign Affairs, Ding pointait d’ailleurs que l’enjeu des politiques publiques en matière d’IA ne devraient pas être de s’assurer de sa domination sur le cycle d’innovation, mais du rythme d’intégration de l’IA dans un large éventail de processus productifs. L’enjeu tient bien plus à élargir les champs d’application des innovations qu’à maîtriser la course à la puissance, telle qu’elle s’observe actuellement.

En fait, rappellent Narayanan et Kapoor, les déploiements de l’IA seront, comme dans toutes les autres technologies avant elle, progressifs, permettant aux individus comme aux institutions de s’adapter. Par exemple, constatent-ils, la diffusion de l’IA dans les domaines critiques pour la sécurité est lente. Même dans le domaine de « l’optimisation prédictive », c’est-à-dire la prédiction des risques pour prendre des décisions sur les individus, qui se sont multipliées ces dernières années, l’IA n’est pas très présente, comme l’avaient pointé les chercheurs dans une étude. Ce secteur mobilise surtout des techniques statistiques classiques, rappellent-ils. En fait, la complexité et l’opacité de l’IA font qu’elle est peu adaptée pour ces enjeux. Les risques de sécurité et de défaillance font que son usage y produit souvent de piètres résultats. Sans compter que la réglementation impose déjà des procédures qui ralentissent les déploiements, que ce soit la supervision des dispositifs médicaux ou l’IA Act européen. D’ailleurs, “lorsque de nouveaux domaines où l’IA peut être utilisée de manière significative apparaissent, nous pouvons et devons les réglementer ».

Même en dehors des domaines critiques pour la sécurité, l’adoption de l’IA est plus lente que ce que l’on pourrait croire. Pourtant, de nombreuses études estiment que l’usage de l’IA générative est déjà très fort. Une étude très commentée constatait qu’en août 2024, 40 % des adultes américains utilisaient déjà l’IA générative. Mais cette percée d’utilisation ne signifie pas pour autant une utilisation intensive, rappellent Narayanan et Kapoor – sur son blog, Gregory Chatonksy ne disait pas autre chose, distinguant une approche consumériste d’une approche productive, la seconde était bien moins maîtrisée que la première. L’adoption est une question d’utilisation du logiciel, et non de disponibilité, rappellent les chercheurs. Si les outils sont désormais accessibles immédiatement, leur intégration à des flux de travail ou à des habitudes, elle, prend du temps. Entre utiliser et intégrer, il y a une différence que le nombre d’utilisateurs d’une application ne suffit pas à distinguer. L’analyse de l’électrification par exemple montre que les gains de productivité ont mis des décennies à se matérialiser pleinement, comme l’expliquait Tim Harford. Ce qui a finalement permis de réaliser des gains de productivité, c’est surtout la refonte complète de l’agencement des usines autour de la logique des chaînes de production électrifiées.

Les deux chercheurs estiment enfin que nous sommes confrontés à des limites à la vitesse d’innovation avec l’IA. Les voitures autonomes par exemple ont mis deux décennies à se développer, du fait des contraintes de sécurité nécessaires, qui, fort heureusement, les entravent encore. Certes, les choses peuvent aller plus vite dans des domaines non critiques, comme le jeu. Mais très souvent, “l’écart entre la capacité et la fiabilité” reste fort. La perspective d’agents IA pour la réservation de voyages ou le service clients est moins à risque que la conduite autonome, mais cet apprentissage n’est pas simple à réaliser pour autant. Rien n’assure qu’il devienne rapidement suffisamment fiable pour être déployé. Même dans le domaine de la recommandation sur les réseaux sociaux, le fait qu’elle s’appuie sur des modèles d’apprentissage automatique n’a pas supprimé la nécessité de coder les algorithmes de recommandation. Et dans nombre de domaines, la vitesse d’acquisition des connaissances pour déployer de l’IA est fortement limitée en raison des coûts sociaux de l’expérimentation. Enfin, les chercheurs soulignent que si l’IA sait coder ou répondre à des examens, comme à ceux du barreau, mieux que des humains, cela ne recouvre pas tous les enjeux des pratiques professionnelles réelles. En fait, trop souvent, les indicateurs permettent de mesurer les progrès des méthodes d’IA, mais peinent à mesurer leurs impacts ou l’adoption, c’est-à-dire l’intensité de son utilisation. Kapoor et Narayanan insistent : les impacts économiques de l’IA seront progressifs plus que exponentiels. Si le taux de publication d’articles sur l’IA affiche un doublement en moins de deux ans, on ne sait pas comment cette augmentation de volume se traduit en progrès. En fait, il est probable que cette surproduction même limite l’innovation. Une étude a ainsi montré que dans les domaines de recherche où le volume d’articles scientifiques est plus élevé, il est plus difficile aux nouvelles idées de percer.

L’IA va rester sous contrôle

Le recours aux concepts flous d’« intelligence » ou de « superintelligence » ont obscurci notre capacité à raisonner clairement sur un monde doté d’une IA avancée. Assez souvent, l’intelligence elle-même est assez mal définie, selon un spectre qui irait de la souris à l’IA, en passant par le singe et l’humain. Mais surtout, “l’intelligence n’est pas la propriété en jeu pour analyser les impacts de l’IA. C’est plutôt le pouvoir – la capacité à modifier son environnement – ​​qui est en jeu”. Nous ne sommes pas devenus puissants du fait de notre intelligence, mais du fait de la technologie que nous avons utilisée pour accroître nos capacités. La différence entre l’IA et les capacités humaines reposent surtout dans la vitesse. Les machines nous dépassent surtout en termes de vitesse, d’où le fait que nous les ayons développées surtout dans les domaines où la vitesse est en jeu.

“Nous prévoyons que l’IA ne sera pas en mesure de surpasser significativement les humains entraînés (en particulier les équipes humaines, et surtout si elle est complétée par des outils automatisés simples) dans la prévision d’événements géopolitiques (par exemple, les élections). Nous faisons la même prédiction pour les tâches consistant à persuader les gens d’agir contre leur propre intérêt”. En fait, les systèmes d’IA ne seront pas significativement plus performants que les humains agissant avec l’aide de l’IA, prédisent les deux chercheurs.

Mais surtout, insistent-ils, rien ne permet d’affirmer que nous perdions demain la main sur l’IA. D’abord parce que le contrôle reste fort, des audits à la surveillance des systèmes en passant par la sécurité intégrée. “En cybersécurité, le principe du « moindre privilège » garantit que les acteurs n’ont accès qu’aux ressources minimales nécessaires à leurs tâches. Les contrôles d’accès empêchent les personnes travaillant avec des données et des systèmes sensibles d’accéder à des informations et outils confidentiels non nécessaires à leur travail. Nous pouvons concevoir des protections similaires pour les systèmes d’IA dans des contextes conséquents. Les méthodes de vérification formelle garantissent que les codes critiques pour la sécurité fonctionnent conformément à leurs spécifications ; elles sont désormais utilisées pour vérifier l’exactitude du code généré par l’IA.” Nous pouvons également emprunter des idées comme la conception de systèmes rendant les actions de changement d’état réversibles, permettant ainsi aux humains de conserver un contrôle significatif, même dans des systèmes hautement automatisés. On peut également imaginer de nouvelles idées pour assurer la sécurité, comme le développement de systèmes qui apprennent à transmettre les décisions aux opérateurs humains en fonction de l’incertitude ou du niveau de risque, ou encore la conception de systèmes agents dont l’activité est visible et lisible par les humains, ou encore la création de structures de contrôle hiérarchiques dans lesquelles des systèmes d’IA plus simples et plus fiables supervisent des systèmes plus performants, mais potentiellement peu fiables. Pour les deux chercheurs, “avec le développement et l’adoption de l’IA avancée, l’innovation se multipliera pour trouver de nouveaux modèles de contrôle humain.

Pour eux d’ailleurs, à l’avenir, un nombre croissant d’emplois et de tâches humaines seront affectés au contrôle de l’IA. Lors des phases d’automatisation précédentes, d’innombrables méthodes de contrôle et de surveillance des machines ont été inventées. Et aujourd’hui, les chauffeurs routiers par exemple, ne cessent de contrôler et surveiller les machines qui les surveillent, comme l’expliquait Karen Levy. Pour les chercheurs, le risque de perdre de la lisibilité et du contrôle en favorisant l’efficacité et l’automatisation doit toujours être contrebalancée. Les IA mal contrôlées risquent surtout d’introduire trop d’erreurs pour rester rentables. Dans les faits, on constate plutôt que les systèmes trop autonomes et insuffisamment supervisés sont vite débranchés. Nul n’a avantage à se passer du contrôle humain. C’est ce que montre d’ailleurs la question de la gestion des risques, expliquent les deux chercheurs en listant plusieurs types de risques.

La course aux armements par exemple, consistant à déployer une IA de plus en plus puissante sans supervision ni contrôle adéquats sous prétexte de concurrence, et que les acteurs les plus sûrs soient supplantés par des acteurs prenant plus de risques, est souvent vite remisée par la régulation. “De nombreuses stratégies réglementaires sont mobilisables, que ce soient celles axées sur les processus (normes, audits et inspections), les résultats (responsabilité) ou la correction de l’asymétrie d’information (étiquetage et certification).” En fait, rappellent les chercheurs, le succès commercial est plutôt lié à la sécurité qu’autre chose. Dans le domaine des voitures autonomes comme dans celui de l’aéronautique, “l’intégration de l’IA a été limitée aux normes de sécurité existantes, au lieu qu’elles soient abaissées pour encourager son adoption, principalement en raison de la capacité des régulateurs à sanctionner les entreprises qui ne respectent pas les normes de sécurité”. Dans le secteur automobile, pourtant, pendant longtemps, la sécurité n’était pas considérée comme relevant de la responsabilité des constructeurs. Mais petit à petit, les normes et les attentes en matière de sécurité se sont renforcées. Dans le domaine des recommandations algorithmiques des médias sociaux par contre, les préjudices sont plus difficiles à mesurer, ce qui explique qu’il soit plus difficile d’imputer les défaillances aux systèmes de recommandation. “L’arbitrage entre innovation et réglementation est un dilemme récurrent pour l’État régulateur”. En fait, la plupart des secteurs à haut risque sont fortement réglementés, rappellent les deux chercheurs. Et contrairement à l’idée répandue, il n’y a pas que l’Europe qui régule, les États-Unis et la Chine aussi ! Quant à la course aux armements, elle se concentre surtout sur l’invention des modèles, pas sur l’adoption ou la diffusion qui demeurent bien plus déterminantes pourtant.

Répondre aux abus. Jusqu’à présent, les principales défenses contre les abus se situent post-formation, alors qu’elles devraient surtout se situer en aval des modèles, estiment les chercheurs. Le problème fondamental est que la nocivité d’un modèle dépend du contexte, contexte souvent absent du modèle, comme ils l’expliquaient en montrant que la sécurité n’est pas une propriété du modèle. Le modèle chargé de rédiger un e-mail persuasif pour le phishing par exemple n’a aucun moyen de savoir s’il est utilisé à des fins marketing ou d’hameçonnage ; les interventions au niveau du modèle seraient donc inefficaces. Ainsi, les défenses les plus efficaces contre le phishing ne sont pas les restrictions sur la composition des e-mails (qui compromettraient les utilisations légitimes), mais plutôt les systèmes d’analyse et de filtrage des e-mails qui détectent les schémas suspects, et les protections au niveau du navigateur. Se défendre contre les cybermenaces liées à l’IA nécessite de renforcer les programmes de détection des vulnérabilités existants plutôt que de tenter de restreindre les capacités de l’IA à la source. Mais surtout, “plutôt que de considérer les capacités de l’IA uniquement comme une source de risque, il convient de reconnaître leur potentiel défensif. En cybersécurité, l’IA renforce déjà les capacités défensives grâce à la détection automatisée des vulnérabilités, à l’analyse des menaces et à la surveillance des surfaces d’attaque”.Donner aux défenseurs l’accès à des outils d’IA puissants améliore souvent l’équilibre attaque-défense en leur faveur”. En modération de contenu, par exemple, on pourrait mieux mobiliser l’IA peut aider à identifier les opérations d’influence coordonnées. Nous devons investir dans des applications défensives plutôt que de tenter de restreindre la technologie elle-même, suggèrent les chercheurs.

Le désalignement. Une IA mal alignée agit contre l’intention de son développeur ou de son utilisateur. Mais là encore, la principale défense contre le désalignement se situe en aval plutôt qu’en amont, dans les applications plutôt que dans les modèles. Le désalignement catastrophique est le plus spéculatif des risques, rappellent les chercheurs. “La crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique repose souvent sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel”. Dans le monde réel, la surveillance et le contrôle sont très présents et l’IA est très utile pour renforcer cette surveillance et ce contrôle. Les craintes liées au désalignement de l’IA supposent que ces systèmes déjouent la surveillance, alors que nous avons développés de très nombreuses formes de contrôle, qui sont souvent d’autant plus fortes et redondantes que les décisions sont importantes.

Les risques systémiques. Si les risques existentiels sont peu probables, les risques systémiques, eux, sont très courants. Parmi ceux-ci figurent “l’enracinement des préjugés et de la discrimination, les pertes d’emplois massives dans certaines professions, la dégradation des conditions de travail, l’accroissement des inégalités, la concentration du pouvoir, l’érosion de la confiance sociale, la pollution de l’écosystème de l’information, le déclin de la liberté de la presse, le recul démocratique, la surveillance de masse et l’autoritarisme”. “Si l’IA est une technologie normale, ces risques deviennent bien plus importants que les risques catastrophiques évoqués précédemment”. Car ces risques découlent de l’utilisation de l’IA par des personnes et des organisations pour promouvoir leurs propres intérêts, l’IA ne faisant qu’amplifier les instabilités existantes dans notre société. Nous devrions bien plus nous soucier des risques cumulatifs que des risques décisifs.

Politiques de l’IA

Narayanan et Kapoor concluent leur article en invitant à réorienter la régulation de l’IA, notamment en favorisant la résilience. Pour l’instant, l’élaboration des politiques publiques et des réglementations de l’IA est caractérisée par de profondes divergences et de fortes incertitudes, notamment sur la nature des risques que fait peser l’IA sur la société. Si les probabilités de risque existentiel de l’IA sont trop peu fiables pour éclairer les politiques, il n’empêche que nombre d’acteurs poussent à une régulation adaptée à ces risques existentiels. Alors que d’autres interventions, comme l’amélioration de la transparence, sont inconditionnellement utiles pour atténuer les risques, quels qu’ils soient. Se défendre contre la superintelligence exige que l’humanité s’unisse contre un ennemi commun, pour ainsi dire, concentrant le pouvoir et exerçant un contrôle centralisé sur l’IA, qui risque d’être un remède pire que le mal. Or, nous devrions bien plus nous préoccuper des risques cumulatifs et des pratiques capitalistes extractives que l’IA amplifie et qui amplifient les inégalités. Pour nous défendre contre ces risques-ci, pour empêcher la concentration du pouvoir et des ressources, il nous faut rendre l’IA puissante plus largement accessible, défendent les deux chercheurs.

Ils recommandent d’ailleurs plusieurs politiques. D’abord, améliorer le financement stratégique sur les risques. Nous devons obtenir de meilleures connaissances sur la façon dont les acteurs malveillants utilisent l’IA et améliorer nos connaissances sur les risques et leur atténuation. Ils proposent également d’améliorer la surveillance des usages, des risques et des échecs, passant par les déclarations de transparences, les registres et inventaires, les enregistrements de produits, les registres d’incidents (comme la base de données d’incidents de l’IA) ou la protection des lanceurs d’alerte… Enfin, ils proposent que les “données probantes” soient un objectif prioritaire, c’est-à-dire d’améliorer l’accès de la recherche.

Dans le domaine de l’IA, la difficulté consiste à évaluer les risques avant le déploiement. Pour améliorer la résilience, il est important d’améliorer la responsabilité et la résilience, plus que l’analyse de risque, c’est-à-dire des démarches de contrôle qui ont lieu après les déploiements. “La résilience exige à la fois de minimiser la gravité des dommages lorsqu’ils surviennent et la probabilité qu’ils surviennent.” Pour atténuer les effets de l’IA nous devons donc nous doter de politiques qui vont renforcer la démocratie, la liberté de la presse ou l’équité dans le monde du travail. C’est-à-dire d’améliorer la résilience sociétale au sens large.

Pour élaborer des politiques technologiques efficaces, il faut ensuite renforcer les capacités techniques et institutionnelles de la recherche, des autorités et administrations. Sans personnels compétents et informés, la régulation de l’IA sera toujours difficile. Les chercheurs invitent même à “diversifier l’ensemble des régulateurs et, idéalement, à introduire la concurrence entre eux plutôt que de confier la responsabilité de l’ensemble à un seul régulateur”.

Par contre, Kapoor et Narayanan se défient fortement des politiques visant à promouvoir une non-prolifération de l’IA, c’est-à-dire à limiter le nombre d’acteurs pouvant développer des IA performantes. Les contrôles à l’exportation de matériel ou de logiciels visant à limiter la capacité des pays à construire, acquérir ou exploiter une IA performante, l’exigence de licences pour construire ou distribuer une IA performante, et l’interdiction des modèles d’IA à pondération ouverte… sont des politiques qui favorisent la concentration plus qu’elles ne réduisent les risques. “Lorsque de nombreuses applications en aval s’appuient sur le même modèle, les vulnérabilités de ce modèle peuvent être exploitées dans toutes les applications”, rappellent-ils.

Pour les deux chercheurs, nous devons “réaliser les avantages de l’IA”, c’est-à-dire accélérer l’adoption des bénéfices de l’IA et atténuer ses inconvénients. Pour cela, estiment-ils, nous devons être plus souples sur nos modalités d’intervention. Par exemple, ils estiment que pour l’instant catégoriser certains domaines de déploiement de l’IA comme à haut risque est problématique, au prétexte que dans ces secteurs (assurance, prestation sociale ou recrutement…), les technologies peuvent aller de la reconnaissance optique de caractères, relativement inoffensives, à la prise de décision automatisées dont les conséquences sont importantes. Pour eux, il faudrait seulement considérer la prise de décision automatisée dans ces secteurs comme à haut risque.

Un autre enjeu repose sur l’essor des modèles fondamentaux qui a conduit à une distinction beaucoup plus nette entre les développeurs de modèles, les développeurs en aval et les déployeurs (parmi de nombreuses autres catégories). Une réglementation insensible à ces distinctions risque de conférer aux développeurs de modèles des responsabilités en matière d’atténuation des risques liés à des contextes de déploiement particuliers, ce qui leur serait impossible en raison de la nature polyvalente des modèles fondamentaux et de l’imprévisibilité de tous les contextes de déploiement possibles.

Enfin, lorsque la réglementation établit une distinction binaire entre les décisions entièrement automatisées et celles qui ne le sont pas, et ne reconnaît pas les degrés de surveillance, elle décourage l’adoption de nouveaux modèles de contrôle de l’IA. Or de nombreux nouveaux modèles sont proposés pour garantir une supervision humaine efficace sans impliquer un humain dans chaque décision. Il serait imprudent de définir la prise de décision automatisée de telle sorte que ces approches engendrent les mêmes contraintes de conformité qu’un système sans supervision. Pour les deux chercheurs, “opposer réglementation et diffusion est un faux compromis, tout comme opposer réglementation et innovation”, comme le disait Anu Bradford. Pour autant, soulignent les chercheurs, l’enjeu n’est pas de ne pas réguler, mais bien de garantir de la souplesse. La législation garantissant la validité juridique des signatures et enregistrement électroniques promulguée en 2000 aux Etats-Unis a joué un rôle déterminant dans la promotion du commerce électronique et sa diffusion. La législation sur les petits drones mise en place par la Federal Aviation Administration en 2016 a permis le développement du secteur par la création de pilotes certifiés. Nous devons trouver pour l’IA également des réglementations qui favorisent sa diffusion, estiment-ils. Par exemple, en facilitant “la redistribution des bénéfices de l’IA afin de les rendre plus équitables et d’indemniser les personnes qui risquent de subir les conséquences de l’automatisation. Le renforcement des filets de sécurité sociale contribuera à atténuer l’inquiétude actuelle du public face à l’IA dans de nombreux pays”. Et les chercheurs de suggérer par exemple de taxer les entreprises d’IA pour soutenir les industries culturelles et le journalisme, mis à mal par l’IA. En ce qui concerne l’adoption par les services publics de l’IA, les gouvernements doivent trouver le juste équilibre entre une adoption trop précipitée qui génère des défaillances et de la méfiance, et une adoption trop lente qui risque de produire de l’externalisation par le secteur privé.

PDF

16.06.2025 à 07:42

Khrys’presso du lundi 16 juin 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (11027 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

Spécial IA

Spécial Palestine et Israël

Spécial Iran et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

15.06.2025 à 09:00

Recrutements automatisés : défaillances spécifiques, défaillances systémiques

Framasoft

Démontrer les défaillances des systèmes de recrutement automatisé demeure compliqué. Les enquêtes et tests des usagers, des chercheurs, des médias… parviennent souvent à pointer des défaillances spécifiques que les entreprises ont beau jeu de rejeter comme n’étant pas représentatifs. Et effectivement, corriger les biais de recrutement nécessite d’être capable de les mesurer. Comment répondre aux défaillances du recrutement automatisé ? C’est le dossier de Dans les algorithmes !
Texte intégral (5821 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 11 juin 2024 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Démontrer les défaillances des systèmes de recrutement automatisé demeure compliqué. Les enquêtes et tests des usagers, des chercheurs, des médias… parviennent souvent à pointer des défaillances spécifiques que les entreprises ont beau jeu de rejeter comme n’étant pas représentatifs. Et effectivement, corriger les biais de recrutement nécessite d’être capable de les mesurer. Comment répondre aux défaillances du recrutement automatisé ?

 

C’est le dossier de Dans les Algorithmes !

 

 

 

 

 

Le problème auquel nous sommes confrontés dans les systèmes de recrutement automatisés est que ni les postulants ni les départements RH ni les régulateurs ni le grand public ne savent très bien comment les CV sont inspectés et scorés (voir la première partie de ce dossier). Les candidats savent rarement si ces outils sont la seule raison pour laquelle les entreprises les rejettent – et aucun de ces systèmes n’explique aux utilisateurs comment ils ont été évalués. Pourtant, les exemples flagrants de défaillances spécifiques sont nombreux, sans qu’il soit toujours possible de prouver leurs défaillances systémiques.

Dans son livre, The Algorithm : How AI decides who gets hired, monitored, promoted, and fired and why we need to fight back now (L’algorithme : comment l’IA décide de qui sera embauché, surveillé, promu et viré et pourquoi nous devons riposter, Hachette, 2024, non traduit), la journaliste Hilke Schellmann donne beaucoup la parole à des individus qui ont bataillé contre des systèmes : une développeuse black très compétente discriminée en continu, un data scientist écarté sans raisons de postes pour lesquels il était plus que compétent… un candidat d’une cinquantaine d’années, excédé qui finit par changer sa date de naissance et se voit magiquement accepté aux candidatures où il était refusé ! Le testing systémique des outils d’embauche automatisés est encore trop rare et trop souvent individuel… Mais il montre bien souvent combien ces systèmes sont défaillants, à l’image de celui initié récemment par Bloomberg : les journalistes ont demandé à ChatGPT de classer des CV dont le seul élément modifié était le prénom et le nom des candidats. Sans surprise, les CV avec des noms à consonance afro-américaine étaient à chaque fois les plus mal classés !

Pourtant, démontrer les dysfonctionnements de ces systèmes demeure compliqué, concède la journaliste. Notamment parce que ces éclairages reposent souvent sur des exemples spécifiques, de simples tests, des études limitées en ampleur, en profondeur et dans le temps… que les entreprises ont beau jeu de les rejeter comme n’étant pas représentatifs. L’accumulation de preuves de défaillances devrait néanmoins être plus que préoccupante.

Les informations sur le fonctionnement de ces systèmes sont rares, la plupart du temps elles ne nous parviennent que quand ces systèmes dysfonctionnent publiquement. En 2018, une enquête de Reuters avait montré que le système de recrutement d’Amazon était fortement biaisé au détriment des femmes : ses données d’entraînement (les CV des gens déjà recrutés par Amazon) comportaient trop peu de femmes et les écartait par défaut. Malgré les tentatives de l’équipe d’Amazon pour réparer le système d’embauche, l’équipe a fini par abandonner le projet, faute d’y parvenir. C’est dire que réparer les défaillances et les biais n’est pas si simple. Les problèmes de discriminations ne se sont pourtant pas arrêtés. La Commission pour l’égalité des chances en matière d’emploi (EEOC, l’agence fédérale américaine chargée de lutter contre la discrimination à l’emploi), poursuit chaque année de nombreuses entreprises qui ont des pratiques d’embauches discriminatoires massives et problématiques.

Vous avez du mal à trouver un emploi ? La faute aux robots recruteurs.
Image extraite d’un article de Hilke Schellmann pour The Guardian.

 

Pour John Jersin, longtemps vice-président de Linkedin, ces problèmes de discrimination invisibles, cachés dans d’autres pratiques ou au fin fond des mots, restent inaperçues des développeurs de systèmes, notamment parce que la réduction des biais évoque d’abord le risque qui affecte certaines catégories de population plutôt que d’autres. Le débiaisage invite à écarter des éléments visibles, comme le genre, les prénoms, les pronoms, les photos… mais n’insiste pas assez sur le fait que les biais peuvent être, par cascade, à plein d’autres endroits. Chez Linkedin, Jersin a construit une équipe d’ingénieurs en IA pour combattre les biais de l’IA. Pour réduire les biais de genre, la solution de Linkedin a été… de mettre encore plus d’IA en utilisant des coefficients de représentativité genrés selon les emplois pour corriger la visibilité des annonces (comme Meta envisage de le faire pour les annonces immobilières). L’exemple montre bien que pour corriger les biais, encore faut-il pouvoir les mesurer, et non seulement mesurer les biais de représentativité, mais également ceux de la diffusion des annonces. Sans compter que ces corrections qui visent à réduire les écarts de performance entre groupes démographiques risquent surtout de produire un “égalitarisme strict par défaut”, qu’une forme d’équité. Le débiaisage laisse ouvertes plusieurs questions : Quelles corrections appliquer ? Comment les rendre visibles ? Jusqu’où corriger ?

Sans compter qu’il faudrait pouvoir corriger toutes les autres formes de discrimination, liées à l’âge ou la couleur de peau… Ou encore des discriminations liées à l’origine géographique des candidats qui permet d’écarter très facilement des candidatures selon leur localisation. Et surtout de la plus prégnante d’entre elles : la discrimination de classe.

Pseudoscience automatisée

Les systèmes d’embauche automatisé reposent principalement sur l’analyse de mots et nous font croire que cette analyse permettrait de prédire la performance au travail, la personnalité des candidats ou l’adéquation entre une offre et un poste. Ces outils de sélection et d’évaluation sont partout promus comme s’ils fournissaient des informations stables, fiables, objectives et équitables, sans jamais se soucier de leur validité scientifique. Pourtant, les vendeurs de ces systèmes n’apportent jamais la moindre preuve de la validité scientifique de leurs solutions.

Pour les chercheurs Mona Sloane, Emanuel Moss et Rumman Chowdhury, ces systèmes reposent surtout sur des pratiques pseudoscientifiques qu’autre chose. Et bien souvent, les évaluations sont prises dans des chaînes de traitement qui impliquent plusieurs types d’outils et de techniques qui rendent leur audit difficile, notamment parce que certains résultats ont des conséquences sur d’autres mesures. Pour les chercheurs, il faudrait revenir aux « racines épistémologiques » des systèmes, c’est-à-dire aux prétentions à la connaissance qu’ils formulent, comme de prétendre que l’analyse des mots d’un CV puisse caractériser la performance au travail. La perspective de déployer des audits pour s’assurer de leur conformité qui ne se limiteraient qu’à des questions d’équité (de genre ou d’âge par exemple) ne peuvent pas corriger les problèmes que génère cette fausse prétention à la connaissance. Or, pour l’instant, sans même parler d’équité, les entreprises ne sont même pas obligées de révéler aux candidats les outils qu’elles mobilisent ni leurs effets. Nous ne connaissons ni la liste des systèmes mobilisés, ni leurs intentions, ni les données utilisées, ni celles utilisées pour la modélisation… L’opacité de l’emploi automatisé s’étend bien plus qu’il ne se résout.

Cambridge Analytica nous a permis de comprendre l’impact du profilage pseudo-psychologique. Dans le domaine du recrutement, on utilise depuis longtemps le profilage psychologique : la graphologie comme les tests psychologiques ont été inventés pour le travail, comme nous l’expliquait le psychologue Alexandre Saint-Jevin. Nombre d’outils tentent de prédire le profil psychologique des candidats, comme Humantic AI ou Crystal. IBM elle-même a longtemps promu une version dédiée de Watson… avant de l’arrêter. L’idée consiste le plus souvent à scanner le profil des candidats pour savoir qui ils sont vraiment, afin de prédire leurs comportements. Le secteur est en plein boom. Il représente quelque 2 milliards de dollars en 2023. Il n’est pourtant rien d’autre que de « l’astrologie de bureau » qui ne produit rien d’autre que de notre propre hallucination.

Pour compléter ces analyses pseudo-psychologiques, de nombreux outils comme Fama, Foley, Ferretly ou Intelligo… aspirent les contenus des médias sociaux (sans demander leur consentement aux candidats) et appliquent sur ces contenus des analyses émotionnelles souvent simplistes, consistant à caractériser positivement ou négativement les mots utilisés, les likes déposés… sans parvenir à distinguer le sarcasme ou l’ironie, comme l’a vécu une employée en recevant 300 pages d’analyse automatisé de son profil par Fama – une pratique qui, en France, rappelle un arrêt de la Cour de cassation, devrait être très encadrée, notamment parce que cette collecte d’informations tiers peut-être déloyale par rapport à l’objet de leur mise en ligne.

Dans ces profilages, les individus sont réduits à des schémas psychologiques simplistes, provenant de personnes qui ont passé ces tests de personnalités et dont les systèmes conservent les profils de réseaux sociaux associés, pour les comparer à ceux de nouveaux candidats dont on ne connaît pas les résultats aux tests de personnalités afin de les déduire par comparaison. Cela conduit bien souvent à produire des corrélations basiques : les fans de Battlestar Galactica sont introvertis, ceux de Lady Gaga extravertis ! Dans son livre, Schellmann teste Humantic sur son profil Twitter et Linked-in. Sur le premier, elle apparaît « autoritaire, énergique et impulsive ». Sur le second, elle est « analytique, prudente et réfléchie » ! Sur le second analysé par Crystal, elle est dite « franche, assurée et agressive » ! Elle fait passer le test à ses étudiants en data science. Ils téléchargent chacun un même CV qui produit des résultats différents ! Contactées suite à ces contradictions, les plateformes ont beau jeu de répondre que l’échantillon est trop faible pour être représentatif… À nouveau, le déni des résultats spécifiques sert toujours à masquer les défaillances systémiques.

Nombre de systèmes usent et abusent de tests psychologiques consistant à faire sens des mots d’un CV. Pourtant, la recherche dans le domaine a montré depuis longtemps que les tests de personnalités peinent à mesurer la performance au travail et que celle-ci a d’ailleurs peu à voir avec la personnalité

À défaut de trouver des critères pertinents pour distinguer des candidats souvent assez proches les uns des autres, le recours à la pseudoscience permet d’imaginer des différences ou de recouvrir des discriminations bien réelles d’un vernis socio-culturel.

Schellmann a également testé des outils d’entretiens audio et vidéo comme Hirevue ou Retorio. Ce ne sont déjà plus des outils anodins. 60 des 100 plus grandes entreprises américaines utilisent Hirevue et quelque 50 000 candidats sont auditionnés chaque semaine par le système d’entretien automatisé développé par cette entreprise. Hirevue est peu disert sur le fonctionnement en boîte noire de son système. À ce qu’on en comprend, le système produit plusieurs scores qui tentent d’évaluer la capacité à négocier, à persuader… ou la stabilité émotionnelle. En tentant d’apprécier ce qui est dit et comment il est dit. Mais, comme toujours avec l’analyse émotionnelle, « les outils confondent la mesure avec son interprétation ». Ces outils innovants, démasqués par plusieurs enquêtes, ont pourtant peu à peu coupé certaines de leurs fonctionnalités. Retorio comme Hirevue n’utilisent plus la reconnaissance faciale ni l’analyse du ton de la voix pour analyser l’émotion des candidats, suite à des révélations sur leurs dysfonctionnements (un audit pour Hirevue et une enquête de journalistes allemands pour Retorio qui montrait que le score d’une même personne n’était pas le même selon la manière dont elle était habillée, si elle portait ou non des lunettes ou selon l’arrière-plan qu’elle utilisait). Cela n’empêche pas que leurs réponses, elles, soient scorées sur les mots utilisés selon leur « positivité » ou leur « négativité » (une analyse qui n’est pas sans poser problème non plus, puisque des termes très simples comme juif, féministe ou gay ne sont pas interprétés positivement par ces systèmes d’analyses de langue). Mais le problème n’est pas que là : la retranscription même des propos est parfois déficiente. S’amusant d’obtenir un bon score en anglais sur MyInterview, un système du même type, Schellmann se met alors à parler allemand, sa langue natale… avant de recevoir un transcript généré automatiquement qui transforme son Allemand en pur globish sans grand sens… tout en lui attribuant un très bon score ! De quoi interroger profondément les promesses de tous ces outils qui masquent sous des calculs complexes leurs profondes béances méthodologiques et leurs incapacités à produire autre chose que des leurres. Le problème, c’est que ces leurres peuvent tromper les entreprises qui achètent très chères ces solutions… mais ils trompent d’abord et avant tout les candidats, qui eux, n’ont pas beaucoup de modalités de recours, face à des systèmes bien plus aberrants que fiables.

Les outils automatisés pour l’embauche ne réduisent pas les biais du recrutement. Au mieux, ils les invisibilisent, au pire, ils les amplifient. Derrière leur vernis d’objectivité, ces systèmes produisent surtout une subjectivité cachée, à l’image des innombrables techniques de classements des employés qui ont de plus en plus cours dans les entreprises et que dénonce la journaliste de Marianne, Violaine des Courières, dans son livre, Le management totalitaire (Albin Michel, 2023). Pour assurer une compétition de plus en plus vive, explique-t-elle, on psychiatrise le monde du travail avec du profilage comportemental ou psychique. C’est un peu comme si la course au mérite n’était jamais totalement aboutie, qu’il fallait toujours l’améliorer jusqu’à parvenir à des critères qui ne regardent plus vraiment les compétences mais reposent sur des mesures de plus en plus absconses pour permettre de distinguer des candidats souvent très semblables.

Alors, comment améliorer les choses ?

Selon le chercheur Arvind Narayanan, l’embauche est l’un des pires secteurs pour utiliser l’IA, car ce que ces systèmes doivent prédire n’est pas clair. La productivité, la performance ou la qualité d’un employé ne sont pas des critères faciles à catégoriser. Apporter la preuve que leurs systèmes fonctionnent devrait être la première responsabilité des vendeurs de solutions, en publiant les études scientifiques indépendantes nécessaires, en laissant les entreprises les tester, et en permettant à ceux qui sont calculés d’obtenir des résultats et des explications sur la manière dont ils ont été calculés. Dans le domaine médical, les laboratoires doivent prouver que leurs médicaments fonctionnent avant de pouvoir être mis sur le marché, rappelle-t-il. Ce n’est pas le cas de ces systèmes d’évaluation des candidatures comme de bien des systèmes automatisés utilisés dans le domaine du travail. « Les essais contrôlés randomisés devraient être un standard dans tous les domaines de la prise de décision automatisée », plaide-t-il. Rappelant également la nécessité d’exiger la transparence des données d’entraînement des systèmes. Pas sûr cependant qu’inviter les acteurs du recrutement à inspecter, réformer et transformer leurs pratiques et leurs outils suffise, sans qu’une régulation et une responsabilité plus forte ne s’impose à eux. Sans sanction ni contrôle, les outils du recrutement automatisés ne se réformeront pas d’eux-mêmes. 

Mais encore faut-il pouvoir mieux mesurer et mettre en visibilité leurs défaillances. Pour cela, une autre piste consiste à ce que les recruteurs soient plus transparents sur leurs recrutements et leurs effets : qu’ils produisent des données sur les candidatures et les sélections auxquels ils procèdent, que ce soit sur le genre, l’âge, l’origine ethnique, géographique ou le niveau social. Pour faire reculer les discriminations invisibilisées et amplifiées, il faut que les entreprises soient contraintes à documenter les résultats de leurs sélections comparativement aux candidatures reçues et soient contraintes de documenter le niveau d’exposition et de publicisation de leurs annonces. C’est en ce sens qu’il faut lire les premiers efforts appelant à documenter l’égalité professionnelle… En France, l’index de l’égalité professionnelle n’observe que l’écart de rémunération des hommes et des femmes dans les entreprises de plus de 50 employés (mais sera suivi de la transparence des rémunérations et des salaires d’embauches qui doivent être intégrés par les entreprises d’ici juin 2026). Prolonger cet effort de transparence jusqu’aux systèmes de recrutement en demandant aux entreprises de produire des métriques sur leurs sélections à l’embauche et en automatisant les malus pour les entreprises dont les recrutements sont les plus discriminants par rapport au niveau de candidature reçu, pourrait être un puissant levier pour produire une transparence là où il n’y en a pas. Reste, comme le soulignait la CGT vis-à-vis d’un récent projet de loi contre la discrimination à l’embauche, la simple exposition des entreprises qui ont des pratiques discriminantes et les amendes ne suffiront pas à régler le problème des discriminations systématiques à l’embauche.

Reste que pour en prendre le chemin, il faudrait pourtant inverser la logique à l’œuvre aujourd’hui, où le contrôle s’exerce bien plus sur les candidats à l’emploi, notamment les chômeurs, que sur les pratiques des recruteurs. Celles-ci ne sont pourtant pas sans critiques, comme le soulignait une étude sur les offres d’emploi non pourvues menée par le Comité national CGT des travailleurs privés d’emploi et précaires, dénonçant la désorganisation des offres d’emploi, leur redondance voire le fait que nombres d’entre elles sont légalement problématiques.

Imposer la transparence et auditer les systèmes de recrutement, c’est la politique qu’a tenté d’initier la ville de New York l’année dernière… sans succès. Un article de recherche signé Lara Groves, Jacob Metcalf, Alayna Kennedy, Briana Vecchione et Andrew Strait explique justement pourquoi cette tentative de régulation n’a pas marché ! En juillet 2023, la ville de New York a mis en œuvre un règlement local imposant aux employeurs new-yorkais qui utilisent des outils de recrutement automatisés de les soumettre à des audits indépendants. Cet audit consiste en un audit de biais sur les discriminations raciales et de genres (mais pas sur l’âge ou le handicap) qui doit être publié sur le site web de l’employeur sous forme de ratio d’impact. Le ratio d’impact consiste à mesurer le taux de sélection des candidats selon les différents groupes démographiques, de genre et racial. L’idée est de mesurer la différence entre le niveau de sélection d’un groupe vis-à-vis de celui du groupe le plus sélectionné. Un ratio d’impact de 1,0 signifie que le taux de sélection est parfaitement égal entre les groupes, un ratio d’impact inférieur indique un résultat discriminatoire à l’encontre du groupe le moins sélectionné : plus le résultat est faible et plus il est discriminatoire, donc. Si le taux est inférieur à 0,8 selon les conventions juridiques américaines anti-discrimination, on estime qu’il y a une discrimination de fait (mais cette estimation tient plus d’un compromis arbitraire, car cette limite n’a jamais été concrètement questionnée ou évaluée). Enfin, même si elle prévoit des sanctions, la loi n’impose aucune obligation à un employeur qui découvrirait un impact discriminatoire, celui-ci devant uniquement publier un audit annuel de ses recrutements et de leurs effets.

Dans le tableau, plusieurs colonnes :* Race/Ethnicity Categories * Number Of Applicants * Scoring Rate * Impact Ratio Le contenu du tableau, ligne par ligne : * Hispanic or Latino - 470904 45% 0.89 * White 1457444 46% 0.9 * Black or African American 796447 48% 0.96 * Native Hawaiian or Pacific Islander 14904 45% 0.9 Asian 941554 50% 1.00 Native American or Alaska Native 29612 43% 0.85 Two or More Races 216700 46% 0.92

Dans le tableau ci-dessus, le ratio d’impact publié par une entreprise new-yorkaise montre par exemple que c’est la catégorie des populations autochtones qui sont le plus discriminées par le système de recrutement utilisé par l’entreprise. Image tirée de l’étude Auditing Work.

 

Les chercheurs ont constaté que très peu d’audits ont été rendus publics et aucun référentiel central n’a été créé par le Département de la protection des consommateurs et des travailleurs de la ville de New-York. Les chercheurs ont réussi à collecter seulement 19 audits, ce qui semble bien peu vu le nombre d’entreprises new-yorkaises. L’interview des cabinets chargés d’auditer les systèmes pointe que la loi proposée comportait trop d’imprécisions et laissait trop de marges de manœuvre aux employeurs (ceux-ci pouvant ne pas publier de rapport s’ils évaluaient que les systèmes automatisés n’aidaient pas « substantiellement » leur entreprise à embaucher). Pire, cette transparence ne permet pas vraiment aux candidats non recrutés et potentiellement discriminés d’agir à l’encontre des discriminations qu’ils auraient pu subir. Les chercheurs soulignent également la grande difficulté des auditeurs, à accéder aux données des services qu’utilisent les entreprises, pouvant rendre les audits peu fiables, voire tronqués. Les chercheurs en tirent quelques recommandations. La transparence (bien relative puisqu’elle se limitait ici à des tableaux de chiffres !) sur les discriminations à l’embauche ne suffit pas à produire du changement. Aucun candidat à l’embauche n’a semble-t-il tiré bénéfice de ces informations, et rien n’obligeait les entreprises prises en défaut à prendre des mesures correctives. Les chercheurs recommandent d’élargir le principe aux plateformes et fournisseurs d’outils de recrutement, que les documents de transparence soient collectés centralement et mieux accessibles aux candidats à l’emploi. Pour les chercheurs, les lois sur l’audit doivent également proposer des mesures et des définitions claires et précises. La loi doit également éclaircir les normes qui s’appliquent aux auditeurs plutôt que de leur laisser définir les bonnes pratiques. Enfin, la collecte de données doit être rendue plus fluide d’autant que l’enquête va un peu à l’encontre des principes de confidentialité. Elle doit permettre aux auditeurs de pouvoir mener des évaluations indépendantes, approfondies et significatives.

L’échec de la politique new-yorkaise montre en tout cas que la perspective d’un index de la discrimination automatisée à l’embauche doit être un peu plus organisé qu’il n’a été pour être rendu fonctionnel.

Passer des logiciels de recrutement… aux logiciels de candidature !

Quand on s’intéresse aux défaillances spécifiques et systémiques des outils de recrutement automatisé, le plus étonnant finalement, c’est de constater qu’en tant que société, nous soyons capables d’adopter des outils qui ne fonctionnent pas, des outils foncièrement contraire à l’éthique, profondément discriminants… sans provoquer de réaction de rejet forte du corps social. Cela est certainement lié au fait que les plus discriminés sont habitués à l’être. Ce n’est pas une raison pour s’y résigner ! La zone du recrutement reste un espace sans beaucoup de pouvoir pour les candidats. A ce jour, ils n’ont ni le droit de recevoir des explications ni celui de contester les décisions.

L’AI Act européen promet pourtant d’améliorer le niveau de responsabilité des systèmes de recrutement automatisés, puisque nombre d’entre eux devraient faire partie des systèmes à risque élevé. On verra à l’usage s’il fait progresser la transparence des systèmes, mais, sans règles plus claires, il est probable que les choses évoluent peu, autrement que sous les coups de scandales publics de dysfonctionnements visibles, comme cela a été le cas jusqu’à présent.

Peut-être que la solution pour contrer les défaillances fonctionnelles du recrutement consisterait plutôt à en inverser radicalement la logique à l’œuvre. Et c’est peut-être là que nous pourrions trouver les meilleures perspectives d’évolution.

Jusqu’à présent le monde du recrutement est façonné par une logique qui bénéficie totalement aux recruteurs. Ce n’est pas pour rien qu’on parle d’ailleurs de logiciels de recrutements. Alors peut-être que la solution consiste à passer aux logiciels de candidatures !  Et cette perspective, avec l’arrivée de l’IA générative et des agents intelligents est peut-être plus proche de se réaliser que jamais. Alors que les recruteurs disposent de tout pouvoir, il est possible que les candidats puissent en reconquérir. Comment ?

C’est la piste qu’explore le développeur Hussein Jundi sur Towards Data Science, en imaginant un robot logiciel capable de chercher des postes à sa place – ce qui ne serait déjà pas une mauvaise option tant la recherche sur les sites d’emploi est restée fruste et défaillante (oui, vous aussi, vous recevez des propositions de stages à Paris alors que vous avez une alerte pour des CDI à Nantes !). Mais on pourrait aller plus loin et imaginer un robot capable de candidater à notre place, d’adapter les termes de son CV aux mots clefs des annonces, de démultiplier de façon autonome ses candidatures en produisant des micro-variations sur les termes des compétences recherchées… Hussein Jundi nous suggère finalement une piste très stimulante pour finir de casser un recrutement déficient : doter les utilisateurs de robots capables d’adapter leurs candidatures aux systèmes de tris automatisés que les entreprises utilisent. Il ne propose rien d’autre que d’exploiter et d’amplifier les faiblesses du recrutement automatisé… pour le faire imploser.

Des agents robotiques pour candidater à notre place — Hussein Jundi.

 

Ce que dessine cette perspective, c’est que dans cette course sans fin à l’automatisation, il n’est pas sûr que les entreprises profitent de leurs avantages encore longtemps. À force de ne pas vouloir inspecter et réguler leurs pratiques, il est possible qu’à terme, les utilisateurs les subvertissent. Des logiciels capables de modifier votre profil Linked-in selon l’origine de celui qui le regarde. Des logiciels capables d’adapter vos CV aux annonces, de multiplier les candidatures à un même poste avec des variations de termes de son CV, des logiciels capables d’aller puiser dans les API des systèmes de recrutements pour informer des critères retenus… afin d’améliorer le matching. On pourrait même imaginer des systèmes capables d’inonder de candidatures les systèmes de recrutement pareils à des attaques de déni de services.

Incapable de réformer ses pratiques, le recrutement se moque des candidats. Il est temps que les candidats prennent les recruteurs à leur propre jeu et qu’ils retrouvent du pouvoir d’agir ! Chiche ? On lance une startup ! 😊

MAJ du 14/10/2024 : Les logiciels de candidatures, nous y sommes !

PDF

13.06.2025 à 10:10

Développement d’application en Flutter : retours d’expérience (2/2)

Framasoft

Au cours du développement de l’application PeerTube, nous avons acquis certaines expériences dans le choix des technologies employées et les freins que certaines décisions ont entraîné. Nous les partageons ici. Si vous ne l’avez pas déjà lu, nous vous conseillons … Lire la suite­­
Texte intégral (3109 mots)

Au cours du développement de l’application PeerTube, nous avons acquis certaines expériences dans le choix des technologies employées et les freins que certaines décisions ont entraîné. Nous les partageons ici.

Si vous ne l’avez pas déjà lu, nous vous conseillons de commencer par l’article précédent.

Publication sur les magasins d’application

Publier une application de streaming vidéo issue du fediverse sur les différents magasins d’applications a été un vrai parcours du combattant.

Entre les politiques parfois très strictes des stores, et la sensibilité autour des contenus vidéo — notamment ceux générés ou diffusés par des tiers — il a fallu redoubler de prudence. Apple et Google considèrent en effet qu’en tant qu’éditeur de l’application nous serions responsables de tout le contenu auquel l’application permet d’accéder, et sont particulièrement virulents sur la question dans le cas des formats vidéos (bien davantage que pour une application de podcasts ou même un navigateur internet, assez curieusement). Voici donc un retour sur les différentes étapes, de la toute première soumission à la mise en production.

Les précautions prises

Pour maximiser nos chances d’être acceptés sur les stores, nous avons pris plusieurs précautions dès le départ.

Filtrage des plateformes accessibles

Première mesure : restreindre l’accès aux plateformes via un système de filtrage utilisant des identifiants spécifiques à chaque magasin. Cet identifiant permet de maintenir une liste d’autorisation (allowlist) de plateformes de confiance adaptée à chaque store :

  • Sur le Play Store (Android), seule une allowlist restreinte de plateformes est accessible afin de répondre aux exigences de Google.
  • Sur l’App Store (iOS), l’allowlist est encore plus limitée, Apple imposant des critères de validation particulièrement élevés.
  • Sur F-Droid, en revanche, toutes les plateformes listées dans notre index (qui est modéré) sont accessibles sans filtrage supplémentaire.

L’avantage de ce système basé sur des tags, c’est qu’il est entièrement déporté côté serveur. Autrement dit, si nous devons retirer une plateforme problématique ou en ajouter une nouvelle, cela peut être fait sans mettre à jour l’application elle-même. Ce fonctionnement offre une grande souplesse et réactivité en cas de besoin.

Pas d’ajout manuel de plateformes au début

Pour garantir une validation rapide lors de la première soumission, nous avons volontairement désactivé la possibilité d’ajouter manuellement une plateforme dans l’application. Ainsi, seuls les serveurs autorisés par notre filtre, dont le nombre était très réduit, étaient disponibles.

Une fois l’application validée et disponible sur le Play Store, nous avons réactivé cette fonctionnalité manuelle côté Android, en observant attentivement si cela posait problème. Après plusieurs mois sans retour négatif, nous avons ensuite ouvert cette possibilité sur iOS également.

Présentation et stratégie de déploiement

Par ailleurs, pour mettre toutes les chances de notre côté, un soin particulier a été apporté à l’interface utilisateur de l’application ainsi qu’aux fiches des stores (miniatures, descriptions, mots-clés, captures d’écran, etc.), les stores étant également très sensibles à l’apparence, à la qualité perçue et au respect des bonnes pratiques UX/UI.

Nous avons décidé d’y aller étape par étape :

  1. D’abord le Play Store, plus rapide et souple.
  2. Puis l’App Store, plus exigeant mais incontournable.
  3. Et enfin F-Droid, qui demande une approche différente essentielle pour le public libriste.

Google Play Store, une validation sans accroc

Pour la publication sur le Google Play Store, la documentation officielle Flutter a été suivie : https://docs.flutter.dev/deployment/android

Le Play Store permet plusieurs types de déploiement, utiles pour tester différentes étapes de l’application :

  • Test interne : permet de distribuer l’application à un petit groupe de testeurs internes (jusqu’à 100).
  • Test fermé : permet de cibler un groupe restreint plus large via une liste d’adresses email ou un groupe Google.
  • Test ouvert : permet à n’importe quel utilisateur de rejoindre le programme de test via un lien public.
  • Production : c’est la version stable, publiée pour tous les utilisateurs sur le Play Store.

Les étapes de validation

Chaque type de déploiement est validé automatiquement par Google, avec des délais très courts :

  • Les tests internes et fermés sont généralement disponibles en moins d’une heure.
  • Les tests ouverts et la mise en production peuvent prendre quelques heures, rarement plus.

Google a toujours accepté l’application dès la première soumission, sans demander de modifications ou poser de questions. Aucun échange, aucun retour de leur part : uniquement la validation après envoi et un changelog bien rédigé.
À croire que les précautions mises en place en amont ont été suffisantes… voire qu’on aurait pu être un peu plus détendus !

Apple App Store, les complications…

Une fois l’étape Google franchie haut la main, direction Apple — réputé pour être nettement plus exigeant.

Comme pour Android, j’ai suivi la documentation officielle Flutter pour le déploiement iOS :
👉 Flutter iOS Deployment

Sur iOS, les applications peuvent être distribuées via deux canaux principaux :

  • TestFlight : pour partager des versions bêta avec un groupe de testeurs (jusqu’à 10 000). Le processus est plus souple que pour la production, mais reste soumis à validation.
  • Production : la version stable et publique de l’app, visible sur l’App Store.

Les étapes de validation

L’avertissement de Gabe

Avant de soumettre PeerTube sur iOS, nous avons échangé avec Gabe, développeur du projet OwnCast, qui avait essuyé plusieurs refus de la part d’Apple. Il nous a transmis ses précieux retours et stratégies pour répondre aux fameuses App Store Guidelines. Voici un résumé :

  • Guideline 1.2 – Safety – User Generated Content
    Solution : intégrer un système de signalement côté client, qui envoie un email à un modérateur capable de retirer une instance si besoin.
  • Guideline 5.2.3 – Legal
    ➤ Problème : Apple considère que l’app pourrait donner accès à des contenus vidéo ou audio tiers sans autorisation, ce qui pose un risque légal.
    Solution : fournir un document PDF listant chaque serveur vidéo préconfiguré dans l’app, avec la mention “Authorized” pour chacun. Apple ne se satisfait pas d’une simple déclaration : ils veulent des preuves tangibles.
  • Guideline 3.1.1 – Business – Payments – In-App Purchase
    Problème : l’app permettait de faire des dons via des liens comme PayPal, OpenCollective, KoFi, etc.
    Solution : supprimer toute interaction liée au paiement dans l’app. Tous les liens renvoyant vers des dons doivent ouvrir une page dans un navigateur externe (Safari, Chrome…). Aucun lien de paiement ne doit être affiché dans une WebView interne.
  • Guideline 5.2.3 – Legal (bis)
    Solution : fournir un maximum de documents, liens et preuves que les catalogues et services de découverte intégrés sont bien opérés par nous, et non une tierce partie non autorisée.

Merci encore à Gabe pour ces conseils précieux !

On se lance… et ça coince.

Notre plan était pourtant sans accros !

Malgré l’application rigoureuse des conseils de Gabe, Apple n’a pas fait de cadeau.

Entre Lokas et PeerTube, les deux apps que nous tentions de publier fin 2024, nous avons essuyé 8 refus pour Lokas avant d’obtenir la validation, et 3 refus pour PeerTube.

Dès qu’un reviewer Apple trouvait un souci (même mineur), la demande était rejetée, et il fallait corriger point par point avant de pouvoir espérer passer à l’étape suivante.

Voici les principales guidelines qui nous ont posées problème :

Guideline 5.2.3 – Legal

Votre application contient du contenu ou des fonctionnalités susceptibles de porter atteinte aux droits d’un ou plusieurs tiers. Plus précisément, votre application fournit un accès potentiellement non autorisé à des services tiers de streaming audio ou vidéo, à des catalogues et à des services de découverte.

Malgré l’envoi d’un document listant les plateformes autorisées dans l’app iOS, cela n’a pas suffi à convaincre Apple. Nous avons donc répondu :

Les plateformes répertoriées dans l’application PeerTube ont accordé à l’application PeerTube le droit de répertorier et d’accéder à leur contenu vidéo.

Ces autorisations sont répertoriées dans le document « Plateformes autorisées pour l’application PeerTube ».

Pouvez-vous expliquer quel type de preuve nous devons fournir pour démontrer que nous avons le droit d’accéder à ce contenu ?

Le document joint était rigoureusement le même que celui soumis lors du dépôt de l’application.

Guideline 3.1.1 – Business – Payments – In-App Purchase

Apple nous a signalé un lien vers le site joinpeertube.org dans l’app, qui contient… un bouton de don. Ce simple lien externe a suffi à justifier un rejet.

Nous avons alors tenté une première réponse, en expliquant que tous les liens de dons ouvraient désormais une page externe dans le navigateur, et qu’aucune collecte n’était réalisée dans l’application elle-même. Nous avons souligné que cette approche respectait les guidelines de l’App Store, puisque le processus de don était totalement séparé des fonctionnalités de l’app. Malgré cette clarification, Apple n’a pas été convaincu.

En replongeant dans les App Store Guidelines, j’ai repéré un paragraphe en notre faveur :

Section 3.2.2 (iv) : Les applications qui ne sont pas approuvées en tant qu’organisations à but non lucratif ou autrement autorisées en vertu de la section 3.2.1 (vi) peuvent collecter des dons caritatifs en dehors de l’application, par exemple via Safari ou SMS.

J’ai donc renvoyé un message à l’équipe de validation, en expliquant que l’application ne collecte aucun don en interne : tous les liens de soutien ouvrent une page externe dans le navigateur (Safari), conformément à la section 3.2.2 (iv) des App Store Guidelines qui autorise ce fonctionnement pour les apps non caritatives. J’ai ainsi demandé une réévaluation de la décision ou des précisions si d’autres points posaient problème.

🎉 Résultat : l’application PeerTube a officiellement été publiée sur iOS !

Depuis, j’ai soumis 5 mises à jour successives de PeerTube, toutes validées sans accroc — y compris celle qui introduisait la fonctionnalité de connexion.
Chaque mise à jour a été validée en quelques heures, au plus sous 24h.

L’App Store, ce n’est jamais simple… mais avec de la patience et une bonne lecture des guidelines, ça passe.

F-Droid, une autre aventure

Une fois l’étape Apple validée, je me suis attaqué à la soumission sur F-Droid.
Ici, ce n’est pas un problème de guidelines, mais plutôt de processus.

La documentation officielle est plutôt éparse, et j’ai eu du mal à trouver une ressource exhaustive pour un projet Flutter. Je me suis donc appuyé sur :

S’adapter au fonctionnement de F-Droid

F-Droid a des exigences particulières :

  • Le build doit être reproductible et entièrement libre.
  • Toute dépendance externe doit pouvoir être vérifiée ou supprimée.
  • Il faut déclarer les anti-features, c’est-à-dire des limitations qui ne correspondent pas aux idéaux du libre.

Exemple : TetheredNet

L’application PeerTube utilise par défaut deux services maintenus par Framasoft :

Ces services ne sont pas configurables par l’utilisateur, ce qui a été considéré comme une “anti-feature” du type TetheredNet (connexion à un service centralisé sans possibilité de le changer).

Cette mention a donc été ajoutée lors de la soumission initiale.
Bonne nouvelle : depuis, cette anti-feature a été retirée, car nous avons rendu ces services personnalisables dans l’app.

Dépasser le blocage d’une dépendance obsolète

Avant de parvenir à la validation, nous avons rencontré un obstacle lié à une dépendance utilisée pour la gestion de la base de données locale. Cette bibliothèque, pourtant populaire au moment du choix initial, n’était plus maintenue et ne proposait pas de version compatible avec la dernière version de Flutter requise par F-Droid pour garantir la reproductibilité des builds. Ce blocage a empêché la compilation de l’application sur l’infrastructure F-Droid, rendant impossible sa publication.

Après analyse, il est apparu que la meilleure solution, pour des raisons de pérennité et de sécurité, était de remplacer cette dépendance obsolète par une alternative maintenue et compatible avec les exigences de F-Droid. Ce changement a nécessité une réécriture partielle de la gestion des données locales, mais a permis de débloquer la situation et d’assurer la stabilité du projet sur le long terme.

Le merge request de soumission

Après plusieurs itérations, nous avons enfin pu soumettre notre app sur F-Droid.
Vous pouvez consulter la MR ici : https://gitlab.com/fdroid/fdroiddata/-/merge_requests/17235

Et pour voir la configuration finale de l’application PeerTube sur F-Droid (fichier metadata/*.yml) : https://gitlab.com/fdroid/fdroiddata/-/blob/master/metadata/org.framasoft.peertube.yml

F-Droid demande rigueur et patience, mais l’expérience permet aussi de mieux comprendre les enjeux du libre et de la décentralisation.

C’était un vrai défi, mais on est fier·es de faire partie du catalogue officiel.

 

Nous en profitons pour vous rappeler que le financement participatif pour le développement de l’application PeerTube est en cours jusqu’au 17 juin 2025 !

PDF

11.06.2025 à 16:48

FramIActu n°5 — La revue mensuelle sur l’actualité de l’IA

Framasoft

Alors que les chaleurs estivales arrivent, l'actualité de l'Intelligence Artificielle s'est elle aussi réchauffée ce dernier mois avec des avancées techniques majeures. Préparez votre boisson préférée et installez-vous confortablement : c'est l'heure de la FramIActu !
Texte intégral (4292 mots)

Alors que les chaleurs estivales arrivent, l’actualité de l’Intelligence Artificielle s’est elle aussi réchauffée ce dernier mois avec des avancées techniques majeures.

Préparez votre boisson préférée et installez-vous confortablement : c’est l’heure de la FramIActu !

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Celui si est assis et semble parler.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

Pourquoi est-ce que Grok se met à parler de « génocide blanc » ?

Le 14 mai dernier, Grok, l’IA générative de xAI (société mère de X, ex-Twitter), a été détournée par un individu afin d’orienter les réponses de l’IA.
Celle-ci a, pendant plusieurs heures, parlé d’un génocide anti-blanc fictif qui aurait eu lieu en Afrique du Sud.
Outre le fait que l’événement ait surpris les utilisateurices de l’outil d’Elon Musk (patron de l’entreprise), celui-ci démontre qu’il est aujourd’hui possible d’orienter et d’influencer massivement les réponses des IA génératives.
Pour ce faire, la personne mal-intentionnée a exploité un outil fréquent des systèmes d’IA générative : le prompt système.

Plutôt que de ré-entraîner les IA génératives sur des éléments spécifiques ajoutés au fil de l’eau, les entreprises d’IA générative indiquent des instructions à l’Intelligence Artificielle au moment où l’utilisateurice fait sa propre demande. Cette instruction permet, par exemple, d’indiquer des règles de modération de contenu et de les adapter au fil de l’eau, en fonction des besoins.
Or, ces instructions ne sont pas communiquées publiquement. Nous ne savons jamais quand elles changent ni leur contenu exact.
C’est ce point qui a permis à l’attaquant·e de pouvoir modifier le prompt système discrètement.

xAI s’est engagé à publier les prompts systèmes sur la forge logicielle Github afin que tout le monde puisse consulter ceux-ci. Cela devrait aider à limiter une éventuelle récidive… même si rien ne peut le garantir.
Aussi, rien n’indique que la concurrence suivra ce mouvement et publiera aussi ses prompts systèmes.

Enfin, nous voyons encore une fois que les systèmes d’IA génératives sont plus complexes qu’ils n’y paraissent pour l’utilisateurice et manquent de transparence. Même si les prompts systèmes sont publiés, les données d’entraînement des IA génératives sont très opaques et nous manquons toujours énormément d’informations pour comprendre réellement ce qu’il se passe quand nous envoyons une instruction à une IA.

Est-ce que Google vient d’enterrer la recherche sur le web ?

Le 20 mai dernier, à l’occasion de la conférence Google I/O, Google a annoncé l’arrivée de nouvelles innovations biberonnées à l’Intelligence Artificielle.

Parmi celles-ci, vous avez peut-être déjà entendu parler de Veo 3, le nouveau générateur de vidéos ultra-réaliste de l’entreprise. Si, deux ans en arrière, nous pouvions nous moquer des images générées par IA, car nous pouvions facilement compter les 7 doigts présents sur les mains des personnes générées artificiellement, nous ne pouvons presque plus faire la différence entre un contenu réel et fictif aujourd’hui… et pas seulement pour les images mais pour les vidéos aussi.
Certain·es artistes s’amusent même à surfer sur la vague de popularité des vidéos générées par Veo 3 en indiquant que leurs propres clips vidéos, réalisés entièrement sans IA, seraient générés à l’aide de l’outil de Google.

Mais Veo 3 n’est pas la seule prouesse technique présentée par Google lors de l’événement. L’entreprise a dévoilé différentes nouveautés pour faire évoluer leur moteur de recherche et la manière dont les utilisateurices explorent (ou consomment) le Web.
Parmi les évolutions, et celle-ci est déjà accessible et utilisée par de nombreuses personnes, l’AI Overview, la fonctionnalité du moteur de recherche pour résumer l’essentiel d’un site web ou apporter une réponse à votre question… directement dans le moteur de recherche. Nous n’avons (ou n’aurons bientôt) plus besoin de sortir de Google pour obtenir réponse à nos questions.

Dans son article, Numerama rappelle :

Reste que Google n’a pas évoqué, encore, comment il compte rémunérer les contenus parcourus par son IA et répondre à la question que tout le monde se pose : à partir de quelles données l’IA répondra-t-elle quand aucun humain ne pourra être rémunéré pour les produire ?

Autre évolution importante et uniquement disponible aux états-unis pour le moment, les achats par IA.
Cette fonctionnalité nous permet de demander à l’IA de chiner pour nous sur les sites d’achats en fonction de critères choisis puis nous permet d’automatiser entièrement le processus d’achat via Google Pay.
Cette fonctionnalité, nommée « Buy for me » (« Achète pour moi » en français), permet de définir le prix auquel nous souhaitons acheter un article et le fera automatiquement dès que celui-ci sera trouvé.

Enfin, la dernière nouveauté rapportée dans l’article de Numerama n’est pas des moindres : celle-ci s’appelle sobrement AI Mode.
L’outil AI Mode permet, entre autres, de faire des « recherches profondes ».
Dans l’exemple présenté par Google, l’utilisateurice demande à l’
AI Mode de trouver deux billets pour un match de baseball avec des places situées vers le bas. L’outil essaye différents mots-clés pour sa recherche, puis compare 15 sites afin de trouver les places souhaitées. Les options trouvées sont alors triées du moins cher au plus cher avec une description de la vue obtenue sur le terrain à partir des sièges…

En quelques secondes, l’outil explore pour nous des dizaines de sites et en extrait les éléments qui pourraient nous intéresser. C’est (techniquement) absolument bluffant.
Pour réaliser toutes ces opérations, nous pouvons aujourd’hui imaginer
(bien que de manière extrêmement floue) la quantité d’énergie nécessaire à avoir la qualité de ces résultats de recherche.

Google détient ~90 % du marché mondial de la recherche en ligne. Cela représente 5 billions (5 000 000 000 000) de requêtes annuelles soit ~14 milliards de requêtes journalières.
Si Google décide de banaliser l’AI Mode et de l’intégrer directement dans son moteur de recherche, quelle quantité d’énergie sera nécessaire pour permettre ces 14 millions de requêtes ? Et même si grâce à cette nouvelle manière de rechercher celles-ci étaient réduites à (un chiffre totalement au pif) 5 millions de requêtes journalières, l’énergie requise semble rester totalement démesurée.

Aussi, nous en parlions dans une précédente FramIActu, mais le Web subit déjà aujourd’hui une pression monstre liée au « pillage » permanent de son contenu par les robots indexeurs des IA. Quels efforts les petits sites vont-ils encore devoir réaliser pour faire face à une augmentation drastique du trafic automatisé sur leur infrastructure ? Pourront-ils seulement y parvenir ?

Ici encore, nous observons un des mouvements récents de Google : le lancement d’une application mobile pour tester des modèles d’IA fonctionnant uniquement sur le téléphone de l’utilisateurice.

Si cela peut sembler anodin, il nous a semblé important de faire le lien avec la news citée plus haut.
Il paraît évident que Google a besoin de mettre en place des solutions pour réduire largement les coûts de l’inférence (en gros, le coût lié à l’utilisation de l’IA).

Un des moyens de réduire ces coûts est de déporter le travail de l’inférence vers la machine de l’utilisateurice, ici le smartphone.

Ainsi, en proposant une application permettant aux utilisateurices de tester les différents modèles d’IA, Google peut collecter de nombreuses données sur les capacités des smartphones actuels à faire tourner des modèles d’IA plus ou moins puissants.

Bien sûr, rien ne prouve que Google ira dans ce sens, cependant, il ne nous paraît pas totalement farfelu d’imaginer Google reproduire, dans un futur plus ou moins proche, une stratégie similaire à celle de Microsoft avec Windows 11 : forcer les utilisateurices à acheter du matériel neuf pour faire tourner l’IA dessus, accélérant de fait l’obsolescence des périphériques incompatibles.

Finalement, ces deux articles traitant des avancées de Google dans le domaine soulignent que Google tend à inverser le rapport de force avec OpenAI (l’entreprise derrière ChatGPT, la plus en vogue actuellement). Les futurs changements que Google apporteront seront sans doute déterminants dans l’évolution de nos usages.

Mème : un homme tagué « #LesGENS » regarde d'un œil intéressé une femme taguée « Google », pendant que sa compagne taguée « OpenAI » lui lance un regard noir.

Le rapport de force entre OpenAI et Google.
Généré avec https://framamemes.org – CC-0

OpenAI rachète l’entreprise de matériel de Jony Ivy

En mai dernier, nous apprenions que OpenAI a racheté l’entreprise io, spécialisée dans la conception de matériel informatique fondée par l’ancien designer en chef d’Apple, Jony Ive.
Ive ne rejoindra pas OpenAI et sa compagnie spécialisée dans le design, LoveFrom, restera indépendant, mais elle prendra désormais en charge l’ensemble de la conception des designs pour OpenAI, dont ses logiciels.

À travers l’article de The Verge, nous découvrons que le travail sur de nouveaux appareils, dédiés à l’IA, sont en phase de conception. Plusieurs pistes ont été considérées, comme des écouteurs ou des appareils disposant de caméras, mais ce ne sera pas des lunettes type Google Glass.
L’appareil rentrerait dans une poche, « tiendrait compte du contexte » et ne posséderait pas d’écran.

Nous nous questionnons particulièrement sur la notion de « tenir compte du contexte ». Qu’est-ce que cela signifiera concrètement ? Serait-ce encore un dispositif qui « écoutera » ou « observera » en permanence, sous prétexte de pouvoir nous répondre immédiatement quel temps il fera demain quand nous poserons la question à nos proches ?
Pour le moment, nous n’en savons trop rien.

Il est difficile de dire si le pari (à 6.5 milliards de dollars, tout de même) de OpenAI portera ses fruits, cependant, si OpenAI affirme que l’objectif n’est pas de remplacer le smartphone, il semble y avoir une réelle volonté à suivre la piste de celui-ci : construire un appareil ergonomique qui s’impose comme un nouveau besoin pour la société. Et dans le même temps, imposer toujours plus l’IA dans nos quotidiens.

Le dessin d'un perroquet Ara, avec un remonteur mécanique dans son dos, comme pour les jouets ou les montres. Accroché à son aile gauche, un ballon de baudruche.

Stokastik, la mascotte de FramamIA, faisant référence au perroquet stochastique. Illustration de David Revoy – Licence : CC-By 4.0

C’est tout pour cette FramIActu ! Nous espérons que vous l’avez appréciée !

Vous pouvez poursuivre votre lecture sur le sujet en consultant les articles de notre site de curation dédié au sujet, mais aussi et surtout FramamIA, notre site partageant des clés de compréhension sur l’IA !

Si nous pouvons vous proposer cette nouvelle revue mensuelle, c’est grâce à vos dons, Framasoft vivant presque exclusivement grâce à eux !
Pour nous soutenir et si vous en avez les moyens, vous pouvez nous faire un don via le formulaire dédié  !

Enfin, notez que le rythme de parution de la FramIActu risque de changer dans les prochains mois. Nous constatons en effet une diminution du rythme de parutions d’informations « intéressante pour le grand public » sur l’IA. Il y a certes des avancées techniques, et toujours énormément de recherches sur le sujet… mais nous percevons tout de même une forme de baisse de régime. Attendez-vous donc à d’éventuels changements autour de la FramIActu pour refléter tout ça !

À bientôt ! 👋

PDF

11.06.2025 à 12:10

Développement d’application en Flutter : retours d’expérience (1/2)

Framasoft

Au cours du développement de l’application PeerTube, nous avons acquis certaines expériences dans le choix des technologies employées et les freins que certaines décisions ont entraîné. Nous les partageons ici. Pourquoi Flutter ? Le développement d’applications mobiles pose rapidement la question … Lire la suite­­
Texte intégral (3065 mots)

Au cours du développement de l’application PeerTube, nous avons acquis certaines expériences dans le choix des technologies employées et les freins que certaines décisions ont entraîné. Nous les partageons ici.

Pourquoi Flutter ?

Le développement d’applications mobiles pose rapidement la question du choix des technologies : faut-il créer une application distincte pour chaque plateforme, ou adopter une approche permettant de mutualiser les efforts ? C’est là qu’intervient le cross-platform : une méthode qui consiste à développer une seule base de code pour cibler plusieurs systèmes d’exploitation, principalement Android et iOS.

Le développement cross-platform présente ainsi de nombreux avantages. Il permet avant tout de réduire considérablement les coûts et les efforts de maintenance, puisqu’une seule base de code est nécessaire, limitant ainsi les corrections de bugs et les mises à jour multiples. Il offre aussi un déploiement plus large et plus rapide, en touchant un public plus vaste sans avoir à développer des applications distinctes.

Comme notre développeur n’était pas initialement spécialisé dans le développement mobile, il a dû se former pour maîtriser les outils nécessaires. Deux technologies principales se sont imposées dans notre réflexion : React Native et Flutter.

Nous avons donc mené une étude comparative afin de choisir la solution la plus adaptée à nos besoins. Après analyse, notre choix s’est porté sur Flutter. Pour plus de détails, vous pouvez consulter l’étude complète en suivant ce lien : https://framagit.org/wicklow/peertube-prototypes

Suite à ce choix, notre développeur s’est lancé dans l’apprentissage et la maîtrise de Flutter. Il vous partage son expérience à travers la suite de cet article.

Logo Flutter – Domaine public – Wikicommons.

 

Apprendre Dart et Flutter

La première étape a été d’apprendre le fonctionnement de Flutter. Les applications Flutter sont écrites en Dart, un langage orienté objet. J’ai donc commencé par explorer la documentation officielle de Dart et Flutter pour comprendre les bases.

Voici les différentes ressources que j’ai utilisées pour m’initier :

Choisir son architecture

Une fois ces bases acquises, je me suis penché sur la structure idéale pour le projet. Après avoir exploré différentes approches, j’ai opté pour une architecture “Feature First”. Cette méthode consiste à organiser le code par fonctionnalités plutôt que par type de fichier (comme les modèles, les vues, ou les contrôleurs).

L’approche “Feature First” offre de nombreux avantages. Elle apporte une clarté accrue au projet en isolant chaque fonctionnalité dans son propre dossier, ce qui simplifie la navigation et la compréhension de la structure du code. De plus, cette méthode favorise la modularité en rendant les fonctionnalités indépendantes, permettant ainsi leur réutilisation ou leur modification sans affecter les autres parties du projet. Enfin, dans le cadre d’un projet libre, cette organisation facilite la contribution des développeurs externes, qui peuvent se concentrer sur des fonctionnalités spécifiques sans interférer avec le reste du code.

Choisir ses dépendances

Chaque bibliothèque intégrée dans le projet doit être remise en question dans le but de s’assurer qu’elles répondent aux exigences fonctionnelles, qu’elles soient maintenables à long terme et qu’elles n’introduisent pas de risques techniques. Flutter étant une technologie encore jeune, il est important d’être prudent dans le choix des dépendances. Certaines bibliothèques peuvent manquer de maturité ou de soutien communautaire, ce qui pourrait entraîner des bogues ou des problèmes de mises à jour futures.

Voici quelques critères généraux pour choisir une dépendance sur pub.dev :

  • Vérifiez le nombre de personnes contribuant activement au projet sur GitHub. Une équipe de contributeur⋅rices plus importante indique souvent un projet plus robuste à long terme.
  • Assurez-vous que le projet est actif, avec des commits récents et des demandes régulières, de préférence de la part d’utilisateur⋅rices différent⋅es.
  • Regardez le score global sur pub.dev, qui mesure la qualité des paquets.
  • Vérifiez la fréquence des publications.
  • Donnez la préférence aux paquets publiés par un⋅e éditeur⋅rice vérifié⋅e.

Les dépendances choisies

En prenant en compte ces critères, j’ai soigneusement sélectionné les bibliothèques nécessaires pour le développement de l’application mobile PeerTube.

Voici les principales bibliothèques retenues pour le projet, accompagnées des réflexions qui ont guidé leur sélection :

Le gestionnaire d’état

Un gestionnaire d’état (ou “state management” en anglais) est une approche ou un outil utilisé pour gérer l’état d’une application. Dans le contexte de Flutter, l’état fait référence aux données dynamiques ou aux informations qui peuvent changer au cours de l’exécution de l’application, comme l’entrée utilisateur, les données récupérées d’une API, ou encore l’état d’une animation.

Plusieurs approches et bibliothèques sont disponibles pour la gestion des états dans les applications Flutter, chacune avec ses propres avantages et limitations.

Approches de gestion d’état

  • StatefulWidget : le mécanisme intégré le plus simple pour gérer l’état local.
  • InheritedWidget : une solution native qui permet de partager l’état entre les widgets.
  • Variables globales : une approche où l’état est stocké dans des variables globales qui sont accessibles dans toute l’application.

Les bibliothèques populaires

Provider :

  • Pour : simple, léger et largement utilisé par la communauté Flutter.
  • Contre : nécessite un code standard et manque de fonctionnalités avancées.

Bloc :

  • Pour : hautement structuré, il favorise la séparation des préoccupations et est idéal pour gérer une logique d’application complexe.
  • Contre : courbe d’apprentissage abrupte. Nécessite plus de code de base que les autres solutions.

Riverpod :

  • Pour : une alternative moderne à Provider avec une API plus simple, une meilleure testabilité et la prise en charge de l’injection de dépendances. Elle supprime les contraintes de l’arbre des widgets de Flutter, ce qui la rend plus flexible.
  • Contre : elle est plus récente que les autres bibliothèques, mais son développement est très actif.

Riverpod a été choisi pour sa simplicité, sa flexibilité et son évolutivité, offrant une gestion globale de l’état indépendante de l’arbre des widgets. L’approche de Riverpod avec des variables globales me convient. En outre, l’intégration de la génération de code dans le projet promet d’améliorer les performances à l’avenir. Cependant, il est important de choisir une solution qui correspond à vos préférences et à vos besoins spécifiques.

Le routeur

Un routeur est un composant essentiel qui gère la navigation entre les différents écrans d’une application, permettant de définir les itinéraires, de gérer les transitions, de transmettre des paramètres via les URL, et de prendre en charge les liens profonds.

Plusieurs bibliothèque sont disponibles pour gérer la navigation dans les applications Flutter :

  • Navigator : inclus dans le SDK Flutter mais manque de fonctionnalités telles que les liens profonds.
  • AutoRoute : permet de générer du code pour simplifier la gestion des itinéraires, mais peut être difficile à configurer.
  • GoRouter : une bibliothèque officielle soutenue par l’équipe Flutter, combinant la facilité d’utilisation avec un support avancé de liens profonds.

Après analyse, GoRouter s’est avéré être le meilleur choix pour ce projet, en particulier pour :

  • Un support actif de l’équipe Flutter et une documentation complète, garantissant un choix fiable à long terme.
  • La prise en charge des liens profonds, essentielle pour rediriger les utilisateurs entre les pages web des plateformes PeerTube et l’application.
  • Basé sur l’API Navigator 2.0 incluse dans le SDK Flutter.

Le lecteur vidéo

Le lecteur vidéo est un composant essentiel pour l’application PeerTube, car il constitue le cœur de l’expérience utilisateur. Il était crucial pour nous de faire le bon choix de bibliothèque dès le début pour garantir une lecture fluide, une compatibilité avec différents formats vidéo, et une intégration harmonieuse avec les fonctionnalités de l’application.

Plusieurs bibliothèques sont disponibles et utilisées par la communauté Flutter pour implémenter la fonctionnalité de lecture vidéo :

  • video_player : une bibliothèque officielle soutenue par l’équipe Flutter qui fournit des fonctionnalités de lecture vidéo de base, mais nécessite une personnalisation importante pour les fonctionnalités avancées.
  • Chewie : une puissante surcouche autour de video_player soutenue par la communauté Flutter qui fournit une interface de lecteur pré-construite et hautement personnalisable et prend en charge les commandes de base telles que lecture/pause, le plein écran et les sous-titres.
  • BetterPlayer : un lecteur vidéo avancé construit au-dessus de Chewie, avec des fonctionnalités supplémentaires, mais pas très bien maintenu.
  • MediaKit : un ensemble plus récent qui vise à fournir une expérience de lecture vidéo cohérente et riche en fonctionnalités sur toutes les plateformes, bien que son écosystème et le soutien de la communauté soient encore en cours de maturation.

Après analyse, Chewie s’est avéré être notre premier choix en raison de son équilibre entre simplicité et fonctionnalité :

  • Facile à intégrer, il fournit une interface de lecture prête à l’emploi avec une configuration minimale.
  • Personnalisable, permettant aux développeurs d’adapter l’interface utilisateur et le comportement aux besoins de l’application.
  • Maintenu par la communauté Flutter, il garantissait sa fiabilité.

Cependant, après plusieurs mois d’utilisation, nous avons constaté que la maintenance de Chewie était plus faible que prévu. Certaines fonctionnalités et corrections de bugs présentes dans des merge requests n’étaient pas intégrées, ce qui a limité notre capacité à répondre rapidement aux besoins de l’application.

En conséquence, nous avons décidé de migrer vers video_player. Bien que cette bibliothèque nécessite plus de temps pour mettre en place une interface utilisateur personnalisée et des fonctionnalités avancées, elle offre un contrôle plus granulaire et une stabilité accrue. Cette transition nous a permis de concevoir une expérience utilisateur sur mesure tout en garantissant une meilleure fiabilité à long terme.

Les flavors

Nous avions besoin de deux applications distinctes :

  • stable : la version en production, destinée à être déployée sur les stores publics.
  • nightly : la version intégrant les derniers changements, basée sur la branche de développement.

Les flavors permettent de gérer ces deux versions de manière distincte, en créant deux applications séparées. Pour mettre cela en place, il est nécessaire de configurer les flavors sur chaque plateforme native ciblée (Android et iOS). De plus, chaque application doit être signée séparément pour chaque flavor. Enfin, le code Dart partagé par toutes les plateformes peut être configuré en fonction de l’environnement grâce à l’argument --dart-define-from-file, qui permet de fournir un fichier .env contenant les variables nécessaires.

Exemple de commande pour construire l’environnement stable :

flutter build apk --flavor stable --dart-define-from-file=env-stable.json

Pour plus de détails sur la configuration des flavors et la signature des applications, consultez ce rapport dans lequel nous détaillons comment nous avons mis en place ce système de flavor.

Les erreurs commises

Écrire des tests trop tôt

L’une des erreurs que j’ai commises au début du projet a été de vouloir écrire des tests unitaires et d’intégration dès les premières étapes du développement. Bien que les tests soient essentiels pour garantir la qualité et la stabilité du code, les écrire trop tôt peut s’avérer contre-productif, surtout lorsque l’architecture et les fonctionnalités de l’application ne sont pas encore clairement définies. En effet, au début du projet, de nombreux changements ont été apportés à la structure du code et aux fonctionnalités, rendant ainsi les tests obsolètes rapidement.

De cette expérience, j’ai retenu la leçon suivante : il faut accorder la priorité à la stabilité de l’architecture. Avant d’écrire des tests, il est crucial de s’assurer que l’architecture de l’application est bien définie et stable. Cela permet de réduire le nombre de modifications fréquentes des tests.

Sous-estimer la complexité des dépendances

Nous avons initialement intégré plusieurs bibliothèques sans évaluer pleinement leur maturité et leur compatibilité avec notre projet. Certaines dépendances se sont avérées instables ou mal maintenues, ce qui a entraîné des problèmes imprévus et des retards. Une analyse plus approfondie des dépendances aurait permis d’éviter ces écueils.

Ce parcours d’apprentissage de Flutter m’a ainsi permis de poser des bases solides pour développer l’application mobile PeerTube.

Dans le prochain article, nous aborderons une étape cruciale : la publication de l’application sur les stores (Google Play, App Store et F-Droid). Nous y détaillerons les démarches, les bonnes pratiques et les pièges à éviter pour réussir la mise en ligne d’une application mobile telle que PeerTube.

Nous en profitons pour vous rappeler que le financement participatif pour le développement de l’application PeerTube est en cours jusqu’au 17 juin 2025 !

PDF

09.06.2025 à 07:42

Khrys’presso du lundi 9 juin 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (11048 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

L’info popcorn de la semaine

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

RIP

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

Spécial outils de résistance

Spécial GAFAM et cie

Les autres lectures de la semaine

Les rapports de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF

08.06.2025 à 09:00

L’IA ne va pas vous piquer votre job : elle va vous empêcher d’être embauché !

Framasoft

L’IA ne sera pas la révolution que l’on pense. Son déploiement concret va prendre du temps. Elle ne sera pas non plus la menace existentielle qu’on imagine, parce qu’elle ne se développera pas là où les risques de défaillances sont trop importants. L’IA va rester sous contrôle malgré sa diffusion, estiment les chercheurs Arvind Narayanan et Sayash Kapoor dans une mise en perspective stimulante de notre avenir.
Texte intégral (4329 mots)

Cet article est une republication, avec l’accord de l’auteur, Hubert Guillaud. Il a été publié en premier le 28 mars 2025 sur le site Dans Les Algorithmes sous licence CC BY-NC-SA.


Dans le monde du recrutement, les CV ne sont plus vraiment lus par des humains. Le problème, c’est que les scores produits sur ceux-ci pour les trier sont profondément problématiques. Les logiciels de tris de candidatures cherchent à produire des correspondances entre les compétences des candidats et ceux des employés et à prédire les personnalités… sans grand succès. Bien souvent, ils produisent surtout des approximations généralisées masquées sous des scores qui semblent neutres et objectifs. Problèmes : ces systèmes peinent à favoriser la diversité plutôt que la similarité. Ils répliquent, amplifient et obfusquent les discriminations plutôt que de réduire les biais de décisions des recruteurs.

 

 

 

 

 

 

« Les dégâts qu’un responsable du recrutement humain partial peut causer sont réels, mais limités. Un algorithme utilisé pour évaluer des centaines de milliers de travailleurs pour une promotion ou de candidats à l’emploi, s’il est défectueux, peut nuire à bien plus de personnes que n’importe quel être humain », affirmait dans Wired la journaliste américaine Hilke Schellmann. Après avoir publié depuis plusieurs années de nombreuses enquêtes sur les défaillances des systèmes automatisés appliqués à l’emploi, elle vient de faire paraître un livre permettant de faire le point sur leurs limites : The Algorithm : How AI decides who gets hired, monitored, promoted, and fired and why we need to fight back now (L’algorithme : comment l’IA décide de qui sera embauché, surveillé, promu et viré et pourquoi nous devons riposter, Hachette, 2024, non traduit). Son constat est sans appel : dans l’industrie technologique des ressources humaines (la « HRTech » comme on l’appelle), rien ne marche ! Pour elle, l’IA risque bien plus de vous empêcher d’être embauché que de vous piquer votre job !

La couverture du livre de Hilke Schellmann, The Algorithm.Il est écrit : How AI can hijack your career and steal your future

La couverture du livre de Hilke Schellmann, The Algorithm.

 

Dans le domaine des ressources humaines, beaucoup trop de décisions sont basées sur de la « mauvaise camelote algorithmique », explique-t-elle. Des systèmes d’évaluation qui produisent déjà des préjudices bien réels pour nombre d’employés comme pour nombre de candidats à l’emploi. Dans son livre, la journaliste passe en revue les innombrables systèmes que les entreprises utilisent pour sélectionner des candidats et évaluer leurs employés… que ce soit les entretiens automatisés, les évaluations basées sur les jeux, les outils qui parcourent les publications sur les réseaux sociaux et surtout ceux qui examinent les CV en ligne… Tous cherchent à produire des correspondances entre les compétences des candidats et ceux des employés et à prédire les personnalités… sans grand succès.

Ce qu’elle montre avant tout, c’est que les entreprises qui ont recours à ces solutions ne sont pas suffisamment critiques envers leurs défaillances massives. En guise de calculs, ces systèmes produisent surtout des approximations généralisées. Sous l’apparence de scientificité des scores et des chiffres qu’ils déterminent se cache en fait beaucoup de pseudo-science, de comparaisons mots à mots peu efficaces. Quand on s’intéresse au fonctionnement concret de ces outils, on constate surtout que leur caractéristique principale, ce n’est pas tant qu’ils hallucinent, mais de nous faire halluciner, c’est-à-dire de nous faire croire en leurs effets.

Les algorithmes et l’intelligence artificielle que ces systèmes mobilisent de plus en plus promettent de rendre le travail des ressources humaines plus simple. En l’absence de régulation forte, souligne la journaliste, ni les vendeurs de solutions ni leurs acheteurs n’ont d’obligation à se conformer au moindre standard. Or, poser des questions sur le fonctionnement de ces outils, les valider, demande beaucoup de travail. Un travail que les départements RH ne savent et ne peuvent pas faire. Nous aurions besoin d’un index pour mesurer la qualité des outils proposés, propose la journaliste… tout en constatant que nous n’en prenons pas le chemin. L’industrie RH se contente parfaitement de la situation, souligne-t-elle. Les avocats américains recommandent d’ailleurs aux services RH des entreprises de ne pas enquêter sur les outils qu’ils utilisent pour ne pas être tenu responsables de leurs dysfonctionnements ! À croire que la responsabilité sociale fonctionne mieux avec des œillères !

De l’automatisation des recrutements : tous scorés !

L’automatisation s’est imposée pour répondre aux innombrables demandes que recevaient les plus grandes entreprises et notamment les grandes multinationales de la Tech. Comment traiter les millions de CV que reçoivent IBM ou Google chaque année ? Qu’ils soient déposés sur les grands portails de candidatures et d’offres d’emplois que sont Indeed, Monster, Linkedin ou ZipRecruiter comme sur les sites d’entreprises, l’essentiel des CV sont désormais lus par des logiciels plutôt que par des humains. Les plateformes développées d’abord pour l’intérim puis pour les employés de la logistique, de la restauration rapide et du commerce de détail sont désormais massivement utilisées pour recruter dans tous les secteurs et pour tous types de profils. Mais elles se sont particulièrement développées pour recruter les cols blancs, notamment en entrée de tous les grands secteurs professionnels, comme l’informatique ou la finance. Si ces plateformes ont permis aux candidats de démultiplier facilement leurs candidatures, c’est au détriment de leur compréhension à savoir comment celles-ci seront prises en compte. Les fonctionnalités de tri massifs et automatisés restent encore l’apanage des grandes entreprises, notamment parce qu’elles nécessitent souvent d’accéder à des logiciels dédiés, comme les « systèmes de suivis de candidatures » (ATS, Applicant Tracking Systems) qui permettent de trier et gérer les candidats. Une grande majorité des employeurs y ont recours. Ces logiciels sont moins connus que les grandes plateformes de candidatures avec lesquelles ils s’interfacent. Ils s’appellent Workday, Taleo, Greenhouse, Lever, Phenom, Pintpoint, Recruitee, Jobvite… Sans compter les plus innovants parmi ces interfaces du recrutement, comme Sapia ou Hirevue, qui proposent d’automatiser jusqu’à l’entretien lui-même en mobilisant reconnaissance faciale, transcription des propos et analyse émotionnelle.

Tous ces systèmes font la même promesse aux entreprises qui les utilisent : minimiser et optimiser le nombre de candidats à un poste et réduire le temps de sélection des candidats. Pour ce faire, ces systèmes lisent les mots des CV selon les paramètres qu’en précisent les entreprises et que rendent disponibles les plateformes. Ils cherchent dans les CV les occurrences des termes qui décrivent le poste depuis l’annonce ou comparent les termes des CV candidats à ceux de personnes déjà en poste. La plupart utilisent des attributs par procuration pour détecter des compétences, comme le fait d’avoir un diplôme du supérieur ou le fait d’avoir des compétences précises formalisées par des mots-clefs littéraux.

Face à l’afflux des candidatures – en 2015, Glassdoor estimait qu’il y avait en moyenne 250 réponses par offre d’emploi pour 4 à 6 sélectionnés pour un entretien ; Jobvite, lui estime que le nombre moyen de candidats par offre tournerait plutôt autour de 29 en 2018, alors qu’il était de 52 en 2016, une baisse qui résulterait d’une meilleure optimisation des offres quand on pourrait questionner plutôt le recul de leur diffusion –, le recrutement automatisé s’est généralisé et ce dans une grande opacité au détriment des candidatures les plus précaires. Car dans ces outils, pour accélérer le tri, il est facile de ne retenir par exemple que ceux qui ont un diplôme du supérieur pour un poste qui n’en nécessite pas nécessairement. Les capacités de réglages sont bien plus conçues pour exclure et rejeter les candidatures que pour intégrer les candidats. Par exemple, comme souvent en informatique, si l’une des compétences exigée n’est pas présente, quelles que soit les qualifications et les qualités des autres compétences évaluées, le candidat va bien souvent être rejeté ou sa note globale dégradée, selon une moyennisation qui lisse les écarts plutôt que de capitaliser sur les forces et faiblesses des candidats. Dans leur livre, The Ordinal Society, les sociologues Marion Fourcade et Kieran Healy, parlent très justement du « lumpenscoretariat » pour qualifier le prolétariat du score dans le capitalisme numérique, pour parler de ceux qui sont toujours mal classés par les systèmes parce que les standards de ceux-ci s’adaptent extrêmement mal à tous les publics.

Ces logiciels de recrutement examinent, évaluent et classent les candidatures en leur attribuant des scores sur un certain nombre de critères définis par les possibilités du système et par l’entreprise qui recrute. Plusieurs scores sur plusieurs attributs sont produits (par exemple un score sur l’expérience requise, un score sur les compétences exigées, etc.) et forment un score unique qui permet de classer les candidatures les unes par rapport aux autres. Un très fort pourcentage de candidatures sont rejetées parce qu’elles ne remplissent pas les critères demandés. Et ce, alors que les employeurs ont tendance à démultiplier les critères pour réduire le nombre de candidats à examiner. Pour un simple emploi de vendeur, le nombre de compétences requises dans les offres d’embauche en ligne est en moyenne de 31 compétences différentes ! De plus en plus d’offres d’emploi demandent d’ailleurs des compétences qui étaient associées à d’autres professions : un vendeur doit savoir vendre, mais doit également désormais savoir utiliser tel ou tel logiciel par exemple ou disposer de compétences transverses, les fameux « soft skills », des aptitudes interpersonnelles qui n’ont pas toujours de liens avec les compétences techniques (qui elles relèvent par exemple de la maîtrise d’une langue étrangère ou de techniques de ventes spécifiques), que ce soient « l’autonomie », la « capacité à négocier » ou la « flexibilité », autant de « talents » dont l’appréciation est bien souvent difficile et subjective et que les calculs promettent de résoudre par des scores dont la formule est suffisamment complexe pour que nul ne regarde leurs défauts.

Bien souvent, les entreprises qui embauchent sont les premières responsables du sur-filtrage qu’elles utilisent. Mais surtout, à force de démultiplier les critères, elles ne parviennent pas à ouvrir leurs canaux de recrutement, comme s’en émouvait le rapport Fuller, Hidden Workers (2021). Joseph Fuller, le chercheur de la business school d’Harvard, montrait que nombre de candidats qualifiés n’étaient pas considérés par ces systèmes de tri automatisés. Nombre de systèmes de recrutement rejettent des candidats qui font de très bons scores sur nombre de critères, mais échouent totalement sur un seul d’entre eux, au profit de candidats qui peuvent être très moyens sur tous les critères. Ainsi, dans la moitié des outils d’analyse automatisés testés par son équipe, avoir un trou de 6 mois dans sa carrière conduit à une exclusion automatique, quelle que soit la raison de ce passage à vide (congé natalité, maladie…) et ce même si la candidature est par ailleurs très bien notée. Cet exemple montre que la qualification n’est pas le seul critère pris en compte. Ces systèmes font d’abord ce pour quoi ils sont programmés : minimiser le temps et le coût passé à recruter ! Pour Hilke Schellmann, ces exemples démontrent que les responsables RH devraient enquêter sur les outils qu’ils utilisent et comprendre les critères de sélection qu’ils mettent en œuvre. Les processus d’embauches automatisés se concentrent bien plus sur la détection de références que sur les capacités des candidats. L’automatisation du recrutement conduit à configurer les systèmes de manière inflexible afin d’en minimiser le nombre. Or, pour Fuller, ces outils devraient surtout permettre d’élargir le recrutement que de le resserrer, ils devraient permettre de s’intéresser aux expériences plus qu’aux compétences, explique-t-il en montrant que nombre de personnes compétentes ne sont pas recrutées parce que leur expérience peut-être sur des compétences similaires, mais dans un autre métier. Les descriptions de postes se complexifient, écartant certains postulants, et notamment les femmes qui ont tendance à postuler que si elles sont convaincues qu’elles satisfont à l’essentiel des exigences d’un poste.

Capture d'écran du jeu Survival of the best fit.

Vous aussi entraînez une IA de recrutement !
Survival of the best fit est un jeu en ligne qui permet de comprendre les limites du recrutement automatisé.

 

Les responsables RH comme les recruteurs savent pertinemment que leurs outils ne sont pas toujours pertinents : 88 % d’entre eux reconnaissent que ces outils excluent du processus d’embauche des candidats hautement qualifiés ou tout à fait qualifiés ! Leur efficacité elle-même est limitée, puisque 50 % des employés embauchés ne sont plus en poste 18 mois après leur arrivée. Au final, comme leurs outils, les responsables RH ont souvent bien plus confiance dans les diplômes, la réputation des écoles que dans l’expérience. Les filtres des systèmes fonctionnent comme des proxys : avoir été embauché dans un rôle similaire à celui de l’annonce dans les derniers mois est souvent plus important que de trouver des personnes qui ont des expériences multiples qui devraient leur permettre de s’épanouir dans le poste. La recherche de l’adéquation empêche bien souvent de chercher l’adaptation. Le recrutement, dans sa logique, cherche à minimiser son coût plutôt que de maximiser le capital humain. Et ces systèmes qui visent d’abord à matcher avec des exigences strictes, peinent à favoriser la diversité plutôt que la similarité, les manières dont les gens ont progressé plutôt que les statuts qu’ils ont acquis.

Discriminations invisibles

Hilke Schellmann n’est pas la seule à s’inquiéter du fonctionnement des systèmes de recrutement. La professeure de droit américaine, Ifeoma Ajunwa, qui a publié l’année dernière The Quantified Worker (Le travailleur quantifié, Cambridge University Press, 2023 non traduit), explique elle aussi que les systèmes d’embauche automatisés réduisent tous les candidats à des scores. Dans ces scores, les pratiques discriminatoires, liées à l’âge, au sexe, à la couleur de peau, au handicap, au niveau social… sont invisibilisées. Or, ces systèmes se déploient sans contrôle, sans régulation, sans audit, sans label de qualité, sans informations aux candidats… Dans une tribune pour Wired, elle demandait à la Fédération du commerce qui régule ces questions aux États-Unis de faire son job : c’est-à-dire contrôler et sanctionner les pires pratiques !

Couverture du livre, The Quantified Worker, de Ifeoma Ajunwa.En sous-titre : Law and Technology in the Modern Workplace

Couverture du livre, The Quantified Worker, de Ifeoma Ajunwa.

 

Les systèmes servent à répliquer, amplifier et obfusquer les discriminations à grande échelle, estime la juriste. Dans l’histoire du développement des plateformes d’embauches depuis les années 1990, qu’elle dresse avec Daniel Greene, la principale raison de leur développement repose sur la promesse de réduire les biais de décisions en utilisant des processus techniques « neutres ». C’est pourtant bien à l’inverse qu’on a assisté : les décisions algorithmiques sont devenues le véhicule d’amplification des biais ! Mais, pour la juriste, la question des biais de ces systèmes est bien plus un problème légal que technique. Le problème, c’est que les biais des systèmes sont démultipliés à un niveau sans précédent. « La recherche d’un meilleur fonctionnement technique nous empêche trop souvent de regarder les limites légales de ces systèmes », explique Ajunwa. Trop de données sont des proxies pour contourner les interdictions légales à la discrimination inscrite dans la loi. Les discriminations de race, de genre, sociales… sont déguisées derrière une « nébuleuse adéquation culturelle » des candidats aux offres. Plus que les compétences ou l’expérience, les recruteurs et leurs machines sont à la recherche d’un « matching socio-culturel » qui masque ses motivations discriminatoires d’un couvert de neutralité, qui occulte combien nos stéréotypes acquis influencent en profondeur nos décisions, comme le fait de préférer certaines écoles à d’autres dans les recrutements, ou le fait que les systèmes de recrutements favorisent certains termes sur d’autres. Les exemples de biais de ce type sont nombreux et se démultiplient quand tous les termes d’un CV peuvent devenir prédictifs. C’est ainsi que parfois des prénoms, des formations ou des hobbies ont pu devenir des paramètres clefs de ces systèmes. Les systèmes d’analyse des CV fonctionnent bien trop sur des mots- clefs qui prennent alors des valeurs qui dépassent leur portée. L’avocat spécialiste des questions de travail Ken Willner a ainsi montré que des termes comme « Afric » ou « Latin », qu’ils soient associés à un travail où à un hobby (comme le fait de pratiquer la danse Afro par exemple) pouvaient dégrader le score d’un CV juste parce que la présence du terme renvoie à des publics afro-américains. Sur les douzaines de systèmes d’embauche que l’avocat a examinés, il a trouvé des variables problématiques dans plus d’un quart ! Pour Willner, les entreprises qui développent ces outils ne font même pas le travail liminaire de contrôle et de non prise en compte de termes potentiellement discriminatoires. Willner en a trouvé bien d’autres, comme la pratique du baseball et du softball, le second surtout joué par des femmes, dont l’occurrence pouvait être prise en compte pour dégrader le score des secondes.

L’autoritarisme de plateforme pour obscurcir les discriminations

Les systèmes d’embauche automatisés permettent d’abord d’obscurcir les discriminations. Par exemple, celles liées à l’âge, alors que la loi les interdit. Plusieurs études ont montré que la discrimination liée à l’âge est exacerbée par l’automatisation. Un audit de la banque of America a montré que les gens de plus de 40 ans avaient un taux de rappel suite à une candidature 30 % moins élevée que les plus jeunes pour des emplois de base et que ce taux s’effondrait plus encore pour les femmes de plus de 40 ans. Le problème, estime Ifeoma Ajunwa c’est que ces discriminations liées à l’âge sont facilitées sur les plateformes, comme l’avait souligné une enquête de CNBC.

Reste, souligne la juriste, que les disparités de traitements sont difficiles à prouver, d’abord et avant tout parce que les plateformes d’emploi ne sont contraintes à aucune transparence statistique sur ce qu’elles font. Une étude a même montré que pour quelque 600 plaintes pour discrimination raciale à l’emploi aux Etats-Unis, la majorité des jugements rendus peinent à reconnaître la discrimination à l’œuvre. Ajunwa parle « d’autoritarisme de plateforme » pour évoquer les contradictions entre les politiques des plateformes et les législations. Cet autoritarisme masque la relation qu’elles entretiennent avec les candidats comme intermédiaires qui bénéficie bien plus aux employeurs et aux plateformes qu’aux utilisateurs. Pas étonnant dès lors que le public soit très critique à l’égard des plateformes d’embauche, comme le montrait un sondage du Pew sur la très vive défiance du grand public à l’encontre de l’embauche automatisée (avec un autre biais récurrent, qui est de croire que le système a plus de conséquences négatives globalement que pour soi personnellement).

Plus que de résoudre les dérives du recrutement, son automatisation a surtout généré un empilement de problèmes, que toute la chaîne de la HR tech tente de mettre sous le tapis, plutôt que de l’affronter. Il n’est pas sûr que ce soit une position longtemps tenable…

(à suivre)

PDF

02.06.2025 à 07:42

Khrys’presso du lundi 2 juin 2025

Khrys

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière. Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer … Lire la suite­­
Texte intégral (10404 mots)

Comme chaque lundi, un coup d’œil dans le rétroviseur pour découvrir les informations que vous avez peut-être ratées la semaine dernière.


Tous les liens listés ci-dessous sont a priori accessibles librement. Si ce n’est pas le cas, pensez à activer votre bloqueur de javascript favori ou à passer en “mode lecture” (Firefox) ;-)

Brave New World

RIP

Spécial IA

Spécial Palestine et Israël

Spécial femmes dans le monde

Spécial France

Spécial femmes en France

Spécial médias et pouvoir

Spécial emmerdeurs irresponsables gérant comme des pieds (et à la néolibérale)

Spécial recul des droits et libertés, violences policières, montée de l’extrême-droite…

Spécial résistances

  • Appel à cartographie des caméras de vidéosurveillance (bourrasque-info.org)

    Présentation du site Surveillance under Surveillance, un outil permettant de répertorier et cartographier les caméras partout dans le monde.

  • Digital Justice, Now ! A call to action for WSIS+20 and beyond (apc.org)

    Twenty years after the conclusion of the World Summit on the Information Society (WSIS), we find ourselves in a now-or-never moment. The vision of a people-centered, inclusive, and development-oriented digital order has never seemed more elusive, yet so urgent, to claim. The new digital order dictated by corporate greed and state control is, unfortunately, a far cry from the ideals of the WSIS consensus. (See the Global Digital Justice Forum’s Johannesburg Communique for our analysis of what is wrong with the status quo.) The weaponization of data and AI has already seen widespread job precarity, misinformation, war crimes, the climate catastrophe, and more. Our autonomy, agency, shared humanity, and planetary well-being are under siege. We need Digital Justice, Now !

  • « On est là pour enseigner la vérité : un génocide se déroule sous nos yeux » (politis.fr)

    Ce mercredi 28 mai, 250 personnes sont venues apporter leur soutien à une professeure, suspendue après avoir organisé une minute de silence en hommage aux victimes de bombardements à Gaza. Près du ministère de l’Éducation nationale, tou·tes dénoncent la répression de ces sujets dans l’enseignement.

  • « Bientôt, nous enseignerons qu’il y a eu un génocide à Gaza » (politis.fr)

    Aggiornamento, un collectif d’enseignant·es, estime qu’éviter de parler de génocide à Gaza en classe relève d’une posture politique contraire à la « neutralité » demandée aux professeurs par le ministère, alors que le rectorat de Dijon a suspendu une professeure pour un hommage aux victimes gazaouies.

  • Un « bain de sang » dans une fontaine au cœur de Paris pour dénoncer les massacres à Gaza (huffingtonpost.fr)

    « Stop au bain de sang », « Macron doit enfin agir » : une poignée de militants se sont donnés rendez-vous en début de matinée à la fontaine des Innocents, dans la capitale française, où ils ont déversé plusieurs litres de colorant alimentaire rouge sur les marches du bassin et brandi des pancartes appelant les autorités à l’action face au désastre humanitaire à Gaza.

  • L’appel des mères pour les enfants de la Palestine (politis.fr)

    Face au massacre des enfants palestiniens, des mères de France appellent à marcher le 15 juin devant l’Élysée pour exiger des sanctions contre Israël et des actions immédiates de la part d’Emmanuel Macron.

  • « Les enfants palestiniens ne sont-ils pas des enfants ? » (politis.fr)

    L’Assemblée pour des soins antiracistes et populaires, dans une lettre ouverte, demande à la Société française de pédiatrie de faire pression sur les autorités françaises afin d’obtenir une action diplomatique internationale auprès du gouvernement israélien.

  • Action anti-jets privés : des activistes d’Attac et XR à la barre (basta.media)

    Treize activistes ont été jugé·es pour une action de désobéissance civile contre les jets privés. Au-delà des faits reprochés, le procès soulève une question : celle de la légitimité de mener des actions illégales face à l’urgence climatique.

  • L’A69 relancée : la lutte reprend de plus belle (reporterre.net)

    Après l’annonce de l’autorisation de reprise du chantier de l’A69, les opposant·es à cette autoroute ont organisé des rassemblements partout en France.

  • Thomas Brail sur l’A69 : « J’entame une grève de la soif dès la reprise du chantier » (reporterre.net)
  • LGV Lyon-Turin : un convoi à vélo pour alerter les habitant·es des ravages du tracé (reporterre.net)
  • Écologistes, malades du cancer, scientifiques… Ils se rebellent contre la loi Duplomb (reporterre.net)

    De nombreuses voix de la société civile se sont élevées pour dire leur indignation après le vote, le 26 mai, par les députés du centre et de la droite, d’une résolution de rejet « tactique » contre leur propre texte, pour éviter un débat en séance plénière et envoyer le texte décrié directement en commission mixte paritaire.

  • Vers un soulèvement associatif ! (associations-citoyennes.net)

    Le Projet de Loi de Finance 2025 adopté en force par le parlement annonce un véritable « carnage associatif ». Protection et accompagnement des personnes, aide sociale, culture et éducation populaire, défense des droits, solidarité internationale, écologie, sport … le choc est immense dans le monde associatif et solidaire pourtant indispensable à la vitalité démocratique et au tissu social. Amplifié par de nombreuses collectivités locales pratiquant la même politique de la terre brûlée, l’effet domino est terrible et aucune association, aucune initiative citoyenne ne sera épargnée.

  • « Si ArcelorMittal tombe, c’est l’ensemble de l’industrie française qui tombe » (politis.fr)

    Alors qu’ArcelorMittal a annoncé un vaste plan de suppressions de postes, la CGT a décidé d’entamer une « guerre » pour préserver les emplois et éviter le départ du producteur d’acier de l’Hexagone.

  • Sabotages sur la Croisette (lundi.am)

    Ce week-end, en plein 78e Festival de Cannes, trois installations électriques ont été sabotées dans les Alpes-maritimes. Un poste électrique incendié à Tanneron, un pylône scié près de Villeneuve-Loubet, et un transformateur incendié à l’ouest de Nice provocant « une panne d’électricité géante »

    Voir aussi Communiqué sur les sabotages de la Côte d’Azur (lagrappe.info)

  • Restauration : Bondir·e, des professionnels s’engagent contre les violences en cuisine (humanite.fr)

    Alors que plus de 200 000 personnes manquent dans la restauration, les violences qui y règnent expliquent de nombreux départs. L’association Bondir·e, créée en 2020 par des cheffes, sensibilise les futurs professionnels au caractère inacceptable de pratiques trop longtemps tolérées.

  • Prostitution. 50 ans après l’occupation de l’église Saint-Nizier, les parapluies rouges se déploient à Lyon (tribunedelyon.fr)

    Lyon célèbre ce week-end les 50 ans de l’occupation de l’église Saint-Nizier par les travailleurs et travailleuses du sexe (TDS). Une date désormais ancrée dans les mémoires, bien au-delà des frontières, mais qui rappelle que même à Lyon, les droits des TDS restent encore à conquérir.

Spécial outils de résistance

  • Cent ans de sabotage : résister à l’oppression politique et technologique (terrestres.org)
  • Comment et quoi « réparer » après le colonialisme nucléaire ? (terrestres.org)

    une discussion sérieuse sur la réparation commence par la reconnaissance de l’irréparable, c’est-à-dire l’impossibilité de « solutionner » ou de gérer le désastre nucléaire comme un simple paramètre de plus dans l’administration des choses. Parmi les principes fondamentaux de l’ONU concernant le droit à la réparation figure la garantie de non-répétition14 : réparer le passé, c’est déjà garantir que des faits similaires ne se produiront plus dans le futur. Considérant que l’industrie nucléaire, tant civile que militaire, repose sur une chaîne de production et de contaminations coloniales irréversibles, il est antithétique de proclamer une « paix » sans avoir préalablement procédé à une dénucléarisation et à une décolonisation totales des sociétés française et maohi.

Spécial GAFAM et cie

Les autres lectures de la semaine

Les BDs/graphiques/photos de la semaine

Les vidéos/podcasts de la semaine

Soutenir

Les trucs chouettes de la semaine

Retrouvez les revues de web précédentes dans la catégorie Libre Veille du Framablog.

Les articles, commentaires et autres images qui composent ces « Khrys’presso » n’engagent que moi (Khrys).

PDF
20 / 20
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓