URL du flux RSS

▸ les 10 dernières parutions

13.10.2025 à 07:00

De l’apocalypse économique de l’IA

Hubert Guillaud
« L’IA ne peut pas faire votre travail, mais un vendeur d’IA peut convaincre à 100 % votre patron de vous licencier et de vous remplacer par une IA incapable de le faire ». « L’IA est l’amiante que nous injectons dans les murs de notre société et que nos descendants déterreront pendant des générations […]

10.10.2025 à 07:00

Automagique

Hubert Guillaud
« Le vibe coding et les assistants ne sont pas des technologies automagiques. Ils font des erreurs en permanence et n’ont pas de vision d’ensemble. »Thomas Gerbaud sur le vibe coding en ses limites.
Lire plus (330 mots)

« Le vibe coding et les assistants ne sont pas des technologies automagiques. Ils font des erreurs en permanence et n’ont pas de vision d’ensemble. »Thomas Gerbaud sur le vibe coding en ses limites.

09.10.2025 à 07:00

… A l’IA pour faire régner la terreur

Hubert Guillaud
Ce que l'IA produit ne sont pas des erreurs. Ses erreurs sont ses promesses idéologiques.
Texte intégral (4006 mots)


Dans sa newsletter Blood in the Machine, l’historien Brian Merchant s’entretient avec le chercheur en sciences cognitives Hagen Blix qui vient de publier avec la spécialiste de l’IA, Ingeborg Glimmer, Pourquoi nous avons peur de l’IA (Why We Fear AI, Common Notions, 2025, non traduit). Dans leur livre, Blix et Glimmer passent en revue les craintes que génère l’IA, des peurs apocalyptiques à celles qui annoncent la destruction des emplois, même si personne ne croit vraiment ni aux unes ni aux autres. Or, ce qui est bien moins interrogé, parce que personne ne le voit comme un risque, c’est le fait que la technologie soit un moyen de produire des gains de productivité. C’est-à-dire le fait que de nombreuses technologies soient développées pour accroître le contrôle de la direction sur les lieux de travail et pour déqualifier les employés (comme le suggère le sociologue Juan Sebastian Carbonell dans son livre), c’est-à-dire en rémunérant des travailleurs auparavant qualifiés comme des travailleurs non qualifiés. « Il faut considérer l’IA comme un outil de baisse des salaires plutôt que comme un outil d’augmentation de la productivité »

De nombreuses études indiquent que les augmentations de productivité ne sont pas au rendez-vous, malgré l’empressement de beaucoup à ânonner l’idée que l’IA leur ferait gagner du temps. Par contre, on constate dans de nombreux secteurs, que les emplois se dégradent, comme c’est le cas des traducteurs. Les machines savent produire des traductions de mauvaises qualités, mais pas au point d’être inutiles. Et « l’offre de cette version médiocre est si importante qu’elle fait baisser les prix et les salaires »

Pour Blix, nous devrions considérer l’IA comme un outil de baisse des salaires plutôt que comme un outil d’augmentation de la productivité. Et si c’est le cas, il faut comprendre que la fin de l’essor de l’IA n’est pas pour demain, quand bien même la productivité n’augmente pas. C’est en cela qu’il faut entendre la peur sourde de l’IA. Elle est « un vecteur omnidirectionnel et omniprésent de déqualification ». Jusqu’à présent, dans tous les secteurs où l’on maniait le langage notamment, l’industrialisation était peu poussée. Or, la promesse de l’IA est bien celle d’une prolétarisation partout où elle s’infiltre. Pour Blix, l’IA permet de créer une « bifurcation » selon la valeur. Si vous êtes avocat spécialisé en fusion d’entreprises, vous avez peu de chance d’être remplacé par une IA, car la moindre erreur pourrait coûter des millions de dollars. Mais si vous êtes avocat commis d’office, l’IA va vous aider à traiter bien plus de dossiers, même si vous ne les gagnez pas tous. Pour Blix, les services coûteux vont l’être de plus en plus, alors que les services les moins coûteux seront peut-être moins chers encore, mais avec de moins en moins de garanties de qualité. « L’IA fabrique des produits tellement moins chers qu’ils surpassent la concurrence non pas en qualité, mais en prix ». Pour lui, c’est « une attaque d’en haut contre les salaires ». 

Mais ce n’est pas une attaque à l’encontre de n’importe quels secteurs. Les secteurs que l’IA s’apprête à déstabiliser regroupent des emplois où les gens étaient relativement privilégiés et éduqués. Ils étaient ceux de gens qui « constituaient un rempart contre le système d’exploitation dans lequel nous vivons », même si beaucoup de ces personnes n’étaient jusqu’à présent pas forcément les plus syndiquées parce que pas nécessairement les plus hostiles au développement du capitalisme. C’est là quelque chose qui risque de bouger, esquisse Blix, comme quand les scénaristes et les acteurs se sont mis en grève l’année dernière, alors que ce n’était pas jusqu’alors un secteur très politisé. Brian Merchant dresse le même constat en évoquant des discussions avec des designers inquiets face à la précarisation qui les menace. Peut-être effectivement que ces perspectives vont faire réagir ceux dont les intérêts collectifs sont mis en danger. 

« L’IA est un moyen de s’attaquer aux salaires et à la qualité du travail ». Sans compter que ces outils sont excellents à discipliner les travailleurs par les scripts qu’ils imposent. « Pourquoi vivons-nous dans une société où la technologie est conçue comme un outil permettant aux gens d’avoir moins de contrôle sur leur travail ? La technologie devrait être développée de manière à rendre le travail plus agréable. Mais les intérêts de ceux qui financent la technologie, les entreprises et les patrons, sont souvent hostiles à ceux des travailleurs, car ces derniers souhaitent faire les choses différemment. On veut que son travail soit confortable, intéressant et peut-être convivial, mais l’entreprise cherche à exercer un contrôle », une pression, notamment pour que le travail lui coûte le moins possible. Par nature, il y a une forme d’hostilité intrinsèque à l’égard de ceux qu’elle emploie. « Les Luddites n’étaient pas opposés à la technologie. Ils étaient opposés à la technologie comme outil d’écrasement de la classe ouvrière ». Et il est probable que nous ayons à nous opposer à l’IA comme outil d’écrasement de toutes les autres. 

Le but d’un système est ce qu’il fait

Dans un article pour le site Liberal Currents, Blix et Glimmer vont plus loin encore. Ils estiment que dénoncer la hype de l’IA ne nous mène nulle part. Qualifier l’IA de bulle, d’escroquerie ou de poudre de perlimpimpin ne nous aide à comprendre ni à agir. Même si le battage médiatique de l’intelligence artificielle était moins fort, les problèmes qu’elle cause persisteraient. Pour les deux auteurs, il nous faut mieux qualifier son utilité pour saisir ce qu’elle accomplit réellement. 

Elle est d’abord massivement utilisée pour produire de la désinformation et de la propagande, c’est-à-dire manipuler nos émotions et amplifier nos résonances affectives. Elle est d’abord le moyen « d’innonder la zone de merde », comme le recommande le stratège extrêmiste Steve Bannon. Elle sert d’abord « à attiser sans relâche le scandale et l’indignation jusqu’à ce que personne ne puisse plus suivre les attaques contre la démocratie, la science, les immigrants, les Noirs, les personnes queer, les femmes, les anciens combattants ou les travailleurs. L’objectif : faire perdre aux gens le sens de ce qui se passe, de la réalité, afin qu’ils soient politiquement paralysés et incapables d’agir. » Les productions de l’IA générative n’y arrivent certainement pas toutes seules, mais reconnaissons qu’elles ont largement participé de la confusion ambiante ces dernières années. « Le fascisme, quant à lui, est engagé dans un jeu de pouvoir et d’esthétique qui considère le désir de vérité comme un aveu de faiblesse. Il adore les générateurs de conneries, car il ne peut concevoir un débat que comme une lutte de pouvoir, un moyen de gagner un public et des adeptes, mais jamais comme un processus social visant à la délibération, à l’émancipation ou au progrès vers la vérité. Les fascistes tentent, bien sûr, d’exploiter les conditions mêmes du discours (la volonté de présumer la bonne foi, de considérer l’égalité sinon comme une condition, du moins comme un objectif louable de progrès social, etc.). Prenons, par exemple, les débats sur la liberté d’expression comme un moyen pour retourner l’ennemi (c’est-à-dire nous). Les fascistes proclament sans cesse leur défense et leur amour de la liberté d’expression. Ils arrêtent également des personnes pour avoir proféré des discours, interdisent des livres » et s’en prennent à tous ceux qui n’expriment pas les mêmes idées qu’eux. « Considérer cela comme une incohérence, ou une erreur intellectuelle, revient à mal comprendre le projet lui-même : les fascistes ne cherchent pas la cohérence, ni à créer un monde rationnel et raisonnable, régi par des règles que des personnes libres et égales se donnent. Cette contradiction apparente s’inscrit plutôt dans la même logique stratégique que l’inondation de la zone de merde : utiliser tous les outils nécessaires pour accroître son pouvoir, renforcer les hiérarchies et consolider ses privilèges.»

« Cette attaque politique contre la possibilité d’un discours de bonne foi est-elle favorisée par le battage médiatique ? La situation serait-elle meilleure si les modèles étaient améliorés ou si la publicité était atténuée ? Ou est-ce plutôt l’incapacité des modèles à distinguer les mots du monde qui les rend si utiles aux visées fascistes ? Si tel est le cas, qualifier l’IA de battage médiatique revient à penser que les fascistes sont simplement stupides ou qu’ils commettent une erreur en étant incohérents. Mais les fascistes ne se trompent ni sur la nature de la liberté d’expression, ni sur la nature du « discours » produit par un LLM. Ils savent ce qu’ils veulent, ce qu’ils font et où cela mène. »

Ensuite, l’IA est un outil de terreur politique. Outil de la surveillance et du contrôle, le développement de l’IA tout azimut impose peu à peu sa terreur. Actuellement, le gouvernement américain utilise l’IA pour analyser les publications sur les réseaux sociaux à un niveau sans précédent et recueillir des « renseignements » à grande échelle. L’initiative « Catch and Revoke » du département d’État, par exemple, utilise l’IA pour annuler les visas des étrangers dont les propos ne sont pas suffisamment alignés avec les objectifs de politique étrangère du gouvernement. « S’agit-il d’un problème de battage médiatique ? Non  ! »

« Qualifier l’IA de « battage médiatique » met en évidence un écart entre un argument de vente et les performances réelles du modèle. Lorsqu’un modèle à succès est mis en pratique, il commet des « erreurs » (ou en commet à une fréquence déraisonnable). Qu’en est-il des outils d’IA du département d’État ? Leur IA de surveillance des étudiants commettra certainement des « erreurs » : elle signalera des personnes qui ne sont pas titulaires de visas étudiants ou des personnes pour des propos sans rapport avec le sujet », sans que ces erreurs ne soient décisives, au contraire. L’expulsion de gens qui n’avaient pas à l’être n’est qu’un dommage collatéral sans importance. Alors peut-être que quelqu’un au département d’État s’est laissé prendre et a réellement cru que ces modèles surveillaient mieux qu’ils ne le font en réalité. Nous n’en savons rien. Mais le sujet n’est pas là ! 

La journaliste et chercheuse Sophia Goodfriend qualifie toute cette affaire de « rafle de l’IA » et observe avec perspicacité : « Là où l’IA échoue techniquement, elle tient ses promesses idéologiques ». Indubitablement, des personnes sont faussement classées comme ayant tenu des propos non autorisés par les défenseurs autoproclamés de la liberté d’expression. Mais ces erreurs de classification ne sont des erreurs qu’au sens strict du terme. Le but du département d’Etat de Marco Rubio est d’augmenter les expulsions et de supprimer certains types de discours, pas d’être précis. En fait, ce programme politique vise surtout l’échelle, le traitement de masse, c’est-à-dire atteindre le plus grand nombre de personnes. Et pour cela, l’IA est particulièrement efficace

« Dans notre livre, nous affirmons que c’est précisément leur nature, sujette aux erreurs, leurs fragilités, qui rend l’IA si efficace pour la répression politique. C’est l’imprévisibilité des personnes qui seront prises dans ses filets, et l’insondabilité de la boîte noire de l’IA qui rendent ces outils si efficaces pour générer de l’anxiété, et qui les rendent si utiles pour la suppression de la parole ». Et les deux auteurs de comparer cela à la reconnaissance faciale. « Certes, les dommages causés par les erreurs d’identification des personnes causées par les systèmes de reconnaissances faciales sont bien réels. Reconnaissons d’abord que même si les algorithmes étaient parfaits et ne se trompaient jamais, ils favoriseraient tout de même un système raciste qui vise souvent à produire une déshumanisation violente… Mais aujourd’hui, les algorithmes de la reconnaissance faciale  commettent bel et bien des erreurs d’identification, malgré leurs prétentions. Qualifier cela de « bêtise » nous aide-t-il à comprendre le problème ?»

Les « erreurs d’identification de la reconnaissance faciale ne sont pas distribuées aléatoirement, bien au contraire. Lorsque les erreurs de l’IA sont si clairement réparties de manière inégale et qu’elles sont source de préjudices – de fausses arrestations et de possibles violences policières –, il est évidemment inutile de les qualifier simplement d’« erreurs », de « bêtise » ou de théoriser cela à travers le prisme du « battage médiatique ». Ce que ce système produit, ce ne sont pas des erreurs, c’est de la terreur. Et cette terreur a une histoire et des liens évidents avec la pseudoscience et les structures politiques racistes : de la phrénologie à la reconnaissance faciale, de l’esclavage aux lois Jim Crow – jusqu’aux nouveaux Jim Crow qu’évoquaient Michelle Alexander ou Ruha Benjamin. Une fois ces liens établis, le caractère semi-aléatoire, les « erreurs », les « fausses » arrestations apparaissent non pas comme des accidents, mais comme faisant partie intégrante de l’IA en tant que projet politique. »

Ces erreurs non-aléatoires se situent précisément dans l’écart entre le discours commercial et la réalité. C’est cet écart qui offre un déni plausible aux entreprises comme aux politiques. « C’est l’algorithme qui a foiré », nous diront-ils sans doute, et que, par conséquent, personne n’est réellement responsable des fausses arrestations racistes. « Mais le fait même que les erreurs d’identification soient prévisibles au niveau des populations (on sait quels groupes seront le plus souvent mal identifiés), et imprévisibles au niveau individuel (personne ne sait à l’avance qui sera identifié de manière erronée) renforce également son utilité pour le projet politique de production de terreur politique : il s’agit, là encore, de susciter le sentiment généralisé que « cela pourrait arriver à n’importe lequel d’entre nous ». Cela est aussi vrai pour l’IA que pour d’autres outils plus anciens de terreur politique et d’intimidation policière. Pourtant, personne n’a jamais suggéré que les arguments de vente pour les armes « non létales » comme les balles en caoutchouc étaient du battage médiatique. Une balle en caoutchouc peut parfois aveugler, voire tuer, et il s’agit là aussi d’une « erreur » distribuée de manière semi-aléatoire, un écart entre l’argumentaire et la réalité. Les balles en caoutchouc, comme l’IA de surveillance et le système de reconnaissance faciale, fonctionnent comme des outils de contrôle politique, précisément parce que cet écart est fonctionnel, et non accessoire, au système ». Pour reprendre les termes du cybernéticien Stafford Beer, « il est inutile de prétendre que la finalité d’un système est de faire ce qu’il échoue constamment à faire ». «  Le but d’un système est ce qu’il fait », disait-il.  Et se concentrer principalement sur ce que le système ne peut pas réellement faire (comme le fait le battage médiatique) risque de détourner l’attention de ce qu’il fait réellement.

Enfin, l’IA est un outil pour écraser les salaires, défendent les deux auteurs. Des critiques comme celles d’Emily Bender et Alex Hanna ont, à juste titre, souligné que l’affirmation de notre remplacement par les machines – et leur répétition incessante par des médias peu critiques – sont essentiellement des formes de publicité pour ces outils. Pour Blix et Glimmer, « ce discours s’adresse avant tout aux investisseurs et aux entreprises clientes pour qui remplacer les travailleurs par des outils pourrait être bénéfique pour leurs résultats. Pour les travailleurs, ces mots ne sonnent certainement pas comme de la publicité, mais comme une menace ». A ces derniers on conseille de se mettre à l’IA avant que la concurrence ne les écrase et que leur emploi ne se délocalise dans cette nouvelle machinerie. Plutôt que de se défendre, on leur conseille par avance d’accepter l’inéluctable. « Taisez-vous et réduisez vos attentes, car vous êtes remplaçables !», tel est le refrain ambiant. 

« C’est le suffixe « -able » dans « remplaçable » qui est crucial ici. Pour la menace, c’est l’évocation de la possibilité d’un remplacement qui compte. C’est ce que la loi de l’offre et de la demande implique en matière d’offre de personnes (dotées de compétences particulières) : une offre accrue d’un substitut potentiel (l’IA) entraînera une baisse du prix d’une marchandise (le salaire des travailleurs). »

Le discours de l’inéluctabilité de l’IA, de la formation comme seule réponse, porte également une teneur fortement antisyndicale, qui « trahit le véritable objectif économique de l’IA : c’est un outil pour faire baisser les salaires ». « Et pour atteindre cet objectif, la capacité réelle de l’outil à remplacer le travail effectué par des personnes à qualité égale est souvent sans importance. Après tout, la remplaçabilité ne se résume pas à une simple équivalence, mais le plus souvent à un compromis qualité-prix. Les gens aiment acheter ce qu’ils estiment être le meilleur rapport qualité-prix. Les entreprises font de même, substituant souvent des intrants moins chers (compétences, matériel, etc.) pour réduire leurs coûts, même si cela nuit à la qualité. C’est l’horizon évident de l’IA : non pas l’automatisation complète, mais le modèle de la fast fashion ou d’Ikea : proposer une qualité inférieure à des prix nettement inférieurs ». D’ailleurs, rappellent Blix et Glimmer, les arguments de vente d’Ikea ou de la fast fashion exagèrent eux aussi souvent la qualité de leurs produits. 

« Des codeurs aux assistants juridiques, des tuteurs aux thérapeutes, les investissements pour produire des versions bon marché assistées par IA sont en bonne voie, et ils vont probablement faire baisser les salaires ». Les stratégies seront certainement différentes selon les métiers. Reste que L’attaque contre les travailleurs, la qualité des emplois et la qualité des produits que nous produisons et consommons est le problème que produit l’IA, et ce problème existe indépendamment du battage médiatique. « À moins d’être un investisseur en capital-risque, vous n’êtes pas la cible de la publicité pour l’IA, vous êtes la cible de la menace. Nous n’avons que faire de termes comme la hype qui avertissent les investisseurs qu’ils pourraient faire de mauvais investissements ; nous avons besoin de termes utiles pour riposter.»

L’éclatement à venir de la bulle de l’IA n’explique par pourquoi l’information est inondée de merde, n’explique pas pourquoi les erreurs des systèmes du social vont continuer. La dénonciation de la bulle et de la hype est finalement « étroitement technique, trop axée sur l’identification des mensonges, plutôt que sur l’identification des projets politiques ». Il ne faut pas commettre l’erreur de penser que le simple fait qu’une déclaration soit mensongère suffit à la négliger. Nous devrions prendre les mensonges bien plus au sérieux, car ils sont souvent révélateurs d’autre chose, même s’ils ne sont pas vrais. 

Pour Blix et Glimmer nous devons nous concentrer sur les projets politiques. « Nous devons appeler l’IA pour ce qu’elle est : une arme entre les mains des puissants. Prenons le projet de dépression salariale au sérieux : appelons-le une guerre des classes par l’emmerdification, la lutte antisyndicale automatisée, une machine à conneries pour des boulots à la con, ou encore le techno-taylorisme…» « Désemmerdifions le monde ! »

La couverture de Why we fear AI.

08.10.2025 à 07:00

De l’internet de la répression…

Hubert Guillaud
A la tribune de l'ONU, tout le monde dénonce la montée de l'autoritarisme... alors que chacun participe à l'industrie de la censure.
Texte intégral (1721 mots)

A New York, l’Assemblée générale des Nations Unies a ouvert sa quatre-vingtième session. « Le podium de marbre, les drapeaux, les discours solennels, tout cela vous semblera familier : des présidents invoquant la démocratie, des Premiers ministres promettant de protéger les droits humains, des ministres des Affaires étrangères mettant en garde contre les dangers de l’autoritarisme. Le langage est toujours noble, le symbolisme toujours lourd ». 

Mais, pendant que les délégués s’affairent à se féliciter de défendre la liberté, un coup d’État silencieux se déroule au cœur des infrastructures même d’internet, explique Konstantinos Komaitis dans une vibrante tribune pour Tech Policy Press. Pour le chercheur au Digital Forensics Research Lab (DFRLab) de l’Atlantic Council, un think tank américain, internet est largement devenu un outil de répression. Les rapports « le coup d’Etat d’internet » d’InterSecLab et celui de Follow the Money sur l’exportation par la Chine de ses technologies de censure sont « comme des dépêches venues des premières lignes de cette prise de contrôle ». Inspection des échanges, surveillance en temps réel, limitation du trafic, blocage des VPN… Les gouvernements sont les premiers à adhérer et acheter ces solutions, notamment en Asie et en Afrique, expliquait Wired. Mais ce n’est plus seulement le cas des autocraties… La professeure de droit Elizabeth Daniel Vasquez expliquait dans une longue enquête pour le New York Times, comment la police de New York a mis les New-Yorkais sous surveillance continue au nom de la lutte contre la criminalité. La police a mis en place d’innombrables dispositifs pour capter les données des habitants, qu’elle conserve sans mandat, lui permettant de reconstituer les parcours de nombre d’habitants, de connaître leurs échanges en ligne. Joseph Cox pour 404media vient de révéler que l’ICE, l’agence fédérale de l’immigration et des douanes américaines, venait d’acquérir un outil lui permettant de collecter d’innombrables données des téléphones des Américains et notamment de suivre leurs déplacements. Sous couvert de sécurité des réseaux, les messages sont surveillés, leur distribution empêchée, l’accès aux VPN désactivé. Et ces systèmes ne sont pas uniquement les créations de régimes paranoïaques, mais « des produits commerciaux vendus à l’international, accompagnés de manuels de formation, de contrats de maintenance et de supports techniques ». La censure est désormais une industrie qui repose bien souvent sur des technologies occidentales. « Les démocraties condamnent le contrôle autoritaire tandis que leurs entreprises contribuent à en fournir les rouages ». « L’hypocrisie est stupéfiante et corrosive ». 

Les régimes autoritaires ont toujours cherché à museler la dissidence et à monopoliser les discours. Ce qui a changé, c’est l’industrialisation de ce contrôle. Il ne s’agit plus du pare-feu d’un seul pays ; il s’agit d’un modèle d’autoritarisme numérique mondial, dénonce Konstantinos Komaitis. La tragédie est que ce coup d’État progresse au moment même où les démocraties vacillent. Partout dans le monde, les institutions sont assiégées, la société civile s’affaiblit, la désinformation est omniprésente et la confiance en chute libre

Dans ce contexte, la tentation d’adopter des outils de contrôle numérique est immense. Pourquoi ne pas bloquer des plateformes au nom de la « sécurité » ? Pourquoi ne pas surveiller les militants pour préserver la « stabilité » ?… Ce qui n’était au départ qu’une pratique autoritaire à l’étranger devient accessible, voire séduisante, aux démocraties en difficulté en Occident. Les normes évoluent en silence. Ce qui semblait autrefois impensable devient la norme. Et pendant ce temps, la promesse originelle d’Internet – comme espace de dissidence, de connexion et d’imagination – s’érode.

« La censure est désormais un bien d’exportation ». Et une fois ces infrastructures bien installées, elles sont extrêmement difficiles à démanteler. « Le coup d’État n’est pas métaphorique. Il s’agit d’une capture structurelle, d’une réécriture des règles, d’une prise de pouvoir – sauf qu’il se déroule au ralenti, presque invisiblement, jusqu’au jour où l’Internet ouvert disparaît »

Les gouvernements démocratiques continueront-ils à faire de belles déclarations tandis que leurs propres entreprises aident à doter les régimes autoritaires d’outils de répression, comme c’est le cas en Chine ? L’ONU adoptera-t-elle à nouveau des résolutions qui paraissent nobles, mais qui resteront sans effet ? La société civile sera-t-elle laissée seule à lutter, sous-financée et dépassée ? Ou la communauté internationale reconnaîtra-t-elle enfin que la défense de l’Internet ouvert est aussi urgente que la défense de la souveraineté territoriale ou de la sécurité climatique. La réponse déterminera la réussite du coup d’État. 

Contrôles à l’exportation des technologies de censure, exigences de transparence contraignantes pour les fournisseurs, sanctions en cas de complicité, soutien aux outils de contournement, investissement dans les organisations de défense des droits numériques : tout cela n’est pas un luxe, rappelle Komaitis. Ces mesures constituent le strict minimum si nous voulons préserver ne serait-ce qu’un semblant de l’esprit fondateur d’Internet. À la 80e session de l’Assemblée générale des Nations Unies, les dirigeants mondiaux ont l’occasion de prouver qu’ils comprennent les enjeux, non seulement de l’architecture technique d’un réseau, mais aussi de l’architecture morale de la liberté mondiale. « S’ils échouent, s’ils détournent le regard, s’ils laissent ce coup d’État se poursuivre sans être contesté, alors l’Internet ouvert ne s’éteindra pas d’un coup. Il disparaîtra clic après clic, pare-feu après pare-feu, jusqu’au jour où nous nous réveillerons et découvrirons que l’espace autrefois annoncé comme la plus grande expérience d’ouverture de l’humanité n’est plus qu’un instrument de contrôle parmi d’autres. Et là, il sera trop tard pour riposter. »

Bon, il n’y a pas que les démocraties qui démantèlent l’internet libre et ouvert, bien sûr. Global Voices par exemple revient sur la manière dont le gouvernement russe restreint considérablement l’internet russe, notamment en créant une longue liste de sites à bloquer. Mais depuis peu, les autorités russes sont passés de la liste noire à la liste blanche, une liste de sites à ne pas bloquer, alors que les coupures du réseau sont de plus en plus fréquentes en Russie. Mais surtout, explique l’article, la Russie ne cible plus des plateformes ou des services individuels : « elle démantèle systématiquement l’infrastructure technique qui permet les communications internet gratuites, y compris les appels vocaux » ou l’accès aux VPN. Les censeurs russes identifient par exemple les protocoles VoIP (voix sur IP) quelle que soit l’application utilisée, pour les dégrader au niveau du protocole et non plus seulement seulement bloquer telle ou telle application (afin que même les nouvelles applications soient dégradées). « Toutes les messageries, qu’il s’agisse de WhatsApp, Telegram, Signal ou Viber, reposent sur les mêmes technologies sous-jacentes pour les appels vocaux : protocoles VoIP, WebRTC pour les appels via navigateur et flux de données UDP/TCP pour la transmission audio. Les censeurs russes peuvent désormais utiliser le DPI pour analyser les signatures de paquets et identifier les schémas de trafic VoIP en temps réel. Ils n’ont pas besoin de savoir si vous utilisez WhatsApp ou Telegram ; il leur suffit de reconnaître que vous passez un appel Internet et de le bloquer au niveau du protocole. C’est comme couper toutes les lignes téléphoniques au lieu de déconnecter chaque téléphone individuellement. » Ce contrôle au niveau des infrastructures est bien sûr regardé avec attention par bien d’autres autocraties, pour s’en inspirer.

Après avoir fait l’édifiante histoire de la censure de l’internet russe, la chercheuse Daria Dergacheva, qui signe l’article de Global Voices, explique que la Russie se dirige vers un réseau internet interne. Le risque à terme, c’est que l’internet russe se coupe totalement du reste de l’internet et se referme sur lui-même, sur le modèle de la Corée du Nord. 

07.10.2025 à 07:00

Politiques publiques : passer de l’IA… à la dénumérisation

Hubert Guillaud
L'intelligence artificielle et son monde sont en train de prendre la main sur les politiques publiques, au risque de nous laisser sans échappatoire, alerte Dan McQuillan.
Texte intégral (1825 mots)

L’IA prédictive comme générative semble offrir une multitude d’avantages à l’élaboration des politiques publiques : de l’analyse de données complexes à l’optimisation des ressources. Elle semble à la fois être capable d’apporter une vision globale et d’identifier les leviers permettant de la modifier. Recourir à l’IA signifie mettre en place des politiques conduites par les données, ce qui permet d’assurer une forme d’objectivité, notamment quant il s’agit de rationner le service public… 

Mais, cette production de solutions politiques semble oublier que l’IA est incapable de résoudre les problèmes structurels. Elle propose des solutions performatives qui obscurcissent et amplifient les problèmes, explique l’iconoclaste Dan MacQuillan dans un article pour la Joseph Rowntree Foundation, une association britannique de lutte contre la pauvreté, qui a initié une réflexion sur l’usage de l’IA pour le bien public. Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to artificial intelligence (Résister à l’IA, une approche anti-fasciste de l’intelligence artificielle, Bristol University Press, 2022, non traduit) dont nous avions déjà parlé

McQuillan rappelle que l’IA, par principe, consiste à produire des corrélations réductrices plutôt que des analyses causales. « La complexité de l’IA introduit une opacité fondamentale dans le lien entre les données d’entrée et les résultats, rendant impossible de déterminer précisément pourquoi elle a généré un résultat particulier, empêchant ainsi toute voie de recours. Ce phénomène est aggravé dans les applications concrètes, où les résultats apparemment fiables de l’IA peuvent devenir auto-réalisateurs. Un algorithme d’apprentissage automatique qualifiant une famille de « difficile » peut ainsi créer une boucle de rétroaction entre les membres de la famille et les services sociaux. De cette manière, l’IA imite des phénomènes sociologiques bien connus, tels que les stéréotypes et la stigmatisation, mais à grande échelle ». Ses inférences au final renforcent les stratifications sociales de la société comme pour les rendre acceptables.

Or, rappelle le chercheur, « une bonne politique doit impérativement être ancrée dans la réalité ». C’est pourtant bien ce lien que rompent les calculs de l’IA, à l’image des hallucinations. Celles-ci proviennent du fait que l’IA repose sur l’imitation du langage plutôt que sa compréhension. Le même principe s’applique à toutes les prédictions ou classifications que produit l’IA. « Que l’IA soit appliquée directement pour prédire la fraude aux aides sociales ou simplement utilisée par un décideur politique pour « dialoguer » avec une multitude de documents politiques, elle dégrade la fiabilité des résultats »

Des données probantes suggèrent déjà que l’imbrication des algorithmes dans les solutions politiques conduit à une appréciation arbitraire de l’injustice et de la cruauté. Les scandales abondent, de Robodebt en Australie à l’affaire des allocations familiales aux Pays-Bas, qui auraient tous pu être évités en écoutant la voix des personnes concernées. Mais l’IA introduit une injustice épistémique, où la capacité des individus à connaître leur propre situation est dévaluée par rapport aux abstractions algorithmiques. Si l’IA, comme la bureaucratie, est présentée comme une forme généralisée et orientée vers un objectif de processus rationnel, elle engendre en réalité de l’inconscience : l’incapacité à critiquer les instructions, le manque de réflexion sur les conséquences et l’adhésion à la croyance que l’ordre est correctement appliqué. Pire encore, l’IA dite générative offre la capacité supplémentaire de simuler une large consultation, que ce soit par « l’interprétation » hallucinatoire d’un grand nombre de soumissions publiques ou par la simulation littérale d’un public virtuel et prétendument plus diversifié en remplaçant des personnes réelles par des avatars d’IA générative. Une technique, qui, si elle a l’avantage de réduire les coûts, est dénoncée par des chercheurs comme contraire aux valeurs mêmes de l’enquête et de la recherche, rappelait Scientific American. « L’approche technocratique mise en œuvre par l’IA est à l’opposé d’un mécanisme réactif aux aléas de l’expérience vécue », explique McQuillan. « L’IA n’est jamais responsable, car elle n’est pas responsable ». Si l’on considère les attributs de l’IA dans leur ensemble, son application à l’élaboration des politiques publiques ou comme outil politique aggravera l’injustice sociale, prédit le chercheur. L’apport de l’IA à l’ordre social ne consiste pas à générer des arrangements de pouvoir alternatifs, mais à mettre en place des mécanismes de classification, de hiérarchisation et d’exclusion

Chaque signalement par l’IA d’un risque de fraude, d’un classement d’une personne dans une catégorie, mobilise une vision du monde qui privilégie des représentations abstraites à la complexité des relations vécues, et ce dans l’intérêt des institutions et non des individus. « Imprégnées des injustices criantes du statu quo, les solutions de l’IA tendent inexorablement vers la nécropolitique, c’est-à-dire vers des formes de prise de décision qui modifient la répartition des chances de vie par des désignations de disponibilité relative. Détourner massivement les individus des parcours éducatifs ou des prestations sociales dont ils ont besoin pour survivre, par exemple, constitue un filtre algorithmique pour déterminer qui est bienvenu dans la société et qui ne l’est pas »

Le problème, c’est que la pression sur les décideurs politiques à adopter l’IA est immense, non seulement parce que ses biais viennent confirmer les leurs, mais plus encore du fait des engagements commerciaux et des promesses économiques que représente le développement de ce secteur. Et McQuillan de regretter que cette orientation nous éloigne de l’enjeu éthique qui devrait être au cœur des politiques publiques. La politique s’intéresse de moins en moins aux injustices structurelles de la société. « Un monde où l’élaboration et la mise en œuvre des politiques publiques reposent sur l’IA est aussi un monde qui confère un pouvoir considérable à la petite poignée d’entreprises capables de disposer de ces ressources ». Par essence, « l’adoption de l’IA constitue un engagement en faveur de l’extractivisme et d’un transfert de contrôle à un niveau qui supplante toute politique réelle »

En fait, explique McQuillan, adopter l’IA dans l’élaboration des politiques publiques revient à soumettre les politiques à des agendas corporatifs et idéologiques plus vastes (à savoir se soumettre à ceux qui ont déjà décidé que l’avenir de la civilisation réside dans l’intelligence artificielle générale (IAG), ceux qui ont décidé que la meilleure réponse à la crise structurelle est de la masquer sous le battage médiatique de l’IA, et ceux qui ont conclu que le meilleur moyen de maintenir les revenus en période de récession mondiale est de remplacer les travailleurs réels par des émulations d’IA de mauvaise qualité). L’impact net de l’IA dans l’élaboration des politiques la rendrait plus précaire et favoriserait l’externalisation et la privatisation sous couvert d’une technologie surmédiatisée. Il s’agit d’une forme de « stratégie du choc », où le sentiment d’urgence généré par une technologie prétendument transformatrice du monde est utilisé comme une opportunité pour l’emprise des entreprises et pour transformer les systèmes sociaux dans des directions ouvertement autoritaires, sans réflexion ni débat démocratique. 

Pour Dan McQuillan, plutôt que de se demander comment l’IA va imprégner l’élaboration des politiques, il faudrait se concentrer sur des politiques publiques qui favorisent la dénumérisation. C’est-à-dire favoriser une stratégie sociotechnique de réduction de la dépendance à l’échelle computationnelle, de participation maximale des communautés concernées et de reconnaissance accrue du fait que le raisonnement computationnel ne saurait se substituer aux questions politiques exigeant un jugement réfléchi et perspicace. L’IA, en tant qu’appareil de calcul, de concepts et d’investissements, est l’apothéose de la « vue d’en haut », l’abstraction désincarnée du savoir privilégié qui empoisonne déjà nombre de formes d’élaboration des politiques. Pour McQuillan, un pivot vers la « décomputation » est une façon de réaffirmer la valeur des connaissances situées et du contexte sur le seul passage à l’échelle. Contrairement aux prédictions et simulations de l’IA, notre réalité commune est complexe et intriquée, et la théorie ne permet pas de prédire l’avenir. Cela ne signifie pas que nous ne pouvons pas progresser vers des objectifs tels que la justice sociale et une transition juste, mais la dénumérisation suggère de les aborder de manière à la fois itérative et participative. Le véritable travail de restructuration réoriente l’attention des technologies toxiques vers le développement de techniques de redistribution du pouvoir social, telles que les conseils populaires et les assemblées populaires. Bref, pour sortir de l’enfermement des politiques publiques de l’abstraction qu’impose l’IA, il faut prendre un virage contraire, suggère McQuillan. Un constat qui n’est pas si éloigné de celui que dresse le chercheur Arvind Narayanan quand il invite à limiter l’emprise du calcul sur le social, même s’il est exprimé ici d’une manière bien plus radicale. 

5 / 10

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞