21.11.2025 à 07:01
ChatFishing, hameçonnage par l’IA
Votre nouveau crush sur Tinder vous pose des questions stimulantes et vous discutez avec lui jusqu’au bout de la nuit ? Et lorsque vous le rencontrez, c’est la douche froide, il ne dit pas un mot. Pas de doute, vous avez été chatfishée !
21.11.2025 à 07:00
Mais où sont les faux négatifs de la reconnaissance faciale ?
Lire plus (181 mots)
Dans la revue Data & Policy, les juristes Karen Yeung et Wenlong Li ont observé les résultats de quatre expérimentations de reconnaissance faciale en temps réel menées à Londres, aux Pays de Galles, à Berlin et à Nice. En Grande-Bretagne par exemple, aucune information n’a été recueillie sur les faux négatifs générés par les systèmes, comme les personnes fichées mais non identifiées par le logiciel. Nulle part, l’impact négatif des systèmes n’a été observé. Pour les chercheuses, les expérimentations de ce type manquent de rigueur et ne produisent d’ailleurs aucune connaissance nouvelle. Quand on ne cherche pas les défauts, assurément, on ne les trouve pas. Via Algorithm Watch.
20.11.2025 à 07:00
Meta : de l’IA publicitaire à la fraude publicitaire
Texte intégral (1103 mots)
« Dans un avenir proche, nous souhaitons que chaque entreprise puisse nous indiquer son objectif, comme vendre quelque chose ou acquérir un nouveau client, le montant qu’elle est prête à payer pour chaque résultat, et connecter son compte bancaire ; nous nous occuperons du reste », déclarait Zuckerberg lors de l’assemblée générale annuelle des actionnaires de l’entreprise (voir notre article, « L’IA, un nouvel internet… sans condition »). Nous y sommes, explique Jason Koebler pour 404media en montrant l’usage de l’IA générative par Ticketmaster pour personnaliser ses campagnes publicitaires, où l’IA est utilisée à la fois pour le ciblage et la génération des publicités. « Moins d’argent investi dans la création signifie plus de budget publicitaire et donc une plus grande variété de publicités », rappelle Koebler. « Les entreprises peuvent ainsi inonder les réseaux sociaux de millions de variantes de publicités IA faciles à créer, investir leur budget publicitaire dans les versions les plus performantes et laisser les algorithmes de ciblage faire le reste. Dans ce cas précis, l’IA est une stratégie de mise à l’échelle. Inutile de consacrer des sommes considérables en temps, en argent et en ressources humaines à peaufiner les textes publicitaires et à concevoir des publicités pertinentes, astucieuses, drôles, charmantes ou accrocheuses. Il suffit de publier des tonnes de versions bâclées, et la plupart des gens ne verront que celles qui fonctionnent bien ».
Un rapport de Reuters, vient de révéler que « 10 % du chiffre d’affaires brut de Meta provient de publicités pour des produits frauduleux et des arnaques ». « 15 milliards de publicités frauduleuses sont diffusées chaque jour, générant 7 milliards de dollars de revenus par an ». Mais, plutôt que refuser ces publicités frauduleuses, Meta ne ferme pas les comptes qui les proposent et leur inflige des frais supplémentaires, les rendant plus rentables encore qu’elles ne sont. Un tiers des arnaques aux États-Unis transiteraient par Facebook (au Royaume-Uni, ce chiffre atteindrait 54 % des pertes liées aux arnaques aux paiements). Si Meta a mis en place des mesures pour réduire la fraude sur sa plateforme, l’entreprise estime que le montant maximal des amendes qu’elle devra finalement payer dans le monde s’élèvera à 1 milliard de dollars, alors qu’elle en encaisse 7… On comprend que Meta ne soit pas incité à la diligence, comme l’explique très clairement une note interne citée par Reuters, ironise Cory Doctorow. Mais surtout, on y apprend que l’équipe antifraude est tributaire d’un quota interne : « elle n’est autorisée à prendre que des mesures susceptibles de réduire les revenus publicitaires de 0,15 % (soit 135 millions de dollars) ». Les services de modération ou de lutte contre la fraude ressemblent désormais aux services clients qu’on évoquait récemment : une ligne budgétaire avec des objectifs et des contraintes !
Pire, explique encore Doctorow dans sa lecture de Reuters : alors que les équipes de sécurité recevaient environ 10 000 signalements de fraudes valides par semaine, celles-ci, en ignoraient ou en rejetaient à tort 96 %. Le problème, c’est que lorsque Meta classe un signalement sans suite ou refuse de corriger des signalements de fraudes valides, non seulement les utilisateurs perdent beaucoup, mais l’usurpation d’identité permet également de faire les poches des relations des victimes en leur extorquant de l’argent, voire beaucoup d’argent.
Meta qualifie ce type d’escroquerie, où les escrocs usurpent l’identité d’utilisateurs, d’« organique », la distinguant ainsi des publicités frauduleuses, où les escrocs paient pour atteindre leurs victimes potentielles. Meta estime héberger 22 milliards de messages frauduleux « organiques » par jour. Ces escroqueries organiques sont en réalité souvent autorisées par les conditions d’utilisation de Meta : lorsque la police de Singapour a porté plainte auprès de Meta concernant 146 publications frauduleuses, l’entreprise a conclu que seulement 23 % d’entre elles violaient ses conditions d’utilisation. Les autres étaient toutes autorisées. Ces fraudes tolérées incluaient des offres alléchantes promettant des réductions de 80 % sur de grandes marques de mode, des offres de faux billets de concert et de fausses offres d’emploi – le tout autorisé par les propres politiques de Meta. Des notes internes consultées par Reuters révèlent que les équipes antifraude de Meta étaient de plus en plus exaspérées de constater que ces escroqueries n’étaient pas interdites sur la plateforme. Un employé de Meta l’a même écrit a sa direction en dénonçant des escroqueries visibles : « Les politiques actuelles ne permettraient pas de signaler ce compte ! » Mais même si un fraudeur enfreint les conditions d’utilisation de Meta, l’entreprise reste inactive. Selon les propres politiques de Meta, un « Compte à forte valeur ajoutée » (un compte dépensant des sommes importantes en publicités frauduleuses) doit accumuler plus de 500 « avertissements » (c’est-à-dire des violations avérées des politiques de Meta) avant d’être suspendu. Reuters a constaté que 40 % des escrocs les plus notoires étaient toujours actifs sur la plateforme six mois après avoir été signalés comme les fraudeurs les plus prolifiques de l’entreprise.
Ce mépris flagrant pour les utilisateurs de Meta n’est pas dû à une nouvelle tendance sadique de la part de la direction. Comme le démontre en détail le livre de Sarah Wynn-Williams, Careless People (Flatiron Books, 2025 ; Des gens peu recommandables, Buchet-Chastel, 2025), l’entreprise a toujours été dirigée par des individus sans scrupules. Ce qui a changé en quelques années, assène Doctorow, c’est qu’ils ont assimilé qu’ils pouvaient gagner de l’argent en vous escroquant.
Oui, réduire la fraude a un coût ! « Tant que nous aurons un environnement législatif si complaisant qui ne leur inflige qu’un milliard de dollars d’amende alors qu’ils en ont engrangé 7 sur nos malheurs », nous n’irons pas très loin.
19.11.2025 à 07:00
Sur la piste des algorithmes… l’opacité est toujours la règle
Texte intégral (797 mots)
L’Observatoire des algorithmes publics a mis à jour son inventaire, portant de 70 à 120 son répertoire d’algorithmes utilisés dans le secteur public. Les constats établis l’année dernière, au lancement de l’initiative, demeurent les mêmes : l’opacité administrative reste persistante ; les évaluations des systèmes et les informations budgétaires lacunaires. Et si l’IA fait son entrée dans l’administration, là aussi, l’information est bien souvent inexistante.
Signalons que depuis septembre, l’Odap a également publié de nombreux entretiens avec des chercheurs sur ces enjeux. Tous ces entretiens, « sur la piste des algorithmes », méritent largement une lecture.
On recommandera notamment celui avec la sociologue Claire Vivès sur le contrôle à France Travail qui pointe trois outils algorithmiques développés à France Travail : un outil de pour déterminer les contrôles des bénéficiaires, un autre pour déterminer si les bénéficiaires recherchent activement un travail et un outil d’aide à la détermination de la sanction en cas de manquements dans la recherche d’emploi. « En 2023, plus de la moitié des contrôles ont ciblé des demandeur·ses d’emploi inscrit·es dans des métiers dits en tension. Ce ciblage pose des questions d’équité territoriale et sociale. » Mais là encore, les caractéristiques de ces outils demeurent opaques aux usagers comme aux agents, et plus encore aux citoyens puisque leurs fonctionnement ne sont pas documentés. A l’heure où le Sénat vient de proposer de nouvelles mesures de surveillance des bénéficiaires, comme d’accéder à leurs relevés téléphoniques, révèle L’Humanité, la surveillance coercitive des allocataires avance bien plus vite que la transparence de l’action administrative.
La sociologue souligne combien ces outils ont du mal à s’inscrire dans les activités des agents et surtout que ces dispositifs viennent souvent alourdir leur activité plutôt qu’en réduire la charge. « Les réformes sont pensées à distance, sans prise en compte réelle du travail fait sur le terrain. Les algorithmes ne font qu’ajouter une couche à ce problème, en accentuant ce sentiment de perte de sens, parfois même de mépris ou au moins d’ignorance de leur expertise de la part des décideur·ses. Dans ce contexte, on peut se demander si l’acceptation des algorithmes, quand elle existe, ne tient pas surtout à une forme de résignation. »
« L’une des principales difficultés de notre enquête tient en réalité à une opacité structurelle de l’administration, qui dépasse largement la question algorithmique. France Travail, comme d’autres institutions administratives, reste un espace très difficile d’accès. Les autorisations sont rares, les possibilités de terrain très encadrées, et les refus fréquents, que ce soit pour les chercheur·ses ou les journalistes d’ailleurs. Nos demandes d’observations du travail réalisé sur les plateformes de contrôle, par exemple, n’ont jamais abouti. Et sur le terrain, les agent·es eux-mêmes hésitent à parler : le devoir de réserve est souvent interprété de façon erronée et fait barrière aux prises de parole. Sur les algorithmes spécifiquement, l’information est très parcellaire. La Direction générale de France Travail ne publie quasiment rien à ce sujet, le site officiel est muet sur les outils utilisés. C’est d’ailleurs quelque chose qui pose question : pourquoi est-ce que les documents internes, qui sont ceux d’une administration publique, ne sont pas diffusés en accès libre ? En tous cas, tout cela conditionne profondément notre manière de mener l’enquête, le rythme de travail et les types de matériaux mobilisables. »
L’opacité fonctionnelle explique certainement la perspective à orienter la suite de l’enquête. « Dans les prochaines étapes de l’enquête, nous allons notamment chercher à travailler sur le volet conception de ces outils : qui les commande ? Qui les paramètre ? Avec quels objectifs ? Qui les évalue ? Ce sont des points sur lesquels on a pour l’instant peu de réponses ». On a hâte de voir ce qui va en sortir en tout cas.
18.11.2025 à 07:00
Intelligence artificielle générale : le délire complotiste de la tech
Texte intégral (3854 mots)
« Le mythe de l’intelligence artificielle générale ressemble beaucoup à une théorie du complot et c’est peut-être la plus importante de notre époque ». Obsédées par cette technologie hypothétique, les entreprises d’IA nous la vendent avec acharnement, explique le journaliste Will Douglas Heaven dans la Technology Review.
Pour élaborer une théorie du complot, il faut plusieurs ingrédients, rappelle-t-il : un schéma suffisamment flexible pour entretenir la croyance même lorsque les choses ne se déroulent pas comme prévu ; la promesse d’un avenir meilleur qui ne peut se réaliser que si les croyants découvrent des vérités cachées ; et l’espoir d’être sauvé des horreurs de ce monde. L’intelligence artificielle générale (IAG) remplit quasiment tous ces critères. Et plus on examine cette idée de près, plus elle ressemble à un complot. Ce n’en est pas totalement un, bien sûr, pas exactement, concède Heaven. « Mais en nous penchant sur les points communs entre l’IAG et les véritables théories du complot, je pense que nous pouvons mieux cerner ce concept et le révéler pour ce qu’il est : un délire techno-utopique (ou techno-dystopique, à vous de choisir) qui s’est ancré dans des croyances profondément enracinées et difficiles à déraciner ».
Une histoire de l’IAG
Dans son article, Heaven retrace l’histoire du terme d’intelligence artificielle générale, initié par Ben Goertzel et Shane Legg. Quand ils discutent de cette idée, l’idée d’une IA capable d’imiter voire dépasser les capacités humaines était alors une plaisanterie. Mais Goertzel en tira un un livre sous ce titre (Springer, 2006) qui se présentait sous les atours les plus sérieux, puis organisa en 2008 une conférence dédiée au sujet (une conférence devenue annuelle et qui continue encore). En rejoignant DeepMind en tant que cofondateur, Shane Legg y importe le terme, légitimant le concept. Proche de Peter Thiel et de Eliezer Yudkowsky, Goertzel a beaucoup discuté avec eux du concept. Mais si l’iconoclaste Ben Goertzel était enthousiaste, le sombre Yudkowsky, lui, était beaucoup plus pessimiste, voyant l’arrivée de l’AGI comme une catastrophe. Malgré tous ces efforts, le concept n’a alors rencontré que peu d’échos et semblait surtout tenir de la pure science-fiction.
C’est la publication de Superintelligence par le philosophe Nick Bostrom en 2014, qui va changer les choses. Bostrom rend acceptable les concepts spécieux de Yudkowsky. Aujourd’hui, l’IAG est évoquée partout, que ce soit pour annoncer l’arrivée de temps immémoriaux ou pour prédire l’extermination de l’humanité.
Dans son récent livre, apocalyptique, If Anyone Builds It, Everyone Dies : why Superhuman AI Would Kill Us All (Si quelqu’un le construit, tout le monde meurt, Little Brown, 2025, non traduit), coécrit avec Nate Soares, Yudkowsky accumule les déclarations extravagantes pour une interdiction totale de l’IAG. Un ouvrage « décousu et superficiel », comme l’explique le journaliste Adam Becker – auteur lui-même de More Everything Forever : AI Overlords, Space Empires, and Silicon Valley’s Crusade to Control the Fate of Humanity (Hachette, 2025, non traduit) – dans sa recension critique pour The Atlantic, qui « tente de nous faire croire que l’intelligence est un concept discret et mesurable, et que son accroissement est une question de ressources et de puissance de calcul ». L’IA superintelligente hypothétique des Cassandre « fait ce dont rêvent toutes les start-ups technologiques : croître de façon exponentielle et éliminer ses concurrents jusqu’à atteindre un monopole absolu », expliquait déjà l’écrivain de science-fiction Ted Chiang. La superintelligence évoque bien plus un capitalisme débridé porté par des individus parfaitement néoréactionnaires qu’autre chose, comme l’analysait Elisabeth Sandifer dans son livre sur l’extrême-droite technologique américaine, ou encore les livres de Thibault Prévost ou Nastasia Hadjadji et Olivier Tesquet que nous avons déjà chroniqué. « En réalité, l’apocalypse de l’IA qui inquiète tant Yudkowsky et Soares n’est autre que notre propre monde, vu à travers le prisme déformant d’un miroir de science-fiction », une « vision simpliste du salut technologique », conclut Becker.
Malgré sa vacuité, l’ouvrage de Soares et Yudkowsky est un des bestsellers du New York Times. Pour Heaven, comme toutes les théories du complot les plus puissantes, l’intelligence artificielle générale s’est infiltrée dans le débat public et a pris racine.
Le mythe d’une machine plus intelligente que l’humain, capable de tout faire, se retrouve pourtant dès l’origine de l’IA, chez Alan Turing comme chez John McCarthy. « Mais l’IAG n’est pas une technologie, c’est un rêve », affirme Becker. Comme nombre de théories du complot, il est impossible de réfuter une idée aussi protéiforme que l’IAG. Discuter d’IAG consiste en un affrontement de visions du monde, et non en un échange de raisonnements fondés sur des preuves, puisqu’il ne peut y en avoir autour d’un objet hypothétique pour lequel il n’existe pas de définition précise et partagée. Les prédictions sur l’avènement de l’IAG sont formulées avec la précision de numérologues annonçant la fin des temps. Sans véritable enjeu, les échéances sont repoussées sans conviction. « L’IAG, c’est toujours ce qui arrivera, la prochaine fois, mais son arrivée imminente est la vérité que partagent ses adeptes ».
Du conspirationnisme
Pour l’anthropologue des religions Jeremy Cohen, qui étudie les théories du complot dans les milieux technologiques, la vérité cachée « est un élément fondamental de la pensée conspirationniste ». Pour Ben Goertzel et les thuriféraires de l’IAG, les raisons du scepticisme envers l’IAG tiennent du scepticisme global. « Avant chaque grande avancée technique, du vol humain à l’énergie électrique, des hordes de prétendus experts vous expliquaient pourquoi cela n’arriverait jamais. En réalité, la plupart des gens ne croient qu’à ce qu’ils voient. » Si vous n’êtes pas convaincus par l’IAG, c’est que vous êtes un idiot naïf disent ses partisans, inversant la charge de la preuve, alors qu’ils sont bien plus que d’autres les idiots utiles de ce qu’ils dénoncent et vénèrent à la fois.
« L’idée de donner naissance à des dieux-machines est évidemment très flatteuse pour l’ego », affirme la philosophe Shannon Vallor de l’Edinburgh Futures Institute (voir notre article sur son livre, « L’IA n’est qu’un miroir »). « C’est incroyablement séduisant de penser que l’on pose soi-même les fondements de cette transcendance ». C’est un autre point commun avec les théories du complot. Une partie de l’attrait réside dans le désir de trouver un sens à un monde chaotique et parfois dénué de sens et dans l’aspiration à être une personne consciente du danger. Pour David Krueger, chercheur à l’Université de Montréal et ancien directeur de recherche à l’Institut de sécurité de l’IA du Royaume-Uni, nombre de personnes travaillant sur l’IA considèrent cette technologie comme notre successeur naturel. « Ils voient cela comme une forme de maternité » dont ils ont la charge, explique-t-il. Jeremy Cohen, lui, dresse des parallèles entre de nombreuses théories du complot moderne et le mouvement New Age, qui connut son apogée dans les années 1970 et 1980. Ses adeptes croyaient que l’humanité était sur le point d’accéder à une ère de bien-être spirituel et d’éveil de la conscience, instaurant un monde plus paisible et prospère. L’idée était qu’en s’adonnant à un ensemble de pratiques pseudo-religieuses, les humains transcenderaient leurs limites et accéderaient à une sorte d’utopie hippie. Pour Cohen, nous sommes confrontés aux mêmes attentes à l’égard de l’IAG : que ce soit par la destruction ou la sublimation de l’humanité, elle seule permettra de surmonter les problèmes auxquels l’humanité est confrontée. Pour Yudkowsky et Soares, les enjeux de l’IAG sont plus importants que le risque nucléaire ou le risque climatique.
Pour beaucoup de ceux qui optent pour cette croyance, l’IAG arrivera d’un seul coup, sous la forme d’une singularité technologique introduite par l’auteur de science-fiction Vernor Vinge dans les années 80. Un moment transcendant où l’humanité, telle que nous la connaissons, changera à jamais. Pour Shannon Vallor, ce système de croyance est remarquable par la façon dont la foi en la technologie a remplacé la foi en l’humanité. Malgré son côté ésotérique, la pensée New Age était au moins motivée par l’idée que les gens avaient le potentiel de changer le monde par eux-mêmes, pourvu qu’ils puissent y accéder. Avec la quête de l’IA générale, nous avons abandonné cette confiance en nous et adhéré à l’idée que seule la technologie peut nous sauver, explique-t-elle. C’est une pensée séduisante, voire réconfortante, pour beaucoup. « Nous vivons à une époque où les autres voies d’amélioration matérielle de la vie humaine et de nos sociétés semblent épuisées », affirme Vallor. La technologie promettait autrefois un avenir meilleur : le progrès était une échelle que nous devions gravir vers l’épanouissement humain et social. « Nous avons dépassé ce stade », déclare Vallor. « Je pense que ce qui redonne espoir à beaucoup et leur permet de retrouver cet optimisme quant à l’avenir, c’est l’IA générale. » Poussons cette idée à son terme et, une fois encore, l’IA générale devient une sorte de divinité, capable de soulager les souffrances terrestres, affirme Vallor. Kelly Joyce, sociologue à l’Université de Caroline du Nord, qui étudie comment les croyances culturelles, politiques et économiques façonnent notre rapport à la technologie, considère toutes ces prédictions extravagantes concernant l’IA générale comme quelque chose de plus banal : un exemple parmi d’autres de la tendance actuelle du secteur technologique à faire des promesses excessives. « Ce qui m’intrigue, c’est que nous nous laissions prendre au piège. »
« À chaque fois », dit-elle. « Il existe une conviction profonde que la technologie est supérieure aux êtres humains. » Joyce pense que c’est pourquoi, lorsque l’engouement s’installe, les gens sont prédisposés à y croire. « C’est une religion », dit-elle. « Nous croyons en la technologie. La technologie est divine. Il est très difficile de s’y opposer. Les gens ne veulent pas l’entendre. »
Le fantasme d’ordinateurs capables de faire presque tout ce qu’un humain peut faire est séduisant. Mais comme beaucoup de théories du complot répandues, elle a des conséquences bien réelles. Elle fausse notre perception des enjeux, déstabilise l’industrie pour l’éloigner d’applications immédiates… Et surtout, elle nous invite à la paresse. A quoi bon s’acharner à résoudre les problèmes du monde réel, quand les machines s’en chargeront demain ? Le projet pharaonique de l’IA engloutit désormais des centaines de milliards de dollars et détourne nombre d’investissements de technologies plus immédiates, capables de changer dès à présent la vie des gens.
Tina Law, spécialiste des politiques technologiques à l’Université de Californie à Davis, s’inquiète du fait que les décideurs politiques soient davantage influencés par le discours selon lequel l’IA finira par nous anéantir que par les préoccupations réelles concernant l’impact concret et immédiat de l’IA sur la vie des gens dès aujourd’hui. La question des inégalités est occultée par la notion de risque existentiel. « Le battage médiatique est une stratégie lucrative pour les entreprises technologiques », affirme Law. Ce battage médiatique repose en grande partie sur l’idée que ce qui se passe est inévitable : si nous ne le construisons pas, quelqu’un d’autre le fera. « Quand quelque chose est présenté comme inévitable », rappelle Law, « les gens doutent non seulement de leur capacité à résister, mais aussi de leur droit à le faire. » Tout le monde se retrouve piégé.
Selon Milton Mueller, du Georgia Institute of Technology, spécialiste des politiques et de la réglementation technologiques, le champ de distorsion lié à l’IAG ne se limite pas aux politiques technologiques. La course à l’IA générale est comparée à la course à la bombe atomique, explique-t-il. « Celui qui y parviendra en premier aura un pouvoir absolu sur tous les autres. C’est une idée folle et dangereuse qui faussera profondément notre approche de la politique étrangère. » Les entreprises (et les gouvernements) ont tout intérêt à promouvoir le mythe de l’IA générale, explique encore Mueller, car elles peuvent ainsi prétendre être les premières à y parvenir. Mais comme il s’agit d’une course sans consensus sur la ligne d’arrivée, le mythe peut être entretenu tant qu’il est utile. Ou tant que les investisseurs sont prêts à y croire. Il est facile d’imaginer comment cela se déroule. Ce n’est ni l’utopie ni l’enfer : c’est OpenAI et ses pairs qui s’enrichissent considérablement.
Voilà. Le grand complot de l’IAG est enfin résolu, ironise Heaven. « Et peut-être cela nous ramène-t-il à la question du complot, et à un rebondissement inattendu dans cette histoire. Jusqu’ici, nous avons ignoré un aspect courant de la pensée conspirationniste : l’existence d’un groupe de personnalités influentes tirant les ficelles en coulisses et la conviction que, par la recherche de la vérité, les croyants peuvent démasquer cette cabale ». L’IAG n’accuse publiquement aucune force occulte d’entraver son développement ou d’en dissimuler les secrets. Aucun complot n’est ourdi par les Illuminati ou le Forum économique mondial… ici, ceux-là même qui dénoncent les dangers fomentent la cabale. Ceux qui propagent la théorie du complot de l’IAG sont ses principaux instigateurs. Les géants de la Silicon Valley investissent toutes leurs ressources dans la création d’une IAG à des fins lucratives. Le mythe de l’IAG sert leurs intérêts plus que ceux de quiconque. Comme le souligne Vallor : « Si OpenAI affirme construire une machine qui rendra les entreprises encore plus puissantes qu’elles ne le sont aujourd’hui, elle n’obtiendra pas l’adhésion du public nécessaire. » « N’oubliez pas : vous créez un dieu et vous finissez par lui ressembler », ironise Heaven. « Beaucoup pensent que s’ils y parviennent en premier, ils pourront dominer le monde ».
À bien des égards, conclut Heaven, je pense que l’idée même d’IAG repose sur une vision déformée de ce que l’on attend de la technologie, et même de ce qu’est l’intelligence. En résumé, l’argument en faveur de l’IA générale repose sur le postulat qu’une technologie, l’IA, a progressé très rapidement et continuera de progresser. Mais abstraction faite des objections techniques – que se passera-t-il si les progrès cessent ? –, il ne reste plus que l’idée que l’intelligence est une ressource dont on peut augmenter la quantité grâce aux données, à la puissance de calcul ou aux réseaux neuronaux adéquats. Or, ce n’est pas le cas. L’intelligence n’est pas une quantité que l’on peut accroître indéfiniment. Des personnes intelligentes peuvent exceller dans un domaine et être moins douées dans d’autres. Tout comme les babioles dopées à l’IA peuvent exceller dans une tâche et être nulles dans bien d’autres, surtout toutes celles, innombrables, qui échappent à leurs données et continueront de leur échapper.
De l’IAG au fantasme des trombones
Ce fantasme d’automatisation totale que produirait l’IAG est aussi la symbolique du jeu du maximiseur de trombone. Le jeu met en scène, très concrètement, une idée développée par le chantre du transhumanisme d’extrême droite, Nick Bostrom, dès 2002, à savoir celle du « risque existentiel » que ferait peser sur nous cette intelligence artificielle superintelligente, capable de créer des situations pouvant détruire toute vie sur terre. Pour Bostrom, l’usine à trombone est un démonstrateur, où une IA qui aurait pour seul objectif de produire des trombones, pourrait exploiter toutes les ressources pour se faire jusqu’à leur plus total épuisement, en optimisant son objectif sans limites.
Cette démonstration, pourtant extrêmement simpliste, a marqué les esprits. Son aporie même, qui fait d’un objectif absurde le démonstrateur ultime de l’intelligence des machines, demeure particulièrement problématique. Puisqu’il n’y a ici aucune intelligence des machines, mais bien au contraire, la démonstration de leur pure aberration. Or, la crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique « repose sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel », comme le disaient les chercheurs Arvind Narayanan et Sayash Kapoor. Le jeu est bien plus un simulateur de marché qu’un jeu sur l’IA. Universal Paperclips incite les joueurs à l’empathie avec ses buts, notamment en proposant de nouvelles fonctionnalités pour les assouvir, et c’est bien notre empathie avec le jeu qui conduit l’IA à détruire l’humanité pour accomplir son but absurde de productivité sans limite. Son créateur, Frank Lantz, raconte d’ailleurs que ce n’est pas l’augmentation des chiffres, mais la manière dont ils augmentent qui incite les joueurs à cliquer et à faire cœur avec les objectifs du jeu. « Les jeux incrémentaux sont très bruts. Ils s’attachent à un processus pour faire que les joueurs deviennent obsédés par sa croissance». L’interface épurée hypnotise par la répétition. « Le joueur détruit l’univers avec le même sentiment d’éloignement que lorsqu’on commande un pull en ligne ». Cette fiction est censée nous prévenir que l’IA pourrait avoir des motivations très différentes de l’homme.
Pourtant le jeu, très scripté, ne montre en rien que l’IA pourrait raisonner, planifier ou comprendre le monde physique ou le dominer. Il masque surtout que des fonctionnalités déclenchent des possibilités et que celles-ci sont prévues par l’interface et le concepteur du jeu. La fable du maximiseur de trombone ne démontre en rien que l’IA pourrait prendre le contrôle du monde, mais que ses objectifs et fonctions, eux, sont le produit de celui qui les a programmés. Le maximiseur de trombone n’accomplit aucune démonstration qu’une intelligence artificielle générale conduirait à l’extermination du genre humain. Comme l’ont dit Kate Crawford ou Melanie Mitchell, les voix les plus fortes qui débattent des dangers potentiels de la superintelligence sont celles d’hommes blancs aisés et racistes, et, pour eux, la plus grande menace est peut-être l’émergence d’un prédateur au sommet de l’intelligence artificielle, mais qui est certainement personne d’autre qu’eux-mêmes. Le capitalisme est un bien plus grand maximiseur que l’IA. Les entreprises maximisent le cours de leurs actions sans se soucier des coûts, qu’ils soient humains, environnementaux ou autres. Ce processus d’optimisation est bien plus incontrôlable et pourrait bien rendre notre planète inhabitable bien avant que nous sachions comment créer une IA optimisant les trombones.
Hubert Guillaud
17.11.2025 à 07:01
Vers un RGPD révisé au profit de l’IA… et au détriment de nos droits
Lire plus (164 mots)
Bruxelles propose de réviser le RGPD pour faciliter l’entraînement des modèles d’IA, en considérant désormais l’utilisation de données personnelles pour l’entraînement d’une IA comme un « intérêt légitime », explique Jérôme Marin dans CaféTech. Autre changement majeur : une redéfinition plus restrictive de la notion de « donnée personnelle ». Une information ne serait plus considérée comme telle si l’entreprise qui la collecte n’est pas en mesure d’identifier la personne concernée. Son utilisation échapperait alors au RGPD.
Bruxelles propose également d’assouplir la « protection renforcée » des données sensibles. Celle-ci ne s’appliquerait plus que lorsqu’elles « révèlent directement » l’origine raciale ou ethnique, les opinions politiques, l’état de santé ou l’orientation sexuelle.
