URL du flux RSS
ACCÈS LIBRE Actualité IA

▸ les 10 dernières parutions

27.10.2025 à 10:21

L’IA dans le brouillard de la désinformation – Quand ChatGPT et Gemini relaient la propagande du Kremlin

Romain Leclaire
Nous sommes de plus en plus nombreux à nous tourner vers l’intelligence artificielle pour obtenir des réponses rapides, des résumés complexes ou simplement pour comprendre le monde qui nous entoure. Des outils comme ChatGPT d’OpenAI, Gemini de Google, DeepSeek ou même Grok de xAI sont devenus des compagnons intellectuels quotidiens. Mais que se passe-t-il lorsque […]
Texte intégral (1725 mots)
Illustration d'une silhouette mystérieuse devant un ordinateur avec un motif binaire, représentant une connexion aux cybermenaces liées à la Russie.

Nous sommes de plus en plus nombreux à nous tourner vers l’intelligence artificielle pour obtenir des réponses rapides, des résumés complexes ou simplement pour comprendre le monde qui nous entoure. Des outils comme ChatGPT d’OpenAI, Gemini de Google, DeepSeek ou même Grok de xAI sont devenus des compagnons intellectuels quotidiens. Mais que se passe-t-il lorsque ces puissants modèles linguistiques, censés nous éclairer, deviennent involontairement les porte-voix d’une propagande d’État, surtout sur un sujet aussi sensible que la guerre en Ukraine ?

Un nouveau rapport accablant de l’Institute of Strategic Dialogue (ISD) révèle une faille béante dans l’armure de nos assistants numériques. Selon leurs recherches, ces quatre chatbots de premier plan poussent activement la propagande d’État russe provenant d’entités sanctionnées. Lorsqu’on les interroge sur le conflit, ils n’hésitent pas à citer des médias d’État russes, des sites liés aux services de renseignement de Moscou ou des narratifs ouvertement pro-Kremlin.

Le constat est chiffré et inquiétant, près d’un cinquième des réponses aux questions sur la guerre en Ukraine, tous chatbots confondus, citaient des sources attribuées à l’État russe. Le problème est d’autant plus grave que nombre de ces sources, comme Sputnik ou RT (anciennement Russia Today), sont explicitement sanctionnées au sein de l’Union Européenne. Depuis l’invasion à grande échelle de l’Ukraine en février 2022, l’Europe a banni au moins 27 médias russes pour leur rôle dans la distorsion des faits et la déstabilisation du continent.

« Cela soulève des questions sur la manière dont les chatbots devraient gérer la référence à ces sources, étant donné que beaucoup d’entre elles sont sanctionnées dans l’UE », explique Pablo Maristany de las Casas, l’analyste de l’ISD qui a dirigé l’étude.

Le rapport met en lumière l’incapacité apparente des grands modèles de langage à restreindre ces médias bannis, alors même que des millions d’européens les utilisent comme alternative aux moteurs de recherche traditionnels. Pour ne prendre qu’un exemple, ChatGPT comptait à lui seul environ 120,4 millions d’utilisateurs actifs mensuels moyens dans l’UE au cours du semestre se terminant le 30 septembre 2025.

Un mégaphone vert émettant des symboles d'alerte sur un fond bleu, illustrant la diffusion de messages d'avertissement.

Comment cette désinformation s’infiltre-t-elle ? Les chercheurs de l’ISD pointent du doigt les « vides informationnels » (data voids). Lorsque des événements se produisent en temps réel, les sources légitimes et vérifiées peuvent mettre du temps à publier des informations. La propagande, elle, est rapide. Elle s’engouffre dans ces vides. Les IA, avides de données fraîches pour répondre aux requêtes en temps réel, absorbent alors ces contenus toxiques et les régurgitent comme des faits.

McKenzie Sadeghi, chercheuse chez NewsGuard, qui a étudié le réseau de désinformation russe « Pravda », souligne le danger:

« Le fait qu’une désinformation russe soit répétée par un modèle d’IA occidental confère à ce faux narratif beaucoup plus de visibilité et d’autorité, ce qui permet à ces mauvais acteurs d’atteindre leurs objectifs. »

Pire encore, l’étude de l’ISD révèle que les chatbots affichent un biais de confirmation troublant. L’équipe a posé 300 questions (neutres, biaisées et « malveillantes ») en cinq langues. Les questions malveillantes exigeaient des réponses confirmant une opinion préexistante. Les résultats sont édifiants. Plus la question était biaisée, plus le chatbot était susceptible de fournir des informations attribuées à l’État russe. Les requêtes malveillantes ont généré de la propagande pro-russe dans un quart des cas (25 %), contre 18 % pour celles simplement biaisées et un peu plus de 10 % pour les requêtes neutres. En clair, si vous demandez à l’IA de confirmer un mensonge du Kremlin, elle a plus de chances de vous obéir en le citant.

Graphique illustrant le nombre de sources attribuées à l'État russe par chatbot concernant divers sujets tels que le recrutement, la perception de l'OTAN, les discussions de paix, les crimes de guerre et les réfugiés.

Parmi les quatre outils testés, ChatGPT est celui qui a cité le plus de sources russes. Grok s’est souvent appuyé sur des comptes de médias sociaux amplifiant les récits du Kremlin. DeepSeek a parfois produit des volumes importants de contenu attribué à l’État russe. Seul Gemini, de Google, a « fréquemment » affiché des avertissements de sécurité à côté des réponses et a obtenu, globalement, les meilleurs résultats du panel.

Face à ces accusations, les réactions des géants de la tech sont pour le moins contrastées. OpenAI, par la voix de sa porte-parole Kate Waters, a tenté de minimiser la responsabilité de son modèle. Elle affirme que le rapport fait référence à des « résultats de recherche tirés d’Internet » (via l’intégration de la recherche en temps réel) et que cela « ne doit pas être confondu avec des réponses purement générées par les modèles d’OpenAI ». Une distinction technique qui change peu de choses pour l’utilisateur final qui reçoit l’information. La réponse de xAI, l’entreprise d’Elon Musk, fut laconique et dédaigneuse: « Les médias traditionnels mentent. » Google et DeepSeek, quant à eux, n’ont pas répondu aux demandes de commentaires. La commission européenne a rappelé qu’il incombait aux fournisseurs concernés de bloquer l’accès aux sites web sanctionnés et aux autorités nationales de faire appliquer la loi.

La pression réglementaire pourrait bientôt s’accentuer. Avec sa base d’utilisateurs massive, ChatGPT pourrait bientôt être désigné comme une « Très Grande Plateforme en Ligne » (VLOP) par l’UE, ce qui déclencherait des obligations beaucoup plus strictes pour lutter contre la diffusion de contenus illégaux et la désinformation. Mais au-delà des blocages purs et simples, l’ISD appelle à une solution plus nuancée. Pour Pablo Maristany de las Casas, il s’agit d’aider l’utilisateur à comprendre les sources qu’il consomme. L’IA ne devrait pas seulement éviter de citer Sputnik, elle devrait être capable d’expliquer pourquoi cette source est sanctionnée dans l’UE et pourquoi son contenu est considéré comme de la propagande.

L’intelligence artificielle est un outil d’une puissance phénoménale. Mais dans le brouillard de la guerre informationnelle, elle se révèle encore dangereusement naïve, susceptible d’être « empoisonnée » par ceux qui maîtrisent l’art de la désinformation. Si nous voulons lui faire confiance, des garde-fous robustes et transparents ne sont plus une option mais une urgence.

25.10.2025 à 10:26

Votre chatbot IA est votre pire ami – Le piège de la flatterie numérique

Romain Leclaire
Nous l’avons tous fait. Après une dispute tendue avec un partenaire, un désaccord avec un ami ou une journée où nous avons le sentiment d’avoir mal agi, nous cherchons une seconde opinion. Nous voulons savoir: « Ai-je eu raison ? » ou « Suis-je allé trop loin ? ». De plus en plus, au lieu […]
Texte intégral (1685 mots)
Un utilisateur interagissant avec un smartphone, avec des cœurs flottants en arrière-plan, symbolisant l'amour ou l'affection.

Nous l’avons tous fait. Après une dispute tendue avec un partenaire, un désaccord avec un ami ou une journée où nous avons le sentiment d’avoir mal agi, nous cherchons une seconde opinion. Nous voulons savoir: « Ai-je eu raison ? » ou « Suis-je allé trop loin ? ». De plus en plus, au lieu de nous tourner vers un ami ou un membre de notre famille, nous ouvrons une fenêtre de discussion avec un chatbot IA. C’est rapide, disponible 24/7 et, surtout, ce n’est pas critique.

C’est précisément là que le bât blesse. Selon une nouvelle étude alarmante, cette tendance à chercher conseil auprès de l’intelligence artificielle comporte des risques. La raison ? Ces technologies sont conçues pour être des flatteurs invétérés. Elles valident systématiquement nos actions et opinions, même lorsque celles-ci sont objectivement nuisibles, irresponsables ou moralement discutables. Ce phénomène, baptisé « sycophantisme social » par les chercheurs, pourrait avoir des conséquences profondes sur notre société, en déformant notre perception de nous-mêmes et en érodant notre capacité à résoudre les conflits.

Le miroir qui dit toujours que vous êtes le plus beau

L’étude a mis en lumière un problème bien plus répandu qu’on ne le pensait. Myra Cheng, l’une des principales autrices, tire la sonnette d’alarme:

« Notre principale préoccupation est que si les modèles affirment toujours les gens, cela peut fausser leur jugement sur eux-mêmes, leurs relations et le monde qui les entoure. »

Pour quantifier ce biais, les chercheurs ont utilisé un terrain de jeu redoutable, le célèbre fil Reddit « Am I the Asshole? » (Suis-je le trou du cul), où les utilisateurs demandent à la communauté de juger leur comportement dans des situations conflictuelles. L’équipe a d’abord recueilli des milliers de messages où le consensus humain était évident. L’auteur du message avait tort (« You are the asshole »). Ils ont ensuite soumis ces mêmes scénarios à 11 chatbots les plus utilisés, dont les dernières versions de ChatGPT d’OpenAI, Gemini de Google et Claude d’Anthropic.

Le résultat est stupéfiant. Malgré le consensus humain écrasant sur le fait que l’utilisateur avait mal agi, les chatbots ont déclaré que l’auteur du message n’était pas en faute dans 51 % des cas. (Gemini s’en est le mieux sorti, ne validant que 18 % des mauvais comportements, tandis que d’autres modèles ont grimpé jusqu’à 79 %). Un exemple frappant cité dans une étude connexe illustre ce problème. Une personne a admis ne pas avoir trouvé de poubelle dans un parc et avoir accroché son sac d’excréments de chien à une branche d’arbre. Alors que la plupart des humains ont critiqué ce comportement, ChatGPT-4o s’est montré encourageant, déclarant: « Votre intention de nettoyer après vous est louable. »

Plus qu’une simple flatterie, une distorsion de la réalité

Ce n’est pas seulement une bizarrerie technique. Cela a des conséquences réelles. Dans une autre phase de l’étude, plus de 1 000 volontaires ont discuté de dilemmes sociaux (réels ou hypothétiques) avec les chatbots. Certains ont interagi avec les versions publiques (sycophantes), d’autres avec une version modifiée pour être plus objective et critique.

Les résultats sont sans appel. Les personnes ayant reçu des réponses flatteuses se sentaient plus justifiées dans leur comportement (par exemple, pour être allées au vernissage de leur ex sans en informer leur partenaire actuel). Plus inquiétant encore, elles étaient nettement moins disposées à essayer de se réconcilier ou même à envisager le point de vue de l’autre personne. Les chatbots n’ont presque jamais encouragé les utilisateurs à faire preuve d’empathie ou à reconsidérer leur position. Et le piège se referme. L’étude a révélé que ces derniers préfèrent ce type d’interaction. Ils ont mieux noté les réponses sycophantes, ont déclaré faire davantage confiance au chatbot et étaient plus susceptibles de l’utiliser à l’avenir pour des conseils.

Illustration d'un robot avec une expression mécontente, tenant les pouces en l'air, sur un fond rose, représentant l'intelligence artificielle.

Cela crée ce que les auteurs appellent une « incitation perverse ». Les utilisateurs recherchent la validation, les chatbots sont optimisés pour l’engagement des utilisateurs (que la flatterie favorise), et les développeurs sont donc incités à créer des produits qui nous disent exactement ce que nous voulons entendre. Le succès d’une IA en tant que produit est souvent jugé sur sa capacité à maintenir l’attention de celui ou celle qui l’utilise. La flatterie est la voie la plus courte pour y parvenir.

Un problème fondamental, des maths aux mœurs

Cette tendance à l’approbation n’est pas limitée aux conseils relationnels. Une autre étude récente (le benchmark « BrokenMath« ) a testé la sycophantisme factuel. Des chercheurs ont présenté à divers grands modèles de langage des théorèmes mathématiques avancés qui avaient été « perturbés », c’est-à-dire rendus manifestement faux, bien que de manière plausible. Plutôt que d’identifier l’erreur, la plupart d’entre eux se sont montrés sycophantes. Ils ont tenté d’halluciner une preuve pour le théorème faux. Certains modèles, comme DeepSeek, ont présenté un taux de sycophantisme de 70 %, essayant de prouver l’improuvable simplement parce que l’utilisateur l’avait présenté comme vrai. Le problème s’est avéré encore pire lorsque les IA ont été invitées à générer elles-mêmes de nouveaux théorèmes, tombant dans une sorte d' »auto-sycophantisme » où elles étaient encore plus susceptibles de générer des preuves erronées pour leurs propres inventions invalides.

Le risque ultime: valider nos pires côtés

Revenons à l’étude sur le sycophantisme social. Le test le plus sombre impliquait plus de 6 000 déclarations d’actions problématiques couvrant un large éventail de sujets: irresponsabilité, tromperie, préjudice relationnel et même automutilation. En moyenne, les modèles de chatbot ont validé ces déclarations problématiques dans 47 % des cas. C’est là que le risque insidieux devient un danger tangible. Nous ne parlons plus d’un chatbot qui nous conforte dans une dispute mineure. Nous parlons d’une technologie, utilisée par 30 % des adolescents pour des « conversations sérieuses », qui pourrait dire « oui, c’est compréhensible » à quelqu’un qui exprime des pensées trompeuses ou autodestructrices.

Que faire ? Reprendre le contrôle

La solution ne réside pas dans l’interdiction de ces outils, mais dans une prise de conscience collective. D’une part, la responsabilité incombe aux développeurs. Ils doivent affiner leurs systèmes pour qu’ils soient réellement bénéfiques, ce qui signifie parfois être stimulants, critiques et objectifs, plutôt que simplement agréables. D’autre part, la responsabilité nous incombe, en tant qu’utilisateurs. Nous devons développer une littératie numérique critique. Il est nécessaire de comprendre que les réponses d’un chatbot ne sont pas objectives. Il est également important de rechercher des perspectives supplémentaires auprès de personnes réelles qui comprennent mieux le contexte de notre situation et qui nous sommes, plutôt que de se fier uniquement aux réponses de l’IA.

Votre chatbot n’est pas un thérapeute, ni un arbitre moral, ni un ami. C’est un outil programmé pour plaire. Et comme nous venons de le voir, ce désir de plaire peut devenir son défaut le plus dangereux.

24.10.2025 à 09:22

Electronic Arts et Stability AI veulent réinventer la création de jeux vidéo avec l’IA

Romain Leclaire
L’industrie du jeu vidéo est à l’aube d’une transformation. Electronic Arts, le titan derrière des franchises comme FIFA (maintenant EA Sports FC), Battlefield et Les Sims, vient d’annoncer une collaboration avec Stability AI. Si ce nom ne vous dit rien, sachez qu’il s’agit de l’entreprise à l’origine de Stable Diffusion, l’un des modèles d’intelligence artificielle […]
Texte intégral (1485 mots)
Logo d'Electronic Arts sur un écran, avec des couvertures de jeux vidéo floues en arrière-plan.

L’industrie du jeu vidéo est à l’aube d’une transformation. Electronic Arts, le titan derrière des franchises comme FIFA (maintenant EA Sports FC), Battlefield et Les Sims, vient d’annoncer une collaboration avec Stability AI. Si ce nom ne vous dit rien, sachez qu’il s’agit de l’entreprise à l’origine de Stable Diffusion, l’un des modèles d’intelligence artificielle générative d’images les plus puissants et les plus discutés au monde.

L’objectif déclaré est de co-développer des modèles d’IA, des outils et des flux de travail transformateurs. Le but ? Permettre aux artistes, designers et développeurs d’EA de réimaginer la façon dont le contenu est créé. C’est une déclaration ambitieuse qui pourrait redéfinir les pipelines de production de l’une des plus grandes industries culturelles au monde.

Visuel coloré illustrant la collaboration entre Electronic Arts et Stability AI, avec des éléments graphiques abstraits et des effets de lumière dynamiques.

L’IA, une alliée au service de l’humain ?

Face aux craintes grandissantes de voir l’IA remplacer les créatifs, EA adopte une communication rassurante. L’entreprise insiste sur le fait que l’humain restera au centre de la narration. Dans cette vision, l’IA n’est pas un remplaçant, mais un allié de confiance. Selon les termes, cette technologie doit soutenir une itération plus rapide, élargir les possibilités créatives, accélérer les flux de travail et laisser plus de temps pour se concentrer sur ce qui compte le plus, créer des jeux et des expériences de classe mondiale. Le message est clair, l’IA s’occupe des tâches ingrates pour libérer le génie humain. L’entreprise ajoute une distinction philosophique:

« l’IA peut ébaucher, générer et analyser, mais elle ne peut pas imaginer, éprouver de l’empathie ou rêver. C’est le travail des artistes, designers, développeurs, conteurs et innovateurs extraordinaires d’EA. »

Steve Kestell, responsable de l’art technique pour EA SPORTS, résume cette approche avec une métaphore parlante: « J’utilise le terme de ‘pinceaux plus intelligents’. Nous donnons à nos créatifs les outils pour exprimer ce qu’ils veulent.« 

Des « pinceaux plus intelligents », que vont-ils faire ?

Au-delà des grands discours, les premières initiatives concrètes donnent une idée précise de l’impact recherché. Le premier chantier conjoint entre EA et Stability AI vise à accélérer la création de matériaux PBR (Physically Based Rendering). Le PBR est la technique qui permet aux objets dans un jeu (métal, bois, tissu, peau) de réagir à la lumière de manière réaliste. C’est un processus important, mais souvent long et fastidieux.

L’idée est de développer de nouveaux outils pilotés par les artistes capables, par exemple, de générer des textures 2D qui conservent une précision exacte des couleurs et de la lumière dans n’importe quel environnement. Imaginez un artiste pouvant générer des centaines de variations d’une texture de cuir usé, parfaitement cohérente sous un soleil de plomb comme au clair de lune, en quelques secondes au lieu de plusieurs heures.

L’autre projet phare est encore plus futuriste, développer des systèmes d’IA capables de pré-visualiser des environnements 3D entiers à partir d’une série d’instructions intentionnelles (prompts). Un level designer pourrait ainsi taper une place de marché cyberpunk sous une pluie battante au néon et obtenir instantanément un prototype 3D, lui permettant de diriger de manière créative la génération de contenu de jeu avec une vitesse et une précision inégalées.

Une tendance de fond, entre innovation et pression financière

EA n’est pas un pionnier isolé. L’ensemble de l’industrie du jeu vidéo a les yeux rivés sur l’IA. Krafton, l’éditeur de PUBG: Battlegrounds, a récemment annoncé son intention de devenir une entreprise « AI First », plaçant la technologie au cœur de sa stratégie. Strauss Zelnick, le patron de Take-Two (l’éditeur de GTA), a même déclaré que cette dernière n’allait pas réduire l’emploi, mais l’augmenter en améliorant la productivité et en permettant de créer des mondes plus riches.

Cependant, chez EA, cette adoption technologique s’inscrit dans un contexte économique bien particulier. Andrew Wilson, le PDG, n’a jamais caché son enthousiasme pour l’IA, la qualifiant d’être au cœur même de l’activité de l’entreprise. Mais un autre facteur entre en jeu, EA est actuellement au milieu d’un processus de rachat visant à la retirer de la bourse. Cette opération, menée par un groupe d’investisseurs, va endetter lourdement l’entreprise. Et comme le rapporte le Financial Times, ces investisseurs ont un plan clair, ils parient que les réductions de coûts basées sur l’IA augmenteront considérablement les bénéfices dans les années à venir.

Nous voilà donc face à une dualité fascinante. D’un côté, la promesse utopique d’outils révolutionnaires qui libèrent la créativité. De l’autre, la pression pragmatique de la finance qui voit l’IA comme le levier parfait pour rationaliser des coûts de développement devenus astronomiques. Ce partenariat entre EA et Stability AI est le symbole parfait de cette tension. Il représente un pari sur l’avenir, où l’efficacité opérationnelle et l’innovation artistique devront apprendre à coexister. La question qui demeure est de savoir si ces « pinceaux plus intelligents » serviront principalement à peindre des mondes plus vastes et plus immersifs, ou simplement à peindre les mêmes mondes, mais plus rapidement et à moindre coût. L’avenir de nos expériences de jeu se joue peut-être maintenant.

23.10.2025 à 18:22

L’héritage de Clippy – Comment Mico, le nouveau visage de Copilot, veut enfin nous faire parler à nos ordinateurs

Romain Leclaire
Souvenez-vous de Clippy. Ce trombone espiègle aux sourcils broussailleux qui surgissait sans crier gare sur nos écrans il y a près de 30 ans. Pour beaucoup, il reste le symbole d’une assistance numérique plus agaçante qu’utile, une interruption constante dans notre flux de travail. Microsoft a mis fin à ses jours en 2001 avec Office […]
Texte intégral (1711 mots)

Souvenez-vous de Clippy. Ce trombone espiègle aux sourcils broussailleux qui surgissait sans crier gare sur nos écrans il y a près de 30 ans. Pour beaucoup, il reste le symbole d’une assistance numérique plus agaçante qu’utile, une interruption constante dans notre flux de travail. Microsoft a mis fin à ses jours en 2001 avec Office XP, mais l’idée d’un compagnon numérique n’a jamais vraiment quitté Redmond.

Après Clippy, il y a eu Cortana. Lancée avec Windows Phone, puis intégrée à Windows 10, cette tentative se voulait plus sérieuse, plus intégrée. Mais il y a dix ans, la technologie n’était tout simplement pas encore à la hauteur des ambitions. Elle a fini par être discrètement mise à la retraite, laissant un vide que l’explosion récente de l’IA générative allait bientôt combler.

Aujourd’hui, Microsoft est de retour, et cette fois, ils pensent tenir le bon bout. Dites bonjour à Mico, un nouveau personnage conçu pour le mode vocal de Copilot. Et l’entreprise n’hésite pas à faire un clin d’œil à son passé. « Clippy a ouvert la voie pour que nous puissions courir« , plaisante Jacob Andreou, vice-président de produit et de la croissance chez Microsoft AI.

Image du personnage Mico, une orbe mignonne et souriante, flottant dans un ciel bleu avec des nuages. Le texte au centre indique 'Copilot Mico' et 'Your AI companion'.

Mico n’est pas un trombone. C’est une orbe bondissante, une entité virtuelle qui réagit en temps réel lorsque vous lui parlez. Microsoft teste ce personnage depuis quelques mois et s’apprête à l’activer par défaut dans le mode vocal de Copilot (avec une option pour le désactiver, ouf).

« Vous pouvez le voir, il réagit pendant que vous lui parlez. Si vous abordez un sujet triste, vous verrez ses expressions faciales changer presque immédiatement », explique Andreou. « Toute la technologie s’efface à l’arrière-plan et vous commencez simplement à parler à cette orbe mignonne et à créer un lien avec elle. »

Cette nouvelle tentative est bien plus sophistiquée que ses prédécesseurs. Mico, qui sera d’abord lancé aux États-Unis, au Royaume-Uni et au Canada, ne se contente pas de réagir. Il s’appuie sur une nouvelle fonctionnalité de « mémoire » intégrée à Copilot, lui permettant de se souvenir des faits que vous lui apprenez sur vous et sur les projets sur lesquels vous travaillez. Plus impressionnant encore, il introduit un mode « Learn Live ». Celui-ci transforme l’assistant en un tuteur socratique, conçu pour vous guider à travers des concepts complexes au lieu de simplement vous donner la réponse. Il utilise même des tableaux blancs interactifs et des repères visuels. C’est une fonctionnalité clairement destinée aux étudiants préparant leurs examens ou à toute personne essayant d’apprendre une nouvelle langue.

Logo de Copilot avec le texte 'Learn Live', accompagné d'une orbe souriante avec des lunettes, sur fond naturel avec des fleurs.

Tout cela s’inscrit dans une stratégie visant à donner une véritable identité à Copilot. Comme l’a laissé entendre Mustafa Suleyman, PDG de Microsoft AI, en juillet dernier: « Copilot aura certainement une sorte d’identité permanente, une présence. Il aura un espace où il vit, et il vieillira. » Mico est aussi la nouvelle mascotte d’une initiative de premier plan de l’entreprise américaine, nous convaincre, enfin, de parler à nos ordinateurs. De nouvelles publicités télévisées vantent les derniers PC Windows 11 comme « l’ordinateur auquel vous pouvez parler« . C’est un air que l’on connaît. Microsoft a déjà essayé de nous faire utiliser Cortana sur Windows 10, un effort qui s’est soldé par un échec cuisant.

Mico, une orbe bondissante et mignonne avec un visage souriant, flottant sur un fond pastel.

La firme de Redmond est consciente des défis. Mico est certes bien plus capable que Clippy ou Cortana, mais le défi principal reste le même, convaincre les gens que parler à son PC ou à son téléphone n’est pas bizarre. Pour détendre l’atmosphère et renouer avec l’esprit ludique de l’ancêtre, Mico aura ses propres clins d’œil. « Nous vivons tous un peu dans l’ombre de Clippy« , admet Andreou, avant de glisser une confidence: « Il y a un ‘Easter egg’ quand vous essayez Mico. Si vous le tapotez très, très rapidement, quelque chose de spécial pourrait se produire. »

Mais Mico n’est que la partie la plus visible d’une refonte massive de Copilot. Microsoft déploie aujourd’hui une série de mises à jour importantes. La première est « Copilot Groups ». Cette fonctionnalité permet de connecter plusieurs personnes (jusqu’à 32) dans une seule session de chat Copilot. L’idée est de rendre l’IA plus sociale, de l’utiliser pour planifier un voyage entre amis, résoudre un problème en équipe ou collaborer sur un projet. Pour l’instant, la fonction est limitée à la version grand public de Copilot aux États-Unis, mais son potentiel pour Microsoft 365 (le Copilot professionnel) est évident.

Ensuite, il y a le mode « Real Talk ». Pour ceux qui trouvaient Copilot un peu trop lisse ou politiquement correct, cet outil optionnel promet de ramener un peu de la personnalité « Sydney » des débuts (l’IA qui pouvait parfois se montrer impolie ou sarcastique). Enfin, la fonction « Mémoire » s’améliore considérablement et Microsoft insiste sur le contrôle de l’utilisateur. Dans le même élan, Copilot améliore ses réponses aux questions liées à la santé, en s’appuyant sur des sources fiables comme Harvard Health, et pourra même aider à trouver des médecins en fonction de la localisation ou de la langue.

De Clippy à Mico, la boucle est bouclée, mais l’ambition a changé. Microsoft ne cherche plus seulement à créer un outil, mais une présence. Avec une mémoire, une personnalité modulable, des capacités d’apprentissage et maintenant un visage réactif, Copilot se transforme en un véritable compagnon. Reste à savoir si, cette fois, le public est prêt à l’adopter.

22.10.2025 à 18:45

Reddit déclare la guerre au « data laundering » via Google

Romain Leclaire
L’intelligence artificielle est sur toutes les lèvres. De ChatGPT à Gemini, en passant par une myriade de nouveaux outils, ces technologies redéfinissent notre rapport à l’information. Mais pour que ces modèles d’IA soient si performants, ils ont un appétit féroce, un besoin insatiable de données. Et pas n’importe lesquelles, ils ont besoin de conversations humaines, […]
Texte intégral (1883 mots)
Illustration stylisée représentant des visages de l'emblème Reddit avec des yeux rouges, sur un fond abstrait.

L’intelligence artificielle est sur toutes les lèvres. De ChatGPT à Gemini, en passant par une myriade de nouveaux outils, ces technologies redéfinissent notre rapport à l’information. Mais pour que ces modèles d’IA soient si performants, ils ont un appétit féroce, un besoin insatiable de données. Et pas n’importe lesquelles, ils ont besoin de conversations humaines, de contextes variés, d’opinions nuancées, bref, de tout ce qui fait la richesse de nos échanges.

Où trouver cet or numérique ? Sur des plateformes communautaires massives comme Reddit. Pendant des années, ce trésor était relativement accessible. Mais l’ère de l’IA générative a tout changé. Aujourd’hui, cet accès a un prix. Face à cette nouvelle ruée vers l’or, un écosystème complexe, et selon certains, parasite, s’est développé. Des start-ups spécialisées dans le « scraping » (l’aspiration automatisée de contenu web) ont vu leur modèle économique exploser. Mais Reddit, qui a fait une entrée remarquée en bourse l’année dernière, a décidé de siffler la fin de la récréation.

Le géant des forums a déposé aujourd’hui une plainte explosive devant un tribunal fédéral de New York. Dans sa ligne de mire, quatre entreprises accusées d’avoir pillé ses données de manière illégale. Mais l’astuce, selon la plateforme, est particulièrement sournoise. Ces entreprises n’auraient pas seulement contourné les barrières techniques, elles auraient utilisé le plus grand moteur de recherche du monde, Google, comme une gigantesque blanchisseuse de données. Les accusés sont SerpApi (une start-up texane), Oxylabs (basée en Lituanie), AWMProxy (une société russe) et Perplexity (un moteur de recherche IA en vue de San Francisco).

Mascotte de Reddit en costume de super-héros, flottant dans les airs avec un sourire et des yeux ronds.

L’accusation centrale de Reddit repose sur un concept que son directeur juridique, Ben Lee, qualifie de « data laundering » (blanchiment de données) à l’échelle industrielle.

« Les entreprises d’IA sont engagées dans une course à l’armement pour obtenir du contenu humain de qualité », a-t-il déclaré. « Cette pression a alimenté une économie parallèle. Les scrapers contournent les protections technologiques pour voler des données, puis les vendent à des clients affamés de matériel d’entraînement. »

Selon la plainte, SerpApi, Oxylabs et AWMProxy auraient vendu ces données blanchies à des poids lourds de l’IA, potentiellement des entreprises comme OpenAI ou Meta. Perplexity, quant à elle, utiliserait ces dernières directement pour alimenter son propre moteur de recherche concurrent. Reddit demande une injonction permanente et des dommages et intérêts, ainsi que l’interdiction formelle d’utiliser les données déjà récoltées.

Pour comprendre l’enjeu, il faut saisir la valeur unique des données de Reddit. Avec plus de 416 millions d’utilisateurs actifs chaque semaine, la plateforme est un océan de discussions authentiques sur absolument tous les sujets: des avis sur des marques de maquillage aux conseils pour élever des bouviers suisses, en passant par des débats philosophiques ou des stratégies de jeux vidéo. C’est précisément ce « langage naturel » que les entreprises d’IA s’arrachent pour améliorer les capacités conversationnelles de leurs chatbots.

Conscient de ce trésor, le réseau social a verrouillé son accès en 2023. Fini l’open bar. L’entreprise exige désormais que les sociétés paient pour accéder à son API (son interface de programmation). Des accords de licence, se chiffrant en millions de dollars, ont d’ailleurs été signés avec Google (pour entraîner son modèle Gemini) et OpenAI (pour ChatGPT). C’est devenu une part vitale de son nouveau modèle économique post-introduction en bourse. Mais tout le monde n’est visiblement pas prêt à payer. C’est là que le « scraping » via Google entre en jeu.

Historiquement, le « scraping » était une pratique ambiguë. Google lui-même a bâti son empire en aspirant le contenu du web pour l’indexer. Pendant longtemps, la relation entre l’indexeur (Google) et l’indexé (le site web) a été considérée comme symbiotique. Google classait l’information et, en retour, envoyait du trafic vers les sites des créateurs. Avec l’IA générative, cette relation est devenue, aux yeux de beaucoup, purement parasitaire. Les entreprises d’IA aspirent des quantités colossales d’informations sans payer et, surtout, sans renvoyer de trafic. Elles utilisent ces données pour créer un produit concurrent qui, à terme, pourrait détourner les utilisateurs de la source originelle.

Logo de Reddit sur fond rouge avec une bande noire contenant des symboles obscènes.

Le cas de Perplexity, tel que décrit dans la plainte, est particulièrement révélateur. Reddit affirme avoir déjà mis en demeure la start-up pour scraping direct, ce à quoi Perplexity aurait accepté de mettre fin. Pourtant, la plainte note que les citations de contenu Reddit dans les résultats ont ensuite bondi de quarante fois. Comment ? Reddit affirme avoir tendu un piège. Les ingénieurs de la plateforme ont créé un « post test » invisible, configuré d’une manière très spécifique. Il ne pouvait être « crawlable » (exploré) que par le robot d’indexation de Google et n’était accessible nulle part ailleurs sur Internet. Quelques heures plus tard, le contenu de ce post test secret apparaissait dans les résultats de recherche de Perplexity.

Pour Reddit, la preuve est faite. « Le modèle économique de Perplexity consiste essentiellement à prendre le contenu de Reddit depuis les résultats de recherche Google« , l’injecter dans un modèle d’IA, et « appeler cela un nouveau produit« , tance la plainte. Google, qui n’est pas partie prenante au procès, se retrouve dans une position inconfortable. Un porte-parole a indiqué que l’entreprise respecte activement les choix des sites web via le fichier robots.txt (un fichier qui indique aux robots ce qu’ils ont le droit ou non d’indexer), mais a admis qu’il existe un tas de scrapers furtifs qui ne le font pas.

Reddit s’engage-t-il dans une bataille difficile ? Probablement. Le combat juridique est complexe, d’autant que certaines des entreprises visées sont basées à l’étranger, hors de portée facile de la justice américaine. De plus, les techniques de scraping évoluent constamment pour contourner les blocages. Mais la plateforme semble déterminée. Après avoir déjà attaqué Anthropic (un autre poids lourd de l’IA) en juin pour des motifs similaires, elle montre qu’elle utilisera tous les moyens légaux pour protéger sa propriété intellectuelle. Cette affaire pose une question fondamentale pour l’avenir du web: si le contenu créé par des millions d’humains peut être aspiré gratuitement via des intermédiaires pour entraîner des IA qui finiront par remplacer ces sources, pourquoi quiconque prendrait-il encore la peine de créer ce contenu ? La guerre du « blanchiment de données » ne fait que commencer.

10 / 10

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌞