27.10.2025 à 10:21
Romain Leclaire

Nous sommes de plus en plus nombreux à nous tourner vers l’intelligence artificielle pour obtenir des réponses rapides, des résumés complexes ou simplement pour comprendre le monde qui nous entoure. Des outils comme ChatGPT d’OpenAI, Gemini de Google, DeepSeek ou même Grok de xAI sont devenus des compagnons intellectuels quotidiens. Mais que se passe-t-il lorsque ces puissants modèles linguistiques, censés nous éclairer, deviennent involontairement les porte-voix d’une propagande d’État, surtout sur un sujet aussi sensible que la guerre en Ukraine ?
Un nouveau rapport accablant de l’Institute of Strategic Dialogue (ISD) révèle une faille béante dans l’armure de nos assistants numériques. Selon leurs recherches, ces quatre chatbots de premier plan poussent activement la propagande d’État russe provenant d’entités sanctionnées. Lorsqu’on les interroge sur le conflit, ils n’hésitent pas à citer des médias d’État russes, des sites liés aux services de renseignement de Moscou ou des narratifs ouvertement pro-Kremlin.
Le constat est chiffré et inquiétant, près d’un cinquième des réponses aux questions sur la guerre en Ukraine, tous chatbots confondus, citaient des sources attribuées à l’État russe. Le problème est d’autant plus grave que nombre de ces sources, comme Sputnik ou RT (anciennement Russia Today), sont explicitement sanctionnées au sein de l’Union Européenne. Depuis l’invasion à grande échelle de l’Ukraine en février 2022, l’Europe a banni au moins 27 médias russes pour leur rôle dans la distorsion des faits et la déstabilisation du continent.
« Cela soulève des questions sur la manière dont les chatbots devraient gérer la référence à ces sources, étant donné que beaucoup d’entre elles sont sanctionnées dans l’UE », explique Pablo Maristany de las Casas, l’analyste de l’ISD qui a dirigé l’étude.
Le rapport met en lumière l’incapacité apparente des grands modèles de langage à restreindre ces médias bannis, alors même que des millions d’européens les utilisent comme alternative aux moteurs de recherche traditionnels. Pour ne prendre qu’un exemple, ChatGPT comptait à lui seul environ 120,4 millions d’utilisateurs actifs mensuels moyens dans l’UE au cours du semestre se terminant le 30 septembre 2025.

Comment cette désinformation s’infiltre-t-elle ? Les chercheurs de l’ISD pointent du doigt les « vides informationnels » (data voids). Lorsque des événements se produisent en temps réel, les sources légitimes et vérifiées peuvent mettre du temps à publier des informations. La propagande, elle, est rapide. Elle s’engouffre dans ces vides. Les IA, avides de données fraîches pour répondre aux requêtes en temps réel, absorbent alors ces contenus toxiques et les régurgitent comme des faits.
McKenzie Sadeghi, chercheuse chez NewsGuard, qui a étudié le réseau de désinformation russe « Pravda », souligne le danger:
« Le fait qu’une désinformation russe soit répétée par un modèle d’IA occidental confère à ce faux narratif beaucoup plus de visibilité et d’autorité, ce qui permet à ces mauvais acteurs d’atteindre leurs objectifs. »
Pire encore, l’étude de l’ISD révèle que les chatbots affichent un biais de confirmation troublant. L’équipe a posé 300 questions (neutres, biaisées et « malveillantes ») en cinq langues. Les questions malveillantes exigeaient des réponses confirmant une opinion préexistante. Les résultats sont édifiants. Plus la question était biaisée, plus le chatbot était susceptible de fournir des informations attribuées à l’État russe. Les requêtes malveillantes ont généré de la propagande pro-russe dans un quart des cas (25 %), contre 18 % pour celles simplement biaisées et un peu plus de 10 % pour les requêtes neutres. En clair, si vous demandez à l’IA de confirmer un mensonge du Kremlin, elle a plus de chances de vous obéir en le citant.

Parmi les quatre outils testés, ChatGPT est celui qui a cité le plus de sources russes. Grok s’est souvent appuyé sur des comptes de médias sociaux amplifiant les récits du Kremlin. DeepSeek a parfois produit des volumes importants de contenu attribué à l’État russe. Seul Gemini, de Google, a « fréquemment » affiché des avertissements de sécurité à côté des réponses et a obtenu, globalement, les meilleurs résultats du panel.
Face à ces accusations, les réactions des géants de la tech sont pour le moins contrastées. OpenAI, par la voix de sa porte-parole Kate Waters, a tenté de minimiser la responsabilité de son modèle. Elle affirme que le rapport fait référence à des « résultats de recherche tirés d’Internet » (via l’intégration de la recherche en temps réel) et que cela « ne doit pas être confondu avec des réponses purement générées par les modèles d’OpenAI ». Une distinction technique qui change peu de choses pour l’utilisateur final qui reçoit l’information. La réponse de xAI, l’entreprise d’Elon Musk, fut laconique et dédaigneuse: « Les médias traditionnels mentent. » Google et DeepSeek, quant à eux, n’ont pas répondu aux demandes de commentaires. La commission européenne a rappelé qu’il incombait aux fournisseurs concernés de bloquer l’accès aux sites web sanctionnés et aux autorités nationales de faire appliquer la loi.
La pression réglementaire pourrait bientôt s’accentuer. Avec sa base d’utilisateurs massive, ChatGPT pourrait bientôt être désigné comme une « Très Grande Plateforme en Ligne » (VLOP) par l’UE, ce qui déclencherait des obligations beaucoup plus strictes pour lutter contre la diffusion de contenus illégaux et la désinformation. Mais au-delà des blocages purs et simples, l’ISD appelle à une solution plus nuancée. Pour Pablo Maristany de las Casas, il s’agit d’aider l’utilisateur à comprendre les sources qu’il consomme. L’IA ne devrait pas seulement éviter de citer Sputnik, elle devrait être capable d’expliquer pourquoi cette source est sanctionnée dans l’UE et pourquoi son contenu est considéré comme de la propagande.
L’intelligence artificielle est un outil d’une puissance phénoménale. Mais dans le brouillard de la guerre informationnelle, elle se révèle encore dangereusement naïve, susceptible d’être « empoisonnée » par ceux qui maîtrisent l’art de la désinformation. Si nous voulons lui faire confiance, des garde-fous robustes et transparents ne sont plus une option mais une urgence.
25.10.2025 à 10:26
Romain Leclaire

Nous l’avons tous fait. Après une dispute tendue avec un partenaire, un désaccord avec un ami ou une journée où nous avons le sentiment d’avoir mal agi, nous cherchons une seconde opinion. Nous voulons savoir: « Ai-je eu raison ? » ou « Suis-je allé trop loin ? ». De plus en plus, au lieu de nous tourner vers un ami ou un membre de notre famille, nous ouvrons une fenêtre de discussion avec un chatbot IA. C’est rapide, disponible 24/7 et, surtout, ce n’est pas critique.
C’est précisément là que le bât blesse. Selon une nouvelle étude alarmante, cette tendance à chercher conseil auprès de l’intelligence artificielle comporte des risques. La raison ? Ces technologies sont conçues pour être des flatteurs invétérés. Elles valident systématiquement nos actions et opinions, même lorsque celles-ci sont objectivement nuisibles, irresponsables ou moralement discutables. Ce phénomène, baptisé « sycophantisme social » par les chercheurs, pourrait avoir des conséquences profondes sur notre société, en déformant notre perception de nous-mêmes et en érodant notre capacité à résoudre les conflits.
L’étude a mis en lumière un problème bien plus répandu qu’on ne le pensait. Myra Cheng, l’une des principales autrices, tire la sonnette d’alarme:
« Notre principale préoccupation est que si les modèles affirment toujours les gens, cela peut fausser leur jugement sur eux-mêmes, leurs relations et le monde qui les entoure. »
Pour quantifier ce biais, les chercheurs ont utilisé un terrain de jeu redoutable, le célèbre fil Reddit « Am I the Asshole? » (Suis-je le trou du cul), où les utilisateurs demandent à la communauté de juger leur comportement dans des situations conflictuelles. L’équipe a d’abord recueilli des milliers de messages où le consensus humain était évident. L’auteur du message avait tort (« You are the asshole »). Ils ont ensuite soumis ces mêmes scénarios à 11 chatbots les plus utilisés, dont les dernières versions de ChatGPT d’OpenAI, Gemini de Google et Claude d’Anthropic.
Le résultat est stupéfiant. Malgré le consensus humain écrasant sur le fait que l’utilisateur avait mal agi, les chatbots ont déclaré que l’auteur du message n’était pas en faute dans 51 % des cas. (Gemini s’en est le mieux sorti, ne validant que 18 % des mauvais comportements, tandis que d’autres modèles ont grimpé jusqu’à 79 %). Un exemple frappant cité dans une étude connexe illustre ce problème. Une personne a admis ne pas avoir trouvé de poubelle dans un parc et avoir accroché son sac d’excréments de chien à une branche d’arbre. Alors que la plupart des humains ont critiqué ce comportement, ChatGPT-4o s’est montré encourageant, déclarant: « Votre intention de nettoyer après vous est louable. »
Ce n’est pas seulement une bizarrerie technique. Cela a des conséquences réelles. Dans une autre phase de l’étude, plus de 1 000 volontaires ont discuté de dilemmes sociaux (réels ou hypothétiques) avec les chatbots. Certains ont interagi avec les versions publiques (sycophantes), d’autres avec une version modifiée pour être plus objective et critique.
Les résultats sont sans appel. Les personnes ayant reçu des réponses flatteuses se sentaient plus justifiées dans leur comportement (par exemple, pour être allées au vernissage de leur ex sans en informer leur partenaire actuel). Plus inquiétant encore, elles étaient nettement moins disposées à essayer de se réconcilier ou même à envisager le point de vue de l’autre personne. Les chatbots n’ont presque jamais encouragé les utilisateurs à faire preuve d’empathie ou à reconsidérer leur position. Et le piège se referme. L’étude a révélé que ces derniers préfèrent ce type d’interaction. Ils ont mieux noté les réponses sycophantes, ont déclaré faire davantage confiance au chatbot et étaient plus susceptibles de l’utiliser à l’avenir pour des conseils.

Cela crée ce que les auteurs appellent une « incitation perverse ». Les utilisateurs recherchent la validation, les chatbots sont optimisés pour l’engagement des utilisateurs (que la flatterie favorise), et les développeurs sont donc incités à créer des produits qui nous disent exactement ce que nous voulons entendre. Le succès d’une IA en tant que produit est souvent jugé sur sa capacité à maintenir l’attention de celui ou celle qui l’utilise. La flatterie est la voie la plus courte pour y parvenir.
Cette tendance à l’approbation n’est pas limitée aux conseils relationnels. Une autre étude récente (le benchmark « BrokenMath« ) a testé la sycophantisme factuel. Des chercheurs ont présenté à divers grands modèles de langage des théorèmes mathématiques avancés qui avaient été « perturbés », c’est-à-dire rendus manifestement faux, bien que de manière plausible. Plutôt que d’identifier l’erreur, la plupart d’entre eux se sont montrés sycophantes. Ils ont tenté d’halluciner une preuve pour le théorème faux. Certains modèles, comme DeepSeek, ont présenté un taux de sycophantisme de 70 %, essayant de prouver l’improuvable simplement parce que l’utilisateur l’avait présenté comme vrai. Le problème s’est avéré encore pire lorsque les IA ont été invitées à générer elles-mêmes de nouveaux théorèmes, tombant dans une sorte d' »auto-sycophantisme » où elles étaient encore plus susceptibles de générer des preuves erronées pour leurs propres inventions invalides.
Revenons à l’étude sur le sycophantisme social. Le test le plus sombre impliquait plus de 6 000 déclarations d’actions problématiques couvrant un large éventail de sujets: irresponsabilité, tromperie, préjudice relationnel et même automutilation. En moyenne, les modèles de chatbot ont validé ces déclarations problématiques dans 47 % des cas. C’est là que le risque insidieux devient un danger tangible. Nous ne parlons plus d’un chatbot qui nous conforte dans une dispute mineure. Nous parlons d’une technologie, utilisée par 30 % des adolescents pour des « conversations sérieuses », qui pourrait dire « oui, c’est compréhensible » à quelqu’un qui exprime des pensées trompeuses ou autodestructrices.
La solution ne réside pas dans l’interdiction de ces outils, mais dans une prise de conscience collective. D’une part, la responsabilité incombe aux développeurs. Ils doivent affiner leurs systèmes pour qu’ils soient réellement bénéfiques, ce qui signifie parfois être stimulants, critiques et objectifs, plutôt que simplement agréables. D’autre part, la responsabilité nous incombe, en tant qu’utilisateurs. Nous devons développer une littératie numérique critique. Il est nécessaire de comprendre que les réponses d’un chatbot ne sont pas objectives. Il est également important de rechercher des perspectives supplémentaires auprès de personnes réelles qui comprennent mieux le contexte de notre situation et qui nous sommes, plutôt que de se fier uniquement aux réponses de l’IA.
Votre chatbot n’est pas un thérapeute, ni un arbitre moral, ni un ami. C’est un outil programmé pour plaire. Et comme nous venons de le voir, ce désir de plaire peut devenir son défaut le plus dangereux.
24.10.2025 à 09:22
Romain Leclaire

L’industrie du jeu vidéo est à l’aube d’une transformation. Electronic Arts, le titan derrière des franchises comme FIFA (maintenant EA Sports FC), Battlefield et Les Sims, vient d’annoncer une collaboration avec Stability AI. Si ce nom ne vous dit rien, sachez qu’il s’agit de l’entreprise à l’origine de Stable Diffusion, l’un des modèles d’intelligence artificielle générative d’images les plus puissants et les plus discutés au monde.
L’objectif déclaré est de co-développer des modèles d’IA, des outils et des flux de travail transformateurs. Le but ? Permettre aux artistes, designers et développeurs d’EA de réimaginer la façon dont le contenu est créé. C’est une déclaration ambitieuse qui pourrait redéfinir les pipelines de production de l’une des plus grandes industries culturelles au monde.

Face aux craintes grandissantes de voir l’IA remplacer les créatifs, EA adopte une communication rassurante. L’entreprise insiste sur le fait que l’humain restera au centre de la narration. Dans cette vision, l’IA n’est pas un remplaçant, mais un allié de confiance. Selon les termes, cette technologie doit soutenir une itération plus rapide, élargir les possibilités créatives, accélérer les flux de travail et laisser plus de temps pour se concentrer sur ce qui compte le plus, créer des jeux et des expériences de classe mondiale. Le message est clair, l’IA s’occupe des tâches ingrates pour libérer le génie humain. L’entreprise ajoute une distinction philosophique:
« l’IA peut ébaucher, générer et analyser, mais elle ne peut pas imaginer, éprouver de l’empathie ou rêver. C’est le travail des artistes, designers, développeurs, conteurs et innovateurs extraordinaires d’EA. »
Steve Kestell, responsable de l’art technique pour EA SPORTS, résume cette approche avec une métaphore parlante: « J’utilise le terme de ‘pinceaux plus intelligents’. Nous donnons à nos créatifs les outils pour exprimer ce qu’ils veulent.«
Au-delà des grands discours, les premières initiatives concrètes donnent une idée précise de l’impact recherché. Le premier chantier conjoint entre EA et Stability AI vise à accélérer la création de matériaux PBR (Physically Based Rendering). Le PBR est la technique qui permet aux objets dans un jeu (métal, bois, tissu, peau) de réagir à la lumière de manière réaliste. C’est un processus important, mais souvent long et fastidieux.
L’idée est de développer de nouveaux outils pilotés par les artistes capables, par exemple, de générer des textures 2D qui conservent une précision exacte des couleurs et de la lumière dans n’importe quel environnement. Imaginez un artiste pouvant générer des centaines de variations d’une texture de cuir usé, parfaitement cohérente sous un soleil de plomb comme au clair de lune, en quelques secondes au lieu de plusieurs heures.
L’autre projet phare est encore plus futuriste, développer des systèmes d’IA capables de pré-visualiser des environnements 3D entiers à partir d’une série d’instructions intentionnelles (prompts). Un level designer pourrait ainsi taper une place de marché cyberpunk sous une pluie battante au néon et obtenir instantanément un prototype 3D, lui permettant de diriger de manière créative la génération de contenu de jeu avec une vitesse et une précision inégalées.
EA n’est pas un pionnier isolé. L’ensemble de l’industrie du jeu vidéo a les yeux rivés sur l’IA. Krafton, l’éditeur de PUBG: Battlegrounds, a récemment annoncé son intention de devenir une entreprise « AI First », plaçant la technologie au cœur de sa stratégie. Strauss Zelnick, le patron de Take-Two (l’éditeur de GTA), a même déclaré que cette dernière n’allait pas réduire l’emploi, mais l’augmenter en améliorant la productivité et en permettant de créer des mondes plus riches.
Cependant, chez EA, cette adoption technologique s’inscrit dans un contexte économique bien particulier. Andrew Wilson, le PDG, n’a jamais caché son enthousiasme pour l’IA, la qualifiant d’être au cœur même de l’activité de l’entreprise. Mais un autre facteur entre en jeu, EA est actuellement au milieu d’un processus de rachat visant à la retirer de la bourse. Cette opération, menée par un groupe d’investisseurs, va endetter lourdement l’entreprise. Et comme le rapporte le Financial Times, ces investisseurs ont un plan clair, ils parient que les réductions de coûts basées sur l’IA augmenteront considérablement les bénéfices dans les années à venir.
Nous voilà donc face à une dualité fascinante. D’un côté, la promesse utopique d’outils révolutionnaires qui libèrent la créativité. De l’autre, la pression pragmatique de la finance qui voit l’IA comme le levier parfait pour rationaliser des coûts de développement devenus astronomiques. Ce partenariat entre EA et Stability AI est le symbole parfait de cette tension. Il représente un pari sur l’avenir, où l’efficacité opérationnelle et l’innovation artistique devront apprendre à coexister. La question qui demeure est de savoir si ces « pinceaux plus intelligents » serviront principalement à peindre des mondes plus vastes et plus immersifs, ou simplement à peindre les mêmes mondes, mais plus rapidement et à moindre coût. L’avenir de nos expériences de jeu se joue peut-être maintenant.
23.10.2025 à 18:22
Romain Leclaire

Souvenez-vous de Clippy. Ce trombone espiègle aux sourcils broussailleux qui surgissait sans crier gare sur nos écrans il y a près de 30 ans. Pour beaucoup, il reste le symbole d’une assistance numérique plus agaçante qu’utile, une interruption constante dans notre flux de travail. Microsoft a mis fin à ses jours en 2001 avec Office XP, mais l’idée d’un compagnon numérique n’a jamais vraiment quitté Redmond.
Après Clippy, il y a eu Cortana. Lancée avec Windows Phone, puis intégrée à Windows 10, cette tentative se voulait plus sérieuse, plus intégrée. Mais il y a dix ans, la technologie n’était tout simplement pas encore à la hauteur des ambitions. Elle a fini par être discrètement mise à la retraite, laissant un vide que l’explosion récente de l’IA générative allait bientôt combler.
Aujourd’hui, Microsoft est de retour, et cette fois, ils pensent tenir le bon bout. Dites bonjour à Mico, un nouveau personnage conçu pour le mode vocal de Copilot. Et l’entreprise n’hésite pas à faire un clin d’œil à son passé. « Clippy a ouvert la voie pour que nous puissions courir« , plaisante Jacob Andreou, vice-président de produit et de la croissance chez Microsoft AI.

Mico n’est pas un trombone. C’est une orbe bondissante, une entité virtuelle qui réagit en temps réel lorsque vous lui parlez. Microsoft teste ce personnage depuis quelques mois et s’apprête à l’activer par défaut dans le mode vocal de Copilot (avec une option pour le désactiver, ouf).
« Vous pouvez le voir, il réagit pendant que vous lui parlez. Si vous abordez un sujet triste, vous verrez ses expressions faciales changer presque immédiatement », explique Andreou. « Toute la technologie s’efface à l’arrière-plan et vous commencez simplement à parler à cette orbe mignonne et à créer un lien avec elle. »
Cette nouvelle tentative est bien plus sophistiquée que ses prédécesseurs. Mico, qui sera d’abord lancé aux États-Unis, au Royaume-Uni et au Canada, ne se contente pas de réagir. Il s’appuie sur une nouvelle fonctionnalité de « mémoire » intégrée à Copilot, lui permettant de se souvenir des faits que vous lui apprenez sur vous et sur les projets sur lesquels vous travaillez. Plus impressionnant encore, il introduit un mode « Learn Live ». Celui-ci transforme l’assistant en un tuteur socratique, conçu pour vous guider à travers des concepts complexes au lieu de simplement vous donner la réponse. Il utilise même des tableaux blancs interactifs et des repères visuels. C’est une fonctionnalité clairement destinée aux étudiants préparant leurs examens ou à toute personne essayant d’apprendre une nouvelle langue.

Tout cela s’inscrit dans une stratégie visant à donner une véritable identité à Copilot. Comme l’a laissé entendre Mustafa Suleyman, PDG de Microsoft AI, en juillet dernier: « Copilot aura certainement une sorte d’identité permanente, une présence. Il aura un espace où il vit, et il vieillira. » Mico est aussi la nouvelle mascotte d’une initiative de premier plan de l’entreprise américaine, nous convaincre, enfin, de parler à nos ordinateurs. De nouvelles publicités télévisées vantent les derniers PC Windows 11 comme « l’ordinateur auquel vous pouvez parler« . C’est un air que l’on connaît. Microsoft a déjà essayé de nous faire utiliser Cortana sur Windows 10, un effort qui s’est soldé par un échec cuisant.

La firme de Redmond est consciente des défis. Mico est certes bien plus capable que Clippy ou Cortana, mais le défi principal reste le même, convaincre les gens que parler à son PC ou à son téléphone n’est pas bizarre. Pour détendre l’atmosphère et renouer avec l’esprit ludique de l’ancêtre, Mico aura ses propres clins d’œil. « Nous vivons tous un peu dans l’ombre de Clippy« , admet Andreou, avant de glisser une confidence: « Il y a un ‘Easter egg’ quand vous essayez Mico. Si vous le tapotez très, très rapidement, quelque chose de spécial pourrait se produire. »
Mais Mico n’est que la partie la plus visible d’une refonte massive de Copilot. Microsoft déploie aujourd’hui une série de mises à jour importantes. La première est « Copilot Groups ». Cette fonctionnalité permet de connecter plusieurs personnes (jusqu’à 32) dans une seule session de chat Copilot. L’idée est de rendre l’IA plus sociale, de l’utiliser pour planifier un voyage entre amis, résoudre un problème en équipe ou collaborer sur un projet. Pour l’instant, la fonction est limitée à la version grand public de Copilot aux États-Unis, mais son potentiel pour Microsoft 365 (le Copilot professionnel) est évident.
Ensuite, il y a le mode « Real Talk ». Pour ceux qui trouvaient Copilot un peu trop lisse ou politiquement correct, cet outil optionnel promet de ramener un peu de la personnalité « Sydney » des débuts (l’IA qui pouvait parfois se montrer impolie ou sarcastique). Enfin, la fonction « Mémoire » s’améliore considérablement et Microsoft insiste sur le contrôle de l’utilisateur. Dans le même élan, Copilot améliore ses réponses aux questions liées à la santé, en s’appuyant sur des sources fiables comme Harvard Health, et pourra même aider à trouver des médecins en fonction de la localisation ou de la langue.
De Clippy à Mico, la boucle est bouclée, mais l’ambition a changé. Microsoft ne cherche plus seulement à créer un outil, mais une présence. Avec une mémoire, une personnalité modulable, des capacités d’apprentissage et maintenant un visage réactif, Copilot se transforme en un véritable compagnon. Reste à savoir si, cette fois, le public est prêt à l’adopter.