LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE Une Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

20.11.2025 à 11:22

L’IA générative est-elle soutenable ? Le vrai coût écologique d’un prompt

Denis Trystram, Professeur des universités en informatique, Université Grenoble Alpes (UGA)

Danilo Carastan Dos Santos, Professeur assistant, Université Grenoble Alpes (UGA)

Djoser Simeu, Ingénieure de recherche en Intelligence Artificielle Frugale, Inria

Laurent Lefèvre, Chercheur en informatique, Inria

Les chiffres « verts » de Google sur son IA Gemini sont séduisants : seulement 0,003 g équivalent CO₂ par prompt. Mais le problème tient à sa méthodologie opaque.
Texte intégral (2747 mots)

Circulez, il n’y a rien à voir ? Les estimations du bilan environnemental de l’intelligence artificielle générative, comme celles réalisées à l’été 2025 par Google sur son IA Gemini, semblent rassurantes : seulement 0,003 g de CO2 et cinq gouttes d’eau par « prompt ». Des résultats qui dépendent en réalité beaucoup des choix méthodologiques réalisés, alors que de telles études sont le plus souvent menées en interne et manquent de transparence. Le problème est que ces chiffres font de plus en plus souvent figure d’argument marketing pour inciter à l’utilisation de l’IA générative, tout en ignorant le risque bien réel d’effet rebond lié à l’explosion des usages.


Depuis la sortie de ChatGPT fin 2022, les IA génératives ont le vent en poupe. En juillet 2025, OpenAI annonçait que ChatGPT recevait 18 milliards de « prompts » (instructions écrites par les utilisateurs) par semaine, pour 700 millions d’utilisateurs – soit 10 % de la population mondiale.

Aujourd’hui, la ruée vers ces outils est mondiale : tous les acteurs de la Big Tech développent désormais leurs propres modèles d’IA générative, principalement aux États-Unis et en Chine. En Europe, le Français Mistral, qui produit l’assistant Le Chat, a récemment battu les records avec une capitalisation proche de 12 milliards d’euros. Chacun de ces modèles s’inscrit dans un environnement géopolitique donné, avec des choix technologiques parfois différents. Mais tous ont une empreinte écologique considérable qui continue d’augmenter de façon exponentielle, portée par la démultiplication des usages. Certains experts, dont ceux du think tank spécialisé The Shift Project, sonnent l’alerte : cette croissance n’est pas soutenable.


À lire aussi : L’IA peut-elle vraiment être frugale ?


Or, tous les acteurs du domaine – y compris les consommateurs – sont aujourd’hui bien conscients que du coût environnemental qui accompagne les usages liés au numérique, mais pas forcément des chiffres que cela représente.

Poussés par de multiples raisons (obligations réglementaires, marketing, parfois par conscience environnementale), plusieurs des grands acteurs de la tech ont récemment réalisé l’analyse de cycle de vie (ACV, méthodologie permettant d’évaluer l’impact environnemental global d’un produit ou service) de leurs modèles.

Fin août 2025, Google a publié la sienne pour quantifier les impacts de son modèle Gemini. Que valent ces estimations, et peut-on s’y fier ?

Une empreinte carbone étonnement basse

Un modèle d’IA générative, pour fonctionner, doit d’abord être « entraîné » à partir d’une grande quantité d’exemples écrits. Pour mesurer l’électricité consommée par un « prompt », Google s’est donc concentré sur la phase d’utilisation – et non pas d’entraînement – de son IA Gemini. Selon ses propres calculs, Google annonce donc qu’un prompt ne consommerait que 0,24 wattheure (Wh) en moyenne – c’est très faible : environ une minute de consommation d’une ampoule électrique standard de 15 watts.

Comment les auteurs sont-ils arrivés à ce chiffre, significativement plus faible que dans les autres études déjà réalisées à ce sujet, comme celle menée par Mistral IA en juillet 2025 ?

La première raison tient à ce que Google mesure réellement. On apprend par exemple dans le rapport que l’électricité consommée par un prompt est utilisée pour 58 % par des processeurs spécialisés pour l’IA (l’unité de traitement graphique, ou GPU, et le circuit intégré spécifique Tensor Processing Unit, ou TPU), 25 % par des processeurs classiques et à hauteur d’environ 10 % par les processeurs en veille, et les 7 % restants pour le refroidissement des serveurs et le stockage de données.

Autrement dit, Google ne tient ici compte que de l’électricité consommée par ses propres data centers, et pas de celle consommée par les terminaux et les routeurs des utilisateurs.

Par ailleurs, aucune information n’est donnée sur le nombre d’utilisateurs ou le nombre de requêtes prises en compte dans l’étude, ce qui questionne sa crédibilité. Dans ces conditions, impossible de savoir comment le comportement des utilisateurs peut affecter l’impact environnemental du modèle.


À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir


Google a racheté en 2024 l’équivalent de la production d’électricité annuelle de l’Irlande

La seconde raison tient à la façon de convertir l’énergie électrique consommée en équivalent CO2. Elle dépend du mix électrique de l’endroit où l’électricité est consommée, tant du côté des data centers que des terminaux des utilisateurs. Ici, on l’a vu, Google ne s’intéresse qu’à ses propres data centers.

Depuis longtemps, Google a misé sur l’optimisation énergétique, en se tournant vers des sources décarbonées ou renouvelables pour ses centres de données répartis partout dans le monde. Selon son dernier rapport environnemental, l’effort semble porter ses fruits, avec une diminution de 12 % des émissions en un an, alors que la demande a augmenté de 27 % sur la même période. Les besoins sont colossaux : en 2024, Google a consommé, pour ses infrastructures de calcul, 32 térawattsheures (TWh), soit l’équivalent de la production d’électricité annuelle de l’Irlande.


À lire aussi : Un data center près de chez soi, bonne ou mauvaise nouvelle ?


De fait, l’entreprise a signé 60 contrats exclusifs de fourniture en électricité à long terme en 2024, pour un total de 170 depuis 2010. Compte tenu de l’ampleur des opérations de Google, le fait d’avoir des contrats d’électricité exclusifs à long terme compromet la décarbonation dans d’autres secteurs. Par exemple, l’électricité à faibles émissions qui alimente les prompts pourrait être utilisée pour le chauffage, secteur qui dépend encore fortement des combustibles fossiles.

Dans certains cas, ces contrats impliquent la construction de nouvelles infrastructures de production d’énergie. Or, même pour la production d’énergie renouvelable décarbonée, leur bilan environnemental n’est pas entièrement neutre : par exemple, l’impact associé à la fabrication de panneaux photovoltaïques est compris entre 14 gCO2eq et 73 gCO2eq/kWh, ce que Google ne prend pas en compte dans ses calculs.

Enfin, de nombreux services de Google font appel à de la « colocation » de serveurs dans des data centers qui ne sont pas nécessairement décarbonés, ce qui n’est pas non plus pris en compte dans l’étude.

Autrement dit, les choix méthodologiques réalisés pour l’étude ont contribué à minimiser l’ampleur des chiffres.

Cinq gouttes d’eau par prompt, mais 12 000 piscines olympiques au total

La consommation d’eau douce est de plus en plus fréquemment prise en compte dans les rapports environnementaux liés au numérique. Et pour cause : il s’agit d’une ressource précieuse, constitutive d’une limite planétaire récemment franchie.

L’étude de Google estime que sa consommation d’eau pour Gemini est de 0,26 ml – soit cinq gouttes d’eau – par prompt. Un chiffre qui semble dérisoire, ramené à l’échelle d’un prompt, mais les petits ruisseaux font les grandes rivières : il faut le mettre en perspective avec l’explosion des usages de l’IA.

Globalement, Google a consommé environ 8 100 millions de gallons (environ 30 millions de mètres cubes, l’équivalent de quelque 12 000 piscines olympiques) en 2024, avec une augmentation de 28 % par rapport à 2023.

Mais là aussi, le diable est dans les détails : le rapport de Google ne comptabilise que l'eau consommée pour refroidir les serveurs (selon un principe très similaire à la façon dont nous nous rafraîchissons lorsque la sueur s’évapore de notre corps). Le rapport exclut de fait la consommation d’eau liée à la production d’électricité et à la fabrication des serveurs et autres composants informatiques, qui sont pourtant prises en compte pour le calcul de son empreinte carbone, comme on l’a vu plus haut. En conséquence, les indicateurs d’impact environnemental (carbone, eau…) n’ont pas tous le même périmètre, ce qui complique leur interprétation.


À lire aussi : Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique


Des études encore trop opaques

Comme la plupart des études sur le sujet, celle de Google a été menée en interne. Si on comprend l’enjeu de secret industriel, un tel manque de transparence et d’expertise indépendante pose la question de sa légitimité et surtout de sa crédibilité. On peut néanmoins chercher des points de comparaisons avec d’autres IA, par exemple à travers les éléments présentés par Mistral IA en juillet 2025 sur les impacts environnementaux associés au cycle de vie de son modèle Mistral Large 2, une première.

Cette étude a été menée en collaboration avec un acteur français reconnu de l’analyse du cycle de vie (ACV), Carbone4, avec le soutien de l’Agence de l'environnement et de la maîtrise de l’énergie (Ademe), ce qui est un élément de fiabilité. Les résultats sont les suivants.

Pendant les dix-huit mois de durée de vie totale du modèle, environ 20 000 tonnes équivalent CO2 ont été émises, 281 000 m3 d’eau consommée et 660 kg équivalent antimoine (indicateur qui prend en compte l’épuisement des matières premières minérales métalliques).

Résultats présentés par Mistral à l’été 2025. Mistral AI

Mistral attire l’attention sur le fait que l’utilisation du modèle (inférence) a des effets qu’ils jugent « marginaux », si on considère un prompt moyen utilisant 400 « tokens » (unités de traitement corrélées à la taille du texte en sortie) : ce prompt correspond à l’émission de 1,14 g équivalent CO2, de 50 ml d’eau et 0,5 mg équivalent antimoine. Des chiffres plus élevés que ceux avancés par Google, obtenus, comme on l’a vu, grâce à une méthodologie avantageuse. De plus, Google s’est basé dans son étude sur un prompt « médian » sans donner davantage de détails statistiques, qui seraient pourtant bienvenus.

En réalité, l’une des principales motivations, que cela soit celles de Google ou de Mistral, derrière ce type d’étude reste d’ordre marketing : il s’agit de rassurer sur l’impact environnemental (ce qu’on pourrait qualifier de « greenwashing ») de l’IA pour pousser à la consommation. Ne parler que de l’impact venant des prompts des utilisateurs fait également perdre de vue la vision globale des coûts (par exemple, ceux liés à l’entraînement des modèles).


À lire aussi : Comment rendre l’électronique plus soutenable ?


Reconnaissons que le principe d’effectuer des études d’impacts est positif. Mais l’opacité de ces études, même lorsqu’elles ont le mérite d’exister, doit être interrogée. Car, à ce jour, Mistral pas plus que Google n’ont pas dévoilé tous les détails des méthodologies utilisées, les études ayant été menées en interne. Or, il faudrait pouvoir disposer d’un référentiel commun qui permettrait de clarifier ce qui doit être pris en compte dans l’analyse complète du cycle de vie (ACV) d’un modèle d’IA. Ceci permettrait de réellement comparer les résultats d’un modèle à l’autre et de limiter les effets marketing.

Une des limites tient probablement à la complexité des IA génératives. Quelle part de l’empreinte environnementale peut-on rattacher à l’utilisation du smartphone ou de l’ordinateur pour le prompt ? Les modèles permettant le fine-tuning pour s’adapter à l’utilisateur consomment-ils plus ?

La plupart des études sur l’empreinte environnementale des IA génératives les considèrent comme des systèmes fermés, ce qui empêche d’aborder la question pourtant cruciale des effets rebonds induits par ces nouvelles technologies. Cela empêche de voir l’augmentation vertigineuse de nos usages de l’IA, en résumant le problème au coût environnemental d’un seul prompt.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

18.11.2025 à 16:13

Pour prédire si un volcan sera effusif ou explosif, il faut s’intéresser à ses bulles

Olivier Roche, Chercheur en volcanologie, Institut de recherche pour le développement (IRD); Université Clermont Auvergne (UCA)

Jean-Michel Andanson, Chargé de recherche, Centre national de la recherche scientifique (CNRS); Université Clermont Auvergne (UCA)

Une étude publiée très récemment dans la revue « Science » permet de mieux comprendre le moteur des éruptions volcaniques : la formation des bulles dans le magma.
Texte intégral (1769 mots)
Un même volcan peut produire des éruptions effusives ou explosives. Marc Szeglat/Unsplash, CC BY

Une étude publiée très récemment dans la revue « Science » permet de mieux comprendre le moteur des éruptions volcaniques : la formation des bulles dans le magma.


Les observations faites depuis des décennies dans diverses régions du monde montrent que les éruptions volcaniques sont caractérisées par deux types de comportement en surface. D’un côté du spectre, le magma qui remonte depuis les profondeurs de la Terre est émis calmement sous forme de coulées ou de dômes de lave, caractérisant ainsi le style « effusif ». C’est le cas des volcans d’Hawaï ou de La Réunion dont les éruptions quasi annuelles font souvent l’actualité dans les médias.

À l’opposé, un mélange turbulent de gaz et de cendres est éjecté violemment dans l’atmosphère, définissant ainsi le style « explosif ». Le mélange forme un panache qui s’élève dans un premier temps à des altitudes pouvant atteindre 40-50 kilomètres et qui finit souvent par s’effondrer sous l’effet de la gravité pour former des nuées ardentes dévastatrices qui se propagent à haute vitesse le long du sol. Un exemple célèbre est l’éruption du Vésuve en l’an 79 de notre ère qui détruisit les villes de Pompéi et d’Herculanum.

Les données collectées par les scientifiques montrent que le comportement d’un volcan comme le Vésuve peut changer au cours du temps, alternant les périodes effusives et explosives, à cause de variations de la nature des magmas et des conditions de stockage en profondeur. Dans ce contexte, comprendre les mécanismes fondamentaux des éruptions volcaniques afin de mieux prédire leurs conséquences est un enjeu sociétal et environnemental majeur compte-tenu qu’environ 600 millions de personnes dans le monde vivent dans des zones potentiellement touchées par les aléas volcaniques.

Comprendre l’origine des bulles dans le magma

Le moteur des éruptions volcaniques est la formation des bulles de gaz dans le magma. En particulier, la temporalité de la formation puis de la croissance des bulles, le volume qu’elles occupent et leur capacité à ne pas se séparer du liquide magmatique contrôlent la dynamique de la remontée du mélange dans le conduit volcanique vers la surface et, au final, le style éruptif décrit ci-dessus (Figure 1A). C’est dans ce cadre que nous avons mené une étude pour mieux comprendre l’origine de la formation des bulles, un phénomène appelé « nucléation ». Les résultats de nos travaux ont été publiés le 6 novembre dans la revue Science.

A) Le cisaillement, indiqué par les champs de vitesse, est omniprésent dans un système volcanique et contribue à déclencher la nucléation des bulles dans le conduit. B) Les expériences montrent que la nucléation (ellipses rouges) est déclenchée lorsque la force associée au cisaillement imposé (flèche blanche) atteint une valeur critique qui décroît avec la quantité de gaz dissous dans le liquide. C) Les simulations moléculaires montrent que le cisaillement permet de faire croître un embryon de bulle (en bleu, volatil) entourée d’un mélange de phases gazeuse et liquide (la zone en blanc est composée de liquide). Fourni par l'auteur

Jusqu’à présent, les volcanologues ont considéré que la nucléation des bulles était déclenchée principalement par la décompression du magma saturé en gaz dissous (essentiellement de la vapeur d’eau) lors de l’ascension dans le conduit. En effet, chacun a déjà constaté l’effet produit par l’ouverture trop rapide d’une bouteille de boisson gazeuse : lorsque la pression chute, le liquide qui contient du gaz dissous (CO2 dans ce cas) devient sursaturé, et des bulles de gaz se forment alors rapidement, croissent, et entraînent le liquide vers le goulot de la bouteille. Au cours de la nucléation, la différence de pression entre un embryon de bulle et le liquide est connue comme une source d’énergie mécanique qui contribue à faire croître l’amas gazeux alors que la tension superficielle du liquide s’y oppose, et au-delà d’une taille critique, l’embryon devient une bulle qui croît spontanément.

Or, les différences de vitesse au sein d’un magma en mouvement génèrent des forces dites de cisaillement qui pourraient être une autre source d’énergie mécanique apte à déclencher la nucléation. C’est le cas en particulier dans un conduit volcanique en raison d’une différence de vitesse entre les bords, où le frottement est important, et le centre (Figure 1A).

L’importance des forces de cisaillement

Nous avons testé cette hypothèse au moyen d’expériences dites analogiques, réalisées dans des conditions de température et avec des matériaux différents de ceux dans la nature. Les expériences sont faites dans un rhéomètre, un équipement utilisé pour mesurer la capacité des fluides à se déformer. Ce dispositif permet de cisailler une couche d’oxyde de polyéthylène liquide à 80 °C et sursaturé en CO2, laquelle simule le magma dans la nature. Les expériences montrent que la nucléation de bulles de gaz est déclenchée lorsque la force de cisaillement appliquée atteint une valeur seuil qui décroît avec la teneur en CO2 (Figure 1B). De plus, le cisaillement cause le rapprochement puis l’agglomération en de plus grosses bulles et ainsi leur croissance. Nos données expérimentales sont en accord avec un modèle qui indique que la taille minimale pour qu’un embryon de bulle puisse croître est de près d’un millionième de millimètre. Ces résultats sont complétés par des simulations moléculaires qui confirment que la nucléation se produit si le cisaillement est suffisamment fort (Figure 1C).

Nous avons finalement extrapolé nos résultats aux systèmes volcaniques en tenant compte du rapport des pressions mises en jeu et des propriétés des magmas. L’analyse montre que la nucléation par cisaillement peut se produire dans un conduit dans presque tous les cas, et nous en tirons deux conclusions principales. La première est qu’un magma pauvre en gaz dissous, et donc a priori non explosif, pourrait néanmoins conduire à une éruption violente en raison d’un important cisaillement causant une nucléation massive. La seconde est qu’une nucléation efficace dans un magma très visqueux et très riche en gaz dissous, couplée à la décompression lors de la remontée et à une agglomération et à une croissance rapide des bulles, peut conduire à la formation de chenaux de dégazage connecté à la surface et engendrer, paradoxalement, une éruption non violente. Ce processus peut être renforcé lorsque la nucléation se produit à proximité de bulles préexistantes, comme le montrent nos expériences. Ce mécanisme explique l’observation contre-intuitive faite depuis longtemps par les volcanologues selon laquelle les magmas très visqueux et contenant de fortes teneurs en gaz dissous peuvent produire des éruptions effusives.

Nos travaux suggèrent que la nucléation induite par cisaillement doit désormais être intégrée aux modèles mathématiques de conduits volcaniques développés par les volcanologues et qui permettent de prédire les dynamismes éruptifs. En couplant cette approche à d’autres modèles qui simulent des coulées de la lave, des panaches ou des nuées ardentes, il est ainsi possible de définir les zones potentiellement atteintes par les produits des éruptions. Cette tâche est essentielle pour la gestion des risques naturels et pour la protection des populations qui vivent à proximité des volcans actifs.

The Conversation

Olivier Roche a reçu des financements du programme I-SITE CAP 20-25 piloté par l'UCA.

Jean-Michel Andanson a reçu des financements ANR, CNRS, Université Clermont Auvergne, commission européenne, Fond national Suisse.

PDF

17.11.2025 à 16:02

Elon Musk a raison de dire que Wikipédia est biaisé, mais Grokipedia et l’IA ne feront pas mieux

Taha Yasseri, Workday Professor of Technology and Society, Trinity College Dublin

Elon Musk veut concurrencer Wikipédia avec Grokipedia, une encyclopédie générée par IA censée corriger les biais de la célèbre plateforme collaborative. Mais l’IA risque surtout de reproduire, voire d’accentuer, les travers que dénonce le magnat de la tech.
Texte intégral (2456 mots)
Musk présente son projet Grokipedia comme une réponse aux « biais politiques et idéologiques » de Wikipédia. Miss Cabul/Shutterstock

Grokipedia, le nouveau projet d’Elon Musk, mis en ligne le 27 octobre 2025, promet plus de neutralité que Wikipédia. Pourtant, les modèles d’IA sur lesquels il repose restent marqués par les biais de leurs données.


La société d’intelligence artificielle d’Elon Musk, xAI, a lancé, le 27 octobre 2025, la version bêta d’un nouveau projet destiné à concurrencer Wikipédia, Grokipedia. Musk présente ce dernier comme une alternative à ce qu’il considère être « le biais politique et idéologique » de Wikipédia. L’entrepreneur promet que sa plateforme fournira des informations plus précises et mieux contextualisées grâce à Grok, le chatbot de xAI, qui générera et vérifiera le contenu.

A-t-il raison ? La problématique du biais de Wikipédia fait débat depuis sa création en 2001. Les contenus de Wikipédia sont rédigés et mis à jour par des bénévoles qui ne peuvent citer que des sources déjà publiées, puisque la plateforme interdit toute recherche originale. Cette règle, censée garantir la vérifiabilité des faits, implique que la couverture de Wikipédia reflète inévitablement les biais des médias, du monde académique et des autres institutions dont elle dépend.

Ces biais ne sont pas uniquement politiques. Ainsi, de nombreuses recherches ont montré un fort déséquilibre entre les genres parmi les contributeurs, dont environ 80 % à 90 % s’identifient comme des hommes dans la version anglophone. Comme la plupart des sources secondaires sont elles aussi majoritairement produites par des hommes, Wikipédia tend à refléter une vision plus étroite du monde : un dépôt du savoir masculin plutôt qu’un véritable panorama équilibré des connaissances humaines.

Le problème du bénévolat

Sur les plateformes collaboratives, les biais tiennent souvent moins aux règles qu’à la composition de la communauté. La participation volontaire introduit ce que les sciences sociales appellent un « biais d’autosélection » : les personnes qui choisissent de contribuer partagent souvent des motivations, des valeurs et parfois des orientations politiques similaires.

De la même manière que Wikipédia dépend de cette participation volontaire, c’est aussi le cas de Community Notes, l’outil de vérification des faits de Musk sur X (anciennement Twitter). Une analyse que j’ai menée avec des collègues montre que sa source externe la plus citée, après X lui-même, est en réalité Wikipédia.

Les autres sources les plus utilisées se concentrent elles aussi du côté des médias centristes ou orientés à gauche. Elles reprennent la même liste de sources « approuvées » que Wikipédia ; c’est-à-dire précisément le cœur des critiques de Musk adressées à l’encyclopédie ouverte en ligne. Pourtant, personne ne reproche ce biais à Musk.

Le profil X d’Elon Musk
Illustration des Community Notes. Tada Images

Wikipédia reste au moins l’une des rares grandes plateformes à reconnaître ouvertement ses limites et à les documenter. La recherche de la neutralité y est inscrite comme l’un de ses cinq principes fondateurs. Des biais existent, certes, mais l’infrastructure est conçue pour les rendre visibles et corrigibles.

Les articles contiennent souvent plusieurs points de vue, traitent des controverses et même consacrent des sections entières aux théories complotistes, comme celles entourant les attentats du 11-Septembre. Les désaccords apparaissent dans l’historique des modifications et sur les pages de discussion, et les affirmations contestées sont signalées. La plateforme est imparfaite mais autorégulée, fondée sur le pluralisme et le débat ouvert.

L’IA est-elle impartiale ?

Si Wikipédia reflète les biais de ses contributeurs humains et des sources qu’ils mobilisent, l’IA souffre du même problème avec ses données d’entraînement. Grokipedia : Elon Musk a raison de dire que Wikipédia est biaisée, mais son alternative fondée sur l’IA ne fera pas mieux

Les grands modèles de langage (LLM) utilisés par Grok sont formés sur d’immenses corpus issus d’Internet, comme les réseaux sociaux, les livres, les articles de presse et Wikipédia elle-même. Des études ont montré que ces modèles reproduisent les biais existants – qu’ils soient de genre, d’ordre politique ou racial – présents dans leurs données d’entraînement.

Musk affirme que Grok a été conçu pour contrer de telles distorsions, mais Grok lui-même a été accusé de partialité. Un test, dans laquelle quatre grands modèles de langage ont été soumis à 2 500 questions politiques, semble montrer que Grok est plus neutre politiquement que ses rivaux, mais présente malgré tout un biais légèrement orienté à gauche (les autres étant davantage marqués à gauche).

Étude montrant des biais dans les LLM
Michael D’Angelo/Promptfoo, CC BY-SA

Si le modèle qui soustend Grokipedia repose sur les mêmes données et algorithmes, il est difficile d’imaginer comment une encyclopédie pilotée par l’IA pourrait éviter de reproduire les biais que Musk reproche à Wikipédia. Plus grave encore, les LLM pourraient accentuer le problème. Ceux-ci fonctionnent de manière probabiliste, en prédisant le mot ou l’expression la plus probable à venir sur la base de régularités statistiques, et non par une délibération entre humains. Le résultat est ce que les chercheurs appellent une « illusion de consensus » : une réponse qui sonne de manière autoritaire, mais qui masque l’incertitude ou la diversité des opinions.

De ce fait, les LLM tendent à homogénéiser la diversité politique et à privilégier les points de vue majoritaires au détriment des minoritaires. Ces systèmes risquent ainsi de transformer le savoir collectif en un récit lisse mais superficiel. Quand le biais se cache sous une prose fluide, les lecteurs peuvent même ne plus percevoir que d’autres perspectives existent.

Ne pas jeter le bébé avec l’eau du bain

Cela dit, l’IA peut aussi renforcer un projet comme Wikipédia. Des outils d’IA contribuent déjà à détecter le vandalisme, à suggérer des sources ou à identifier des incohérences dans les articles. Des recherches récentes montrent que l’automatisation peut améliorer la précision si elle est utilisée de manière transparente et sous supervision humaine.

L’IA pourrait aussi faciliter le transfert de connaissances entre différentes éditions linguistiques et rapprocher la communauté des contributeurs. Bien mise en œuvre, elle pourrait rendre Wikipédia plus inclusif, efficace et réactif sans renier son éthique centrée sur l’humain.

De la même manière que Wikipédia peut s’inspirer de l’IA, la plate-forme X pourrait tirer des enseignements du modèle de construction de consensus de Wikipédia. Community Notes permet aux utilisateurs de proposer et d’évaluer des annotations sur des publications, mais sa conception limite les discussions directes entre contributeurs.

Un autre projet de recherche auquel j’ai participé a montré que les systèmes fondés sur la délibération, inspirés des pages de discussion de Wikipédia, améliorent la précision et la confiance entre participants, y compris lorsque cette délibération implique à la fois des humains et une IA. Favoriser le dialogue plutôt que le simple vote pour ou contre rendrait Community Notes plus transparent, pluraliste et résistant à la polarisation politique.

Profit et motivation

Une différence plus profonde entre Wikipédia et Grokipedia tient à leur finalité et, sans doute, à leur modèle économique. Wikipédia est géré par la fondation à but non lucratif Wikimedia Foundation, et la majorité de ses bénévoles sont motivés avant tout par l’intérêt général. À l’inverse, xAI, X et Grokipedia sont des entreprises commerciales.

Même si la recherche du profit n’est pas en soi immorale, elle peut fausser les incitations. Lorsque X a commencé à vendre sa vérification par coche bleue, la crédibilité est devenue une marchandise plutôt qu’un gage de confiance. Si le savoir est monétisé de manière similaire, le biais pourrait s’accentuer, façonné par ce qui génère le plus d’engagements et de revenus.

Le véritable progrès ne réside pas dans l’abandon de la collaboration humaine mais dans son amélioration. Ceux qui perçoivent des biais dans Wikipédia, y compris Musk lui-même, pourraient contribuer davantage en encourageant la participation d’éditeurs issus d’horizons politiques, culturels et démographiques variés – ou en rejoignant eux-mêmes l’effort collectif pour améliorer les articles existants. À une époque de plus en plus marquée par la désinformation, la transparence, la diversité et le débat ouvert restent nos meilleurs outils pour nous approcher de la vérité.

The Conversation

Taha Yasseri a reçu des financements de Research Ireland et de Workday.

PDF
9 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
🌓