LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 25 dernières parutions

02.12.2025 à 13:12

Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse

Frédéric Prost, Maître de conférences en informatique, INSA Lyon – Université de Lyon

Une expérience relativement simple consistant à demander à une IA générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies.
Texte intégral (2488 mots)
Images générées par IA en réponse à la requête « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective » (par ChatGPT à gauche, par Gemini à droite). CC BY

Une expérience relativement simple consistant à demander à une intelligence artificielle générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies.


Les intelligence artificielle (IA) génératives font désormais partie de notre quotidien. Elles sont perçues comme des « intelligences », mais reposent en fait fondamentalement sur des statistiques. Les résultats de ces IA dépendent des exemples sur lesquels elles ont été entraînées. Dès qu’on s’éloigne du domaine d’apprentissage, on peut constater qu’elles n’ont pas grand-chose d’intelligent. Une question simple comme « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leurs tailles respectives » vous donnera quelque chose comme ça (cette image a été générée par Gemini) :

Sur l’image générée par IA on voit que le gratte ciel et le trombone à coulisse ont presque la même taille
Image générée par l’IA Gemini en réponse au prompt (la requête) : Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective. Fourni par l'auteur

L’exemple provient du modèle de Google, Gemini, mais le début de l’ère des IA génératives remonte au lancement de ChatGPT en novembre 2022 et ne date que d’il y a trois ans. C’est une technologie qui a changé le monde et qui n’a pas de précédent dans son taux d’adoption. Actuellement ce sont 800 millions d’utilisateurs, selon OpenAI, qui chaque semaine, utilisent cette IA pour diverses tâches. On notera que le nombre de requêtes diminue fortement pendant les vacances scolaires. Même s’il est difficile d’avoir des chiffres précis, cela montre à quel point l’utilisation des IA est devenue courante. À peu près un étudiant sur deux utilise régulièrement des IA.

Les IA : des technologies indispensables ou des gadgets ?

Trois ans, c’est à la fois long et court. C’est long dans un domaine où les technologies évoluent en permanence, et court en termes sociétaux. Même si on commence à mieux comprendre comment utiliser ces IA, leur place dans la société n’est pas encore quelque chose d’assuré. De même la représentation mentale qu’ont ces IA dans la culture populaire n’est pas établie. Nous en sommes encore à une alternance entre des positions extrêmes : les IA vont devenir plus intelligentes que les humains ou, inversement, ce ne sont que des technologies tape-à-l’œil qui ne servent à rien.

En effet, un nouvel appel à faire une pause dans les recherches liées aux IA a été publié sur fond de peur liée à une superintelligence artificielle. De l’autre côté sont promis monts et merveilles, par exemple un essai récent propose de ne plus faire d’études, car l’enseignement supérieur serait devenu inutile à cause de ces IA.

Difficile de sortir de leurs domaines d’apprentissage

Depuis que les IA génératives sont disponibles, je mène cette expérience récurrente de demander de produire un dessin représentant deux objets très différents et de voir le résultat. Mon but par ce genre de prompt (requête) est de voir comment le modèle se comporte quand il doit gérer des questions qui sortent de son domaine d’apprentissage. Typiquement cela ressemble à un prompt du type « Dessine-moi une banane et un porte-avions côte à côte pour qu’on se rende compte de la différence de taille entre les deux objets ». Ce prompt en utilisant Mistral donne le résultat suivant :

L’IA génère une image d’une banane qui a la même taille qu’un porte-avions
Capture d’écran d’un prompt et de l’image générée par l’IA Mistral. Fourni par l'auteur

À ce jour je n’ai jamais trouvé un modèle qui donne un résultat censé. L’image donnée en illustration ci-dessus (ou en tête de l’article) est parfaite pour comprendre comment fonctionnent ce type d’IA et quelles sont ses limites. Le fait qu’il s’agisse d’une image est intéressant, car cela rend palpables des limites qui seraient moins facilement discernables dans un long texte.

Ce qui frappe est le manque de crédibilité dans le résultat. Même un enfant de 5 ans voit que c’est n’importe quoi. C’est d’autant plus choquant qu’avec la même IA il est tout à fait possible d’avoir de longues conversations complexes sans pour autant qu’on ait l’impression d’avoir affaire à une machine stupide. D’ailleurs ce même type d’IA peut tout à fait réussir l’examen du barreau ou répondre avec une meilleure précision que des professionnels sur l’interprétation de résultats médicaux (typiquement, repérer des tumeurs sur des radiographies).

D’où vient l’erreur ?

La première chose à remarquer est qu’il est difficile de savoir à quoi on est confronté exactement. Si les composants théoriques de ces IA sont connus dans la réalité, un projet comme celui de Gemini (mais cela s’applique aussi aux autres modèles que sont ChatGPT, Grok, Mistral, Claude, etc.) est bien plus compliqué qu’un simple LLM couplé à un modèle de diffusion.

Un LLM est une IA qui a été entraînée sur des masses énormes de textes et qui produit une représentation statistique de ces derniers. En gros, la machine est entraînée à deviner le mot qui fera le plus de sens, en termes statistiques, à la suite d’autres mots (votre prompt).

Les modèles de diffusion qui sont utilisés pour engendrer des images fonctionnent sur un principe différent. Le processus de diffusion est basé sur des notions provenant de la thermodynamique : on prend une image (ou un son) et on ajoute du bruit aléatoire (la neige sur un écran) jusqu’à ce que l’image disparaisse, puis ensuite on fait apprendre à un réseau de neurones à inverser ce processus en lui présentant ces images dans le sens inverse du rajout de bruit. Cet aspect aléatoire explique pourquoi avec le même prompt le modèle va générer des images différentes.

Un autre point à considérer est que ces modèles sont en constante évolution, ce qui explique que le même prompt ne donnera pas le même résultat d’un jour à l’autre. De nombreuses modifications sont introduites à la main pour gérer des cas particuliers en fonction du retour des utilisateurs, par exemple.

À l’image des physiciens, je vais donc simplifier le problème et considérer que nous avons affaire à un modèle de diffusion. Ces modèles sont entraînés sur des paires images-textes. Donc on peut penser que les modèles de Gemini et de Mistral ont été entraînés sur des dizaines (des centaines ?) de milliers de photos et d’images de gratte-ciel (ou de porte-avions) d’un côté, et sur une grande masse d’exemples de trombone à coulisse (ou de bananes) de l’autre. Typiquement des photos où le trombone à coulisse est en gros plan. Il est très peu probable que, dans le matériel d’apprentissage, ces deux objets soient représentés ensemble. Donc le modèle n’a en fait aucune idée des dimensions relatives de ces deux objets.

Pas de « compréhension » dans les modèles

Les exemples illustrent à quel point les modèles n’ont pas de représentation interne du monde. Le « pour bien comparer leurs tailles » montre qu’il n’y a aucune compréhension de ce qui est écrit par les machines. En fait les modèles n’ont pas de représentation interne de ce que « comparer » signifie qui vienne d’ailleurs que des textes dans lesquels ce terme a été employé. Ainsi toute comparaison entre des concepts qui ne sont pas dans le matériel d’apprentissage sera du même genre que les illustrations données en exemple. Ce sera moins visible mais tout aussi ridicule. Par exemple, cette interaction avec Gemini « Considérez cette question simple : “Le jour où les États-Unis ont été établis est-il dans une année bissextile ou une année normale ?”. »

Lorsqu’il a été invoqué avec le préfixe CoT (Chain of Thought, une évolution récente des LLMs dont le but est de décomposer une question complexe en une suite de sous-questions plus simples), le modèle de langage moderne Gemini a répondu : « Les États-Unis ont été établis en 1776. 1776 est divisible par 4, mais ce n’est pas une année séculaire (de cent ans), c’est donc une année bissextile. Par conséquent, le jour où les États-Unis ont été établis était dans une année normale. »

On voit bien que le modèle déroule la règle des années bissextiles correctement, donnant par là même une bonne illustration de la technique CoT, mais il conclut de manière erronée à la dernière étape ! Ces modèles n’ont en effet pas de représentation logique du monde, mais seulement une approche statistique qui crée en permanence ce type de glitchs qui peuvent paraître surprenants.

Cette prise de conscience est d’autant plus salutaire qu’aujourd’hui, les IA écrivent à peu près autant d’articles publiés sur Internet que les humains. Ne vous étonnez donc pas d’être étonné par la lecture de certains articles.

The Conversation

Frédéric Prost ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.12.2025 à 15:24

Le premier zoo virtuel d’Europe peut-il éveiller les consciences sur le bien-être animal ?

Pierre-Henry Leveau, Maître de conférences en sciences de gestion et du management à la Faculté de Tourisme, Culture et Hospitalité; membre du laboratoire GRoupe de Recherche ANgevin en Économie et Management, Université d’Angers

À Bruxelles, le premier zoo en réalité virtuelle aurait-il trouvé la formule gagnante pour concilier sensibilisation du public et respect des animaux ?
Texte intégral (2502 mots)
En ouvrant son Zoo du futur, l’association Gaia fait le pari que le public continuera de s’émerveiller et à se sensibiliser à la cause animale, sans avoir besoin de garder les animaux en captivité. Ici, l’image numérique d’un tigre dans la simulation en réalité virtuelle. Gaia/Reality Matters, Fourni par l'auteur

De plus en plus décriés, les zoos jouent pourtant un rôle dans la sensibilisation du public à la sauvegarde des espèces sauvages. À Bruxelles, le premier zoo en réalité virtuelle aurait-il trouvé la formule gagnante ?


Inauguré à Bruxelles en septembre 2025 et ouvert au public jusqu’au 30 décembre 2025, le Zoo du futur, premier zoo européen 100 % virtuel promet l’émerveillement d’un zoo, mais sans cages. Imaginé par l’association de protection animale Gaia, en collaboration avec le studio d’expériences immersives Reality Matters, le Zoo du futur propose au public de repenser la relation entre humains et animaux en lui permettant d’admirer une pléiade d’animaux en liberté dans des environnements naturels reconstitués numériquement.

Deux technologies immersives rendent possible la découverte de ces univers numériques : la réalité virtuelle (VR) via des casques afin d’observer les animaux ainsi que la réalité augmentée via une application mobile pour interagir avec des modules pédagogiques (quiz, informations sur les animaux). L’ambition du projet est double : et si la VR ne servait pas seulement à divertir mais aussi à éduquer afin d’encourager des comportements plus responsables ?

Ayant travaillé sur les effets de la VR sur les consommateurs, le Zoo du futur constitue donc un terrain d’observation privilégié pour comprendre comment les technologies immersives modifient les pratiques touristiques et culturelles. Dans le cadre de ces recherches, je me suis entretenu avec plusieurs acteurs de cette initiative.

Renouveler l’expérience du public

Ces technologies immersives impactent plusieurs dimensions dans le vécu du visiteur. La première correspond à la métaversification de l’expérience, c’est-à-dire que le digital agrémente désormais les lieux marchands, culturels et touristiques réels. Dans le cas du zoo bruxellois, trois univers thématiques en VR offrent une expérience immersive aux visiteurs : la savane, la banquise et la jungle.

La seconde dimension correspond à l’aspect multisensoriel offert par les nouvelles technologies, qui, à l’instar d’une expérience réelle, stimulent plusieurs, voire tous les sens. Le Zoo du futur combine sons d’ambiance, diffusion d’odeurs et interaction virtuelle qui impliquent les mouvements du visiteur « pour essayer d’avoir l’immersion la plus aboutie possible », comme l’indique Sébastien de Jonge, le directeur des opérations de Gaia que j’ai pu interroger au cours de mes recherches. Lorsque le visiteur s’équipe du casque VR, il voit subitement un éléphant qui s’approche, ses yeux qui plongent dans les siens, sa trompe qui s’élève. Il essaye de toucher l’animal, persuadé de sentir sa présence. L’illusion sensorielle est palpable et l’émotion réelle.

Image numérique d’un éléphant dans la savane
La confrontation avec un éléphant en réalité virtuelle a le potentiel de provoquer plus d’émotions, en permettant de s’approcher et d’interagir avec l’animal. Gaia/Reality Matters, Fourni par l'auteur

La troisième dimension correspond à l’empowerment du consommateur, c’est-à-dire la capacité à agir activement avec son corps et à interagir avec les objets de l’environnement virtuel. En permettant de s’immerger à la première personne dans des environnements virtuels aux graphismes très réalistes, la VR séduit le public qui s’attend désormais à être davantage acteur de son expérience que de simplement avoir à écouter une histoire.

Pour Andy Van den Broeck, fondateur de Reality Matters, la VR est complémentaire à l’expérience réelle, voire magnifiée. Il souligne que « dans un zoo réel, vous ne pouvez pas vous approcher aussi près des animaux pour les observer, ou vous déplacer librement et interagir dans ces grands espaces naturels ». De plus, le zoo virtuel enrichit l’expérience avec de la réalité augmentée afin d’offrir une interaction ludique et éducative avec les animaux.

Provoquer l’empathie pour des animaux, même virtuels

Ces dimensions concourent à stimuler un sentiment d’incarnation, c’est-à-dire à l’illusion d’être le personnage virtuel. L’une des forces de la VR réside dans sa capacité à faire vivre une expérience d’incarnation dans laquelle on n’observe pas seulement, mais où l’on réfléchit et réagit émotionnellement d’une façon semblable que lors d’une expérience réelle (Leveau et Camus, 2023).

L’apprentissage par la pratique est une des forces de la VR. L’implication active favorise la mémorisation et l’acquisition des compétences grâce à une compréhension plus concrète et une meilleure appropriation de la situation que la simple lecture d’un document, par exemple. La pyramide de l’apprentissage établi par le chercheur en éducation américain Edgar Dale confirme qu’on apprend mieux lorsqu’on est acteur de la situation d’apprentissage. Un individu retiendrait selon lui seulement 10 % de ce qu’il lit, contre 90 % de ce qu’il dit et fait.

Image numérique d’un panda dégustant du bambou
Plonger le visiteur dans un environnement virtuel offre aussi l’occasion de lui faire découvrir les animaux tels qu’ils se comportent dans leur environnement naturel, et non dans un enclos artificiel. Gaia/Reality Matters, Fourni par l'auteur

Les technologies immersives développent également l’empathie. Alors que, dans un zoo classique, on contemple des animaux réels, mais privés de liberté, le zoo virtuel exhibe des animaux numériques dans leur habitat naturel. À ce jour, « les visiteurs réfléchissent en termes de protection des espèces, pas d’individus », insiste Sébastien de Jonge. Le zoo virtuel invite à donc renverser le regard en valorisant l’animal comme un être vivant singulier et en proposant une alternative concrète et positive, tout en questionnant les conditions de vie des animaux dans les zoos traditionnels, sans pour autant attaquer leurs méthodes frontalement.

On constate que la gamification interactive associée à la VR, telle que les quiz interactifs sur l’espace vital d’un éléphant, déclenche une prise de conscience et des changements de comportements concrets. Selon Sébastien de Jonge, la réaction du public quant au bien-être des animaux à l’issue de l’expérience virtuelle en témoigne en provoquant des questionnements sur les alternatives à faire valoir. Ainsi, plonger les visiteurs dans des environnements naturels reconstitués en VR suscite une réflexion sur la captivité animale tout en préservant la dimension pédagogique des zoos. Cette approche, en phase avec les attentes des associations de défense animale, invite aussi chacun à repenser son rapport au vivant et à adopter des choix de consommation plus responsables.

Tirer parti des envies contradictoires des consommateurs

C’est précisément le basculement de spectateur passif à acteur impliqué qui confère un rôle inédit dans la sensibilisation éthique et environnementale. L’expérience en VR permet non seulement d’apprendre en interagissant de manière plus directe, mais aussi d’interroger nos modes de consommation et de loisirs. En proposant une alternative plus responsable dans les activités de récréations et de loisirs, la VR agit sur les comportements de manière vertueuse.

À cet effet, la VR contribue à des pratiques marketing plus éthiques en se substituant ponctuellement comme une alternative durable au voyage physique ou en contribuant à un tourisme plus inclusif auprès de certains publics (seniors, PMR, etc.). Pour le zoo, la VR contribue à donner l’illusion d’une expérience réelle sans nuire aux écosystèmes. Gaia défend ce modèle : « Le Zoo du futur, pour nous, c’est une campagne comme une autre », confie Sébastien de Jonge. Les tarifs volontairement bas, à 12 € l’entrée, ne sont pas rentables et confirment cette logique.

Mais qu’en est-il réellement du côté des consommateurs ? Dans un sondage réalisé auprès de 100 personnes, en France, en septembre 2025, 83,4 % déclarent préférer visiter un zoo réel plutôt qu’un zoo virtuel. Pourtant, plus de 98 % d’entre elles déclarent être sensibles au bien-être et aux conditions de vie des animaux en captivité. Ce paradoxe s’observe d’une part à travers le succès commercial des plus grands zoos en Europe, dont la fréquentation dépasse annuellement le million de visiteurs, comme au zoo de Barcelone, d’autre part à travers la multiplication de fermetures de delphinariums (Marineland en France en 2025 ou encore le dernier delphinarium en Belgique, Boudewijn Seapark, dont la fermeture administrative est actée pour 2037).

Inciter le changement de comportements

Enfin, 95 % des personnes interrogées nous ont confié être prêtes à adapter leurs comportements de consommation pour mieux respecter le bien-être des animaux en privilégiant un zoo virtuel plutôt qu’un zoo réel. Ainsi, nous espérons, comme Sébastien de Jonge, que cette fiction-réalité puisse « simplement allumer une lumière dans l’esprit du public » et conduire les zoos à se réinventer pour concilier bien-être animal avec viabilité économique. En cas de succès, le projet temporaire pourrait devenir permanent et esquisser pour les zoos un business model inédit.

Néanmoins, il ne faut pas oublier que ces technologies génèrent une pollution numérique et que la VR est réputée inciter le visiteur à se rendre dans la réalité sur le lieu qu’il a virtuellement exploré. Un tel dispositif risque donc de s’avérer contre-productif, à l’opposé des ambitions affichées par l’association, malgré la vocation première du projet de conjuguer émerveillement, pédagogie et respect du bien-être animal. Avec son zoo virtuel, Gaia démontre cependant le potentiel de la VR au-delà du simple divertissement : la technologie ouvre la voie à des pratiques plus soutenables et à un modèle économique écocentrique, fondé sur la valeur intrinsèque du vivant.

The Conversation

Pierre-Henry Leveau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

28.11.2025 à 13:13

L’effet ChatGPT : comment, en trois ans, l’IA a redéfini les recherches en ligne

Deborah Lee, Professor and Director of Research Impact and AI Strategy, Mississippi State University

En trois ans, OpenAI a révolutionné le monde avec son chatbot IA. Fin 2025, le robot conversationnel ChatGPT compte 800 millions d’utilisateurs hebdomadaires dans le monde.
Texte intégral (1881 mots)
En trois ans ChatGPT a bouleversé les usages. Kiichiro Sato/AP Photo

Le 30 novembre 2022, OpenAI rendait accessible à tous ChatGPT, l’intelligence artificielle générative sur laquelle elle travaillait depuis sept ans. En trois ans, un geste du quotidien s’est déplacé : au lieu de taper une requête dans Google ou de chercher un tutoriel sur YouTube, des millions de personnes ouvrent désormais ChatGPT pour poser leur question. Ce réflexe nouveau, qui s’impose dans les usages, marque un tournant majeur dans notre rapport à la recherche d’information en ligne.


Il y a trois ans, lorsqu’il fallait réparer un robinet qui fuit ou comprendre l’inflation, la plupart des gens avaient trois réflexes : taper leur question sur Google, chercher un tutoriel sur YouTube ou appeler désespérément un assistant vocal à l’aide.

Aujourd’hui, des millions de personnes adoptent une autre stratégie : elles ouvrent ChatGPT et posent simplement leur question.

Je suis professeure et directrice de la recherche et de la stratégie en matière d’IA à la Mississippi State University Libraries. En qualité de chercheuse spécialisée dans la recherche d’informations, je constate que ce changement dans l’outil vers lequel les gens se tournent en premier pour trouver des informations est au cœur de la manière dont ChatGPT a transformé nos usages technologiques quotidiens.

Près de 800 millions de personnes utilisatrices hebdomadaires

Le plus grand bouleversement n’est pas la disparition des autres outils, mais le fait que ChatGPT soit devenu la nouvelle porte d’entrée vers l’information.

Quelques mois après son lancement, le 30 novembre 2022, ChatGPT comptait déjà 100 millions d’utilisateurs hebdomadaires. Fin 2025, ce chiffre était passé à 800 millions. Cela en fait l’une des technologies grand public les plus utilisées au monde.

Les enquêtes montrent que cet usage dépasse largement la simple curiosité et qu’il traduit un véritable changement de comportement. Une étude réalisée en 2025 par le Pew Research Center (Washington) indique que 34 % des adultes états-uniens ont utilisé ChatGPT, soit environ le double de la proportion observée en 2023. Parmi les adultes de moins de 30 ans, une nette majorité (58 %) l’a déjà testé.

Un sondage AP-NORC rapporte qu’aux États-unis, environ 60 % des adultes qui utilisent l’IA déclarent l’utiliser pour rechercher des informations, ce qui en fait l’usage le plus courant de l’IA. Ce taux grimpe à 74 % chez les moins de 30 ans.

Un bouleversement des usages

Les moteurs de recherche traditionnels restent le socle de l’écosystème de l’information en ligne, mais la manière dont les gens cherchent a, elle, considérablement changé depuis l’arrivée de ChatGPT. Les utilisateurs modifient tout simplement l’outil qu’ils sollicitent en premier.

Pendant des années, Google était le moteur de recherche par défaut pour tout type de requête, de « Comment réinitialiser ma box Internet » à « Expliquez-moi le plafond de la dette ». Ce type de requêtes informatives de base représentait une part importante du trafic. Mais ces petites questions du quotidien, rapides, clarificatrices, celles qui commencent par « Que veut dire… », sont désormais celles que ChatGPT traite plus vite et plus clairement qu’une page de liens.

Et les internautes l’ont bien compris. Une enquête menée en 2025 auprès de consommateurs américains a montré que 55 % des personnes interrogées utilisent désormais les chatbots ChatGPT d’OpenAI ou Gemini AI de Google pour des tâches qu’ils confiaient auparavant à Google Search, avec des taux encore plus élevés au Royaume-Uni.

Une autre analyse portant sur plus d’un milliard de sessions de recherche montre que le trafic issu des plateformes d’IA générative augmente 165 fois plus vite que les recherches classiques, et qu’environ 13 millions d’adultes, aux États-Unis, ont déjà fait de l’IA générative leur outil de prédilection pour explorer le web.

Les atouts de ChatGPT

Cela ne signifie pas que les gens ont cessé d’utiliser Google, mais plutôt que ChatGPT a capté les types de questions pour lesquelles les utilisateurs veulent une explication directe plutôt qu’une liste de résultats. Vous voulez connaître une évolution réglementaire ? Vous avez besoin d’une définition ? Vous cherchez une manière polie de répondre à un email délicat ? ChatGPT offre une réponse plus rapide, plus fluide et plus précise.

Dans le même temps, Google ne reste pas les bras croisés. Ses pages de résultats n’ont plus la même allure qu’il y a trois ans, car le moteur a intégré directement son IA Gemini en haut des pages. Les résumés « AI Overview », placés au-dessus des liens classiques, répondent instantanément à de nombreuses questions simples parfois avec justesse, parfois moins.

Quoi qu’il en soit, beaucoup d’utilisateurs ne descendent jamais plus bas que ce résumé généré par l’IA. Ce phénomène, combiné à l’impact de ChatGPT, explique la forte hausse des recherches « zéro clic ». Un rapport fondé sur les données de Similarweb révèle que le trafic envoyé par Google vers les sites d’information est passé de plus de 2,3 milliards de visites à la mi-2024 à moins de 1,7 milliard en mai 2025, tandis que la part des recherches liées à l’actualité se soldant par zéro clic a bondi de 56 % à 69 % en un an.

La recherche Google excelle dans la mise en avant d’une pluralité de sources et de points de vue, mais ses résultats peuvent paraître brouillons et davantage conçus pour générer des clics que pour offrir une information claire. ChatGPT, à l’inverse, fournit une réponse plus ciblée et conversationnelle, privilégiant l’explication au classement. Mais cette approche se fait parfois au détriment de la transparence des sources et de la diversité des perspectives qu’offre Google.

Côté exactitude, les deux outils peuvent se tromper. La force de Google réside dans le fait qu’il permet aux personnes qui utilisent ChatGPT de recouper plusieurs sources, tandis que l’exactitude de ce dernier dépend fortement de la qualité de la requête et de la capacité de l’utilisateur à reconnaître quand une réponse doit être vérifiée ailleurs.

Enceintes connectées et YouTube

L’impact de ChatGPT dépasse le cadre des moteurs de recherche. Les assistants vocaux comme les enceintes Alexa et Google Home restent très répandus, mais leur taux de possession recule légèrement. Une synthèse des statistiques sur la recherche vocale aux États-Unis pour 2025 estime qu’environ 34 % des personnes âgées de 12 ans et plus possèdent une enceinte connectée, contre 35 % en 2023. La baisse n’est pas spectaculaire, mais l’absence de croissance pourrait indiquer que les requêtes plus complexes se déplacent vers ChatGPT ou des outils similaires. Lorsqu’on souhaite une explication détaillée, un plan étape par étape ou une aide à la rédaction, un assistant vocal qui répond par une phrase courte paraît soudain limité.

En revanche, YouTube reste un mastodonte. En 2024, la plateforme comptait environ 2,74 milliards de personnes utilisatrices, un chiffre en progression constante depuis 2010. Aux États-Unis, près de 90 % des adolescents déclarent utiliser YouTube, ce qui en fait la plateforme la plus utilisée dans cette tranche d’âge. Cependant, le type de contenu recherché est en train de changer.

Les internautes ont désormais tendance à commencer par ChatGPT, puis à se tourner vers YouTube si une vidéo explicative est nécessaire. Pour bon nombre de tâches quotidiennes – « Comprendre mes avantages sociaux », « M’aider à rédiger un email de réclamation » –, ils demandent d’abord à ChatGPT un résumé, un script ou une liste de points clés, puis consultent YouTube uniquement s’ils ont besoin de visualiser un geste ou un processus concret.

Cette tendance se retrouve aussi dans des domaines plus spécialisés. Les développeurs, par exemple, utilisent depuis longtemps les forums comme Stack Overflow pour obtenir des conseils ou des extraits de code. Mais le volume de questions a commencé à chuter fortement après la sortie de ChatGPT, et une analyse suggère que le trafic global a diminué d’environ 50 % entre 2022 et 2024. Lorsqu’un chatbot peut générer un extrait de code et une explication à la demande, moins de gens prennent le temps de poster une question dans un forum public.

Alors, où va-t-on ?

Trois ans après son lancement, ChatGPT n’a pas remplacé l’écosystème technologique, mais il l’a reconfiguré. Le réflexe initial a changé. Les moteurs de recherche restent indispensables pour les explorations approfondies et les comparaisons complexes. YouTube demeure la plateforme incontournable pour voir des personnes réaliser des actions concrètes. Les enceintes connectées continuent d’être appréciées pour leur côté mains libres.

Mais lorsqu’il s’agit d’obtenir rapidement une réponse à une question, beaucoup commencent désormais par l’utilisation d’un agent conversationnel plutôt que par une requête dans un moteur de recherche. C’est là le véritable effet ChatGPT : il n’a pas simplement ajouté une application de plus sur nos téléphones, il a discrètement transformé notre manière de chercher de l’information.

The Conversation

Deborah Lee ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

26.11.2025 à 11:26

Les champignons d’Ötzi, l’homme des glaces du Néolithique

Hubert Voiry, Mycologue, Muséum national d’histoire naturelle (MNHN)

Pourquoi le célèbre homme du Néolithique avait-il dans sa besace des polypores du bouleau et des amadous ? À quoi lui servaient donc ces champignons ?
Texte intégral (1974 mots)
Amadouvier, polypore du bouleau et Ötzi (représentation du musée d’archéologie du Sud-Tyrol, Balzano, en Italie). CC BY

On l’oublie trop souvent mais les champignons ont accompagné l’histoire de l’humanité : médecine, géopolitique, psychologie, architecture, gastronomie, ils s’invitent dans de nombreux champs de nos vie depuis le Néolithique.

Dans cet extrait de son ouvrage Dix champignons qui ont changé la vie des hommes (éditions Actes Sud, 2025), le mycologue Hubert Voiry nous parle des deux champignons retrouvés par les archéologues dans la besace d’Ötzi, l’homme préhistorique découvert fortuitement en 1991 à 3 200 mètres d’altitude, dans les Alpes italiennes. Il tâche de comprendre pourquoi cet homme avait, avec lui des amadous et des polypores du bouleau.


Ötzi portait un petit sac en cuir rempli de matière noire. Dans ce sac, il y avait aussi trois outils en silex et un os en forme de poinçon. Au début, on a pensé que la matière noire était de la résine et que ce sac était une sorte de « kit » de réparation d’outils. Or, la substance, une fois séchée, a montré une teinte virant au brun. L’examen microscopique de cet objet a révélé qu’il s’agissait de la chair d’un champignon, l’amadouvier (Fomes fomentarius). Cette chair brune que l’on trouve sous la croûte (la face supérieure) du champignon avait été travaillée manuellement pour obtenir un produit de consistance fibreuse que l’on appelle l’amadou. Mélangées à cette matière, on a détecté aussi des traces de pyrite. Silex, pyrite et amadou ainsi réunis permettent d’allumer le feu et de le conserver.

Ce n’est pas le témoignage le plus ancien de l’usage de l’amadou pour le feu. Celui-ci a en effet été retrouvé en grande quantité associé à des nodules de pyrite sur le site archéologique de Star Carr en Angleterre qui date de près de 10 000 ans. On a fait les mêmes observations dans les fouilles archéologiques de Maglemose au Danemark, site qui remonte à 8 000 ans. Il existe aussi des témoignages plus récents datant de l’âge du bronze en Suisse, dans les sites préhistoriques d’anciens villages lacustres. L’amadou a donc la propriété de produire et de transporter le feu. Contrairement à une idée reçue, les humains de cette époque ne frappaient pas deux silex l’un contre l’autre pour allumer un feu, car les étincelles résultant de leur percussion sont trop éphémères pour enflammer un combustible. Ils avaient recours essentiellement à deux techniques : celle de la friction avec du bois et celle de la percussion, vraisemblablement utilisée par Ötzi. Dans la première, on dispose un morceau de bois à la verticale d’un autre placé au sol. On frotte le morceau de bois sur l’autre en lui donnant un mouvement de rotation avec les mains. Cela produit de la sciure échauffée qui va donner quelques braises. Ensuite, il faudra les mettre en contact avec des brindilles sèches. Ce procédé n’a pas laissé de traces archéologiques. L’autre méthode consiste à utiliser, comme Ötzi, pyrite, silex et amadou. La percussion d’un morceau de disulfure de fer (pyrite ou marcassite) contre une roche dure comme le silex produit des étincelles. L’amadou au contact de l’étincelle est capable de s’embraser facilement du fait de sa structure fibreuse, et le feu peut couver longtemps, ce qui facilite son transport. Il reste à produire des flammes en mettant par exemple en contact l’amadou incandescent avec des herbes très sèches ou des fibres d’écorce.

Pour faciliter l’embrasement, on a perfectionné la technique. L’amadou est débité en tranches fines qui sont amollies à coups de maillet puis qui sont mises à sécher. Au cours des siècles, des traitements au salpêtre ou aux cendres ont été mis au point pour qu’il s’enflamme plus facilement. Le célèbre mycologue Christiaan Hendrik Persoon en donne la description dans son ouvrage Traité sur les champignons comestibles, contenant l’indication des espèces nuisibles paru en 1818. Il précise que les bûcherons des Vosges avaient une technique moins recommandable pour traiter l’amadou : ils enterraient les tranches du “bolet” et les arrosaient pendant un certain temps avec de l’urine.

À partir de l’âge du fer, les morceaux de disulfure sont remplacés par des briquets, petits objets en acier qui au Moyen Âge avaient une forme de crochet aplati. Actuellement, on peut se procurer, dans le commerce, ce type de briquet appelé aussi briquet à silex et ainsi reproduire les gestes de nos ancêtres en frappant l’acier sur un silex aiguisé. On recueille les étincelles avec un morceau d’amadou ou à défaut avec un morceau de coton carbonisé. Les briquets “à amadou” qui apparaissent vers 1840 ne contiennent curieusement pas d’amadou. Le nom a été repris, mais c’est une mèche de coton trempée dans une solution chimique qui joue le rôle de l’amadou.

De nos jours, l’amadou est encore utilisé de façon traditionnelle pour le transport du feu, comme en Autriche lors du Weihfeuertragen, littéralement “le transport de feu consacré”. Le samedi de Pâques, le prêtre catholique réunit les familles de paroissiens autour d’un feu qu’il bénit au cours d’une cérémonie. Ensuite, les enfants récupèrent les braises à l’aide de bidons métalliques et passent dans les maisons du village apporter le feu béni. Pour faciliter le transport, ils ajoutent aux braises des morceaux d’amadou. En plus d’être le polypore le plus efficace pour la fabrication et le transport du feu, grâce à sa chair, l’amadouvier a aussi des vertus médicinales et artisanales, voire spirituelles. Un peuple de l’île d’Hokkaidō au Japon, les Aïnous, procédait, en cas de maladie ou d’épidémie, à un rituel de fumée autour des habitations. Ils faisaient brûler toute la nuit des fructifications de F. fomentarius pour éloigner les démons. Un rite analogue était pratiqué en Sibérie chez les Khantys et en Amérique du Nord dans des tribus amérindiennes.[…]

Le deuxième champignon retrouvé dans les affaires d’Ötzi est le polypore du bouleau, en latin : Fomitopsis betulina. Il se présentait sous forme de deux fragments enfilés sur une lanière de cuir. L’un de forme sphérique et l’autre de forme conique. Le polypore du bouleau, une fois séché, s’enflamme rapidement mais le feu ne couve pas. Ötzi ne l’a pas probablement pas utilisé pour le transport du feu, d’autant qu’il possédait déjà de l’amadou. Quel usage faisait-il donc des morceaux de ce polypore ?

Cette question a naturellement suscité des débats, dont sont ressorties deux grandes hypothèses. La première a été avancée par l’anthropologue italien Luigi Capasso : il suggère que l’Homme des Glaces était conscient de la présence de ses parasites intestinaux et les combattait avec des doses adaptées de Fomitopsis betulina. Ce champignon, qui est comestible – nous en reparlerons plus loin –, était probablement le seul vermifuge disponible à l’époque. L’autre hypothèse est défendue par la biologiste autrichienne Ursula Peintner : elle a fait le rapprochement avec certaines coutumes d’Amérindiens, rapportées par le biologiste américain Robert Blanchette. Ils possédaient des objets décorés avec des morceaux de forme ronde ou ovale d’Haploporus odorus, polypore à l’odeur très suave. Ces fragments étaient enfilés sur des lacets en cuir puis attachés aux tuniques sacrées ou aux colliers des guérisseurs. Ce polypore était aussi considéré comme ayant des vertus médicinales : on le faisait brûler pour produire une fumée agréable pour les personnes malades. Comme souvent dans les traditions, les aspects spirituel et médical sont mêlés. Concernant l’Homme des Glaces, nous avons bien noté que les bouts de F. betulina étaient enfilés sur une lanière de cuir de façon élaborée. S’il s’était agi d’un simple transport, ils auraient été placés sans perforation dans un récipient. On peut donc penser que les morceaux de F. betulina jouaient un rôle spirituel et médicinal. Robert Blanchette évoque aussi l’importance d’un autre champignon, Fomitopsis officinalis, aux propriétés médicinales pour les Amérindiens et leurs chamanes qui l’appellent “le pain des fantômes”. Les chamanes utilisaient des masques sculptés dans ces polypores pour effectuer des rites destinés à guérir certaines maladies. À leur mort, les masques étaient placés à la tête de la tombe et protégeaient l’esprit des chamanes. En Autriche, des fructifications de polypore du bouleau étaient sculptées pour protéger les animaux de ferme de la malchance. Le fragment conique du polypore d’Ötzi pourrait évoquer une sculpture qui n’aurait pas été très bien conservée. On pourrait donc considérer qu’Ötzi était un chamane qui portait sur lui, comme un talisman, ces deux fragments d’un champignon aux vertus médicinales et spirituelles. Rappelons que les affaires d’Ötzi n’ont pas été pillées, ce qui laisse supposer qu’on ne voulait pas s’approprier ses objets : c’était peut-être un personnage important.

The Conversation

Hubert Voiry est l'auteur de l'ouvrage « 10 champignons qui ont changé la vie des hommes », publié aux éditions Actes Sud dont ce texte est tiré.

PDF

26.11.2025 à 11:25

L’Univers a-t-il un début ? Le Big Bang contre la théorie de l’état stationnaire

Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris

L’histoire de l’Univers a attisé de nombreux débats parmi les physiciens. Au début du XXᵉ siècle, la bataille fait rage entre Big Bang et état stationnaire.
Texte intégral (2417 mots)

La question de l’évolution de l’Univers a attisé de nombreux débats au cours de l’histoire de la physique. Au début du XXe siècle, deux camps de scientifiques s’affrontèrent : d’un côté, les tenants d’un Univers stable et ayant toujours existé, de l’autre, les physiciens qui adhèrent au modèle d’un atome primitif, ancêtre de notre théorie du Big Bang.


Au cours du XXe siècle, la cosmologie a été bouleversée par deux visions concurrentes du Cosmos. D’un côté, Georges Lemaître proposait l’hypothèse d’un « atome primitif », précurseur du Big Bang, selon laquelle l’Univers a une histoire et un commencement. De l’autre, Fred Hoyle, Thomas Gold et Hermann Bondi défendaient en 1948 une alternative : l’état stationnaire, un modèle où l’Univers, en expansion, reste inchangé à grande échelle grâce à une création continue de matière.

Cette théorie séduisait par son élégance : elle évitait l’idée d’un début absolu et renouait avec de vieilles intuitions philosophiques – puisqu’elles remontent à la Grèce antique – selon lesquelles le Cosmos était éternel et immuable. Mais elle allait bientôt se heurter à l’épreuve des observations. Le déclin de cette théorie fascinante s’inscrit dans une querelle scientifique majeure, au terme de laquelle le modèle de l’atome primitif de Georges Lemaître s’est imposé.

Le modèle de l’état stationnaire : un Univers éternel et immuable

En 1948, Fred Hoyle, Thomas Gold et Hermann Bondi introduisent le modèle cosmologique de l’état stationnaire. Leur approche repose sur deux principes fondamentaux. D’une part, le principe cosmologique parfait : non seulement l’Univers est homogène et isotrope dans l’espace – cela signifie qu’à grande échelle, l’Univers présente les mêmes propriétés en tout point et dans toutes les directions d’observation, aucun lieu ni direction n’est privilégiés – mais il l’est aussi dans le temps – ses propriétés sont globalement les mêmes à toutes les époques. D’autre part, ils postulent la création continue de matière pour compenser l’expansion observée de l’Univers mise en évidence par Hubble, de la matière est continuellement créée à un rythme très faible (de l’ordre d’un atome d’hydrogène par mètre cube tous les milliards d’années).

Ce modèle évite un commencement à l’Univers, et par conséquent la question philosophique et scientifique de la création de quelque chose à partir du néant. Il offre un cadre élégant, statique à grande échelle, dans lequel l’Univers n’a ni origine ni fin. D’un point de vue philosophique, il s’inscrit dans la continuité d’une vision éternelle du Cosmos, une position qui était majoritaire parmi les savants de l’Antiquité jusqu’au XVIIIe siècle, une idée déjà défendue par les stoïciens ou Aristote. À noter qu’Aristote s’interroge sur les limites de l’Univers et rejette l’idée d’un Univers infini, qu’il juge physiquement insoutenable.

Pourquoi le modèle de l’état stationnaire a-t-il séduit ?

Le modèle de l’état stationnaire a longtemps bénéficié d’un certain prestige pour plusieurs raisons. D’abord, sa simplicité philosophique, que l’on vient de décrire, mais aussi sa stabilité mathématique, puisqu’il repose sur des solutions simples des équations cosmologiques formulées par Einstein dans le cadre de sa relativité générale. Enfin, il séduit aussi du fait de son esthétique scientifique : un Univers inchangé dans le temps apparaît comme harmonieux et prévisible.

Le modèle de l’état stationnaire avait donc tout pour plaire. Sûr de sa théorie, c’est Fred Hoyle, en voulant se moquer et tourner en dérision le modèle concurrent de l’atome primitif qu’il considérait comme absurde, qui forge le terme de Big Bang lors d’une émission de radio sur la BBC en 1949. Et pourtant…

Le modèle de l’atome primitif de Lemaître : un précurseur du Big Bang

Avant même la formulation du Big Bang moderne tel que nous le concevons aujourd’hui, le prêtre et physicien belge Georges Lemaître avait développé en 1931 une hypothèse audacieuse : le modèle de l’atome primitif. Selon lui, l’Univers aurait été créé à partir de la désintégration d’un « atome cosmique », un point originel dense et chaud, à l’origine de l’expansion de l’espace. Il complète ainsi un modèle qu’il avait commencé à formuler dès 1927, dans lequel il proposait déjà un Univers en expansion.

Photo d’époque en noir et blanc des trois scientifiques
George Lemaître, au centre, en compagnie d’Albert Einstein, à droite, et de Robert Andrews Millikan à gauche. Wikimedia

Vous avez tout à fait raison sur le point historique concernant Lemaître : dans son article de 1927, il obtient des solutions dynamiques des équations d’Einstein, établit déjà la relation distance-vitesse et en donne une première estimation, à partir notamment des redshifts mesurés par Slipher, sans s’appuyer sur Hubble. Les travaux de Hubble, publiés ensuite, ont surtout apporté la confirmation observationnelle systématique et ont contribué à populariser cette loi aujourd’hui appelée loi de Hubble-Lemaître. Il conçoit un Univers en expansion, mais doté d’un passé à la fois physique et avec un commencement. Lemaître imaginait l’atome primitif comme un noyau contenant toute la matière de l’Univers dont la fission aurait déclenché l’expansion cosmique. Il interprétait les rayons cosmiques, récemment découverts, comme des résidus de cette désintégration initiale. Cette hypothèse s’est avérée inexacte puisqu’ils proviennent en réalité de phénomènes astrophysiques situés dans notre environnement cosmique proche.

Lemaître accepte l’idée d’un début de l’Univers, tout en distinguant clairement cette question cosmologique de la Création au sens religieux, qu’il considère relever d’un tout autre registre. Le modèle de l’atome primitif est le précurseur direct de ce que l’on appellera par découvertes successives le modèle du Big Bang, qui s’imposera plus tard, notamment grâce à ses prédictions observables.

Les preuves observationnelles contre l’état stationnaire

Malgré son attrait initial, le modèle de l’état stationnaire a commencé à vaciller face à des données de plus en plus précises. Le coup le plus dur arrive en 1964, quand Arno Penzias et Robert Wilson détectent par hasard un signal radio bruité provenant de toutes les directions d’observation. Ce bruit, appelé rayonnement cosmologique, est en fait la lueur fossile laissée par l’Univers très jeune, exactement comme l’avaient prédit les partisans du Big Bang. Le modèle stationnaire, lui, n’a aucun moyen d’expliquer un tel vestige. Le fond diffus cosmologique, découvert en 1965, est le témoin le plus direct du Big Bang. Ses détails ont ensuite été étudiés par les satellites COBE (1992), WMAP (2003) et Planck (2009).

Trois cartes du fond diffus cosmologiques au fil du temps, selon les premières mesures de Penzias et Wilson puis suite aux mesures des missions spatiales COBE et WMAP
Avec les missions spatiales successives, le fond diffus cosmologique a pu être mesuré de plus en plus précisément. Son existence-même est un argument en faveur du modèle du Big Bang. NASA/Wikimedia

D’autres indices vont dans le même sens : les galaxies lointaines – dont l’image qui nous parvient d’elle date du moment où elles étaient encore jeunes – n’ont pas la même apparence que les galaxies actuelles. De plus, les quasars, sortes de noyaux galactiques hyperactifs, étaient bien plus nombreux dans le passé qu’aujourd’hui. Ces différences montrent que l’Univers évolue au fil du temps, contrairement à ce qu’affirmait l’état stationnaire.

Enfin, le Big Bang prédit avec une grande précision les proportions des éléments légers (hélium, deutérium, lithium) formés durant les toutes premières minutes. Les mesures des éléments fossiles qui sont parvenus jusqu’à nous confirment ces valeurs. Le modèle stationnaire, qui n’inclut pas de phase chaude et dense initiale, est incapable de les expliquer.

L’évolution de la cosmologie moderne

Face à ces observations, la communauté scientifique adopte progressivement le modèle du Big Bang comme modèle standard. Pourtant, Fred Hoyle, dans les années 1990, refusant d’abandonner son hypothèse, propose un modèle dit quasi stationnaire, mais il reste marginal.

Aujourd’hui, le modèle ΛCDM (Lambda Cold Dark Matter), une version étendue du Big Bang qui intègre la constante cosmologique, l’idée selon laquelle il existe une minuscule énergie du vide, identique partout, exerçant une pression qui accélère l’expansion de l’Univers, est considéré comme le cadre le plus complet pour décrire l’évolution de l’univers. Introduite par Einstein en 1917 pour contrecarrer l’effet de la gravité dans un Univers qu’il pensait lui-même statique, elle a été réhabilitée sous le nom d’énergie sombre pour expliquer l’accélération observée, est considéré comme le cadre le plus complet pour décrire l’évolution de l’Univers.

Le modèle de l’état stationnaire illustre un cas typique d’élégance théorique confrontée à la rigueur de l’expérimentation. Cette controverse a stimulé les débats, inspiré des développements mathématiques et permis une meilleure compréhension de ce qu’est une bonne théorie scientifique : cohérente, testable, et surtout, réfutable.

Elle rappelle aussi que la science avance non par dogme, mais par confrontation avec la réalité du cosmos. Et si certaines théories comme celle de la simulation ou du multivers flirtent aujourd’hui avec la frontière de ce que l’on est capable de tester, elles perpétuent une tradition millénaire : tenter de comprendre ce qui, depuis toujours, nous dépasse.

The Conversation

Waleed Mouhali ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

26.11.2025 à 11:25

Votre chien ou chat vieillit ? Des gestes simples pour prolonger sa qualité de vie

Sara Hoummady, DMV, PhD, Associate professor in ethology and animal nutrition, UniLaSalle

Comment accompagner chiens et chats dans leur vieillissement ? Les conseils pratiques de spécialistes en sciences vétérinaires (alimentation, aménagement, comportements à surveiller, etc.).
Texte intégral (3145 mots)
En vieillissant, les besoin des animaux de compagnie évoluent. Ginger/The Conversation, CC BY-ND

Déjà, ses premiers poils gris. Votre chien ou votre chat a pris un petit coup de vieux. Comment prendre soin de lui à présent ? Des chercheurs se sont penchés sur la question et prodiguent quelques conseils faciles à mettre en œuvre.


En France, avec une espérance de vie moyenne de 11,3 ans chez les chiens comme chez les chats, la gériatrie animale est devenue indispensable. Les connaissances progressent rapidement pour mieux accompagner ces animaux. On sait désormais que quelques aménagements simples améliorent nettement le confort et la qualité de vie d’un chat ou d’un chien âgé. L’essentiel pour les propriétaires est de ne pas rester observateur passif du vieillissement de leur compagnon à quatre pattes.

À quel âge mon chien ou mon chat peut-il être considéré comme âgé ?

Une recherche portant sur plus de deux millions de chats et plus de quatre millions de chiens a permis de mieux définir leurs différents stades de vie.

Chez le chat, l’entrée dans le « troisième âge » se situe autour de 10 ans. Le « troisième âge » comprend le stade mature, senior et super-senior.

Selon cette même étude, pour le chien, la situation est moins uniforme : la vitesse de vieillissement dépend fortement de la taille.

  • Les chiens de petit format (toy et small, des races dont le poids est inférieur à 9 kg, comme les chihuahas ou les cavalier king charles) entrent dans le troisième âge vers 7 ans, puis deviennent seniors autour de 12 ans.

  • Les chiens de format moyen à grand, de plus de 9 kg, comme les welsh corgis, les golden retrievers ou les bergers australiens par exemple, y accèdent plus tôt : environ 6 ans pour le début du troisième âge, puis 10 ans pour le stade sénior.

Golden retriever âgé allongé
Même super-senior, ce golden retriever peut conserver une bonne qualité de vie. Nhung Le/Unsplash, CC BY

Il est important d’être rassuré : passer dans ce nouveau stade ne signifie absolument pas que “la fin” approche. Cela indique surtout qu’il est temps d’être plus attentif à son compagnon et d’adapter progressivement son suivi, son environnement et ses soins pour l’aider à vieillir dans les meilleures conditions.

Qu’est-ce qu’un vieillissement sain ? Comment l’évaluer chez son animal ?

Avant de parler de « vieillissement sain », il est utile de rappeler ce qu’est le vieillissement : un processus naturel, progressif et inévitable. Avec le temps, les animaux tolèrent moins bien les stress de leur environnement et leurs cellules accumulent des dommages, ce qui entraîne des modifications physiologiques variées.

Qu’entend-on alors par un chien ou un chat vieillissant « en bonne santé » ? Un récent article de consensus auquel j’ai participé propose une définition adaptée à nos animaux de compagnie : un animal âgé en bonne santé est celui qui conserve suffisamment de capacités et de résistance pour répondre à ses besoins physiques, comportementaux, sociaux et émotionnels, tout en maintenant une relation stable et positive avec son humain.

Certains signes sont tout à fait normaux : poils qui grisonnent, léger tartre, peau plus fine, perception sensorielle un peu diminuée mais sans impact notable sur la qualité de vie.

gros plan cocker
Quelques changements physiques sont tout à fait normaux. Ava Tyler/Unsplash, CC BY

En revanche, des difficultés locomotrices entravant l’accès aux ressources (difficulté à se lever, à monter les escaliers ou à interagir facilement avec vous) ne doivent pas être considérées comme de simples manifestations de l’âge. Il en va de même avec les premiers signes de dysfonction cognitive (un syndrome qui présente quelques similitudes avec Alzheimer), lorsqu’un chien ou un chat a du mal à retrouver sa gamelle ou semble perdu dans la maison, par exemple. Ces cas nécessitent un avis vétérinaire.

La qualité de vie devient donc le critère central pour évaluer si un animal suit une trajectoire de vieillissement harmonieuse. Chez le chien et le chat, on utilise désormais la notion de fragilité, issue de la gériatrie humaine (voir tableau ci-dessous).

Comment évaluer la fragilité de son animal ?

Les animaux classés comme fragiles sont plus susceptibles de développer des maladies et doivent faire l’objet d’un suivi plus rapproché.

L’intérêt majeur de cette approche est que, comme chez l’humain, la fragilité repérée tôt pourrait parfois être atténuée. D’où l’importance d’un dépistage régulier et d’un accompagnement précoce pour soutenir au mieux nos compagnons âgés.

Quelques aménagements à mettre en place

La première étape consiste à rendre l’environnement de l’animal plus accessible afin qu’il puisse atteindre facilement toutes ses ressources : nourriture, eau, lieux de repos, espaces de cachette, zones d’interaction… De simples aménagements peuvent déjà faire une vraie différence : petits escaliers pour monter sur le canapé, chauffeuses ou coussins fermes et peu hauts, gamelles surélevées pour les chiens et chats souffrant d’arthrose.

Très beau chat roux sur un coussin rond
L’utilisation de coussins hauts ou chauffeuses permet au chat d’être en hauteur, avec un accès facilité. Ginger/The Conversation, CC BY-ND

Multiplier les points d’accès est également utile : deux ou trois zones d’alimentation, plusieurs endroits pour dormir, et davantage de litières, faciles à enjamber. Certains bacs du commerce sont trop hauts pour des chats arthrosiques ; un plateau large à rebord bas peut être bien plus confortable.

Maintenir une relation apaisée et positive apparaît essentiel. Un comportement jugé « indésirable » doit toujours être investigué avec un vétérinaire et un comportementaliste (ou un vétérinaire comportementaliste) : il peut en effet traduire un besoin, un inconfort ou une difficulté. Un chat qui griffe le tapis plutôt que son arbre à chat, par exemple, peut simplement chercher une position moins douloureuse. Certains animaux deviennent aussi plus anxieux ou plus réactifs avec l’âge ou certaines conditions médicales ; il est alors important d’en comprendre la cause plutôt que de sanctionner, au risque d’abîmer la relation et de ne pas régler la problématique.

La stimulation cognitive et physique doit se poursuivre, mais en s’adaptant aux capacités de l’animal. Les « puzzle feeders »(ou gamelles interactives, des bols où les animaux doivent résoudre des jeux pour avoir leur ration) restent intéressants, à condition d’être choisis en fonction de son état : un tapis de fouille, une gamelle interactive à pousser du nez seront préférables à un système demandant des mouvements complexes des pattes. Les jeux, les apprentissages et les petits entraînements restent bénéfiques ; il suffit parfois de raccourcir les séances et d’utiliser des récompenses très appétentes (petits morceaux de blanc de poulet ou de saucisses…).

Chien dans un sac
L’utilisation d’un sac peut permettre à votre animal de prolonger son accès à l’extérieur. Treddy Chen/Unsplash, CC BY

Les promenades peuvent être adaptées notamment en utilisant des sacs confortables et sécuritaires pour porter le chien lorsqu’il est trop fatigué, que ce soit pour une partie ou l’ensemble de la balade, l’important étant de continuer à ce que l’animal ait accès à l’extérieur.

L’alimentation joue enfin un rôle majeur dans l’accompagnement des animaux âgés. Le vieillissement entraîne une modification de la digestion et une perte progressive de masse musculaire. Il est donc recommandé de privilégier une alimentation facilement digestible, dont l’odeur et le goût attirent votre animal, et formulée spécifiquement pour les besoins des seniors. Les rations de viande crue sont à éviter : elles sont souvent déséquilibrées en minéraux, ce qui peut être délétère pour les animaux âgés, particulièrement sensibles aux excès de phosphore ou aux rapports calcium/phosphore inadaptés. Elles présentent également un risque sanitaire accru alors que leur système immunitaire est moins performant.

En revanche, combiner une alimentation sèche (croquettes) et humide (terrine, mousses…) est souvent bénéfique. Une ration cuite et faite maison (en suivant les conseils d’un vétérinaire) peut aussi aider un animal à retrouver l’appétit. Et pour les plus difficiles, une astuce simple peut suffire : tiédir légèrement l’aliment humide pour en renforcer l’odeur et la rendre plus attirante.

À quel moment faire intervenir le vétérinaire ?

Les visites de suivi chez le vétérinaire restent indispensables, notamment pour maintenir à jour le protocole vaccinal et le déparasitage. Avec l’âge, le système immunitaire perd en efficacité : un animal senior est donc plus vulnérable et nécessite une protection régulière contre les maladies infectieuses et les parasites.

Les consultations de gériatrie ont pour objectif de suivre l’évolution du vieillissement qui est propre à chaque individu. La première est souvent la plus longue : elle permet un échange approfondi et inclut, lorsque nécessaire, des examens complémentaires. Ces premiers éléments serviront de référence pour les visites suivantes. L’idéal est d’entamer ce suivi dès le début du « troisième âge ». La fréquence des consultations dépend ensuite de la trajectoire de l’animal : tous les six mois si des signes de fragilité apparaissent, ou une fois par an si son état reste stable.

L’enjeu n’est plus seulement d’allonger la durée de vie de nos compagnons, mais surtout de prolonger leur vie en bonne santé, en préservant leur qualité de vie le plus longtemps possible – une démarche qui rejoint celle adoptée pour les humains.

The Conversation

Sara Hoummady est membre de l'AFGASP (Association Française de Gériatrie Animale et de Soins Palliatifs). Elle a reçu la bourse de la FVE (Federation Veterinaire Européenne) pour ses travaux sur le vieillissement félin. Elle a fait partie d'un comité de réflexion sur le vieillissement sain chez le chien et le chat organisé par un petfooder.

PDF

22.11.2025 à 18:08

Effets secondaires des chimiothérapies : une molécule française prometteuse pour lutter contre les neuropathies périphériques, dont souffrent près de 90 % des patients

Laurence Lafanechère, Directrice de recherche CNRS, Université Grenoble Alpes (UGA)

Une nouvelle molécule capable de protéger les neurones des effets toxiques de la chimiothérapie, tout en renforçant l’efficacité de certains traitements anticancéreux, a été découverte.
Texte intégral (1623 mots)

Une nouvelle molécule capable de protéger les neurones des effets toxiques de la chimiothérapie, tout en renforçant l’efficacité de certains traitements anticancéreux, a été découverte et offre des résultats prometteurs chez l’animal. Une start-up a été créée pour continuer son développement et mener des études chez l’humain.


Picotements dans les mains et les pieds, brûlures, douleurs, perte de sensibilité, sensation d’engourdissement… Les neuropathies périphériques figurent parmi les effets secondaires les plus fréquents de la chimiothérapie, touchant jusqu’à 90 % des patients pour certains traitements. Leur sévérité conduit parfois les praticiens à ajuster, voire à réduire les doses de chimiothérapie, ce qui peut en diminuer l’efficacité.

Dans un cas sur quatre, ces atteintes nerveuses persistent des mois, voire des années après la fin du traitement. Elles rappellent alors chaque jour aux patients qu’ils ont eu un cancer – alors même que leurs cheveux ont repoussé et que les nausées ou la fatigue ont disparu. Aucun droit à l’oubli, même une fois la maladie vaincue

À ce jour, hormis le port de gants et de chaussons réfrigérants pendant les séances de chimiothérapie – une méthode pas toujours efficace et souvent désagréable –, aucun traitement préventif n’existe. Quelques médicaments palliatifs sont utilisés, pour atténuer la douleur, avec une efficacité modeste.

Notre équipe, en collaboration avec des chercheurs états-uniens et français, vient de franchir une étape importante avec la découverte d’un composé, baptisé Carba1, capable de protéger les neurones des effets toxiques de la chimiothérapie, tout en renforçant l’efficacité de certains traitements anticancéreux. Ces travaux viennent d’être publiés dans la revue Sciences Advances.

Une molécule, deux cibles

Carba1 appartient à la famille des carbazoles, une classe de molécules développée par les chercheurs du Centre d’études et de recherche sur le médicament de Normandie (CERMN), avec lesquels nous collaborons depuis plus de dix ans.

Nos travaux ont mis en évidence que Carba1 agit sur deux cibles principales.

Premièrement, Carba1 interagit avec la tubuline, la brique de base des microtubules. Selon les besoins de la cellule, ces briques peuvent s’assembler pour former soit des « câbles » capables de tirer et de séparer les chromosomes lors de la division cellulaire, soit des « rails » sur lesquels se déplacent des moteurs moléculaires transportant nutriments et organites comme les mitochondries, assurant ainsi la distribution de l’énergie et des ressources dans toute la cellule.

Ce système de transport est particulièrement essentiel dans les cellules nerveuses, dont les prolongements peuvent atteindre plus d’un mètre de longueur, par exemple les neurones qui partent du ganglion rachidien, près de la moelle épinière et vont innerver la peau des pieds. De nombreux médicaments anticancéreux, tels que le paclitaxel (Taxol) ou le docétaxel (Taxotère), ciblent déjà ces structures afin de bloquer la prolifération des cellules tumorales. Cependant, cette action n’est pas sans conséquence : les neurones, eux aussi dépendants des microtubules pour le transport de leurs constituants, en sont affectés, ce qui constitue l’une des causes majeures des neuropathies.

Nous avons montré que Carba1 modifie subtilement les microtubules : il perturbe leur extrémité, favorisant la liaison du paclitaxel. Cette interaction permet d’utiliser des doses plus faibles du médicament anticancéreux sans perte d’efficacité contre les tumeurs.

Mais ce n’est pas tout.

Des neurones plus résistants

Deuxièmement, en examinant plus en détail les propriétés de Carba1, nous avons découvert qu’il agit également sur un autre front : le métabolisme énergétique. Les neurones figurent parmi les cellules les plus gourmandes en énergie, et la défaillance bioénergétique est considérée comme l’un des principaux facteurs contribuant à la dégénérescence neuronale.

Nos résultats montrent que Carba1 active directement une enzyme clé, la nicotinamide phosphoribosyltransférase (NAMPT), qui relance la production de NAD⁺, molécule cruciale pour la génération d’énergie. Résultat : les neurones deviennent plus résistants au stress métabolique et survivent mieux aux agressions des agents chimiothérapeutiques.

Nous avons confirmé l’effet neuroprotecteur de Carba1 sur des cultures de neurones exposées à trois agents chimiothérapeutiques connus pour induire une neuropathie, via des mécanismes différents : le paclitaxel (ciblant les microtubules), le cisplatine (agent alkylant) et le bortézomib (inhibiteur du protéasome).

Contrairement aux cultures témoins où s’étendent des prolongements neuritiques lisses et vigoureux, dans les cultures traitées par ces médicaments, les prolongements présentent un aspect fragmenté, caractéristique d’un processus de dégénérescence. En revanche, lorsque les neurones sont exposés à ces mêmes traitements en présence de Carba1, leurs prolongements demeurent intacts, indiscernables de ceux des cultures non traitées. Ces observations indiquent que Carba1 protège efficacement les neurones de la dégénérescence induite par ces agents neurotoxiques.

Des résultats encourageants chez l’animal

Pour aller plus loin, nous avons testé Carba1 dans un modèle de neuropathie chez le rat traité au paclitaxel, développé par le Dr David Balayssac à Clermont-Ferrand (unité Neurodol). Ce traitement provoque une hypersensibilité cutanée : les rats réagissent à des pressions très faibles sur leurs pattes, un signe de douleur neuropathique. L’analyse histologique montre également une diminution des terminaisons nerveuses intra-épidermiques, tandis que le sang présente des taux élevés de NfL (chaîne légère de neurofilaments), marqueur de dégénérescence neuronale.

Lorsque Carba1 est administré avant et pendant le traitement, ces altérations disparaissent : les nerfs restent intacts, la concentration de NfL demeure normale et la sensibilité cutanée des animaux reste inchangée. Autrement dit, Carba1 protège les neurones de la dégénérescence induite par le paclitaxel. Signe rassurant, Carba1 n’impacte pas la croissance tumorale.

Comme les neurones, les cellules cancéreuses consomment beaucoup d’énergie. Il était donc essentiel de vérifier que Carba1 n’avait pas d’effet pro-tumoral et qu’il ne diminuait pas l’efficacité du paclitaxel. Pour le savoir, nous avons administré Carba1 seul, ou en association avec une dose thérapeutique de paclitaxel, à des souris porteuses de tumeurs greffées. Les résultats sont clairs : Carba1 n’a provoqué aucun effet toxique, ni altéré la santé générale des animaux, ni stimulé la croissance des tumeurs. Il n’interfère pas non plus avec l’action anticancéreuse du paclitaxel.

Une nouvelle voie vers des traitements mieux tolérés

Cette découverte est particulièrement enthousiasmante, car elle combine deux effets rarement réunis :

  • renforcer l’efficacité des médicaments anticancéreux de la famille du paclitaxel (taxanes) en permettant d’en réduire la dose ;

  • préserver les nerfs et améliorer la qualité de vie des patients pendant et après le traitement.

Avant d’envisager un essai clinique chez l’humain, plusieurs étapes restent indispensables. Il faut d’abord confirmer la sécurité de Carba1 chez l’animal, déterminer la dose minimale efficace et la dose maximale tolérée. Enfin, il sera nécessaire de mettre au point une formulation adaptée à une administration chez l’humain.

Cette mission incombe désormais à la start-up Saxol, issue de cette recherche, dont je suis l’une des cofondatrices. Si ces étapes – qui devraient s’étendre sur cinq ans au moins, selon les défis techniques et les levées de fonds – se déroulent comme prévu, Carba1 pourrait devenir le premier traitement préventif contre la neuropathie induite par la chimiothérapie – une avancée majeure qui pourrait transformer la façon dont les patients vivent leur traitement anticancéreux.

Carba1 incarne une innovation à l’interface de la chimie, de la neurobiologie et de l’oncologie. En associant protection neuronale et renforcement de l’efficacité thérapeutique, cette petite molécule pourrait, à terme, réconcilier traitement du cancer et qualité de vie. Pour les millions de patients confrontés à la double épreuve du cancer et de la douleur neuropathique, elle représente un espoir concret et prometteur.

The Conversation

Laurence Lafanechère est cofondatrice et conseillère scientifique de la Société SAXOL. Pour mener ses recherches elle a reçu des financements de : Société d’Accélération de Transfert de Technologies Linksium Maturation grant CM210005, (L.L) Prématuration CNRS (LL) Ligue contre le Cancer Allier et Isère (LL, C.T, D.B.) Ruban Rose (LL)

PDF

20.11.2025 à 16:16

Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique

Albin Wagener, Professeur en analyse de discours et communication à l'ESSLIL, chercheur au laboratoire ETHICS, Institut catholique de Lille (ICL)

Les textes des COP parlent surtout d’elles-mêmes. Une analyse de discours, menée entre 2015 et 2022, montre comment la nature passe au second plan derrière le langage diplomatique.
Texte intégral (2295 mots)

Derrière les grandes déclarations de la diplomatie climatique, que disent vraiment les textes des COP ? Une étude de leurs discours, passés au crible du « text mining », montre comment les mots des COP sont davantage centrés sur les mécaniques institutionnelles que sur l’urgence environnementale. Le langage diplomatique sur le climat fabrique ainsi un récit institutionnel dont la nature est presque absente.


Alors que la COP30 se tient au Brésil en ce mois de novembre 2025, des voix s’élèvent : ces montagnes onusiennes accoucheraient-elles de souris ? En effet, ces grand-messes du climat aboutissent le plus souvent à des textes consensuels. Certes, ils reconnaissent – sur le papier – la réalité des enjeux climatiques, mais ils ne sont que rarement suivis d’effets. On se souvient, par exemple, du texte de la COP26, à Glasgow (2021), qui évoquait enfin clairement la question de la sortie des énergies fossiles. Mais la mise en œuvre de cette promesse, non réitérée lors de la COP29, à Bakou (2024), reste encore à concrétiser.

Leur processus de décision même est de plus en plus critiqué. Il ne fait intervenir que les délégations nationales à huis clos, tout en donnant un poids important aux lobbies. On y retrouve bien sûr des ONG, mais aussi des grandes entreprises, comme Coca-Cola lors de la COP27, à Charm el-Cheikh (2022). L’occasion pour les États producteurs d’énergie fossile de se livrer à des opérations remarquables d’écoblanchiment – comme les Émirats arabes unis furent accusés de le faire lors de la COP28 à Dubaï. Dans le même temps, les populations autochtones et les mouvements des jeunes pour le climat peinent à se faire entendre à l’occasion de ces événements.

Afin de mieux comprendre l’évolution sémantique dans les déclarations des COP et de voir dans quelle mesure celles-ci reflètent l’urgence climatique, j’ai mené une analyse de discours à partir des déclarations officielles (en anglais) des COP entre 2015 – soit juste après la signature de l’accord de Paris – et 2022. Cela permet de mieux saisir les représentations sociales des instances internationales à propos du changement climatique, dans la mesure où ces discours prennent sens au cours de leur circulation dans la société.

Écolinguistique et text mining, mode d’emploi

Cette étude s’inscrit dans l’approche écolinguistique héritée des travaux d’Arran Stibbe ; une approche qui permet notamment d’explorer la manière dont les institutions cadrent les discours sur l’environnement, tout en aidant à comprendre comment les intérêts divergents d’acteurs différents aboutissent à des positions médianes. Pour le climat comme pour les autres grands sujets politiques internationaux, la façon dont les acteurs en parlent est capitale pour aboutir à des consensus, des prises de décision et des textes engageant les États.

J’ai mené cette analyse grâce à l’outil Iramuteq, développé par Pascal Marchand et Pierre Ratinaud. Il permet une approche statistique du nombre de mots présents dans un corpus textuel, des mots avec lesquels ils apparaissent le plus souvent, mais également de les croiser avec les définitions et leur sens en contexte.

Les sept catégories de récit que l’on retrouve le plus souvent dans les textes des COP climat entre 2015 et 2022. Fourni par l'auteur

Par ordre de poids statistique, on retrouve ainsi les thèmes suivants :

  • Fonds de soutien international (26,2 %, en vert fluo, classe 3), qui recoupe les discussions sur l’aide aux pays en voie de développement et la proposition d’un fonds afin de faire face au changement climatique.

  • Textes des COP (14,2 %, en bleu, classe 5). Cette catégorie intègre les passages qui évoquent le fonctionnement des COP elles-mêmes et des leurs organes administratifs, dont les objectifs sont actés grâce aux textes.

  • Préparation des COP (13,7 %, en rouge, classe 1). Il s’agit de tout le jargon lié aux coulisses des COP et aux travaux d’organisation qui permettent aux COP d’aboutir et à leurs décisions d’être appliquées de manière concrète.

  • Organisation des COP (13,6 %, en gris, classe 2). Il s’agit du détail concernant les événements des COP elles-mêmes, c’est-à-dire leur organisation et leur calendrier, avec le fonctionnement par réunions et documents à produire.

  • Conséquences négatives du changement climatique (11,6 % seulement, en violet, classe 6). Il s’agit des passages où l’accent est mis sur les dommages, les risques et les vulnérabilités, c’est-à-dire les conséquences négatives du réchauffement climatique.

  • Écologie (11,3 %, rose, classe 7). Cette classe traite des éléments d’ordre écologique liés au changement climatique, ainsi que des causes du réchauffement planétaire.

  • Gouvernance de la COP (9,2 %, vert pâle, classe 4). Dans cette dernière classe, on retrouve les éléments d’ordre stratégique liés aux COP, à savoir la gouvernance, les parties prenantes, les groupes de travail et les plans à suivre.


À lire aussi : Les mots de la COP : dictionnaire portatif des négociations climatiques


Que retenir de ce découpage ? Les questions strictement climatiques et écologiques ne totalisent que 22,9 % des occurrences dans les textes, ce qui paraît assez faible alors qu’il s’agit des raisons pour lesquelles ces COP existent. Dans une grande majorité des thématiques abordées par le corpus, les COP parlent d’abord d’elles-mêmes.

C’est peu surprenant pour une institution internationale de ce calibre, mais cela pose de sérieuses questions concernant la prise en compte des dimensions extra-institutionnelles du problème.

L’écologie déconnectée des autres mots clés

J’ai ensuite poussé le traitement des données un peu plus loin grâce à une méthode statistique appelée « analyse factorielle de correspondance ». Celle-ci permet de comprendre comment les différentes thématiques sont articulées entre elles dans les discours au sein du corpus.

Les récits en lien avec les thèmes qu’on retrouve au centre droit du graphe, liés aux textes des COP (bleu), à leur préparation (rouge), à leur organisation (gris) et à leur gouvernance (vert pâle) forment ainsi un ensemble homogène.

On note toutefois, dans la partie en bas à gauche, que la gouvernance des COP (vert pâle) a un positionnement hybride et semble jouer le rôle d’interface avec la thématique des conséquences négatives du réchauffement climatique (violet) et celle des fonds de soutien internationaux (vert fluo).

En d’autres termes, ces observations confirment que les COP se donnent bien pour objectif de remédier aux conséquences du changement climatique. Et cela, à travers la gouvernance mise en place par les COP, et avec la proposition d’aides aux pays les plus vulnérables comme moyen.

Quant au thème de l’écologie (en rose), il se retrouve en haut à gauche du graphe. Surtout, il semble comme déconnecté du reste des thématiques. Ceci montre que, dans ces textes, il existe peu de liens entre les propos qui traitent de l’écologie et ceux qui évoquent le fonctionnement des COP ou la mise en œuvre concrète de solutions.


À lire aussi : Les classes populaires en ont-elles vraiment marre de l’écologie ?


L’absence de termes pourtant centraux

Plus intéressant encore, les textes analysés brillent par l’absence relative de certains termes clés.

Ainsi, le terme animal (en anglais) n’est jamais utilisé. Certains termes n’apparaissent qu’une fois dans tous les textes étudiés, comme life, river ou ecological. D’autres apparaissent, mais très peu, comme natural (trois occurrences), earth (quatre occurrences). Des termes comme water, biodiversity ou ocean, aux enjeux colossaux, ne totalisent que six occurrences.

Ainsi, alors que les COP ont pour objectif de s’intéresser aux conséquences du réchauffement climatique sur les sociétés humaines et le vivant en général, il est marquant de constater que la plupart des champs thématiques du corpus parlent non pas des problèmes liés au changement climatiques, mais surtout des COP elles-mêmes, plus précisément de leur fonctionnement.

En d’autres termes, les COP se parlent à elles-mêmes, dans une logique de vase clos qui vise d’abord à s’assurer que les dispositions prises pour respecter l’accord de Paris sont bien respectées.


À lire aussi : À quoi servent les COP ? Une brève histoire de la négociation climatique


Cet état de fait contraste avec les conséquences concrètes du réchauffement climatique. Il illustre la vivacité de représentations d’ordre gestionnaire et institutionnel, qui s’autoalimentent en voyant d’abord l’environnement, la biodiversité et le vivant comme des ressources à préserver ou des objectifs à accomplir. En restant focalisées sur l’accord de Paris, les déclarations officielles voient ainsi le vivant et la biodiversité comme autant d’outils, d’objets ou de cases à cocher pour rendre compte d’engagements pris au niveau international.

C’est compréhensible étant donnée la nature des textes des COP et du contexte socio-institutionnel qui encadrent leur production. Il n’en reste pas moins que cela trahit bon nombre de représentations qui continuent de percoler nos imaginaires. Dans cette logique, les éléments d’ordre naturel, environnemental ou écologique constituent soit des ressources à utiliser ou préserver, soit des éléments à gérer, soit des objectifs à remplir. Or, cette représentation est loin d’être neutre, comme l’explique George Lakoff.

Ici, le changement climatique est donc traité comme un ensemble de problèmes auxquels il s’agit d’apporter de simples solutions techniques ou des mécanismes de compensation, sans que les conditions qui alimentent ce même dérèglement climatique (notamment liées au système économique et aux modes de production et de consommation) ne soient abordées à aucun moment dans les textes.

C’est cette même logique qui semble condamner les instances internationales à tenter de gérer les conséquences du réchauffement climatique, tout en évitant soigneusement d’en traiter les causes.

The Conversation

Albin Wagener ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.11.2025 à 16:16

On peut réactiver un souvenir ou le faire disparaître de façon réversible – chez la souris

Jean-Christophe Cassel, Professeur de neurosciences à l'Université de Strasbourg, Université de Strasbourg

Chacun sait ce qu’est un souvenir : un événement, une odeur, une sensation de notre passé que nous pouvons rappeler. Mais à quoi ressemble-t-il dans notre cerveau ?
Texte intégral (1776 mots)
Comprendre les mécanismes qui régissent notre mémoire à l’échelle des neurones est un enjeu de taille. Nikolett Emmert/Unsplash, CC BY

Après avoir démontré que les souvenirs s’inscrivent de façon matérielle dans notre cerveau, les scientifiques s’attèlent à la tâche de réactiver des souvenirs attaqués par des maladies neurodégénératives chez des souris.


Chacun sait ce qu’est un souvenir : un événement, une odeur, une sensation de notre passé que nous pouvons rappeler. Mais à quoi ressemble-t-il dans notre cerveau ?

Il est porté par des groupes de neurones interconnectés. À cette échelle, le support du souvenir est appelé « engramme ». Ce mot désigne le substrat matériel constitué par un réseau spécifique de neurones, dont les interconnexions se sont renforcées durablement lors de la mémorisation. Ainsi, quand on se souvient, une partie de ce réseau est réactivée. Les recherches récentes montrent comment se fait cette réactivation et comment on peut la contrôler de façon réversible chez la souris.

Mieux comprendre les mécanismes cellulaires qui sous-tendent nos souvenirs est un enjeu de taille, car nombre de maladies neurodégénératives et de traumatismes altèrent notre mémoire, non seulement en perturbant l’accès aux images de notre passé, mais aussi en s’attaquant directement au matériel biologique dans lequel ces images sont fixées.

Comment les souvenirs s’inscrivent dans le cerveau

L’idée que nos souvenirs ne sont pas quelque chose d’immatériel mais ont un support physique est ancienne. Déjà Platon imaginait que l’âme recèle des tablettes de cire dans lesquelles se grave ce que nous voulons retenir.

Mais il a fallu bien longtemps pour affiner cette intuition, puis pour la démontrer expérimentalement. À la fin du XIXe siècle, l’Espagnol Santiago Ramon y Cajal pense que les connexions entre certains neurones sont renforcées lors d’activations répétées accompagnant l’apprentissage – ainsi se formerait le souvenir.

Dans les années 1960, ces spéculations commencent à trouver une assise expérimentale. C’est d’abord chez un mollusque marin, l’aplysie, qu’on les démontre. Lorsqu’on stimule mécaniquement une partie de son dos, il rétracte ses branchies pour les protéger. Mais si cette stimulation est répétée quelques fois, le réflexe s’atténue durablement. Cette adaptation repose sur une réduction prolongée de l’excitabilité synaptique et du nombre de synapses dans le circuit moteur qui pilote la rétraction.

À l’inverse, une sensibilisation de ce réflexe, déclenchée par une stimulation nociceptive (douleur déclenchée par une agression de l’organisme, ndlr) appliquée sur la queue de l’animal, provoque une augmentation persistante de l’excitabilité synaptique et fait apparaître des connexions additionnelles. En 1973, un mécanisme du même type est décrit dans l’hippocampe du lapin – il est nommé « potentialisation à long terme ».

Pour désigner l’encodage permanent dans le substrat cérébral des éléments d’une expérience vécue, rappelons la formule laconique de Carla Shatz :

« Neurons that fire together, wire together » (Les neurones qui se coactivent s’interconnectent.) Carla Shatz, 1992, « Scientific American »

Observer directement les souvenirs en « allumant » les neurones interconnectés

Si les neurones coactivés au cours de l’encodage se réactivent pour permettre le rappel d’un souvenir (Figure 1), on doit pouvoir prouver que leur réactivation accompagne le rappel du souvenir et montrer que leur destruction l’empêche.

Pour ce qui est de la réactivation lors du rappel, le groupe de Mark Mayford a appris à des souris à reconnaître un signal sonore annonçant un choc électrique désagréable. Lorsque plus tard, les souris réentendent ce son, leur immobilité traduit la peur, donc une réactivation du souvenir de ce qu’annonce le son.

Pour imager les neurones qui portent la réactivation du souvenir, voici la procédure : avant l’apprentissage, on infecte des cellules de l’amygdale
– une structure cruciale pour les émotions, dont la peur – avec un virus qui permettra de rendre fluorescents les neurones activés pendant l’apprentissage. Ultérieurement, une fois que ces souris ont réentendu le son, elles sont mises à mort et, à l’aide d’un second marquage, on visualise les neurones qui se sont activés pendant ce rappel. Du coup, les neurones doublement marqués auront été activés pendant l’apprentissage et réactivés pendant le rappel. Or, Mayford et ses collègues constatent qu’il y a bien eu augmentation du double marquage chez les souris ayant eu peur pendant le rappel (comparativement aux différentes conditions de contrôle).

Pour ce qui est de la destruction des neurones qui aboutissent à l’anéantissement du souvenir, on utilisera également une stratégie reposant sur une infection virale des neurones de l’amygdale, mais cette fois, les neurones activés pendant l’apprentissage seront tués avant le rappel à l’aide d’une toxine. De cette manière, le groupe de Paul Frankland a pu montrer qu’une destruction de ces neurones faisait disparaître toute réaction de peur chez les souris car, du fait de la mort des neurones « souvenir », elles ont oublié la signification du signal sonore.

Comment réactiver un souvenir ou le faire disparaître de façon réversible ?

Aujourd’hui, les chercheurs ont peaufiné cette démonstration en parvenant à manipuler ponctuellement et réversiblement l’engramme (le réseau de neurones souvenirs) pour induire l’expression ou la disparition d’un souvenir.

C’est là qu’intervient une technique relativement récente : l’optogénétique. Elle permet de contrôler (soit activer, soit inhiber) avec une grande précision l’activité de certains neurones en les exposant à de la lumière par l’intermédiaire d’une fibre optique plongée dans une région d’intérêt du cerveau. Il suffit pour cela de rendre ces neurones sensibles à une longueur d’onde lumineuse par introduction de gènes codant pour des protéines photosensibles. De plus, il est possible de faire dépendre l’expression de ces gènes de l’activation même des neurones.

C’est ainsi que le groupe de Susumu Tonegawa a pu montrer, chez la souris, qu’après l’apprentissage d’un danger lié à un contexte donné, l’activation par la lumière des neurones ayant participé à l’apprentissage induisait un comportement de peur, donc un rappel… et cela dans un contexte sans danger bien connu de la souris, et sans rapport avec celui de l’apprentissage ! Par ailleurs, lorsque ces neurones étaient inhibés par la lumière dans le contexte dangereux, la souris ne manifestait plus aucune peur.

Implanter un faux souvenir

Il y a même mieux, puisque le groupe de Tonegawa a aussi réussi à implanter un faux souvenir dans la mémoire des souris.

Les souris ont d’abord encodé un premier contexte parfaitement neutre. Les neurones ayant été activés pendant l’encodage de ce contexte ont exprimé une protéine photoactivable avec de la lumière bleue. Les chercheurs ont ensuite exposé ces souris à un autre contexte, celui-là désagréable, tout en activant conjointement la trace du premier avec de la lumière bleue.

Lorsque les souris étaient ultérieurement réexposées au premier contexte (pourtant neutre, à la base), elles se sont mises à le craindre.

Enfin, dans un modèle murin de maladie d’Alzheimer, le groupe de Tonegawa est même allé jusqu’à ressusciter un souvenir le temps d’une photoactivation d’un engramme d’abord rendu photoactivable mais ultérieurement oublié, alors même que celui-ci était invalidé du fait de l’évolution d’un processus neurodégénératif.

Pour l’heure, ces résultats, bien que spectaculaires, et avec lesquels s’alignent les données produites par d’autres groupes de recherche, se limitent à des mémoires simples qui pilotent des comportements simples dans des modèles animaux raisonnablement complexes.

Reste à savoir si les travaux menés sur ces modèles sont généralisables sans nuances à l’humain, et par quel mécanisme un motif d’activation neuronale peut générer des images et des impressions passées dans une phénoménologie consciente actuelle.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Jean-Christophe Cassel a reçu des financements de l'ANR. ANR-14-CE13-0029-01 ANR-23-CE37-0012-02

PDF

20.11.2025 à 11:22

L’IA générative est-elle soutenable ? Le vrai coût écologique d’un prompt

Denis Trystram, Professeur des universités en informatique, Université Grenoble Alpes (UGA)

Danilo Carastan Dos Santos, Professeur assistant, Université Grenoble Alpes (UGA)

Djoser Simeu, Ingénieure de recherche en Intelligence Artificielle Frugale, Inria

Laurent Lefèvre, Chercheur en informatique, Inria

Les chiffres « verts » de Google sur son IA Gemini sont séduisants : seulement 0,003 g équivalent CO₂ par prompt. Mais le problème tient à sa méthodologie opaque.
Texte intégral (2747 mots)

Circulez, il n’y a rien à voir ? Les estimations du bilan environnemental de l’intelligence artificielle générative, comme celles réalisées à l’été 2025 par Google sur son IA Gemini, semblent rassurantes : seulement 0,003 g de CO2 et cinq gouttes d’eau par « prompt ». Des résultats qui dépendent en réalité beaucoup des choix méthodologiques réalisés, alors que de telles études sont le plus souvent menées en interne et manquent de transparence. Le problème est que ces chiffres font de plus en plus souvent figure d’argument marketing pour inciter à l’utilisation de l’IA générative, tout en ignorant le risque bien réel d’effet rebond lié à l’explosion des usages.


Depuis la sortie de ChatGPT fin 2022, les IA génératives ont le vent en poupe. En juillet 2025, OpenAI annonçait que ChatGPT recevait 18 milliards de « prompts » (instructions écrites par les utilisateurs) par semaine, pour 700 millions d’utilisateurs – soit 10 % de la population mondiale.

Aujourd’hui, la ruée vers ces outils est mondiale : tous les acteurs de la Big Tech développent désormais leurs propres modèles d’IA générative, principalement aux États-Unis et en Chine. En Europe, le Français Mistral, qui produit l’assistant Le Chat, a récemment battu les records avec une capitalisation proche de 12 milliards d’euros. Chacun de ces modèles s’inscrit dans un environnement géopolitique donné, avec des choix technologiques parfois différents. Mais tous ont une empreinte écologique considérable qui continue d’augmenter de façon exponentielle, portée par la démultiplication des usages. Certains experts, dont ceux du think tank spécialisé The Shift Project, sonnent l’alerte : cette croissance n’est pas soutenable.


À lire aussi : L’IA peut-elle vraiment être frugale ?


Or, tous les acteurs du domaine – y compris les consommateurs – sont aujourd’hui bien conscients que du coût environnemental qui accompagne les usages liés au numérique, mais pas forcément des chiffres que cela représente.

Poussés par de multiples raisons (obligations réglementaires, marketing, parfois par conscience environnementale), plusieurs des grands acteurs de la tech ont récemment réalisé l’analyse de cycle de vie (ACV, méthodologie permettant d’évaluer l’impact environnemental global d’un produit ou service) de leurs modèles.

Fin août 2025, Google a publié la sienne pour quantifier les impacts de son modèle Gemini. Que valent ces estimations, et peut-on s’y fier ?

Une empreinte carbone étonnement basse

Un modèle d’IA générative, pour fonctionner, doit d’abord être « entraîné » à partir d’une grande quantité d’exemples écrits. Pour mesurer l’électricité consommée par un « prompt », Google s’est donc concentré sur la phase d’utilisation – et non pas d’entraînement – de son IA Gemini. Selon ses propres calculs, Google annonce donc qu’un prompt ne consommerait que 0,24 wattheure (Wh) en moyenne – c’est très faible : environ une minute de consommation d’une ampoule électrique standard de 15 watts.

Comment les auteurs sont-ils arrivés à ce chiffre, significativement plus faible que dans les autres études déjà réalisées à ce sujet, comme celle menée par Mistral IA en juillet 2025 ?

La première raison tient à ce que Google mesure réellement. On apprend par exemple dans le rapport que l’électricité consommée par un prompt est utilisée pour 58 % par des processeurs spécialisés pour l’IA (l’unité de traitement graphique, ou GPU, et le circuit intégré spécifique Tensor Processing Unit, ou TPU), 25 % par des processeurs classiques et à hauteur d’environ 10 % par les processeurs en veille, et les 7 % restants pour le refroidissement des serveurs et le stockage de données.

Autrement dit, Google ne tient ici compte que de l’électricité consommée par ses propres data centers, et pas de celle consommée par les terminaux et les routeurs des utilisateurs.

Par ailleurs, aucune information n’est donnée sur le nombre d’utilisateurs ou le nombre de requêtes prises en compte dans l’étude, ce qui questionne sa crédibilité. Dans ces conditions, impossible de savoir comment le comportement des utilisateurs peut affecter l’impact environnemental du modèle.


À lire aussi : Impact environnemental du numérique : l’inquiétant boom à venir


Google a racheté en 2024 l’équivalent de la production d’électricité annuelle de l’Irlande

La seconde raison tient à la façon de convertir l’énergie électrique consommée en équivalent CO2. Elle dépend du mix électrique de l’endroit où l’électricité est consommée, tant du côté des data centers que des terminaux des utilisateurs. Ici, on l’a vu, Google ne s’intéresse qu’à ses propres data centers.

Depuis longtemps, Google a misé sur l’optimisation énergétique, en se tournant vers des sources décarbonées ou renouvelables pour ses centres de données répartis partout dans le monde. Selon son dernier rapport environnemental, l’effort semble porter ses fruits, avec une diminution de 12 % des émissions en un an, alors que la demande a augmenté de 27 % sur la même période. Les besoins sont colossaux : en 2024, Google a consommé, pour ses infrastructures de calcul, 32 térawattsheures (TWh), soit l’équivalent de la production d’électricité annuelle de l’Irlande.


À lire aussi : Un data center près de chez soi, bonne ou mauvaise nouvelle ?


De fait, l’entreprise a signé 60 contrats exclusifs de fourniture en électricité à long terme en 2024, pour un total de 170 depuis 2010. Compte tenu de l’ampleur des opérations de Google, le fait d’avoir des contrats d’électricité exclusifs à long terme compromet la décarbonation dans d’autres secteurs. Par exemple, l’électricité à faibles émissions qui alimente les prompts pourrait être utilisée pour le chauffage, secteur qui dépend encore fortement des combustibles fossiles.

Dans certains cas, ces contrats impliquent la construction de nouvelles infrastructures de production d’énergie. Or, même pour la production d’énergie renouvelable décarbonée, leur bilan environnemental n’est pas entièrement neutre : par exemple, l’impact associé à la fabrication de panneaux photovoltaïques est compris entre 14 gCO2eq et 73 gCO2eq/kWh, ce que Google ne prend pas en compte dans ses calculs.

Enfin, de nombreux services de Google font appel à de la « colocation » de serveurs dans des data centers qui ne sont pas nécessairement décarbonés, ce qui n’est pas non plus pris en compte dans l’étude.

Autrement dit, les choix méthodologiques réalisés pour l’étude ont contribué à minimiser l’ampleur des chiffres.

Cinq gouttes d’eau par prompt, mais 12 000 piscines olympiques au total

La consommation d’eau douce est de plus en plus fréquemment prise en compte dans les rapports environnementaux liés au numérique. Et pour cause : il s’agit d’une ressource précieuse, constitutive d’une limite planétaire récemment franchie.

L’étude de Google estime que sa consommation d’eau pour Gemini est de 0,26 ml – soit cinq gouttes d’eau – par prompt. Un chiffre qui semble dérisoire, ramené à l’échelle d’un prompt, mais les petits ruisseaux font les grandes rivières : il faut le mettre en perspective avec l’explosion des usages de l’IA.

Globalement, Google a consommé environ 8 100 millions de gallons (environ 30 millions de mètres cubes, l’équivalent de quelque 12 000 piscines olympiques) en 2024, avec une augmentation de 28 % par rapport à 2023.

Mais là aussi, le diable est dans les détails : le rapport de Google ne comptabilise que l'eau consommée pour refroidir les serveurs (selon un principe très similaire à la façon dont nous nous rafraîchissons lorsque la sueur s’évapore de notre corps). Le rapport exclut de fait la consommation d’eau liée à la production d’électricité et à la fabrication des serveurs et autres composants informatiques, qui sont pourtant prises en compte pour le calcul de son empreinte carbone, comme on l’a vu plus haut. En conséquence, les indicateurs d’impact environnemental (carbone, eau…) n’ont pas tous le même périmètre, ce qui complique leur interprétation.


À lire aussi : Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique


Des études encore trop opaques

Comme la plupart des études sur le sujet, celle de Google a été menée en interne. Si on comprend l’enjeu de secret industriel, un tel manque de transparence et d’expertise indépendante pose la question de sa légitimité et surtout de sa crédibilité. On peut néanmoins chercher des points de comparaisons avec d’autres IA, par exemple à travers les éléments présentés par Mistral IA en juillet 2025 sur les impacts environnementaux associés au cycle de vie de son modèle Mistral Large 2, une première.

Cette étude a été menée en collaboration avec un acteur français reconnu de l’analyse du cycle de vie (ACV), Carbone4, avec le soutien de l’Agence de l'environnement et de la maîtrise de l’énergie (Ademe), ce qui est un élément de fiabilité. Les résultats sont les suivants.

Pendant les dix-huit mois de durée de vie totale du modèle, environ 20 000 tonnes équivalent CO2 ont été émises, 281 000 m3 d’eau consommée et 660 kg équivalent antimoine (indicateur qui prend en compte l’épuisement des matières premières minérales métalliques).

Résultats présentés par Mistral à l’été 2025. Mistral AI

Mistral attire l’attention sur le fait que l’utilisation du modèle (inférence) a des effets qu’ils jugent « marginaux », si on considère un prompt moyen utilisant 400 « tokens » (unités de traitement corrélées à la taille du texte en sortie) : ce prompt correspond à l’émission de 1,14 g équivalent CO2, de 50 ml d’eau et 0,5 mg équivalent antimoine. Des chiffres plus élevés que ceux avancés par Google, obtenus, comme on l’a vu, grâce à une méthodologie avantageuse. De plus, Google s’est basé dans son étude sur un prompt « médian » sans donner davantage de détails statistiques, qui seraient pourtant bienvenus.

En réalité, l’une des principales motivations, que cela soit celles de Google ou de Mistral, derrière ce type d’étude reste d’ordre marketing : il s’agit de rassurer sur l’impact environnemental (ce qu’on pourrait qualifier de « greenwashing ») de l’IA pour pousser à la consommation. Ne parler que de l’impact venant des prompts des utilisateurs fait également perdre de vue la vision globale des coûts (par exemple, ceux liés à l’entraînement des modèles).


À lire aussi : Comment rendre l’électronique plus soutenable ?


Reconnaissons que le principe d’effectuer des études d’impacts est positif. Mais l’opacité de ces études, même lorsqu’elles ont le mérite d’exister, doit être interrogée. Car, à ce jour, Mistral pas plus que Google n’ont pas dévoilé tous les détails des méthodologies utilisées, les études ayant été menées en interne. Or, il faudrait pouvoir disposer d’un référentiel commun qui permettrait de clarifier ce qui doit être pris en compte dans l’analyse complète du cycle de vie (ACV) d’un modèle d’IA. Ceci permettrait de réellement comparer les résultats d’un modèle à l’autre et de limiter les effets marketing.

Une des limites tient probablement à la complexité des IA génératives. Quelle part de l’empreinte environnementale peut-on rattacher à l’utilisation du smartphone ou de l’ordinateur pour le prompt ? Les modèles permettant le fine-tuning pour s’adapter à l’utilisateur consomment-ils plus ?

La plupart des études sur l’empreinte environnementale des IA génératives les considèrent comme des systèmes fermés, ce qui empêche d’aborder la question pourtant cruciale des effets rebonds induits par ces nouvelles technologies. Cela empêche de voir l’augmentation vertigineuse de nos usages de l’IA, en résumant le problème au coût environnemental d’un seul prompt.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

18.11.2025 à 16:13

Pour prédire si un volcan sera effusif ou explosif, il faut s’intéresser à ses bulles

Olivier Roche, Chercheur en volcanologie, Institut de recherche pour le développement (IRD); Université Clermont Auvergne (UCA)

Jean-Michel Andanson, Chargé de recherche, Centre national de la recherche scientifique (CNRS); Université Clermont Auvergne (UCA)

Une étude publiée très récemment dans la revue « Science » permet de mieux comprendre le moteur des éruptions volcaniques : la formation des bulles dans le magma.
Texte intégral (1769 mots)
Un même volcan peut produire des éruptions effusives ou explosives. Marc Szeglat/Unsplash, CC BY

Une étude publiée très récemment dans la revue « Science » permet de mieux comprendre le moteur des éruptions volcaniques : la formation des bulles dans le magma.


Les observations faites depuis des décennies dans diverses régions du monde montrent que les éruptions volcaniques sont caractérisées par deux types de comportement en surface. D’un côté du spectre, le magma qui remonte depuis les profondeurs de la Terre est émis calmement sous forme de coulées ou de dômes de lave, caractérisant ainsi le style « effusif ». C’est le cas des volcans d’Hawaï ou de La Réunion dont les éruptions quasi annuelles font souvent l’actualité dans les médias.

À l’opposé, un mélange turbulent de gaz et de cendres est éjecté violemment dans l’atmosphère, définissant ainsi le style « explosif ». Le mélange forme un panache qui s’élève dans un premier temps à des altitudes pouvant atteindre 40-50 kilomètres et qui finit souvent par s’effondrer sous l’effet de la gravité pour former des nuées ardentes dévastatrices qui se propagent à haute vitesse le long du sol. Un exemple célèbre est l’éruption du Vésuve en l’an 79 de notre ère qui détruisit les villes de Pompéi et d’Herculanum.

Les données collectées par les scientifiques montrent que le comportement d’un volcan comme le Vésuve peut changer au cours du temps, alternant les périodes effusives et explosives, à cause de variations de la nature des magmas et des conditions de stockage en profondeur. Dans ce contexte, comprendre les mécanismes fondamentaux des éruptions volcaniques afin de mieux prédire leurs conséquences est un enjeu sociétal et environnemental majeur compte-tenu qu’environ 600 millions de personnes dans le monde vivent dans des zones potentiellement touchées par les aléas volcaniques.

Comprendre l’origine des bulles dans le magma

Le moteur des éruptions volcaniques est la formation des bulles de gaz dans le magma. En particulier, la temporalité de la formation puis de la croissance des bulles, le volume qu’elles occupent et leur capacité à ne pas se séparer du liquide magmatique contrôlent la dynamique de la remontée du mélange dans le conduit volcanique vers la surface et, au final, le style éruptif décrit ci-dessus (Figure 1A). C’est dans ce cadre que nous avons mené une étude pour mieux comprendre l’origine de la formation des bulles, un phénomène appelé « nucléation ». Les résultats de nos travaux ont été publiés le 6 novembre dans la revue Science.

A) Le cisaillement, indiqué par les champs de vitesse, est omniprésent dans un système volcanique et contribue à déclencher la nucléation des bulles dans le conduit. B) Les expériences montrent que la nucléation (ellipses rouges) est déclenchée lorsque la force associée au cisaillement imposé (flèche blanche) atteint une valeur critique qui décroît avec la quantité de gaz dissous dans le liquide. C) Les simulations moléculaires montrent que le cisaillement permet de faire croître un embryon de bulle (en bleu, volatil) entourée d’un mélange de phases gazeuse et liquide (la zone en blanc est composée de liquide). Fourni par l'auteur

Jusqu’à présent, les volcanologues ont considéré que la nucléation des bulles était déclenchée principalement par la décompression du magma saturé en gaz dissous (essentiellement de la vapeur d’eau) lors de l’ascension dans le conduit. En effet, chacun a déjà constaté l’effet produit par l’ouverture trop rapide d’une bouteille de boisson gazeuse : lorsque la pression chute, le liquide qui contient du gaz dissous (CO2 dans ce cas) devient sursaturé, et des bulles de gaz se forment alors rapidement, croissent, et entraînent le liquide vers le goulot de la bouteille. Au cours de la nucléation, la différence de pression entre un embryon de bulle et le liquide est connue comme une source d’énergie mécanique qui contribue à faire croître l’amas gazeux alors que la tension superficielle du liquide s’y oppose, et au-delà d’une taille critique, l’embryon devient une bulle qui croît spontanément.

Or, les différences de vitesse au sein d’un magma en mouvement génèrent des forces dites de cisaillement qui pourraient être une autre source d’énergie mécanique apte à déclencher la nucléation. C’est le cas en particulier dans un conduit volcanique en raison d’une différence de vitesse entre les bords, où le frottement est important, et le centre (Figure 1A).

L’importance des forces de cisaillement

Nous avons testé cette hypothèse au moyen d’expériences dites analogiques, réalisées dans des conditions de température et avec des matériaux différents de ceux dans la nature. Les expériences sont faites dans un rhéomètre, un équipement utilisé pour mesurer la capacité des fluides à se déformer. Ce dispositif permet de cisailler une couche d’oxyde de polyéthylène liquide à 80 °C et sursaturé en CO2, laquelle simule le magma dans la nature. Les expériences montrent que la nucléation de bulles de gaz est déclenchée lorsque la force de cisaillement appliquée atteint une valeur seuil qui décroît avec la teneur en CO2 (Figure 1B). De plus, le cisaillement cause le rapprochement puis l’agglomération en de plus grosses bulles et ainsi leur croissance. Nos données expérimentales sont en accord avec un modèle qui indique que la taille minimale pour qu’un embryon de bulle puisse croître est de près d’un millionième de millimètre. Ces résultats sont complétés par des simulations moléculaires qui confirment que la nucléation se produit si le cisaillement est suffisamment fort (Figure 1C).

Nous avons finalement extrapolé nos résultats aux systèmes volcaniques en tenant compte du rapport des pressions mises en jeu et des propriétés des magmas. L’analyse montre que la nucléation par cisaillement peut se produire dans un conduit dans presque tous les cas, et nous en tirons deux conclusions principales. La première est qu’un magma pauvre en gaz dissous, et donc a priori non explosif, pourrait néanmoins conduire à une éruption violente en raison d’un important cisaillement causant une nucléation massive. La seconde est qu’une nucléation efficace dans un magma très visqueux et très riche en gaz dissous, couplée à la décompression lors de la remontée et à une agglomération et à une croissance rapide des bulles, peut conduire à la formation de chenaux de dégazage connecté à la surface et engendrer, paradoxalement, une éruption non violente. Ce processus peut être renforcé lorsque la nucléation se produit à proximité de bulles préexistantes, comme le montrent nos expériences. Ce mécanisme explique l’observation contre-intuitive faite depuis longtemps par les volcanologues selon laquelle les magmas très visqueux et contenant de fortes teneurs en gaz dissous peuvent produire des éruptions effusives.

Nos travaux suggèrent que la nucléation induite par cisaillement doit désormais être intégrée aux modèles mathématiques de conduits volcaniques développés par les volcanologues et qui permettent de prédire les dynamismes éruptifs. En couplant cette approche à d’autres modèles qui simulent des coulées de la lave, des panaches ou des nuées ardentes, il est ainsi possible de définir les zones potentiellement atteintes par les produits des éruptions. Cette tâche est essentielle pour la gestion des risques naturels et pour la protection des populations qui vivent à proximité des volcans actifs.

The Conversation

Olivier Roche a reçu des financements du programme I-SITE CAP 20-25 piloté par l'UCA.

Jean-Michel Andanson a reçu des financements ANR, CNRS, Université Clermont Auvergne, commission européenne, Fond national Suisse.

PDF

17.11.2025 à 16:02

Elon Musk a raison de dire que Wikipédia est biaisé, mais Grokipedia et l’IA ne feront pas mieux

Taha Yasseri, Workday Professor of Technology and Society, Trinity College Dublin

Elon Musk veut concurrencer Wikipédia avec Grokipedia, une encyclopédie générée par IA censée corriger les biais de la célèbre plateforme collaborative. Mais l’IA risque surtout de reproduire, voire d’accentuer, les travers que dénonce le magnat de la tech.
Texte intégral (2456 mots)
Musk présente son projet Grokipedia comme une réponse aux « biais politiques et idéologiques » de Wikipédia. Miss Cabul/Shutterstock

Grokipedia, le nouveau projet d’Elon Musk, mis en ligne le 27 octobre 2025, promet plus de neutralité que Wikipédia. Pourtant, les modèles d’IA sur lesquels il repose restent marqués par les biais de leurs données.


La société d’intelligence artificielle d’Elon Musk, xAI, a lancé, le 27 octobre 2025, la version bêta d’un nouveau projet destiné à concurrencer Wikipédia, Grokipedia. Musk présente ce dernier comme une alternative à ce qu’il considère être « le biais politique et idéologique » de Wikipédia. L’entrepreneur promet que sa plateforme fournira des informations plus précises et mieux contextualisées grâce à Grok, le chatbot de xAI, qui générera et vérifiera le contenu.

A-t-il raison ? La problématique du biais de Wikipédia fait débat depuis sa création en 2001. Les contenus de Wikipédia sont rédigés et mis à jour par des bénévoles qui ne peuvent citer que des sources déjà publiées, puisque la plateforme interdit toute recherche originale. Cette règle, censée garantir la vérifiabilité des faits, implique que la couverture de Wikipédia reflète inévitablement les biais des médias, du monde académique et des autres institutions dont elle dépend.

Ces biais ne sont pas uniquement politiques. Ainsi, de nombreuses recherches ont montré un fort déséquilibre entre les genres parmi les contributeurs, dont environ 80 % à 90 % s’identifient comme des hommes dans la version anglophone. Comme la plupart des sources secondaires sont elles aussi majoritairement produites par des hommes, Wikipédia tend à refléter une vision plus étroite du monde : un dépôt du savoir masculin plutôt qu’un véritable panorama équilibré des connaissances humaines.

Le problème du bénévolat

Sur les plateformes collaboratives, les biais tiennent souvent moins aux règles qu’à la composition de la communauté. La participation volontaire introduit ce que les sciences sociales appellent un « biais d’autosélection » : les personnes qui choisissent de contribuer partagent souvent des motivations, des valeurs et parfois des orientations politiques similaires.

De la même manière que Wikipédia dépend de cette participation volontaire, c’est aussi le cas de Community Notes, l’outil de vérification des faits de Musk sur X (anciennement Twitter). Une analyse que j’ai menée avec des collègues montre que sa source externe la plus citée, après X lui-même, est en réalité Wikipédia.

Les autres sources les plus utilisées se concentrent elles aussi du côté des médias centristes ou orientés à gauche. Elles reprennent la même liste de sources « approuvées » que Wikipédia ; c’est-à-dire précisément le cœur des critiques de Musk adressées à l’encyclopédie ouverte en ligne. Pourtant, personne ne reproche ce biais à Musk.

Le profil X d’Elon Musk
Illustration des Community Notes. Tada Images

Wikipédia reste au moins l’une des rares grandes plateformes à reconnaître ouvertement ses limites et à les documenter. La recherche de la neutralité y est inscrite comme l’un de ses cinq principes fondateurs. Des biais existent, certes, mais l’infrastructure est conçue pour les rendre visibles et corrigibles.

Les articles contiennent souvent plusieurs points de vue, traitent des controverses et même consacrent des sections entières aux théories complotistes, comme celles entourant les attentats du 11-Septembre. Les désaccords apparaissent dans l’historique des modifications et sur les pages de discussion, et les affirmations contestées sont signalées. La plateforme est imparfaite mais autorégulée, fondée sur le pluralisme et le débat ouvert.

L’IA est-elle impartiale ?

Si Wikipédia reflète les biais de ses contributeurs humains et des sources qu’ils mobilisent, l’IA souffre du même problème avec ses données d’entraînement. Grokipedia : Elon Musk a raison de dire que Wikipédia est biaisée, mais son alternative fondée sur l’IA ne fera pas mieux

Les grands modèles de langage (LLM) utilisés par Grok sont formés sur d’immenses corpus issus d’Internet, comme les réseaux sociaux, les livres, les articles de presse et Wikipédia elle-même. Des études ont montré que ces modèles reproduisent les biais existants – qu’ils soient de genre, d’ordre politique ou racial – présents dans leurs données d’entraînement.

Musk affirme que Grok a été conçu pour contrer de telles distorsions, mais Grok lui-même a été accusé de partialité. Un test, dans laquelle quatre grands modèles de langage ont été soumis à 2 500 questions politiques, semble montrer que Grok est plus neutre politiquement que ses rivaux, mais présente malgré tout un biais légèrement orienté à gauche (les autres étant davantage marqués à gauche).

Étude montrant des biais dans les LLM
Michael D’Angelo/Promptfoo, CC BY-SA

Si le modèle qui soustend Grokipedia repose sur les mêmes données et algorithmes, il est difficile d’imaginer comment une encyclopédie pilotée par l’IA pourrait éviter de reproduire les biais que Musk reproche à Wikipédia. Plus grave encore, les LLM pourraient accentuer le problème. Ceux-ci fonctionnent de manière probabiliste, en prédisant le mot ou l’expression la plus probable à venir sur la base de régularités statistiques, et non par une délibération entre humains. Le résultat est ce que les chercheurs appellent une « illusion de consensus » : une réponse qui sonne de manière autoritaire, mais qui masque l’incertitude ou la diversité des opinions.

De ce fait, les LLM tendent à homogénéiser la diversité politique et à privilégier les points de vue majoritaires au détriment des minoritaires. Ces systèmes risquent ainsi de transformer le savoir collectif en un récit lisse mais superficiel. Quand le biais se cache sous une prose fluide, les lecteurs peuvent même ne plus percevoir que d’autres perspectives existent.

Ne pas jeter le bébé avec l’eau du bain

Cela dit, l’IA peut aussi renforcer un projet comme Wikipédia. Des outils d’IA contribuent déjà à détecter le vandalisme, à suggérer des sources ou à identifier des incohérences dans les articles. Des recherches récentes montrent que l’automatisation peut améliorer la précision si elle est utilisée de manière transparente et sous supervision humaine.

L’IA pourrait aussi faciliter le transfert de connaissances entre différentes éditions linguistiques et rapprocher la communauté des contributeurs. Bien mise en œuvre, elle pourrait rendre Wikipédia plus inclusif, efficace et réactif sans renier son éthique centrée sur l’humain.

De la même manière que Wikipédia peut s’inspirer de l’IA, la plate-forme X pourrait tirer des enseignements du modèle de construction de consensus de Wikipédia. Community Notes permet aux utilisateurs de proposer et d’évaluer des annotations sur des publications, mais sa conception limite les discussions directes entre contributeurs.

Un autre projet de recherche auquel j’ai participé a montré que les systèmes fondés sur la délibération, inspirés des pages de discussion de Wikipédia, améliorent la précision et la confiance entre participants, y compris lorsque cette délibération implique à la fois des humains et une IA. Favoriser le dialogue plutôt que le simple vote pour ou contre rendrait Community Notes plus transparent, pluraliste et résistant à la polarisation politique.

Profit et motivation

Une différence plus profonde entre Wikipédia et Grokipedia tient à leur finalité et, sans doute, à leur modèle économique. Wikipédia est géré par la fondation à but non lucratif Wikimedia Foundation, et la majorité de ses bénévoles sont motivés avant tout par l’intérêt général. À l’inverse, xAI, X et Grokipedia sont des entreprises commerciales.

Même si la recherche du profit n’est pas en soi immorale, elle peut fausser les incitations. Lorsque X a commencé à vendre sa vérification par coche bleue, la crédibilité est devenue une marchandise plutôt qu’un gage de confiance. Si le savoir est monétisé de manière similaire, le biais pourrait s’accentuer, façonné par ce qui génère le plus d’engagements et de revenus.

Le véritable progrès ne réside pas dans l’abandon de la collaboration humaine mais dans son amélioration. Ceux qui perçoivent des biais dans Wikipédia, y compris Musk lui-même, pourraient contribuer davantage en encourageant la participation d’éditeurs issus d’horizons politiques, culturels et démographiques variés – ou en rejoignant eux-mêmes l’effort collectif pour améliorer les articles existants. À une époque de plus en plus marquée par la désinformation, la transparence, la diversité et le débat ouvert restent nos meilleurs outils pour nous approcher de la vérité.

The Conversation

Taha Yasseri a reçu des financements de Research Ireland et de Workday.

PDF

17.11.2025 à 16:02

Collaborations art-science : qui ose vraiment franchir les frontières ?

Karine Revet, Professeur de stratégie, Burgundy School of Business

Barthélémy Chollet, Professeur, Management et Technologie, Grenoble École de Management (GEM)

À l’heure où la science est appelée à jouer un rôle majeur dans la transition écologique et sociale, l’art ne doit plus être considéré comme un simple « emballage esthétique ».
Texte intégral (2132 mots)
Au Getty Museum, à Los Angeles, l’exposition « PST ART: Art & Science Collide » met en avant la coopération entre scientifiques et artistes. Youtube/capture d’écran.

Les collaborations entre scientifiques et artistes font régulièrement parler d’elles à travers des expositions intrigantes ou des performances artistiques au sein de laboratoires scientifiques. Mais qu’est-ce qui motive vraiment les chercheuses et les chercheurs à s’associer à des artistes ?


Art et science se sont historiquement nourris mutuellement comme deux manières complémentaires de percevoir le monde.

Considérons ainsi les principaux instituts états-uniens de sciences marines : tous sont dotés d’ambitieux programmes de collaboration art/science, mis en place à partir du tournant des années 2000. Le prestigieux Scripps Institution of Oceanography a, par exemple, développé une collection d’art privée, ouverte au public, pour « refléter des connaissances scientifiques objectives dans des œuvres d’art à la fois réalistes et abstraites ». À l’Université de Washington, des résidences d’artiste sont organisées, au cours desquelles des peintres passent entre un et trois mois au milieu des scientifiques des Friday Harbor Laboratories (une station de recherche en biologie marine), sur l’île reculée de San Juan.

Ces démarches semblent indiquer que les institutions scientifiques sont déjà convaincues du potentiel de la collaboration entre art et science. L’initiative ne vient pas toujours des laboratoires : nombre d’artistes ou de collectifs sollicitent eux-mêmes les chercheurs, que ce soit pour accéder à des instruments, à des données ou à des terrains scientifiques. En France comme ailleurs, plusieurs résidences – au CNRS, à Paris-Saclay ou dans des centres d’art – sont ainsi nées d’une démarche portée d’abord par les artistes.

Mais qu’en est-il des chercheurs eux-mêmes ? ceux-là même qui conçoivent, développent et réalisent les projets de recherche et qui a priori ont une sensibilité artistique qui n’est ni inférieure ni supérieure à la moyenne de la population. Quels sont ceux qui choisissent d’intégrer l’art dans leurs projets scientifiques ? Et pour quoi faire ? Les études disponibles ne sont pas très éclairantes sur le sujet, car elles se sont focalisées sur des scientifiques atypiques, passionnés par l’art et artistes eux-mêmes. Peu de travaux avaient jusqu’ici procédé à un recensement « tout azimuts » des pratiques.

Dans une étude récente, nous avons recensé les pratiques, des plus originales aux plus banales, en analysant plus de 30 000 projets de recherche financés par la National Science Foundation (NSF) aux États-Unis entre 2003 et 2023, dans les domaines des géosciences et de la biologie.

Une analyse textuelle du descriptif des projets permet de sortir de l’anecdotique pour révéler des tendances structurelles inédites. Cette source comporte toutefois des biais possibles : les résumés de projets sont aussi des textes de communication, susceptibles d’amplifier ou d’édulcorer les collaborations art/science. Pour limiter ces écarts entre discours et réalité, nous combinons analyse contextuelle des termes artistiques, comparaison temporelle et vérification qualitative des projets. Ce croisement permet de distinguer les effets d’affichage des pratiques réellement intégrées.

En France aussi, les initiatives art/science existent mais restent dispersées, portées par quelques laboratoires, universités ou centres d’art, sans base de données centralisée permettant une analyse systématique. Nous avons donc choisi les États-Unis, car la NSF fournit depuis vingt ans un corpus homogène, public et massif de résumés de projets, rendant possible un recensement large et robuste des collaborations art/science.

Trois façons d’associer les artistes

Pour commencer, les collaborations entre art et science sont très rares : moins de 1 % des projets ! Ce chiffre reste toutefois une estimation basse, car il ne capture que les collaborations déclarées par les chercheurs dans des projets financés : nombre d’initiatives impulsées par des artistes ou des collectifs échappent à ces bases de données. En revanche, leur fréquence a augmenté sans discontinuer sur les vingt années d’observation.

En analysant plus finement les projets, on peut identifier que l’artiste peut y jouer trois grands rôles. D’abord, il peut être un disséminateur, c’est-à-dire qu’il aide à diffuser les résultats auprès du grand public. Il ne contribue pas vraiment à la recherche mais joue le rôle d’un traducteur sans qui l’impact des résultats du projet serait moindre. C’est, par exemple, la mise sur pied d’expositions ambulantes mettant en scène les résultats du projet.

Ensuite, l’artiste peut intervenir comme éducateur. Il intervient alors en marge du projet, pour faire connaître un domaine scientifique auprès des enfants, des étudiants, ou de communautés marginalisées. L’objectif est de profiter d’un projet de recherche pour faire connaître un domaine scientifique de manière plus générale et susciter des vocations. Par exemple, l’un des projets prévoyait la collaboration avec un dessinateur de bande dessinée pour mieux faire connaître aux enfants les sciences polaires.

Enfin, dans des cas beaucoup plus rares, les artistes jouent un rôle de cochercheurs. Le recours au travail artistique participe alors à la construction même des savoirs et/ou des méthodes. Par exemple, un des projets réunissait des artistes et des chercheurs en neurosciences pour concevoir de nouvelles façons de visualiser les circuits nerveux du cerveau, et in fine créer de nouvelles formes de données scientifiques.

Ces différentes formes reflètent une tension encore vive dans le monde académique : l’art est majoritairement mobilisé pour « faire passer » la science, plutôt que pour nourrir la recherche elle-même. Pourtant, les projets les plus ambitieux laissent entrevoir un potentiel plus grand : celui d’une science transformée par le dialogue avec d’autres formes de connaissance.

Cette réflexion fait également écho à des considérations plus générales sur la complémentarité entre l’art et la science, non pas comme des disciplines opposées, mais comme deux approches différentes pour questionner le monde. Comme le formulait joliment un article publié dans The Conversation, il s’agit moins d’opposer l’art à la science que de leur permettre de « faire l’amour, pas la guerre », c’est-à-dire de collaborer pour produire de nouvelles formes de compréhension et d’engagement citoyen.

Au-delà de ces différentes façons d’associer les artistes à un projet, notre étude montre également que ces collaborations ne sont pas réparties au hasard. Certains scientifiques les pratiquent bien plus que d’autres, en fonction de leurs caractéristiques personnelles, leur contexte institutionnel et enfin les objectifs scientifiques de leur projet.

Une science plus ouverte… mais pas partout

Première surprise : ce ne sont pas les universités les plus prestigieuses qui s’ouvrent le plus à l’art. Au contraire, ce sont les institutions les moins centrées sur la recherche dite « pure » qui s’y engagent plus largement. Ces établissements s’appuient probablement sur l’art pour conduire des projets plutôt éducatifs, visant essentiellement à faire connaître la science au plus grand nombre.

Deuxième enseignement : les femmes scientifiques sont bien plus nombreuses que leurs homologues masculins à s’engager dans ces démarches. Cette surreprésentation est à rapprocher d’autres résultats montrant que les femmes scientifiques sont en moyenne plus engagées dans les activités de vulgarisation que les hommes – qui, eux, ont tendance à investir plus exclusivement les domaines supposés plus prestigieux, notamment ceux liés à la publication purement académique.

Ce biais de genre, loin d’être anecdotique, soulève des questions sur la manière dont la reconnaissance académique valorise (ou ignore) certains types d’engagement. Incidemment, ce résultat suggère aussi que promouvoir et financer des collaborations entre art et science serait un moyen a priori efficace de rééquilibrer les différences régulièrement constatées entre hommes et femmes.

L’art, catalyseur d’impact sociétal, mais pas sur tous les sujets

Alors que l’on demande de plus en plus aux scientifiques de démontrer l’impact de leurs travaux sur la société, beaucoup se trouvent mal préparés à cette tâche. Peintres, sculpteurs, écrivains, photographes, etc., ont l’habitude de s’adresser à un public large, de captiver l’attention et déclencher les émotions qui garantissent une impression. Leur interprétation du travail et des résultats scientifiques peut ainsi accroître la visibilité des recherches et susciter le changement. On pourrait donc s’attendre à ce que les projets les plus orientés vers des objectifs sociétaux ambitieux aient plus souvent recours aux artistes.

C’est globalement le cas, mais avec toutefois de grosses différences selon les défis sociétaux concernés, que nous avons classés suivants les grands objectifs de développement durable (ODD) édictés par l’ONU. Notamment, la collaboration art/science est bien plus fréquente dans les projets portant sur la biodiversité marine (ODD 14 « Vie aquatique ») que dans ceux axés sur l’action climatique (ODD 13).

Cette différence s’explique probablement en partie par la grande difficulté à rendre visibles ou compréhensibles certains phénomènes plutôt lointains de la vie quotidienne du grand public : l’acidification des océans, la dégradation des écosystèmes marins, etc. Le travail artistique permet de mobiliser les sens, créer des émotions, des narrations, des imaginaires, qui vont faciliter les prises de conscience et mobiliser les citoyens ou les pouvoirs publics. Bref, il va augmenter l’impact sociétal de la recherche sur ces sujets.

Lever les freins : une affaire de politiques scientifiques

Comment expliquer que ces collaborations restent somme toute très marginales dans le monde de la recherche ? Des défis persistent, tels que le manque de financements qui y sont consacrés ou le cloisonnement disciplinaire des recherches. En outre, l’incitation à explorer ces frontières reste très faible pour les chercheurs, dans un monde académique où la production de publications dans des revues spécialisées reste le critère de performance essentiel.

Intégrer l’art à un projet scientifique nécessite du temps, de la confiance et un changement de posture, souvent perçu comme risqué dans un milieu académique très normé. Mais des solutions existent sans doute : il s’agirait de former mieux les scientifiques à la collaboration, de financer des projets transdisciplinaires et de changer les critères d’évaluation de la recherche, pour valoriser les prises de risque.

À l’heure où la science est appelée à jouer un rôle majeur dans la transition écologique et sociale, l’art ne doit plus être considéré comme un simple emballage esthétique : il pourrait devenir un allié stratégique ! Il ne s’agit pas uniquement de « vulgariser » la science, mais bien de la faire résonner autrement dans les imaginaires, les émotions et les débats publics.

En écoutant celles et ceux qui osent franchir les murs du laboratoire, nous comprendrons peut-être mieux comment faire de la science de manière plus sensible, plus accessible et surtout plus transformatrice.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

13.11.2025 à 17:19

L’intelligence artificielle peut-elle améliorer la prévision météorologique ?

Laure Raynaud, Météorologiste, Météo France

Moins coûteux, plus rapides, plus précis, les modèles d’IA pourront-ils renouveler les prévisions météorologiques ?
Texte intégral (1572 mots)

L’intelligence artificielle a déjà impacté de nombreux secteurs, et la météorologie pourrait être le suivant. Moins coûteux, plus rapide, plus précis, les modèles d’IA pourront-ils renouveler les prévisions météorologiques ?


Transport, agriculture, énergie, tourisme… Les prévisions météorologiques jouent un rôle essentiel pour de nombreux secteurs de notre société. Disposer de prévisions fiables est donc indispensable pour assurer la sécurité des personnes et des biens, mais également pour organiser les activités économiques. Dans le contexte du changement climatique, où les épisodes de très fortes pluies, de vagues de chaleur ou de mégafeux ne cessent de se multiplier, les populations sont d’autant plus vulnérables, ce qui renforce le besoin en prévisions précises à une échelle très locale.

L’élaboration d’une prévision météorologique est un processus complexe, qui exploite plusieurs sources de données et qui demande une grande puissance de calcul. Donner du sens et une utilité socio-économique à la prévision pour la prise de décision est aussi un enjeu majeur, qui requiert une expertise scientifique et technique, une capacité d’interprétation et de traduction de l’information en services utiles à chaque usager. L’intelligence artificielle (IA) peut aider à répondre à ces défis.

L’IA : un nouveau paradigme pour la prévision météorologique ?

Comme on peut le lire dans le rapport Villani sur l’IA, rendu public en mars 2018, « définir l’intelligence artificielle n’est pas chose facile ». On peut considérer qu’il s’agit d’un champ pluridisciplinaire qui recouvre un vaste ensemble de méthodes à la croisée des mathématiques, de la science des données et de l’informatique. L’IA peut être mise en œuvre pour des tâches variées, notamment de la prévision, de la classification, de la détection ou encore de la génération de contenu.

Les méthodes d’IA parmi les plus utilisées et les plus performantes aujourd’hui fonctionnent sur le principe de l’apprentissage machine (machine learning) : des programmes informatiques apprennent, sur de grands jeux de données, la meilleure façon de réaliser la tâche demandée. Les réseaux de neurones profonds (deep learning) sont un type particulier d’algorithmes d’apprentissage, permettant actuellement d’atteindre des performances inégalées par les autres approches. C’est de ce type d’algorithme dont il est question ici.

La prévision météorologique repose actuellement, et depuis plusieurs décennies, sur des modèles qui simulent le comportement de l’atmosphère. Ces modèles intègrent des lois physiques, formulées pour calculer l’évolution des principales variables atmosphériques, comme la température, le vent, l’humidité, la pression, etc. Connaissant la météo du jour, on peut ainsi calculer les conditions atmosphériques des prochains jours. Les modèles météorologiques progressent très régulièrement, en particulier grâce à l’utilisation de nouvelles observations, satellitaires ou de terrain, et à l’augmentation des ressources de calcul.

La prochaine génération de modèles aura pour objectif de produire des prévisions à un niveau de qualité et de finesse spatiale encore plus élevé, de l’ordre de quelques centaines de mètres, afin de mieux appréhender les risques locaux comme les îlots de chaleur urbains par exemple. Cette ambition soulève néanmoins plusieurs challenges, dont celui des coûts de production : effectuer une prévision météo requiert une puissance de calcul très importante, qui augmente d’autant plus que la précision spatiale recherchée est grande et que les données intégrées sont nombreuses.

Gagner en temps et en qualité

Cette étape de modélisation atmosphérique pourrait bientôt bénéficier des avantages de l’IA. C’est ce qui a été démontré dans plusieurs travaux récents, qui proposent de repenser le processus de prévision sous l’angle des statistiques et de l’apprentissage profond. Là où les experts de la physique atmosphérique construisent des modèles de prévision où ils explicitement le fonctionnement de l’atmosphère, l’IA peut apprendre elle-même ce fonctionnement en analysant de très grands jeux de données historiques.

Cette approche par IA de la prévision du temps présente plusieurs avantages : son calcul est beaucoup plus rapide – quelques minutes au lieu d’environ une heure pour produire une prévision à quelques jours d’échéance – et donc moins coûteux, et la qualité des prévisions est potentiellement meilleure. Des études montrent par exemple que ces modèles sont déjà au moins aussi efficaces que des modèles classiques, puisqu’ils permettent d’anticiper plusieurs jours à l’avance des phénomènes tels que les cyclones tropicaux, les tempêtes hivernales ou les vagues de chaleur.

Les modèles d’IA sont encore au stade de développement dans plusieurs services météorologiques nationaux, dont Météo France, et font l’objet de recherches actives pour mieux comprendre leurs potentiels et leurs faiblesses. À court terme, ces modèles d’IA ne remplaceront pas les modèles fondés sur la physique, mais leur utilisation pour la prévision du temps est amenée à se renforcer, à l’instar du modèle AIFS, produit par le Centre européen de prévision météorologique à moyen terme, opérationnel depuis début 2025.

De la prévision météorologique à la prise de décision

Au-delà des modèles, c’est toute la chaîne d’expertise des prévisions et des observations météorologiques qui pourrait être facilitée en mobilisant les techniques d’IA. Cette expertise repose actuellement sur des prévisionnistes qui, chaque jour, analysent une grande quantité de données afin d’y détecter des événements potentiellement dangereux, d’élaborer la carte de vigilance météorologique en cas d’événements extrêmes, comme les fortes pluies, ou encore les bulletins à destination de différents usagers. Dans un contexte où le volume de données à traiter croît rapidement, l’IA pourrait aider les prévisionnistes dans l’extraction et la synthèse de l’information.

Une grande partie des données météorologiques étant assimilable à des images, les méthodes d’IA utilisées en traitement d’images, notamment pour la reconnaissance de formes et la classification automatique, peuvent être appliquées de façon similaire à des données météo. Les équipes de recherche et développement de Météo France ont par exemple mis en œuvre des méthodes d’IA pour l’identification du risque d’orages violents à partir de cartes météorologiques. D’autres travaux ont porté sur le développement d’IA pour la détection de neige sur les images issues de webcams, et l’estimation des quantités de pluie à partir d’images satellites. Enfin, des travaux sont en cours pour utiliser les grands modèles de langage (à l’origine des applications comme ChatGPT) comme support d’aide à la rédaction des bulletins météo.

Dans tous les cas il ne s’agit pas de remplacer l’humain, dont l’expertise reste essentielle dans le processus de décision, mais de développer des IA facilitatrices, qui permettront de concentrer l’expertise humaine sur des tâches à plus forte valeur ajoutée.

En poursuivant les efforts déjà engagés, l’IA contribuera à répondre aux défis climatiques et à renforcer les services de proximité avec une réactivité et une précision accrues. Faire de l’IA un outil central pour la prévision du temps nécessite néanmoins une vigilance particulière sur plusieurs aspects, en particulier la disponibilité et le partage de données de qualité, la maîtrise de l’impact environnemental des IA développées en privilégiant des approches frugales, et le passage de preuves de concept à leur industrialisation.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Laure Raynaud a reçu des financements de l'Agence Nationale de la Recherche (ANR), l'Union Européenne.

PDF

12.11.2025 à 12:22

Mort à 97 ans, James Watson incarna à la fois le meilleur et le pire de la science

Andor J. Kiss, Director of the Center for Bioinformatics and Functional Genomics, Miami University

James Dewey Watson est surtout connu pour sa découverte de la structure de l’ADN, récompensée par le prix Nobel. La controverse autour cette attribution met en lumière les difficultés inhérentes à la collaboration scientifique.
Texte intégral (2091 mots)

James Dewey Watson est mort à l’âge de 97 ans, a annoncé le 7 novembre 2025 le Cold Spring Harbor Laborator. Co-découvreur de la structure de l’ADN et prix Nobel en 1962, a marqué à jamais la biologie moderne. Mais son héritage scientifique est indissociable des controverses qui ont entouré sa carrière et sa personnalité.


James Dewey Watson était un biologiste moléculaire américain, surtout connu pour avoir remporté conjointement le prix Nobel de physiologie ou de médecine en 1962 grâce à la découverte de la structure de l’ADN et de son rôle dans le transfert d’informations au sein des organismes vivants. L’importance de cette découverte ne saurait être exagérée. Elle a permis de comprendre le fonctionnement des gènes et donné naissance aux domaines de la biologie moléculaire et de la phylogénétique évolutive. Elle a inspiré et influencé ma carrière de scientifique ainsi que mes activités de directeur d’un centre de recherche en bioinformatique et en génomique fonctionnelle.

Personnalité provocatrice et controversée, il transforma la manière de transmettre la science. Il reste le premier lauréat du prix Nobel à offrir au grand public un aperçu étonnamment personnel et brut du monde impitoyable et compétitif de la recherche scientifique. James D. Watson est décédé le 6 novembre 2025 à l’âge de 97 ans.

La quête du gène selon Watson

Watson entra à l’université de Chicago à l’âge de 15 ans, avec l’intention initiale de devenir ornithologue. Après avoir lu le recueil de conférences publiques d’Erwin Schrödinger sur la chimie et la physique du fonctionnement cellulaire, intitulé What is Life ?, il se passionna pour la question de la composition des gènes – le plus grand mystère de la biologie à l’époque.

Les chromosomes, un mélange de protéines et d’ADN, étaient déjà identifiés comme les molécules de l’hérédité. Mais la plupart des scientifiques pensaient alors que les protéines, composées de vingt éléments constitutifs différents, étaient les meilleures candidates, contrairement à l’ADN qui n’en possédait que quatre. Lorsque l’expérience d’Avery-MacLeod-McCarty, en 1944, démontra que l’ADN était bien la molécule porteuse de l’hérédité, l’attention se concentra immédiatement sur la compréhension de cette substance.

Watson obtint son doctorat en zoologie à l’université de l’Indiana en 1950, puis passa une année à Copenhague pour y étudier les virus. En 1951, il rencontra le biophysicien Maurice Wilkins lors d’une conférence. Au cours de l’exposé de Wilkins sur la structure moléculaire de l’ADN, Watson découvrit les premières cristallographie par rayons X de l’ADN. Cette révélation le poussa à rejoindre Wilkins au laboratoire Cavendish de l’université de Cambridge pour tenter d’en percer le secret de la structure. C’est là que Watson fit la connaissance du physicien devenu biologiste Francis Crick, avec qui il noua immédiatement une profonde affinité scientifique.

Peu après, Watson et Crick publièrent leurs travaux fondateurs sur la structure de l’ADN dans la revue Nature en 1953. Deux autres articles parurent dans le même numéro, l’un coécrit par Wilkins, l’autre par la chimiste et cristallographe aux rayons X Rosalind Franklin.

C’est Franklin qui réalisa les cristallographies par rayons X de l’ADN contenant les données cruciales pour résoudre la structure de la molécule. Son travail, combiné à celui des chercheurs du laboratoire Cavendish, conduisit à l’attribution du prix Nobel de physiologie ou de médecine de 1962 à Watson, Crick et Wilkins.

Le prix et la controverse

Bien qu’ils aient eu connaissance des précieuses images de diffraction des rayons X de Franklin, diffusées dans un rapport interne du laboratoire Cavendish, ni Watson ni Crick ne mentionnèrent ses contributions dans leur célèbre article publié en 1953 dans Nature. En 1968, Watson publia un livre relatant les événements entourant la découverte de la structure de l’ADN tels qu’il les avait vécus, dans lequel il minimise le rôle de Franklin et la désigne avec des termes sexistes. Dans l’épilogue, il reconnaît finalement ses contributions, mais sans lui accorder le plein mérite de sa participation à la découverte.


À lire aussi : Rosalind Franklin : la scientifique derrière la découverte de la structure de l’ADN, bien trop longtemps invisibilisée


Certains historiens ont soutenu que l’une des raisons invoquées pour ne pas reconnaître officiellement le rôle de Franklin tenait au fait que son travail n’avait pas encore été publié et qu’il était considéré comme une « connaissance partagée » au sein du laboratoire Cavendish, où les chercheurs travaillant sur la structure de l’ADN échangeaient couramment leurs données. Cependant, l’appropriation des résultats de Franklin et leur intégration dans une publication officielle sans autorisation ni mention de son nom sont aujourd’hui largement reconnues comme un exemple emblématique de comportement déplorable, tant du point de vue de l’éthique scientifique que dans la manière dont les femmes étaient traitées par leurs collègues masculins dans les milieux professionnels.

Au cours des décennies qui ont suivi l’attribution du prix Nobel à Watson, Crick et Wilkins, certains ont érigé Rosalind Franklin en icône féministe. On ignore si elle aurait approuvé cette image, car il est difficile de savoir ce qu’elle aurait ressenti face à sa mise à l’écart du Nobel et face au portrait peu flatteur que Watson lui consacra dans son récit des événements. Ce qui est désormais incontestable, c’est que sa contribution fut décisive et essentielle, et qu’elle est aujourd’hui largement reconnue comme une collaboratrice à part entière dans la découverte de la structure de l’ADN.

Une prise de conscience collective

Comment les attitudes et les comportements envers les jeunes collègues et les collaborateurs ont-ils évolué depuis ce prix Nobel controversé ? Dans de nombreux cas, les universités, les institutions de recherche, les organismes financeurs et les revues à comité de lecture ont mis en place des politiques formelles visant à identifier et reconnaître de manière transparente le travail et les contributions de tous les chercheurs impliqués dans un projet. Bien que ces politiques ne fonctionnent pas toujours parfaitement, le milieu scientifique a évolué pour fonctionner de manière plus inclusive. Cette transformation s’explique sans doute par la prise de conscience qu’un individu seul ne peut que rarement s’attaquer à des problèmes scientifiques complexes et les résoudre. Et lorsqu’un conflit survient, il existe désormais davantage de mécanismes officiels permettant de chercher réparation ou médiation.

Des cadres de résolution des différends existent dans les directives de publication des revues scientifiques, ainsi que dans celles des associations professionnelles et des institutions. Il existe également une revue intitulée Accountability in Research, « consacrée à l’examen et à l’analyse critique des pratiques et des systèmes visant à promouvoir l’intégrité dans la conduite de la recherche ». Les recommandations destinées aux chercheurs, aux institutions et aux organismes de financement sur la manière de structurer l’attribution des auteurs et la responsabilité scientifique constituent un progrès significatif en matière d’équité, de procédures éthiques et de normes de recherche.

J’ai moi-même connu des expériences à la fois positives et négatives au cours de ma carrière : j’ai parfois été inclus comme coauteur dès mes années de licence, mais aussi écarté de projets de financement ou retiré d’une publication à mon insu, alors que mes contributions étaient conservées. Il est important de noter que la plupart de ces expériences négatives se sont produites au début de ma carrière, sans doute parce que certains collaborateurs plus âgés pensaient pouvoir agir ainsi en toute impunité.

Il est également probable que ces expériences négatives se produisent moins souvent aujourd’hui, car je formule désormais clairement mes attentes en matière de co-signature dès le début d’une collaboration. Je suis mieux préparé et j’ai désormais la possibilité de refuser certaines collaborations.

Je soupçonne que cette évolution reflète ce que d’autres ont vécu, et qu’elle est très probablement amplifiée pour les personnes issues de groupes sous-représentés dans les sciences. Malheureusement, les comportements inappropriés, y compris le harcèlement sexuel, persistent encore dans ce milieu. La communauté scientifique a encore beaucoup de chemin à parcourir – tout comme la société dans son ensemble.

Après avoir co-découvert la structure de l’ADN, James Watson poursuivit ses recherches sur les virus à l’université Harvard et prit la direction du Cold Spring Harbor Laboratory, qu’il contribua à revitaliser et à développer considérablement, tant sur le plan de ses infrastructures que de son personnel et de sa réputation internationale. Lorsque le Projet génome humain était encore à ses débuts, Watson s’imposa comme un choix évident pour en assurer la direction et en accélérer le développement, avant de se retirer après un long conflit portant sur la possibilité de breveter le génome humain et les gènes eux-mêmes – Watson s’y opposait fermement.

En dépit du bien immense qu’il a accompli au cours de sa vie, l’héritage de Watson est entaché par sa longue série de propos publics racistes et sexistes, ainsi que par ses dénigrements répétés, tant personnels que professionnels, à l’encontre de Rosalind Franklin. Il est également regrettable que lui et Crick aient choisi de ne pas reconnaître pleinement tous ceux qui ont contribué à leur grande découverte aux moments décisifs.

The Conversation

Andor J. Kiss ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.11.2025 à 12:21

Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée

Romain Garrouste, Chercheur à l’Institut de systématique, évolution, biodiversité (ISYEB), Muséum national d’histoire naturelle (MNHN)

Alors que s’ouvre l’exposition « En voie d’illumination : Lumières de la Nature » au Jardin des Plantes de Paris, plongez dans le monde fascinant des champignons bioluminescents.
Texte intégral (1581 mots)
Mycena cf chlorophos est un champignon totalement lumineux : chapeau, lamelles et mycelium. Parc National de Cuc Phuong, Vietnam Romain Garrouste, Fourni par l'auteur

Alors que s’ouvre l’exposition En voie d’illumination : Lumières de la Nature au Jardin des Plantes de Paris, plongez dans le monde fascinant des champignons bioluminescents.


Il y a des rencontres qui illuminent littéralement vos nuits. Un de ces derniers soirs d’automne, au détour d’un jardin du sud de la France et à la faveur du changement d’heure, j’ai remarqué une étrange lueur verte, douce, presque irréelle, au pied d’une vieille souche. Non, je ne rêvais pas : c’était bien un champignon qui luisait dans le noir. Il ne s’agissait pas d’un gadget tombé d’un sac d’enfant ou d’un reflet de la Lune, mais bien d’un organisme vivant, émettant sa propre lumière. Bienvenue dans le monde fascinant des champignons bioluminescents.

Une lumière naturelle… et vivante

La bioluminescence est la production naturelle de lumière par un être vivant, sans illumination préalable et en cela diffère de la fluorescence ou de la phosphorescence qui ont besoin d’une source de lumière. On la connaît chez certains poissons abyssaux, des requins, des crevettes, du plancton ou chez les lucioles.

Mais les champignons, eux aussi, ont ce « superpouvoir ». Plus de 90 espèces sont aujourd’hui connues dans le monde, surtout en zones tropicales humides mais certaines, comme l’Omphalotus illudens, sont présentes chez nous, en Europe, et même dans les jardins du sud de la France où l’on trouve aussi Omphalotus olearius, souvent inféodé à l’Olivier mais pas uniquement. L’entomologiste Jean Henri Fabre la connaissait bien et cela a constitué sa première publication en 1856 sur les champignons.

Une chimie simple, une magie complexe

La lumière fongique ne produit pas chaleur, elle est constante et le plus souvent verte. Elle provient d’une réaction chimique impliquant une molécule appelée luciférine, de l’oxygène, et une enzyme, la luciférase. Cette réaction produit de la lumière dans le vert (vers 520 nm). Le mécanisme, bien que désormais mieux compris, reste fascinant : une lumière sans électricité, sans feu, et pourtant visible à l’œil nu, dans le silence du sous-bois. La bioluminescence est donc une forme de chimioluminescence, puisqu’elle dépend d’une réaction chimique.

Chez les champignons, cette lumière n’est pas toujours visible partout : parfois seules les lamelles, d’autres fois le mycélium (le réseau souterrain de filaments) sont luminescents, ou les deux. Beaucoup d’espèces sont par contre fluorescentes aux UV. Comme nous l’avons dit la fluorescence diffère de la bioluminescence par la nécessité d’avoir une source lumineuse d’excitation qui va provoquer une luminescence dans une longueur d’onde différente. Ce sont des phénomènes très différents même s’ils sont souvent associés chez les organismes.

Pourquoi un champignon brille-t-il ?

Pourquoi un organisme qui ne bouge pas et n’a pas d’yeux se donnerait-il la peine d’émettre de la lumière ? Plusieurs hypothèses ont été proposées comme attirer des insectes nocturnes pour disperser les spores, à l’image d’une enseigne clignotante dans la forêt. Une autre hypothèse est un effet secondaire métabolique, sans rôle adaptatif (ça fait moins rêver, mais cela reste peu probable). La dissuasion de prédateurs (insectes, petits rongeurs) grâce à cette signature visuelle inhabituelle a été également étudiée.

Une étude publiée dans Current Biology a montré que des insectes sont effectivement attirés par la lumière de certains champignons, renforçant l’idée d’une stratégie de dissémination.

Le champignon Omphalotus illudens. I. G. Safonov (IGSafonov) at Mushroom Observer, CC BY

L’espèce que vous avez peut-être déjà trouvé dans votre jardin, Omphalotus illudens (ou encore O. olearius dans le sud de la France) est remarquable à plus d’un titre. D’abord, parce qu’elle est toxique : ne vous fiez pas à sa belle couleur orangée et son odeur suave de sous-bois. Ensuite, parce qu’elle émet une lumière verte depuis ses lames, bien visible dans le noir complet. Ce phénomène est observable à l’œil nu si l’on s’éloigne des sources lumineuses parasites.

Ce champignon est de plus en plus étudié pour comprendre les variations génétiques liées à la bioluminescence entre espèces fongiques, et rechercher des molécules d’intérêt dans leur métabolisme, comme l’illudine, l’une des molécules à la base de leur toxicité, intéressante pour ses propriétés anticancéreuse.

Lumière sur la nature

Photographier ces champignons est un défi passionnant : il faut une longue pose, souvent au-delà de 30 secondes, un environnement très sombre, et parfois, un peu de chance. Mais l’image qui en résulte est souvent saisissante : un halo lumineux semblant flotter dans l’obscurité, témoin de la vitalité nocturne des sous-bois.

J’ai relevé le défi une fois de plus, comme la toute première fois dans une forêt du Vietnam sur une autre espèce ou récemment sur des litières en Guyane. Le défi est en fait double, détecter le phénomène et le photographier ensuite comme un témoignage fugace, un caractère discret qui disparaît à la mort de l’organisme.

Pour étudier ces phénomènes notre unité de recherche s’est dotée d’une plate-forme originale d’imagerie et d’analyse des phénomènes lumineux dans le vivant mais aussi pour explorer la géodiversité, par exemple dans les fossiles (pour la fluorescence) : le laboratoire de photonique 2D/3D de la biodiversité. Entre le vivant lors d’expéditions ou de missions de terrains pas forcément lointaine et les collections du MNHN, le registre de l’exploration de ces phénomènes est immense et nous l’avons juste commencé.

Bioluminescence et écologie fongique

Outre son effet esthétique, la bioluminescence pourrait aussi être un marqueur de l’activité biologique : elle reflète le métabolisme actif de certains champignons en croissance, leur interaction avec le bois, la température, l’humidité. Certains chercheurs envisagent même d’utiliser ces espèces comme indicateurs écologiques.

Alors la prochaine fois que vous sortez de nuit, observez les bords des sentiers, les vieux troncs en décomposition… car parfois, la nature éclaire son propre théâtre. Et si un champignon vous fait de l’œil fluorescent, n’ayez pas peur : il est plus poétique que dangereux… sauf si vous le cuisinez. Mais n’oubliez pas d’éteindre votre lampe et d’aller loin des sources de pollution lumineuses.

The Conversation

Romain Garrouste a reçu des financements de : MNHN. CNRS, Sorbonne Université, IPEV, LABEx BCDiv, LABEx CEBA, MTE, MRAE, National Geographic, Institut de la Transition Environnementale et Institut de l'Océan (Sorbonne Univ.)

PDF

12.11.2025 à 12:21

Greffes d’organes vers l’humain : cœur, rein, peau… pourquoi le cochon est-il devenu l’animal de référence pour les xénogreffes ?

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris

Greffer un organe d’animal à un être humain n’est plus de la science-fiction. Ces dernières années, plusieurs patients ont reçu un cœur, un rein ou même la peau d’un porc génétiquement modifié.
Texte intégral (980 mots)

Greffer l’organe d’un animal à un être humain n’est plus de la science-fiction. Ces dernières années, plusieurs patients ont reçu un cœur, un rein ou même la peau d’un porc génétiquement modifié. Mais pourquoi choisir le cochon, plutôt qu’un autre animal ?


Le terme xénogreffe désigne la transplantation d’un tissu ou d’un organe provenant d’une espèce différente de celle du receveur, par exemple, d’un porc vers un humain. Elle se distingue de l’allogreffe, entre deux humains, et de l’autogreffe, utilisant les propres tissus du patient. L’objectif est de remédier à la pénurie chronique d’organes humains disponibles pour la transplantation, tout en garantissant la compatibilité et la sécurité du greffon.

En France, au 1er janvier 2025, 22 585 patients étaient inscrits sur la liste nationale d’attente pour une greffe, dont 11 666 en liste active. En 2024, 852 patients sont décédés en attendant une greffe.

La peau de porc, une pionnière des xénogreffes

C’est d’abord la peau qui a ouvert la voie. Depuis les années 1960, la peau de porc est utilisée comme pansement biologique temporaire pour les grands brûlés. Sa structure et son épaisseur sont étonnamment proches de celles de la peau humaine, ce qui permet une bonne adhérence et une protection efficace contre les infections et la déshydratation.

Contrairement à d’autres animaux (vache, mouton, lapin), la peau de porc présente un réseau de collagène (protéine structurelle présente dans le tissu conjonctif et responsable de la résistance et élasticité des tissus) et une densité cellulaire similaires à ceux de l’homme, limitant les réactions de rejet immédiat. Ces greffes ne sont toutefois que temporaires : le système immunitaire finit par les détruire. Néanmoins, elles offrent une protection temporaire avant une autogreffe ou une greffe humaine.

Une proximité biologique frappante

Au-delà de la peau, le cochon partage de nombreux points communs physiologiques avec l’être humain : taille des organes, rythme cardiaque, pression artérielle, composition du plasma, voire métabolisme. Le cœur d’un cochon adulte, par exemple, a des dimensions proches de celui d’un humain, ce qui en fait un candidat naturel pour les greffes.

D’autres espèces, comme les primates non humains, présentent une proximité génétique encore plus importante, mais leur utilisation soulève des questions éthiques et sanitaires beaucoup plus lourdes, sans parler de leur reproduction lente et de leur statut protégé.

Un animal compatible avec la médecine moderne

Au contraire, les cochons sont faciles à élever, atteignent rapidement leur taille adulte, et leurs organes peuvent être obtenus dans des conditions sanitaires contrôlées. Les lignées génétiquement modifiées, comme celles développées par la société américaine Revivicor, sont désormais dépourvues de certains gènes responsables du rejet hyper aigu, ce qui rend leurs organes plus « compatibles » avec le système immunitaire humain.

Les chercheurs ont aussi supprimé des virus « dormants » (qui ne s’activent pas) présents dans le génome du porc, réduisant le risque de transmission d’agents infectieux à l’Homme.

Du pansement biologique à la greffe d’organe

Après la peau, les chercheurs se tournent vers les reins, le cœur, le foie ou encore le pancréas. En 2024, des patients ont survécu plusieurs semaines avec un cœur de porc génétiquement modifié, une prouesse longtemps jugée impossible. Des essais ont également été menés avec des reins de porc, notamment chez des patients en état de mort cérébrale ou, plus récemment, chez un patient vivant. En revanche, les recherches sur le foie et le pancréas en sont encore au stade préclinique, menées uniquement chez l’animal. Ces avancées ne sont pas seulement symboliques : la pénurie mondiale de donneurs humains pousse la médecine à explorer des alternatives réalistes.

Cependant, le défi immunologique reste immense – même génétiquement modifiés, les organes porcins peuvent être rejetés par le système immunitaire humain – tout comme les enjeux éthiques liés notamment au bien-être animal.

Le cochon s’est imposé non par hasard, mais parce qu’il représente un compromis entre proximité biologique, faisabilité et acceptabilité sociale. Si les essais confirment la sécurité et la durabilité des greffes, le porc pourrait bientôt devenir un allié inattendu mais essentiel de la médecine humaine.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

12.11.2025 à 12:21

Comprendre la cuisson parfaite des pâtes avec ou sans gluten grâce à la science

Andrea Scotti, Senior lecturer of Physical Chemistry, Lund University

Des chercheurs ont utilisé des accélérateurs de particules pour percer les secrets de la cuisson parfaite des pâtes. Leurs expériences révèlent le rôle crucial du gluten, du sel et du temps de cuisson dans la structure des spaghettis.
Texte intégral (1455 mots)

Et si la physique des particules pouvait améliorer la cuisson des pâtes ? En scrutant leur structure à l’échelle atomique, des chercheurs ont compris comment le gluten maintient la fermeté des spaghettis et pourquoi les versions sans gluten restent si fragiles.


Que vous préfériez vos spaghettis al dente ou délicieusement fondants, il n’est pas toujours facile d’atteindre la perfection à la maison. Beaucoup d’entre nous ont déjà vu leurs pâtes se transformer en une bouillie beige – surtout lorsqu’il s’agit d’alternatives sans gluten.

Alors, quelle quantité d’eau et de sel faut-il vraiment utiliser, et combien de temps faut-il cuire les pâtes pour obtenir un résultat optimal ? Et surtout, comment adapter sa méthode de cuisson quand on utilise des pâtes sans gluten ? Une étude récente que mes collègues et moi avons menée, publiée dans Food Hydrocolloids, apporte des réponses en dévoilant la physique du processus de cuisson.

En nous tournant vers le Diamond Light Source, le synchrotron national du Royaume-Uni (un accélérateur de particules circulaire), nous avons étudié la diffusion des rayons X sur des pâtes afin d’en révéler la structure interne. Nous nous sommes ensuite rendus à Isis et à l’Institut Laue-Langevin, deux centres de recherche situés respectivement au Royaume-Uni et en France, pour analyser à l’aide de neutrons (qui, avec les protons, composent le noyau atomique) la microstructure des spaghettis classiques et sans gluten soumis à différentes conditions de cuisson.

L’étude montre comment la structure cachée des pâtes se modifie au cours de la cuisson, et pourquoi les versions sans gluten se comportent de manière si différente.

Ce dispositif nous a permis d’examiner la structure de l’amidon et du gluten dans les spaghettis à des échelles très fines, allant de plusieurs dizaines de fois le rayon d’un atome à plusieurs milliers de fois. Nous avons ainsi pu comparer les transformations qui s’opèrent dans les pâtes classiques et sans gluten selon diverses conditions de cuisson – par exemple lorsqu’elles sont trop cuites ou cuites sans sel.

Nos expériences nous ont permis de « voir » séparément les différents composants des pâtes. En mélangeant de l’eau normale et de « l’eau lourde » (qui contient un isotope appelé deutérium), nous pouvions rendre soit le gluten, soit l’amidon invisible au faisceau de neutrons. De cette manière, nous avons pu isoler efficacement chaque structure à tour de rôle et comprendre le rôle respectif de l’amidon et du gluten pendant la cuisson.

Le rôle du gluten et du sel

Notre étude montre que, dans les pâtes classiques, le gluten agit comme une armature solide qui maintient les granules d’amidon en place même pendant l’ébullition, ce qui confère aux pâtes leur fermeté et leur lenteur de digestion. Dans les pâtes sans gluten, en revanche, les granules d’amidon gonflent et s’effondrent plus facilement – ce qui explique leur texture pâteuse et leur dégradation plus rapide lorsque ce type de pâtes est cuit dans des conditions non optimales.

Nous avons également étudié l’effet du sel contenu dans l’eau de cuisson sur la structure des pâtes. Nous avons constaté que le sel ne se contente pas d’améliorer leur goût : il influence fortement la microstructure des spaghettis. Lorsque des pâtes classiques sont bouillies dans une eau salée, le gluten conserve sa structure, et les granules d’amidon sont moins altérés par le processus de cuisson.

Alors, quelle quantité de sel faut-il ajouter pour préserver la structure microscopique des pâtes ? Notre étude a révélé que l’idéal est de sept grammes de sel par litre d’eau, avec une quantité d’eau plus importante nécessaire pour de plus grandes portions de pâtes. Le temps de cuisson idéal est de dix minutes pour les pâtes classiques et onze minutes pour les pâtes sans gluten. À l’inverse, lorsque la concentration en sel était doublée, l’ordre interne se dégradait plus rapidement et la structure des granules d’amidon était significativement altérée par la cuisson.

Spaghetti is taken out of the pan with tongs
La quantité idéale est de 7 grammes de sel par litre d’eau. Kalashnikov Dmitrii/Shutterstock

Pour les pâtes sans gluten, les conclusions étaient encore différentes en raison de l’absence de la protection offerte par le gluten. Même de petites quantités de sel ne pouvaient compenser cette absence. Les composés artificiels à base d’amidons transformés, utilisés par les fabricants pour remplacer le gluten, se dégradaient rapidement. L’exemple le plus extrême de cette dégradation est survenu lorsque les spaghettis sans gluten étaient cuits trop longtemps – par exemple treize minutes au lieu de onze – et dans une eau très salée.

La principale conclusion est donc que les pâtes sans gluten sont structurellement plus fragiles et moins tolérantes à une cuisson prolongée ou à une mauvaise proportion de sel.

Améliorer les alternatives sans gluten

Comprendre la structure des pâtes à des échelles aussi infimes, invisibles même au microscope, aidera à concevoir de meilleurs aliments sans gluten. L’objectif est notamment de créer des alternatives sans gluten plus résistantes aux mauvaises conditions de cuisson et dont la texture se rapproche davantage de celle des spaghettis classiques.

Les pâtes de blé classiques ont un faible indice glycémique, car le gluten ralentit la dégradation des granules d’amidon lors de la digestion. Les pâtes sans gluten, fabriquées à partir de farines de riz et de maïs, manquent souvent de cette structure, ce qui entraîne une libération plus rapide des sucres. Grâce à la diffusion des neutrons, les scientifiques de l’alimentation peuvent désormais identifier quels ingrédients et quelles conditions de cuisson reproduisent le mieux la structure du gluten.

C’est aussi une illustration de la manière dont des outils expérimentaux de pointe, principalement utilisés pour la recherche fondamentale, transforment aujourd’hui la recherche alimentaire. La diffusion des neutrons a joué un rôle essentiel dans la compréhension des matériaux magnétiques, des batteries, des polymères et des protéines. Elle permet désormais aussi d’expliquer le comportement de nos aliments du quotidien à l’échelle microscopique.

The Conversation

Andrea Scotti reçoit des financements de la Fondation Knut et Alice Wallenberg ainsi que du Conseil suédois de la recherche.

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓