Version smartphones allégée
🟥 Accueil 🟨 Médias 🟦 International
Lien du flux RSS
L’expertise universitaire, l’exigence journalistique

▸ les 25 dernières parutions

14.02.2026 à 08:42

En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses

Raffaele F Ciriello, Senior Lecturer in Business Information Systems, University of Sydney
Kathryn Backholer, Co-Director, Global Centre for Preventive Health and Nutrition, Deakin University
img
Les chatbots sont utilisés pour demander conseil, réfléchir, décider. Insérer des annonces dans cet espace intime crée un risque inédit.
Texte intégral (2107 mots)
OpenAI affirme que des règles strictes encadreront l'intégration publicitaire mais l'histoire incite à la prudence en la matière. OpenAI, The Conversation

La question dépasse la technique. En ouvrant ChatGPT aux annonceurs, OpenAI pose un choix politique : l’IA doit-elle servir le public ou devenir un outil redoutable dans les mains des publicitaires ?


OpenAI a annoncé son intention d’introduire de la publicité dans ChatGPT aux États-Unis. Les annonces apparaîtront dans la version gratuite et pour les abonnés à l'offre Go (la moins chère), mais pas pour les abonnés Pro, Business ou Entreprise.

L’entreprise affirme que les publicités seront clairement séparées des réponses du chatbot et qu’elles n’influenceront pas les contenus générés. Elle s’est également engagée à ne pas vendre les conversations des utilisateurs, à permettre la désactivation des publicités personnalisées et à éviter toute publicité destinée aux moins de 18 ans ou portant sur des sujets sensibles tels que la santé et la politique.

Malgré ces engagements, la décision a suscité des inquiétudes chez une partie des utilisateurs. La question centrale est de savoir si ces garanties tiendront une fois que la publicité deviendra un pilier de son modèle économique.

Pourquoi la publicité dans l’IA était presque inévitable

Nous avons déjà vu ce scénario. Il y a quinze ans, les plateformes de réseaux sociaux peinaient à transformer leurs audiences massives en profits.

Le tournant est venu avec la publicité ciblée : adapter les annonces à ce que les utilisateurs recherchent, consultent et regardent. Ce modèle est devenu la principale source de revenus de Google et de Facebook, au point de remodeler leurs services pour maximiser l’engagement des utilisateurs.

Les plateformes d’intelligence artificielle (IA) grand-public sont extrêmement coûteuses pour leurs propriétaires. L’entraînement et le fonctionnement de modèles avancés exigent d’immenses centres de données, des puces spécialisées et un travail d’ingénierie continu. Malgré une croissance rapide du nombre d’utilisateurs, de nombreuses entreprises d’IA continuent d’opérer à perte. OpenAI prévoit à elle seule de « brûler » près de 100 milliards d’euros au cours des cinq prochaines années.

Seules quelques entreprises peuvent absorber de tels coûts. Pour la plupart des fournisseurs d’IA, trouver un modèle économique à grande échelle est urgent, et la publicité ciblée apparaît comme la réponse la plus évidente. Elle reste le moyen le plus fiable de rentabiliser de larges audiences.

Ce que l’histoire nous enseigne

OpenAI affirme qu’elle maintiendra une séparation claire entre les publicités et les réponses, et qu’elle protégera la vie privée des utilisateurs. Ces garanties peuvent sembler rassurantes, mais elles reposent pour l’instant sur des engagements vagues et susceptibles d’être réinterprétés.

L’entreprise indique ainsi qu’elle ne diffusera pas de publicités « à côté de sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique », mais apporte peu de précisions sur ce qui est considéré comme « sensible », sur l’étendue de la notion de « santé » ou sur l’instance chargée de fixer ces limites.

La plupart des échanges avec une IA, dans la vie réelle, ne relèveront pas de ces catégories restreintes. À ce jour, OpenAI n’a donné aucune précision sur les types de publicités qui seront autorisés ou exclus. Si aucun garde-fou n’est posé sur le contenu des annonces, on peut aisément imaginer qu’un internaute demandant « comment décompresser après une journée stressante » se voie proposer des publicités pour la livraison d’alcool. Une requête sur des « idées de week-end sympa » pourrait faire surgir des promotions pour des sites de jeux d’argent.

Pourtant, ces produits sont associés à des effets néfastes reconnus sur la santé et la société. Placées à côté d’un conseil personnalisé, au moment précis où une décision se prend, ces publicités peuvent infléchir les comportements de façon discrète mais efficace, même en l’absence de toute question de santé explicitement formulée.

On avait vu fleurir des promesses comparables aux débuts des réseaux sociaux. Mais l’expérience montre que l’autorégulation s’érode face aux impératifs commerciaux, au profit des entreprises et au détriment des utilisateurs.

Les logiques publicitaires ont souvent mis à mal l’intérêt général. Le scandale Cambridge Analytica a révélé des données personnelles collectées à des fins commerciales pouvaient être réutilisées pour peser sur des scrutins. Les « Facebook Files » ont, eux, révélé que Meta était consciente des effets délétères de ses plateformes, notamment sur la santé mentale des adolescentes et adolescents, mais a tardé à engager des réformes susceptibles d’entamer ses revenus publicitaires.

Plus récemment, des investigations ont montré que Meta continue de tirer profit de publicités frauduleuses, malgré les alertes répétées sur leurs conséquences.

Pourquoi les chatbots changent la donne

Les chatbots ne sont pas un simple fil d’actualité de plus. Les utilisateurs s’en servent de manière intime et personnelle, pour demander des conseils, chercher un soutien émotionnel ou réfléchir en privé. Ces échanges sont perçus comme discrets, sans jugement, et incitent souvent à confier des choses que l’on ne dirait pas en public.

Cette relation de confiance renforce le pouvoir de persuasion, d’une manière que les réseaux sociaux ne permettent pas. On consulte un chatbot pour obtenir de l’aide ou prendre une décision. Même si les publicités sont formellement séparées des réponses, elles s’insèrent dans un espace privé et conversationnel, et non dans un flux public.

Cette relation de confiance décuple le pouvoir de persuasion, bien au-delà de ce que permettent les réseaux sociaux. On se tourne vers un chatbot pour demander conseil, trancher une décision, chercher un appui. Même officiellement dissociées des réponses, les publicités s’invitent alors dans un tête-à-tête numérique, au cœur d’un échange privé, et non dans le brouhaha d’un fil public.

Des messages placés aux côtés de recommandations personnalisées — qu’ils concernent des biens de consommation, des loisirs, les finances ou la politique — ont toutes les chances d’exercer une influence bien plus forte que les mêmes publicités aperçues au détour d’une navigation classique.

Alors qu’OpenAI présente ChatGPT comme un « super assistant » capable d’accompagner ses utilisateurs dans tous les domaines, des finances à la santé, la frontière entre conseil et incitation devient de plus en plus floue.

Pour les escrocs comme pour les régimes autoritaires, disposer d'un outil de propagande encore plus efficace serait particulièrement tentant. Et du côté des acteurs de l’IA, la perspective de revenus supplémentaires rendra toute complaisance d’autant plus difficile à écarter

Le problème de fond tient à un conflit d’intérêts structurel. Les modèles publicitaires récompensent les plateformes qui maximisent l’engagement, alors même que les contenus les plus susceptibles de capter durablement l’attention sont souvent trompeurs, émotionnellement chargés ou préjudiciables à la santé.

C’est pour cette raison que l’autorégulation des plateformes en ligne a, à maintes reprises, montré ses limites.

Existe-t-il une meilleure voie ?

Une piste serait de considérer l’IA comme une infrastructure publique numérique : des systèmes essentiels, conçus pour servir l’intérêt général plutôt que pour maximiser les recettes publicitaires.

Cela n’implique pas d’exclure les acteurs privés. Mais cela suppose l’existence d’au moins une option publique de haute qualité, placée sous contrôle démocratique — à l’image des médias audiovisuels publics qui coexistent avec les chaînes commerciales.

Des exemples émergent déjà. La Suisse a développé le système d’IA public Apertus via ses universités et son centre national de calcul intensif. Ce modèle est open source, conforme au droit européen sur l’IA et exempt de publicité.

L’Australie (NDT : la version originale de ce texte a été écrite pour un public australien) pourrait aller plus loin. En parallèle du développement de ses propres outils d’IA, les autorités pourraient imposer des règles claires aux acteurs commerciaux : obligation de transparence, interdiction des publicités nuisibles à la santé ou à caractère politique, et sanctions effectives — pouvant aller jusqu’à la suspension d’activité — en cas d’infractions graves.

La publicité n’a pas dévoyé les réseaux sociaux en un jour. Elle a progressivement déplacé les incitations, jusqu’à faire des atteintes à l’intérêt général un simple effet secondaire de la quête de rentabilité. L’introduire dans l’IA conversationnelle, c’est risquer de reproduire ce scénario — mais dans des systèmes auxquels les utilisateurs accordent une confiance bien plus profonde encore.

La question décisive n’est donc pas d’ordre technique, mais politique : l’IA doit-elle servir le public, ou les annonceurs et les investisseurs ?

The Conversation

Raffaele F Ciriello est membre bénévole et temporaire du groupe consultatif des parents auprès de l’eSafety Commissioner, où il conseille sur les réactions des parents et des jeunes face aux lois australiennes fixant un âge minimum pour l’usage des réseaux sociaux. Cet article s’appuie sur ses recherches menées à titre indépendant.

Kathryn Backholer est vice-présidente (politique) de la Public Health Association of Australia. Elle reçoit des financements du National Health and Medical Research Council, de l’Australian Research Council, de l’UNICEF, de la Ian Potter Foundation, de la National Heart Foundation, de VicHealth, de la Foundation for Alcohol Research and Education, de QUIT, de la .auDA Foundation ainsi que du Victorian Department of Justice and Community Safety pour des travaux portant sur les effets nocifs de la publicité en ligne sur la santé.

13.02.2026 à 09:23

Inondations : l’aménagement du territoire est-il responsable ?

Luc Aquilina, Professeur en sciences de l’environnement, Université de Rennes 1 - Université de Rennes
Pierre Brigode, Maître de conférences en hydrologie, École normale supérieure de Rennes
img
Les inondations qui touchent le Sud-Ouest de la France provoquées par la tempête Nils pourraient alimenté à nouveau le débat sur le rôle l’aménagement du territoire dans la survenue de ces événements.
Texte intégral (2284 mots)

Les inondations qui touchent le Sud-Ouest de la France provoquées par la tempête Nils pourraient alimenter à nouveau le débat sur le rôle l’aménagement du territoire dans la survenue de ces événements. Les inondations sont pourtant des phénomènes complexes et le rôle des aménagements reste difficile à estimer.


Depuis plusieurs années, l’Europe est frappée par des inondations majeures aux bilans humains terribles : 243 morts en juillet 2021 en Allemagne, en Belgique, au Luxembourg et aux Pays-Bas, 17 morts en mai 2023 en Italie du Nord, 27 morts en septembre 2024 lors de la tempête Boris en Europe Centrale, de l’Allemagne à la Roumanie, et 237 morts en octobre 2024 dans le sud de Valence. Plus près de nous, les inondations de la Vilaine de ce mois de janvier 2026 et celles de l’année dernière ont ravivé pour les habitants le spectre des inondations du passé.

Ces évènements frappent les esprits et font la une des médias, surtout s’ils se déroulent en Europe. Très vite, des causes liées à l’aménagement du territoire sont invoquées. En Espagne, l’extrême droite a condamné les écologistes qui ont prôné l’arasement des barrages. Vérification faite, il ne s’est agi que de la suppression de « barrières » peu élevées et le lien avec les barrages n’est pas attesté. En Bretagne, à l’inverse, suite à la crue de la Vilaine début 2025 et à l’inondation de plusieurs quartiers de Rennes et de Redon, plusieurs coupables ont été rapidement désignés dans les médias. Le changement climatique d’abord, puis le remembrement des territoires ruraux et le drainage des parcelles agricoles qui ont accompagné la révolution verte des années 1960 et 1970 ont été pointés du doigt.

Les scientifiques de l’eau soulignent le rôle des aménagements passés sur les sécheresses et les tensions autour de la ressource en eau. Pour autant, l’attribution des causes à des événements exceptionnels comme les crues intenses s’avère difficile. Faut-il chercher un seul coupable, ou bien plusieurs ? Changement climatique et modification des usages des sols contribuent à la genèse des inondations, mais leurs implications respectives dans ces évènements varient selon le type d’inondation ainsi qu’au cours du temps.

Il est difficile de déterminer les causes des crues

Isoler la part de responsabilité du changement climatique dans la survenue d’un événement climatique extrême est ce qu’on appelle un processus d’attribution. La science de l’attribution, relativement récente, est nécessaire pour quantifier les impacts du changement climatique dans des processus complexes et variables. Un exemple récent est l’étude menée suite aux pluies torrentielles d’octobre 2024 en Espagne, qui a montré que ce type d’épisode pluvieux présente jusqu’à 15 % de précipitations supplémentaires par rapport à un climat sans réchauffement. En d’autres termes, environ une goutte d’eau sur six tombée lors de cet épisode peut être imputée au changement climatique.

Si l’attribution des pluies est aujourd’hui de mieux en mieux maîtrisée, celle des crues reste moins bien déterminée. On confond souvent l’attribution de la pluie et celle de la crue, alors qu’elles ne sont pas équivalentes. Entre le moment où la pluie tombe et celui où la rivière déborde, il se passe beaucoup de choses au niveau du bassin versant : selon le degré d’humidité et la nature du sol et du sous-sol ou bien la manière dont il a été aménagé, il peut agir comme tampon ou accélérer les flux d’eau. Deux bassins versants différents auront des réponses également différentes pour un même volume de pluie, et un même volume de pluie tombant sur un même bassin versant peut avoir des conséquences très différentes selon le moment de l’année. La survenue d’une crue dépend donc de la combinaison de deux dés : la pluie qui tombe sur le bassin versant et la capacité de ce bassin à l’absorber.

Le changement climatique et les aménagements perturbent l’absorption des sols

Les études d’attribution des pluies montrent avec certitude que le réchauffement climatique — et donc les activités humaines qui en sont la cause — intensifient les pluies fortes et les rendent de plus en plus fréquentes. Si nos futurs étés seront plus secs, les hivers seront eux plus humides, notamment dans le nord de la France. Qu’en est-il du deuxième dé, la capacité d’absorption des bassins versants ? Le changement climatique l’affecte également, en modifiant l’humidité des sols au fil des saisons. Mais cette capacité dépend aussi largement des transformations opérées par certaines activités humaines.

C’est le cas par exemple des barrages, conçus pour stocker l’eau lors des saisons humides et qui ont la capacité de tamponner la puissance des crues. Mais d’autres phénomènes sont impliqués, comme l’urbanisation, qui imperméabilise les sols en remplaçant champs et prairies par du béton et de l’asphalte. Ces surfaces imperméables réduisent fortement l’infiltration et favorisent le ruissellement. Même si l’urbanisation reste marginale à l’échelle des grands bassins versants, elle peut jouer un rôle majeur localement, notamment en zones périurbaines, où les petits cours d’eau sont souvent canalisés ou recouverts.

Les aménagements agricoles comptent également. Le remembrement, qui a fait disparaître des milliers de haies et fossés au profit de grandes parcelles plus facilement exploitables pour des machines agricoles, a profondément modifié la circulation de l’eau. En parallèle, d’autres transformations ont réduit la capacité du paysage à retenir l’eau lors des pluies fortes, comme la pose de drains en profondeur dans les sols agricoles qui vise à évacuer l’excédent d’eau des terres trop humides durant l’hiver. La création de digues et de canaux pour limiter l’expansion des rivières, le creusement des cours d’eau et la rectification de leurs berges les ont recalibrées pour les rendre linéaires. Ces différents aménagements ont des effets importants. Ils modifient le cycle de l’eau continental en accélérant globalement les flux vers la mer. Les niveaux des nappes ont déjà été affectés par ces modifications. Dans les vastes marais du Cotentin, nous avons montré que le niveau moyen des nappes a chuté d’environ un mètre depuis 1950, alors que les aménagements des siècles précédents avaient déjà diminué ces niveaux. Le changement climatique va renforcer cette diminution des niveaux de nappe au moins sur une grande partie du territoire hexagonal.

D’un bassin à l’autre, des effets différents

Ces facteurs jouent différemment selon la surface des bassins versants et leur localisation : l’urbanisation a un effet très fort sur les crues des petits bassins versants côtiers de la Côte d’Azur, qui ont une surface inférieure à 10 km2, mais un effet moindre sur le bassin versant de la Vilaine, qui compte 1 400 km2 à Rennes après la confluence avec l’Ille. À l’inverse, les pratiques agricoles ont un effet plus important sur les crues du bassin de la Vilaine que sur ceux de la Côte d’Azur.

Aujourd’hui, il est difficile de quantifier précisément la part relative de ces facteurs dans l’occurrence des crues observées. En amont des cours d’eau, certaines transformations peuvent ralentir la propagation des crues en augmentant des capacités de stockage locales, par exemple dans les sols, les zones humides ou les plaines inondables, tandis qu’en aval, l’accélération des flux et leur addition tendent à dominer. Chacun des aménagements décrits influence la manière dont un bassin versant absorbe ou accélère l’eau, mais l’addition de leurs effets crée une interaction complexe dont nous ne savons pas précisément faire le bilan.

Lors d’événements exceptionnels comme la crue de Valence, ce sont avant tout les volumes de pluie qui déclenchent la crue et ses conséquences, le changement climatique pouvant intensifier ces précipitations. Les aménagements du territoire influencent de manière secondaire la façon dont l’eau s’écoule et se concentre dans les bassins versants. Il n’en reste pas moins que ces deux effets jouent un rôle de plus en plus important dans les événements de moindre ampleur, dont les impacts sont néanmoins importants et dont l’occurrence a déjà augmenté et va encore s’accentuer dans le futur. Pour deux degrés de réchauffement, l’intensité des crues décennales (d’une ampleur observée en moyenne une fois tous les 10 ans) augmentera potentiellement de 10 à 40 % dans l’Hexagone, et celle des crues centennales (observées en moyenne une fois tous les siècles) de plus de 40 %.

Une vie en catastrophes ?

Ces événements ont provoqué des prises de position politique virulentes. Certains, en particulier à droite de l’échiquier politique, ont remis en question les politiques récentes de restauration de l’état naturel des cours d’eau, de protection des zones humides et de destruction des barrages. Elles ont conduit à des appels à la suppression de l’Office français de la biodiversité lors des manifestations agricoles, proposition reprise par le sénateur Laurent Duplomb devant le Sénat le 24 janvier 2024.

Les aménagements les plus récents, défendus par de nombreuses structures territoriales, visent à redonner au cycle de l’eau, et en particulier aux rivières, des espaces plus larges et à recréer ou protéger des zones humides. Tous ces aménagements conduisent à ralentir les flux et donc luttent contre les inondations, tout en préservant la biodiversité à laquelle notre santé est liée. Les zones humides sont par exemple les meilleurs ennemis des moustiques tigres, en permettant le développement de leurs prédateurs. Bien qu’ils exigent de concéder des terres agricoles aux milieux naturels, ces aménagements nourrissent les nappes qui restent le meilleur réservoir pour le stockage de l’eau des saisons humides.

Remettre en question les politiques de recalibration des cours d’eau, de remembrement et de drainage, tout comme l’imperméabilisation des zones urbaines, est une nécessité imposée par l’adaptation au changement climatique. Il s’agit de limiter ou éviter les tensions entre les besoins des activités humaines et les besoins des écosystèmes qui pourraient en faire les frais. Les inondations catastrophiques ne sont qu’en partie liées aux aménagements et ne peuvent pas justifier à elles seules les politiques de retour à l’état naturel des cours d’eau, qui sont en revanche une réponse aux sécheresses estivales à venir. Pour autant, ces inondations majeures sont là pour nous alerter sur les effets du changement climatique. Les étés vont devenir plus secs et les ressources vont manquer, mais les événements extrêmes vont également se multiplier. Une vie en catastrophes nous attend si nous ne transformons pas nos modes de consommation et de production. Tel est le message porté par les inondations. Sera-t-il mieux entendu que les appels des hydrologues ?

The Conversation

Luc Aquilina est co-titulaire de la chaire Eaux et territoires de la fondation de l’Université de Rennes qui reçoit des fonds d’Eau du Bassin Rennais, Rennes Métropole et du Syndicat Mixte Eau 50.

Pierre Brigode a reçu des financements de l'Université de Rennes, du Centre national de la recherche scientifique et de l'Agence nationale de la recherche.

12.02.2026 à 16:13

Fabriquer de l’oxygène avec le sol lunaire : le futur de l’exploration spatiale  ?

Jack Robinot, Doctorant en sciences de l'ingénieur, Centre national de la recherche scientifique (CNRS)
Alexis Paillet, Chargé de projet vaisseaux spatiaux, Centre national d’études spatiales (CNES)
Stéphane Abanades, Directeur de Recherche, Centre national de la recherche scientifique (CNRS)
Sylvain Rodat, Chimiste, Centre national de la recherche scientifique (CNRS)
img
Alors que les projets de retour sur la Lune se multiplient, et cette fois-ci pour s’y implanter durablement, comment respirer sur un astre sans atmosphère ?
Texte intégral (3234 mots)
Pour survivre à long terme sur la Lune, la roche qui s’étend à perte de vue à sa surface pourrait bien nous fournir de quoi y respirer. Eugene A. Cernan/NASA

Alors que les projets de retour sur la Lune se multiplient, et cette fois-ci pour s’y implanter durablement, comment respirer sur un astre sans atmosphère ? La réponse se trouve peut-être dans la poussière qui recouvre notre satellite.


Une nouvelle course à la Lune se dessine entre les États-Unis et la Chine. Contrairement à il y a cinquante ans, il n’est plus seulement question d’alunir et de repartir, mais bien d’établir une base qui autorise une présence durable et des séjours prolongés à la surface de notre satellite naturel. L’objectif est désormais de se servir de la Lune comme d’un bac à sable pour tester les technologies qui nous permettront de voyager plus loin, notamment vers Mars.

L’une de ces technologies clés est l’in-situ resource utilization (ISRU), c’est-à-dire l’exploitation des ressources disponibles sur place afin de produire les consommables nécessaires aux activités humaines : oxygène, eau, carburants pour les fusées ou matériaux de construction. En produisant directement sur la Lune ce qui est indispensable à la vie et aux opérations, il sera possible de réduire significativement la masse de cargaison à expédier depuis la Terre, réduisant ainsi les coûts logistiques et financiers de l’exploration spatiale. Plutôt que d’importer ces ressources depuis la Terre, il s’agit d’apprendre à vivre sur la Lune.

Décomposer la poussière lunaire pour en extraire de l’oxygène

À l’aube de ce retour durable de l’être humain sur la Lune, l’ISRU s’impose donc comme un pivot stratégique. L’un des défis majeurs est de produire de l’oxygène à partir du régolithe, la couche de sol qui recouvre la Lune, principalement formée de petits fragments de roches et de poussières. La composition du régolithe est complexe. Celui-ci est essentiellement constitué de plusieurs minéraux (plagioclase, pyroxène, olivine) eux-mêmes constitués d’un mélange d’oxydes métalliques, des composés chimiques qui associent de l’oxygène à un autre élément comme du silicium, du fer ou du calcium.

Environ 40 à 45 % de la masse du régolithe est donc composée d’oxygène, ce qui en fait l’élément le plus abondant à la surface de la Lune. L’oxygène est omniprésent, mais il n’existe pas sous forme gazeuse comme dans l’atmosphère terrestre. Pour libérer l’oxygène, il faut briser les liaisons chimiques qui l’attachent aux autres éléments dans les oxydes du sol lunaire.

Une des méthodes envisagées est la pyrolyse, un type de réaction chimique qui permet de décomposer des matériaux grâce à de hautes températures, afin de produire des composés volatils. Appliquée au régolithe, il est possible de le chauffer jusqu’à ce que les oxydes métalliques se vaporisent et se décomposent en oxygène et en métaux.

Sur la Lune, l’énergie thermique serait fournie grâce à la concentration solaire, un procédé qui consiste à utiliser des miroirs ou des lentilles pour focaliser la lumière du Soleil vers une petite zone. Les rayons se rassemblent alors en un faisceau et convergent en un point focal où l’énergie est fortement concentrée, permettant d’atteindre des températures de plusieurs milliers de degrés. Cette méthode prévoit également d’exploiter le vide lunaire, un environnement qui favorise les réactions libérant du gaz. Cela permettra de diminuer la quantité d’énergie nécessaire à la réaction.

Le four solaire, une méthode efficace et peu coûteuse

La Lune a un environnement particulièrement favorable à la pyrolyse solaire. Dépourvue d’atmosphère, la pression à sa surface est extrêmement faible, de l’ordre de 10⁻15 bar. L’absence d’atmosphère offre un second avantage : le rayonnement solaire ne peut pas être absorbé par celle-ci ni bloqué par des nuages. Cela permet d’obtenir des flux solaires concentrés plus élevés que sur Terre. De plus, certaines zones géographiques à son pôle Sud sont exposées à la lumière du Soleil jusqu’à 90 % du temps. Ainsi, en combinant le vide lunaire avec des systèmes de concentration solaire, on peut concevoir un procédé relativement simple, robuste et potentiellement efficace pour extraire de l’oxygène du régolithe.

De nombreux miroirs constituant la parabole, face à un bâtiment. On peut voir le reflet du paysage inversé à l’intérieur
Le grand four solaire d’Odeillo, l’un des équipements du laboratoire. Cette grande parabole permet de concentrer une grande quantité d’énergie solaire en un même point. H. Zell/Wikimedia, CC BY-SA

Au sein du laboratoire Procédés, matériaux, énergie solaire (Promes-CNRS), spécialisé dans les technologies de concentration solaire, nous travaillons à la validation du concept de base de la pyrolyse qui pourra à l’avenir être déployé sur la Lune. Implanté sur le site du grand four solaire d’Odeillo (Pyrénées-Orientales) en Occitanie, le laboratoire dispose d’infrastructures expérimentales uniques au monde vouées à l’étude des procédés hautes températures. Parmi ces équipements figurent notamment des paraboles de deux mètres de diamètre permettant de concentrer 10 000 fois les rayons solaires sur une tache d’environ 2 cm de diamètre et d’atteindre des températures de plus de 3 000 °C.

Photo du dispositif expérimental
L’expérience de pyrolyse avec une parabole de deux mètres. On peut voir les rayons de lumière formant un cône et, au centre de l’image, le point focal où ils convergent et chauffent. Jack Robinot/CNRS, Fourni par l'auteur

Cette énergie alimente le réacteur de pyrolyse, une enceinte sous vide conçue pour exposer des échantillons de matériaux qui simulent le régolithe lunaire au flux solaire concentré. Les pastilles de simulant sont placées sur un support en cuivre refroidi, tandis qu’une parabole focalise la lumière du Soleil à l’intérieur du réacteur pour assurer leur chauffage. Une pompe à vide maintient une pression d’environ 10 millibars. Une cellule électrochimique permet de déterminer en continu la concentration d’oxygène dans le réacteur.

L’échantillon est ensuite progressivement chauffé et commence à fondre aux alentours de 1 200 °C. Le régolithe atteint par la suite des températures d’environ 2 000 °C. Dans ces conditions, les oxydes présents dans l’échantillon commencent à se vaporiser et se dissocient pour libérer de l’oxygène.

alt
Photo du réacteur de pyrolyse en cours de fonctionnement : les parois du hublot en verre se sont opacifiées en raison de la condensation des espèces chimiques vaporisées. La parabole est visible au-dessus du réacteur. Jack Robinot/CNRS, Fourni par l'auteur

D’autres produits en plus de l’oxygène

Lors des premiers essais, 35 mg d’oxygène ont été extraits à partir d’une pastille de 3,38 g, soit environ 1 % de la masse totale. Cela correspond à 2,5 % de l’oxygène contenu dans le simulant de régolithe. Une fois l’expérience achevée, une bille de verre est obtenue à la place de la pastille de régolithe. La fraction de régolithe qui s’est vaporisée lors de l’expérience se condense sur les parois froides du réacteur sous la forme de composés minéraux. Ces espèces sont collectées afin de les caractériser ensuite et de déterminer leur composition chimique.

Après pyrolyse, la bille de verre formée présente une composition chimique différente de celle du simulant de régolithe initial. Les oxydes volatils, qui se sont échappés lors du processus, y sont moins concentrés, à l’inverse des oxydes non volatils. Les espèces les plus volatiles ont été retrouvées dans les dépôts collectés sur les parois du réacteur, où elles se sont condensées lors de la pyrolyse.

Cette observation suggère qu’il serait aussi possible d’utiliser la pyrolyse comme une méthode pour séparer les oxydes dans le régolithe selon le principe de la distillation. Ces coproduits pourraient être exploités pour la fabrication de structures, d’outils ou de matériaux de construction directement sur la Lune, renforçant ainsi l’autonomie des futures missions lunaires.

Passer de la preuve de concept aux conditions réelles

Ces premiers essais ont permis de déterminer un rendement, mais celui-ci reste faible. Les prochaines étapes de développement viseront à réduire la pression à l’intérieur du réacteur, afin de se rapprocher des conditions lunaires. Une pression réduite devrait permettre de diminuer les températures mises en jeu lors de la pyrolyse, afin de vaporiser intégralement l’échantillon et d’augmenter le rendement.

Par la suite, il sera également pertinent de tester différents types de régolithes, ainsi que les minéraux et oxydes individuels qui les composent, afin de mieux comprendre la chimie des réactions. Le réacteur de pyrolyse se devra de fonctionner en continu afin d’exploiter au mieux le jour lunaire. Le procédé peut encore être optimisé. Un contrôle plus précis de la température permettrait de mieux maîtriser les réactions et d’améliorer leur rendement. Une collecte plus efficace des gaz produits viserait à limiter les pertes d’oxygène. Nous espérons également réduire les pertes thermiques en utilisant un creuset et en l’isolant. Enfin, une meilleure condensation des sous-produits permettrait d’identifier et de valoriser les matériaux formés lors de la pyrolyse en plus de l’oxygène.

L’ensemble du système (réacteur, miroirs et dispositifs de concentration solaire) devra en outre être robuste et fiable, capable de résister aux conditions extrêmes de l’environnement lunaire : poussière abrasive, radiations, fortes variations thermiques… Enfin, l’oxygène généré devra être stocké, purifié pour le séparer d’autres éléments qui peuvent être présents dans le gaz et utilisé. Il faut aussi penser à la logistique d’alimentation du réacteur en régolithe, qu’il s’agisse de son extraction, de son transport ou de son utilisation après traitement.

Trois photos au cours de l’expérience. La pastille de régolithe réagit peu à peu pour fondre en verre. Une flamme bleue apparaît sur la troisième photo
Photos de la pastille de simulant de régolithe pendant la pyrolyse. Après quinze minutes, la pastille commence à fondre en son centre à l’emplacement du point focal. Après trente minutes, un panache bleu de gaz est émis de sa surface, indiquant la vaporisation des oxydes du régolithe. Jack Robinot/CNRS, Fourni par l'auteur

La pyrolyse solaire sous vide est une méthode particulièrement bien adaptée aux conditions lunaires. Elle tire parti du vide naturel de la Lune, demande peu de ressources importées et utilise l’énergie solaire, abondante sur un satellite sans atmosphère. Les tests à Odeillo ont déjà prouvé la faisabilité du concept, mais les rendements doivent encore être améliorés et les défis techniques restent considérables. En produisant localement de l’oxygène et des matériaux, le procédé soutiendrait les futures bases lunaires et réduirait leur dépendance vis-à-vis de la Terre.

The Conversation

Jack Robinot a reçu des financements du CNES et de la région Occitanie.

Sylvain Rodat a reçu des financements de la région Occitanie et un support matériel de l'ESA (Agence spatial européenne) qui a fourni le simulant de régolithe.

Alexis Paillet et Stéphane Abanades ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

11.02.2026 à 16:22

Des centaines de séismes ont été détectés à proximité du « glacier de l’apocalypse » en Antarctique

Thanh-Son Pham, ARC DECRA Fellow in Geophysics, Australian National University
img
Longtemps insaisissables, des séismes glaciaires ont été détectés pour la première fois en Antarctique. Ils pourraient aider à comprendre le rôle du glacier de Thwaites dans la montée du niveau de la mer.
Texte intégral (1461 mots)
L’extrémité du glacier libère de grands icebergs, dont le basculement, ou vêlage, déclenche des secousses sismiques. Copernicus/ESA, CC BY

Grâce à l’utilisation de stations sismiques locales, des chercheurs ont identifié des centaines de séismes glaciaires au glacier de Thwaites, jusqu’ici passés inaperçus. Ils permettent de suivre l’activité d’une zone critique pour la stabilité antarctique.


Les séismes glaciaires sont un type particulier de tremblement de terre dans les régions froides et glacées. Découverts pour la première fois dans l’hémisphère Nord il y a plus de vingt ans, ils se produisent lorsque d’énormes blocs de glace tombent des glaciers dans la mer, générant des vibrations qui se propagent ensuite dans le sol sous le glacier et au-delà.

Jusqu’à présent, seuls très peu de ces séismes provoqués par la chute de blocs de glace avaient été détectés en Antarctique. Dans une nouvelle étude publiée dans Geophysical Research Letters, je présente des preuves de centaines d’occurrences en Antarctique entre 2010 et 2023, principalement à l’extrémité océanique du glacier Thwaites – le fameux « glacier de l’Apocalypse », qui pourrait provoquer une montée rapide du niveau de la mer en cas d’effondrement.


À lire aussi : Face à la fonte des glaces de l’Antarctique, le niveau de la mer n’augmente pas au même rythme partout


Une découverte récente

Un séisme glaciaire se produit lorsque de hauts icebergs effilés se détachent de l’extrémité d’un glacier et tombent dans l’océan.

Lorsque ces blocs basculent, ils heurtent violemment le glacier principal. Ce choc génère de fortes vibrations mécaniques du sol, ou ondes sismiques, qui se propagent sur des milliers de kilomètres depuis leur origine.

Ce qui rend les séismes glaciaires uniques, c’est qu’ils ne génèrent aucune onde sismique à haute fréquence. Et comme ces ondes sont essentielles pour détecter et localiser les sources sismiques classiques, comme les tremblements de terre, les volcans ou les explosions nucléaires, les séismes glaciaires n’ont été découverts que relativement récemment, alors que d’autres sources sismiques sont, elles, analysées quotidiennement depuis plusieurs décennies.

Variations saisonnières

La plupart des séismes glaciaires détectés jusqu’à présent ont été localisés près des extrémités des glaciers au Groenland, la plus grande calotte glaciaire de l’hémisphère nord.

Ils présentent des magnitudes relativement élevées, dont les plus importantes sont comparables à celles des séismes provoqués par les essais nucléaires menés par la Corée du Nord au cours des deux dernières décennies. Ces magnitudes assez importantes permettent de suivre ces séismes glaciaires avec un réseau sismique international, opérationnel en continu.

Les événements groenlandais sont saisonniers. Ils surviennent plus fréquemment à la fin de l’été. Ils sont également devenus plus fréquents au cours des dernières décennies. Ces tendances pourraient être liées à un réchauffement climatique plus rapide dans les régions polaires.

En Antarctique, des preuves difficiles à obtenir

Bien que l’Antarctique abrite la plus grande calotte glaciaire de la planète, les preuves directes de séismes glaciaires causés par le basculement d’icebergs (on parle de vêlage) sont difficiles à détecter.

La plupart des tentatives précédentes reposaient sur le réseau mondial de détecteurs sismiques – qui pourraient ne pas être suffisamment sensible si les séismes glaciaires antarctiques sont de magnitude beaucoup plus faible que ceux du Groenland.

Dans ma nouvelle étude, j’ai utilisé des stations sismiques situées en Antarctique. J’ai détecté ainsi plus de 360 événements sismiques glaciaires. La plupart ne figuraient pas dans les catalogues de séismes.

Ces événements sont situés dans deux zones, près des glaciers de Thwaites et de Pine Island. Ce sont les deux principales sources de la montée du niveau de la mer en provenance de l’Antarctique.

Les séismes du glacier de l’Apocalypse

Le glacier de Thwaites est parfois surnommé « glacier de l’Apocalypse », car, s’il venait à s’effondrer complètement, il ferait monter le niveau mondial des mers de 3 mètres – et parce qu’il est susceptible de se désintégrer rapidement.

Environ les deux tiers des événements que j’ai détectés – 245 sur 362 – se situaient près de l’extrémité du glacier en contact avec l’océan. La plupart sont probablement des séismes glaciaires causés par le basculement d’icebergs.

À la différence de ce qui se passe au Groenland, le principal facteur à l’origine de ces événements ne semble pas être la variation annuelle des températures de l’air.

La période la plus prolifique pour les séismes glaciaires à Thwaites, entre 2018 et 2020, coïncide plutôt avec une accélération de la progression de la langue glaciaire vers la mer. Cette accélération, confirmée de manière indépendante par des observations satellites, pourrait être liée aux conditions océaniques, mais leur effet est encore mal compris.

Ces nouveaux résultats suggèrent donc que l’état de l’océan peut avoir un impact à court terme sur la stabilité des glaciers qui terminent dans la mer. Cela mérite d’être étudié plus avant pour évaluer la contribution potentielle du glacier à la hausse future du niveau de la mer.


À lire aussi : Une nouvelle méthode pour évaluer l’élévation du niveau de la mer


Le deuxième plus grand groupe de séismes glaciaires antarctiques que j’ai observés se trouve près du glacier de Pine Island. Mais ces séismes étant situés à 60–80 kilomètres du rivage, il est peu probable qu’ils aient été provoqués par le basculement d’icebergs.

Ces événements demeurent énigmatiques et nécessitent des recherches complémentaires.

Perspectives pour la recherche sur les séismes glaciaires en Antarctique

La détection de séismes glaciaires liés au vêlage d’icebergs sur le glacier de Thwaites pourrait contribuer à avancer sur plusieurs questions scientifiques importantes. Parmi elles, figure l’interrogation fondamentale sur l’instabilité potentielle du glacier de Thwaites, en lien avec l’interaction entre océan, glace et substrat rocheux à l’endroit précis où il rejoint la mer.

Mieux comprendre ces mécanismes est essentiel pour réduire les grandes incertitudes sur les projections de montée du niveau de la mer au cours des prochains siècles.

The Conversation

Thanh-Son Pham a reçu des financements de l'Australian Research Council.

10.02.2026 à 14:11

Les chiens et les chats transportent les vers plats envahissants de jardin à jardin

Jean-Lou Justine, Professeur, UMR ISYEB (Institut de Systématique, Évolution, Biodiversité), Muséum national d’histoire naturelle (MNHN)
Leigh Winsor, Adjunct Senior Research Fellow, James Cook University
img
Les sciences participatives permettent de découvrir comment les vers plats envahissants sont transportés de jardin en jardin… sur le dos des chiens et des chats !
Texte intégral (1261 mots)

Les chiens et les chats domestiques peuvent transporter les vers plats (plathelminthes) collés sur leur pelage. Sans le vouloir, ils contribuent ainsi à la propagation de ces espèces exotiques envahissantes. Notre travail vient d’être publié dans la revue scientifique PeerJ.

Au niveau mondial, les espèces exotiques intrusives représentent un des dangers majeurs pour la biodiversité. Il est frappant de découvrir que les chiens et les chats, nos compagnons du quotidien, participent de manière involontaire à l’envahissement des jardins par une espèce potentiellement dangereuse pour la biodiversité.

Comment avons-nous fait cette découverte ?

Nous menons un projet de sciences participatives sur les invasions de vers plats.

Nous avons été interpellés par des courriels envoyés par des particuliers signalant la présence de vers collés au pelage de chiens et de chats. Nous avons alors réexaminé plus de 6 000 messages reçus en douze ans et avons constaté que ces observations étaient loin d’être anecdotiques : elles représentaient environ 15 % des signalements.

Fait remarquable, parmi la dizaine d’espèces de vers plats exotiques introduits en France, une seule était concernée : Caenoplana variegata, une espèce venue d’Australie dont le régime alimentaire est composé d’arthropodes (cloportes, insectes, araignées).

Caenoplana variegata, le ver plat qui est transporté par les chats et les chiens. par Jean-Lou Justine, CC BY

En quoi cette découverte est-elle importante ?

On sait depuis longtemps que les plathelminthes (vers plats) exotiques sont transportés de leur pays d’origine vers l’Europe par des moyens liés aux activités humaines : conteneurs de plantes acheminés par bateau, camions livrant ensuite les jardineries, puis transport en voiture jusqu’aux jardins.

Ce qu’on ne comprenait pas bien, c’est comment les vers plats, qui se déplacent très lentement, pouvaient ensuite envahir les jardins aux alentours. Le mécanisme mis en évidence est pourtant simple : un chien (ou un chat) se roule dans l’herbe, un ver se colle sur le pelage, et l’animal va le déposer un peu plus loin. Dans certains cas, il le ramène même chez lui, ce qui permet aux propriétaires de le remarquer.

Par ailleurs, il est surprenant de constater qu’une seule espèce est concernée en France, alors qu’elle n’est pas la plus abondante. C’est Obama nungara qui est l’espèce la plus répandue, tant en nombre de communes envahies qu’en nombre de vers dans un jardin, mais aucun signalement de transport par animal n’a été reçu pour cette espèce.

Cette différence s’explique par leur régime alimentaire. Obama nungara se nourrit de vers de terre et d’escargots, tandis que Caenoplana variegata consomme des arthropodes, produisant un mucus très abondant et collant qui piège ses proies. Ce mucus peut adhérer aux poils des animaux (ou à une chaussure ou un pantalon, d’ailleurs). De plus, Caenoplana variegata se reproduit par clonage et n’a donc pas besoin de partenaire sexuel : un seul ver transporté peut infester un jardin entier.

Nous avons alors tenté d’évaluer quelles distances parcourent les 10 millions de chats et les 16 millions de chiens de France chaque année. À partir des informations existantes sur les trajets quotidiens des chats et des chiens, nous avons abouti à une estimation spectaculaire : des milliards de kilomètres au total par an, ce qui représente plusieurs fois la distance de la Terre au Soleil ! Même si une petite fraction des animaux domestiques transporte des vers, cela représente un nombre énorme d’occasions de transporter ces espèces envahissantes.

Un point à clarifier est qu’il ne s’agit pas de parasitisme, mais d’un phénomène qui s’appelle « phorésie ». C’est un mécanisme bien connu dans la nature, en particulier chez des plantes qui ont des graines collantes ou épineuses, qui s’accrochent aux poils des animaux et tombent un peu plus loin. Mais ici, c’est un animal collant qui utilise ce processus pour se propager rapidement.

Quelles sont les suites de ces travaux ?

Nous espérons que cette découverte va stimuler les observations et nous attendons de nouveaux signalements du même genre. D’autre part, nos résultats publiés concernent la France, pour laquelle les sciences participatives ont fourni énormément d’informations, mais quelques observations suggèrent que le même phénomène existe aussi dans d’autres pays, mais avec d’autres espèces de vers plats.

Il est désormais nécessaire d’étendre ces recherches à l’échelle internationale, afin de mieux comprendre l’ampleur de ce mode de dispersion et les espèces concernées.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

09.02.2026 à 16:00

Soixante ans après Astérix, Idefix® se lance à son tour dans la conquête spatiale

Julien Baroukh, Chef de projet du rover Idefix pour la mission MMX, Centre national d’études spatiales (CNES)
img
Cette année, une mission internationale menée par le Japon va décoller en direction des lunes de Mars. À son bord, un petit rover qui va jouer le rôle d’éclaireur scientifique.
Texte intégral (2120 mots)
Le rover Idefix<sup>®</sup> se posera à la surface de Phobos et sera à la fois un éclaireur pour la sonde MMX et un enquêteur scientifique de terrain. ©DLR, CC BY-NC-ND

Cette année, une mission internationale menée par le Japon va décoller en direction des lunes de Mars. Pourquoi se pencher sur ces corps célestes ? Quels sont les défis à relever pour faire de la mission un succès ? Le chef de projet côté français nous emmène en coulisse.


Les lunes de Mars, Phobos et Deimos, intriguent : très petites et proches de Mars, les modèles scientifiques n’arrivent pas à déterminer d’où elles viennent. Sont-elles le résultat d’un impact géant sur la planète rouge ? Ou bien sont-elles des astéroïdes capturés par la gravité de cette dernière ? Ont-elles évolué depuis leur formation ? Répondre à ces questions permettra d’améliorer la compréhension de la formation et de l’évolution du système solaire, avec, à la clé, la question de l’origine de l’eau sur Mars… et sur la Terre.

En octobre 2026, la mission japonaise MMX (pour Martian Moons eXploration) décollera de Tanegashima, au Japon, vers la lune martienne Phobos. À son bord, le premier rover (ou « astromobile ») de conception et fabrication franco-allemande, appelé Idefix®, un petit robot sur roues conçu pour explorer la surface de Phobos. Ainsi, soixante ans après le décollage du premier satellite français A1, surnommé Astérix, à bord de la fusée française Diamant depuis la base spatiale d’Hammaguir en Algérie – et qui faisait de la France la troisième puissance spatiale, c’est son fidèle compagnon Idefix® qui s’élancera à son tour vers l’espace, célébrant la coopération internationale dans l’exploration spatiale.

Une mission pour étudier Phobos, une des lunes de Mars

Déterminer l’origine des deux lunes martiennes est l’objectif que s’est fixé l’agence spatiale japonaise, la JAXA. Pour cela, elle a imaginé et mis sur pied la mission MMX en coopération avec plusieurs agences internationales. Elle ira étudier Phobos et Deimos sur place : depuis l’orbite d’abord, au moyen de plusieurs instruments scientifiques, puis en se posant à la surface de Phobos pour y collecter des échantillons, qui seront renvoyés vers la Terre, avec un retour prévu en 2031.

Le Cnes, l’agence spatiale française, contribue à plusieurs titres à cette extraordinaire aventure. Tout d’abord avec son expertise sur les trajectoires planétaires : ses équipes participeront à la validation des calculs de leurs homologues japonais. Ensuite avec la fourniture d’un instrument scientifique, le spectromètre imageur MIRS, qui permettra d’observer Phobos et Deimos (et aussi l’atmosphère de Mars) dans l’infrarouge. Et enfin avec la mise à disposition du petit rover Idefix®, conçu en collaboration avec l’agence spatiale allemande, le DLR (Deutsches Zentrum für Luft- und Raumfahrt), pour explorer la surface de Phobos pendant au minimum cent jours.

Un casse-tête d’ingénierie

Les challenges à relever pour Idefix® sont nombreux, car explorer la surface de Phobos est un véritable défi : il n’y a pas d’atmosphère, les températures sont extrêmes, de – 200 °C la nuit à + 60 °C le jour, et la gravité y est très faible (environ 2 000 fois moins que sur Terre) et varie du simple au double selon le lieu où l’on se trouve.

photo du rover en salle blanche
Le rover Idefix® en configuration de croisière, c’est-à-dire sa configuration quand il est accroché à la sonde MMX : il a les jambes et les panneaux solaires repliés, ainsi que les protections des différentes appendices fermées. Cnes, Fourni par l'auteur

Un vrai casse-tête que les équipes d’ingénieurs ont dû résoudre en plus des contraintes techniques très fortes inhérentes aux projets spatiaux, telles que la masse allouée, la puissance électrique disponible ou encore l’encombrement très réduits. Le résultat est un rover de moins de 25 kilogrammes, de 45 centimètres par 40 centimètres par 35 centimètres – environ la taille d’un micro-onde – avec quatre roues et alimenté par quatre petits panneaux solaires d’une puissance max d’environ 15 watts chacun.

Les objectifs de mission assignés à Idefix® sont triples.

Tout d’abord, Idefix® est un éclaireur. Il se posera le premier sur le sol jusqu’ici inconnu de Phobos et permettra de mieux caractériser son état et son comportement, avant que la sonde MMX atterrisse à son tour pour y recueillir des échantillons et les rapporter sur Terre. En effet, la très faible gravité de Phobos rend le régolithe, cette couche de sable et de gravier à la surface, très imprévisible : sable mouvant ? ou bien croûte parfaitement rigide ? La sonde MMX ne veut pas le découvrir lors de son propre atterrissage, et c’est donc Idefix® qui prendra les risques à sa place.

Ensuite, Idefix® est un démonstrateur technologique, et ce, à plusieurs titres. Il sera le premier objet à rouler sur un corps céleste avec une gravité aussi faible (milligravité), ouvrant ainsi la voie à une nouvelle méthode d’exploration spatiale. Il démontrera les capacités de navigation autonome fondée sur la vision, permettant d’étendre les rayons d’action de telles explorations. Enfin, il testera de nouvelles technologies avioniques (ordinateur de bord, système de communication, etc.) issues des nanosatellites d’observation de la Terre, mais dans un cadre interplanétaire.

Enfin, Idefix® est un explorateur scientifique in situ équipé de plusieurs instruments : quatre caméras dans le domaine visible, un radiomètre et un spectromètre à effet Raman, qui pourront bénéficier de la capacité du rover à se mouvoir pour étudier plusieurs zones.

Explorer la surface de Phobos grâce à quatre instruments, en se déplaçant

En explorant des zones non perturbées de la surface de Phobos, Idefix® déterminera les propriétés physiques du matériau de surface et caractérisera l’homogénéité de la surface dans une plage allant de 0,1 millimètre à plusieurs dizaines de mètres. Ainsi, Idefix® apportera un éclairage unique, une passerelle entre les études menées à distances depuis l’orbite par la sonde et l’analyse des échantillons qu’elle rapportera sur Terre.

illustration
Illustration d’Idefix® pointant ses panneaux photovoltaïques vers le Soleil. Jean Bertrand, Cnes, Fourni par l'auteur

Deux des caméras sont situées à l’avant du rover, les navcams. Elles sont en premier lieu conçues pour le pilotage du rover en permettant de reconstituer le terrain devant Idefix® en trois dimensions. Elles offriront des informations de contexte scientifique aux autres instruments du rover, et leur résolution (4 mégapixels) permettra aussi de conduire des études géomorphologiques de la surface de Phobos.

À côté des navcams, le radiomètre miniRAD étudiera les propriétés thermiques du régolithe et des roches à la surface de Phobos, en mesurant leur rayonnement infrarouge. À l’aide de modèles mathématiques, ces mesures permettront de déterminer des éléments clés de minéralogie, comme l’inertie thermique de la surface, la porosité et l’émissivité du régolithe ou des roches étudiées, apportant ainsi un éclairage sur les processus géologiques à l’œuvre à la surface de Phobos.

Les wheelcams observeront chacune le mouvement des roues du rover et leur interaction avec le régolithe. On pourra en tirer des informations sur les propriétés mécaniques et dynamiques de la surface et aussi, grâce à des LED, sur la composition des grains.

Enfin un spectromètre Raman, orienté vers le sol, permettra de conduire des analyses minéralogiques de la surface de Phobos. Sa plage spectrale permettra de détecter une grande variété de minéraux.

Mais avant même d’explorer la surface de Phobos, le rover Idefix® va vivre des aventures mouvementées. Tout d’abord, le lancement en lui-même est toujours un moment critique. Puis Idefix® devra passer un peu plus de deux ans accroché à la sonde, soumis aux radiations, au vide spatial et aux variations extrêmes de températures. Enfin, il lui faudra survivre à la phase très critique d’atterrissage en terre inconnue.

The Conversation

Julien Baroukh ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.02.2026 à 14:16

Des grains de sable prouvent que ce sont les humains – et non les glaciers – qui ont transporté les pierres de Stonehenge

Anthony Clarke, Research Associate, School of Earth and Planetary Sciences, Curtin University
Chris Kirkland, Professor of Geochronology, Curtin University
img
Une nouvelle étude montre que les pierres les plus exotiques de Stonehenge ne sont pas arrivées par hasard, mais ont été soigneusement choisies et transportées.
Texte intégral (1422 mots)
L’hypothèse selon laquelle les pierres utilisées ont été transportées par d’immenses glaciers qui recouvraient autrefois la Grande-Bretagne ne tient pas l’épreuve des faits. Elias Kipfer/Unsplash, CC BY

Stonehenge n’a pas été façonné par les glaciers. Grâce à l’analyse fine des grains de sable, une étude révèle que les pierres les plus lointaines ont été choisies avec soin et acheminées par nos ancêtres, ajoutant une pièce décisive à l’enquête sur les origines du monument.


Demandez comment Stonehenge a été construit et l’on vous parlera de traîneaux, de cordages, de bateaux et d’une impressionnante détermination humaine pour acheminer des pierres depuis toute la Grande-Bretagne jusqu’à la plaine de Salisbury, dans le sud-ouest de l’Angleterre. D’autres évoqueront des géants, des sorciers ou même le concours d’extraterrestres pour expliquer le transport de ces blocs, dont certains proviennent du Pays de Galles et d’Écosse.

Mais une autre hypothèse existe : et si la nature elle-même avait assuré l’essentiel du travail ? Selon cette piste, d’immenses glaciers qui recouvraient autrefois la Grande-Bretagne auraient transporté les « pierres bleues » et la « pierre d’Autel » jusqu’au sud de l’Angleterre sous forme de blocs erratiques, des roches déplacées par la glace, puis abandonnées sur la plaine de Salisbury, prêtes à être utilisées par les bâtisseurs de Stonehenge.

Cette hypothèse, connue sous le nom de théorie du transport glaciaire, revient régulièrement dans des documentaires et des discussions en ligne. Mais elle n’avait encore jamais été mise à l’épreuve à l’aide des techniques géologiques modernes.

Notre nouvelle étude, publiée le 21 janvier dans Communications Earth and Environment, apporte pour la première fois des preuves claires montrant que des matériaux glaciaires n’ont jamais atteint cette région. Elle démontre ainsi que les pierres ne sont pas arrivées par un transport naturel lié aux glaces.

Si des travaux antérieurs avaient déjà jeté le doute sur la théorie du transport glaciaire, notre étude va plus loin en mobilisant des techniques de pointe d’empreinte minéralogique pour retracer l’origine réelle des pierres.

Une empreinte minéralogique sans équivoque

Les vastes calottes glaciaires laissent derrière elles un paysage chaotique, fait d’amas de roches, de substrats striés et de formes de relief sculptées. Or, aux abords de Stonehenge, ces indices caractéristiques sont soit absents, soit ambigus. Et comme l’extension méridionale exacte des calottes glaciaires demeure incertaine, l’hypothèse d’un transport glaciaire reste sujette à controverse.

Dès lors, en l’absence de traces massives et évidentes, peut-on chercher des indices plus discrets, à une échelle bien plus fine ?

Si des glaciers avaient acheminé les pierres depuis le Pays de Galles ou l’Écosse, ils auraient aussi disséminé en chemin des millions de grains minéraux microscopiques, comme le zircon et l’apatite, issus de ces régions.

Lors de leur formation, ces deux minéraux piègent de faibles quantités d’uranium radioactif, qui se transforme progressivement en plomb à un rythme connu. En mesurant les proportions respectives de ces éléments grâce à une méthode appelée datation uranium-plomb (U–Pb), il est possible de déterminer l’âge de chaque grain de zircon ou d’apatite.

Comme les roches de Grande-Bretagne présentent des âges très différents d’une région sur l’autre, l’âge d’un minéral peut renseigner sur son origine. Autrement dit, si des glaciers avaient transporté des pierres jusqu’à Stonehenge, les cours d’eau de la plaine de Salisbury – qui collectent des zircons et des apatites sur un vaste territoire – devraient encore conserver une empreinte minéralogique nette de ce trajet.

À la recherche d’indices minuscules

Pour le vérifier, nous sommes allés sur le terrain et avons prélevé du sable dans les rivières qui entourent Stonehenge. Et les résultats étaient riches d’enseignements.

Malgré l’analyse de plus de sept cents grains de zircon et d’apatite, nous n’en avons trouvé pratiquement aucun d’un âge minéralogique correspondant aux sources galloises des « pierres bleues » ni à l’origine écossaise de la « pierre d’Autel ».

Cependant, l’immense majorité se concentre dans une fourchette étroite, comprise entre 1,7 et 1,1 milliard d’années. De façon éclairante, les âges des zircons des rivières de Salisbury correspondent à ceux de la Formation de Thanet, une vaste nappe de sables peu cimentés qui recouvrait une grande partie du sud de l’Angleterre il y a plusieurs millions d’années, avant d’être érodée.

Cela signifie que les zircons présents aujourd’hui dans les sables fluviaux sont les vestiges de ces anciennes couches de roches sédimentaires, et non des apports récents déposés par les glaciers lors de la dernière période glaciaire, entre 26 000 et 20 000 ans avant notre ère.

L’apatite raconte une histoire différente. Tous les grains datent d’environ 60 millions d’années, à une époque où le sud de l’Angleterre était une mer subtropicale peu profonde. Cet âge ne correspond à aucune roche-source possible en Grande-Bretagne.

En réalité, l’âge des apatites reflète le métamorphisme et le soulèvement provoqués par la formation de montagnes lointaines dans les Alpes européennes, qui ont fait circuler des fluides à travers le calcaire et « réinitialisé » l’horloge uranium-plomb de l’apatite. Autrement dit, la chaleur et les transformations chimiques ont effacé la signature radioactive antérieure du minéral et remis son compteur à zéro.

Comme le zircon, l’apatite n’a pas été apportée par les glaciers : elle est locale et repose sur la plaine de Salisbury depuis des dizaines de millions d’années.

Un nouvel éclairage sur l’histoire de Stonehenge

Stonehenge se situe au carrefour du mythe, de l’ingénierie ancienne et de la géologie sur des temps profonds.

L’étude des âges des grains microscopiques dans les sables fluviaux apporte aujourd’hui une nouvelle pièce à ce puzzle. Elle fournit des preuves supplémentaires que les pierres les plus exotiques du monument n’y sont pas arrivées par hasard, mais ont été choisies et transportées délibérément.

The Conversation

Anthony Clarke a reçu des financements de l'Australian Research Council.

Chris Kirkland ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

06.02.2026 à 17:15

Maladie de Charcot : le mécanisme à l’origine de la forme génétique de la pathologie a été découvert

Franck Martin, Directeur de recherche, Université de Strasbourg
img
La découverte du mécanisme biologique à l’origine des formes génétiques de maladie de Charcot offre une cible thérapeutique prometteuse.
Texte intégral (1356 mots)

Nous avons découvert le mécanisme biologique à l’origine des formes génétiques les plus fréquentes de deux maladies neurodégénératives : la maladie de Charcot et la Démence Fronto-Temporales. Ces nouvelles connaissances pourraient aider au développement de futures cibles thérapeutiques. Nos résultats viennent d’être publiés dans la revue Science.

La sclérose latérale amyotrophique (SLA), ou maladie de Charcot, est une pathologie neurodégénérative fatale, on estime à 3 ans l’espérance de vie à la suite du diagnostic de la maladie, elle touche environ 6000 personnes en France. La pathologie résulte de la destruction progressive des neurones en charge de commander les muscles, les motoneurones. La mort de ces neurones est à l’origine des troubles moteurs caractéristiques de la maladie (une paralysie complète des muscles des bras, des jambes et de la gorge entraînant une incapacité à marcher, manger, parler ou même respirer qui s’installe progressivement).

Les causes de cette pathologie sont très variées. 10 % des cas de SLA sont d’origine génétique, contre 90 % de cas sporadiques, c’est-à-dire sans cause identifiée. Dans le cas de la forme génétique, la cause la plus fréquente est un défaut au niveau d’un gène spécifique (C9ORF72) qui provoque la synthèse de protéines toxiques qui entraînent la mort des motoneurones.

Ce gène contient des séquences qui sont anormalement répétées et qui portent une information génétique erronée. La traduction de ce défaut génétique conduit à la fabrication de protéines aberrantes (car elles ne devraient pas exister) et neurotoxiques. Notre découverte a permis de comprendre que cette synthèse de protéines toxiques est seule responsable de la pathologie. En bloquant spécifiquement la fabrication de ces dernières, nous avons réussi à enrayer la dégénérescence des motoneurones et de ce fait empêcher l’apparition de la maladie.

La synthèse aberrante de polydipeptides neuro-toxiques à partir d’un site de démarrage unique, un codon CUG dans le gène C9ORF72, provoque la mort des motoneurones chez les patients SLA et des neurones de la partie fronto-temporale du cerveau chez les patients FTD. Si on modifie génétiquement ce site, on stoppe la synthèse de protéines. Fourni par l'auteur

Comment cette découverte a-t-elle pu être réalisée ?

Nous avons dans un premier temps reproduit, in vitro, la synthèse de protéines toxiques responsables de la mort des motoneurones. Ces protéines sont produites par le ribosome des cellules à partir du gène C9ORF72. Dans toutes les cellules, les protéines sont produites par les ribosomes. Ces machineries reconnaissent des sites spécifiques de l’ARN, c’est-à-dire des séquences particulières. Une fois fixé, le ribosome va lire l’ARN et le traduire en protéine. Si le ribosome ne reconnaît pas ce site particulier, la synthèse de protéines est impossible.

Grâce à ces expériences, nous avons pu identifier le site de démarrage du ribosome. En introduisant une simple mutation ponctuelle (remplacement d’une seule base par une autre) dans ce site au niveau du gène C9ORF72, la synthèse des protéines toxiques est totalement éteinte. Nous avons confirmé ces résultats dans des cellules, puis chez des souris.

La suite de notre travail a consisté à utiliser ces connaissances pour corriger le gène C9ORF72 dans des motoneurones de patients SLA (cultivés en laboratoire). Grâce à la technologie des « ciseaux moléculaires » CrispR-Cas9, le site de démarrage du ribosome a été modifié, cette seule modification est suffisante pour éteindre totalement la synthèse toxique dans ces motoneurones et restaurer leur durée de vie.

En quoi cette découverte est-elle importante ?

La SLA, comme la plupart des maladies neurodégénératives, sont des maladies qui sont déclenchées par des causes multifactorielles. Ceci rend le traitement de ces pathologies extrêmement compliqué. Nos recherches ont permis de caractériser le mécanisme moléculaire déclenchant la pathologie et ont conduit à l’identification précise de la cause de la SLA dans la forme la plus fréquente de la maladie, ce qui représente environ 8 % des cas. La découverte du site de démarrage de la synthèse de protéines toxiques pour les motoneurones est primordiale. Ce site de démarrage est maintenant une cible thérapeutique nouvelle pour le développement de nouveaux traitements.

Quelles sont les suites de ces travaux ?

L’objectif de nos recherches à venir est de cibler spécifiquement le site de démarrage de la synthèse de protéines neurotoxiques produites à partir du gène C9ORF72 afin d’empêcher la mort prématurée des motoneurones chez les patients SLA.

Ceci revêt une importance capitale pour les malades atteints de la SLA pour laquelle il n’existe pas de traitements mais aussi d’autres maladies neurodégénératives comme la Démence Frontotemporale (DFT) dont plus de la moitié des formes familiales est également due à ces même répétitions de séquences dans le gène C9ORF72. Nos recherches ouvrent donc de nouvelles pistes de recherche pour la mise au point de traitements thérapeutiques ciblant la synthèse de protéines neurotoxiques chez les patients SLA et DFT.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.

The Conversation

Franck Martin a reçu des financements de l'ANR, la FRM, l'ARSLA, l'AFM Telethon et France Alzheimer

05.02.2026 à 16:35

Le plus ancien vomi fossile d'un animal terrestre nous indique le menu d’un prédateur ayant vécu il y a 290 millions d’années

Arnaud Rebillard, Doctorant en paléontologie, Museum für Naturkunde, Berlin
img
Les régurgitalithes sont très rares dans le registre fossile, et aucun n’avait encore été décrit dans un environnement terrestre aussi ancien.
Texte intégral (1032 mots)

On connaissait les crottes fossiles, appelées coprolithes. Mais une découverte récente montre que les régurgitations peuvent elles aussi se fossiliser. Sur le site paléontologique de Bromacker, en Allemagne, un fossile très particulier a été mis au jour : un régurgitalithe, c’est-à-dire un vomi fossile. Cette régurgitation regroupe des restes osseux appartenant à trois animaux différents et provient d’un prédateur appartenant aux synapsides (groupe d’animaux incluant les mammifères modernes), déjà découvert sur ce site.

Les roches de cette localité, âgées d’environ 290 millions d’années (Permien inférieur), ont déjà livré des plantes, des amphibiens et des reptiles exceptionnellement bien conservés, ainsi que de nombreuses traces de pas. Cette fois, notre équipe a découvert un petit amas d’os partiellement digérés, sans structure ni forme régulière, suggérant qu’il ne s’agissait pas d’un excrément mais bien de restes régurgités par un prédateur. Cette découverte vient d’être publiée dans Scientific Reports.

Comment avons-nous déterminé qu’il s’agissait de vomi fossilisé ?

Ce fossile se présente sous la forme d’un amas osseux compact. Un tel regroupement d’os n’a jamais été découvert à Bromacker, et suggère que ces restes ont été ingérés puis rejetés par un prédateur, soit par défécation ou régurgitation. Dans le cas des coprolithes (crottes fossilisées), les restes osseux sont généralement préservés à l’intérieur d’une matrice sédimentaire d’origine organique (matière fécale) visible, riche en phosphore, issu de l’activité bactérienne liée à la digestion des os. Or, dans le cas de ce spécimen, les restes osseux ne sont pas entourés d’une telle matrice. Une analyse des éléments chimiques par micro-XRF (Spectrométrie de fluorescence des rayons X) a confirmé une quasi-absence de phosphore dans cette matrice. Cette absence de phosphore est caractéristique des régurgitalithes (régurgitations fossilisées) comparé aux coprolithes, fortement concentré en phosphore, dû à un temps de digestion plus long.

Nous avons aussi scanné le fossile en 3D (CT-scan). Cette approche non destructive a permis de reconstituer virtuellement chaque os et de les identifier avec précision. Le régurgitalithe contient notamment :

  • un maxillaire d’un petit reptile quadrupède (Thuringothyris), avec la plupart des dents encore en position ;

  • un humérus appartenant à Eudibamus, un reptile bipède ;

  • un métapode (os du pied ou de la main) d’un diadectide, un herbivore de taille nettement plus grande.

Au total, trois animaux différents et de tailles variées, ont été ingérés puis partiellement régurgités par un même prédateur.

Pourquoi cette découverte est-elle importante ?

Les régurgitalithes sont très rares dans le registre fossile, et aucun n’avait encore été décrit dans un environnement terrestre aussi ancien. Cette découverte représente ainsi le plus ancien vomi fossile de vertébré terrestre connu.

Elle ouvre aussi une fenêtre inédite sur le comportement alimentaire des prédateurs du Permien inférieur. Deux carnivores suffisamment grands pour avoir ingéré ces proies sont connus à Bromacker : Dimetrodon, reconnaissable à sa crête dorsale, et un autre synapside carnivore de taille comparable, Tambacarnifex.

La diversité des restes contenus dans ce régurgitalithe suggère un comportement opportuniste, où ces prédateurs ingéraient tout ce qui était à leur portée. De plus, ce régurgitalithe agit comme une véritable capsule temporelle, renfermant les restes de plusieurs animaux ayant vécu exactement à la même période, peut être même au jour près. Ce spécimen nous permet ainsi de vérifier la coexistence réelle de ces trois animaux.

Quelles suites donner à cette recherche ?

Cette étude nous invite à reconsidérer certaines accumulations d’ossements fossiles, parfois interprétées comme des coprolithes ou des dépôts sédimentaires. Elle montre que les régurgitalithes pourraient être plus fréquents qu’on ne le pensait, mais encore largement sous-identifiés.

À l’avenir, la combinaison de scans 3D, d’analyses chimiques et de comparaisons anatomiques détaillées pourrait permettre de reconnaître d’autres vomis fossiles et de mieux relier ces vestiges aux prédateurs à leur origine. Ces travaux ouvrent de nouvelles perspectives pour reconstruire les réseaux trophiques (ensemble des interactions d’ordre alimentaire entre les êtres vivants d’un écosystème, ndlr) anciens et mieux comprendre le fonctionnement des écosystèmes terrestres il y a près de 300 millions d’années.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.

The Conversation

Arnaud Rebillard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

04.02.2026 à 16:14

Pourrait-on faire fonctionner des data centers dans l’espace ?

David Monniaux, Chercheur en informatique, Centre national de la recherche scientifique (CNRS), Université Grenoble Alpes (UGA)
img
Différents acteurs proposent d’utiliser des satellites pour faire des calculs. En d’autres termes, il s’agit d’envoyer des data centers dans l’espace. Est-ce réaliste ? Un informaticien fait le point.
Texte intégral (1700 mots)

Différents acteurs de la tech envisagent d’utiliser des satellites pour faire des calculs. En d’autres termes, il s’agit d’envoyer des data centers dans l’espace. Est-ce réaliste ? Un informaticien fait le point.


On parle de l’idée d’installer dans l’espace, en orbite, des data centers destinés à l’intelligence artificielle. Par exemple, en novembre 2025, Google annonçait son projet Suncatcher.

Quel crédit accorder à cette proposition ? Je vais d’abord expliquer les difficultés techniques qui font que cela semble très compliqué et coûteux pour un avantage peu clair, avant de formuler des hypothèses sur les raisons qui motivent ces annonces.

L’intelligence artificielle, c’est beaucoup de calcul

L’apprentissage automatique à grande échelle est au cœur des applications d’intelligences artificielles (IA) génératives (ChatGPT et consorts). Pour cela, il faut beaucoup de processeurs de calcul, qui consomment de l’électricité et rejettent sous forme de chaleur l’énergie ainsi consommée. Sur Terre, un grand data center de calculs d’intelligence artificielle peut consommer 100 mégawatts (MW) et au-delà ; on a même projeté la construction de data centers à 1 000 MW.

Dans l’espace, du point de vue technique, se posent alors quatre problèmes :

  • les composants électroniques sont irradiés par les rayons cosmiques, ce qui peut causer des pannes ;

  • il faut produire de l’électricité ;

  • il faut évacuer la chaleur produite ;

  • les installations ne sont pas aisément accessibles pour intervenir.

Les radiations perturbent les composants électroniques

Récemment, un Airbus A320 a fait une embardée dans le ciel, car son informatique de commande avait été touchée par des rayons cosmiques. En effet, dans l’espace et, dans une moindre mesure, en altitude (les avions de ligne volent à une dizaine de kilomètres d’altitude), l’électronique est soumise à un rude régime.

Les rayonnements cosmiques peuvent au pire détruire certains composants, au mieux perturber temporairement leur fonctionnement. Pour cette raison, les fournisseurs conçoivent pour équiper les engins spatiaux des processeurs spéciaux résistant aux rayonnements, par exemple le LEON et le NOEL-V, mais ceux-ci ont des performances de calcul modestes (par exemple, le NOEL-V, pourtant moderne, est environ dix fois plus lent qu’un seul cœur de mon ordinateur portable, qui en comporte 12). Si l’on utilise dans l’espace des composants destinés à des applications terrestres conventionnelles, les radiations peuvent provoquer des pannes qui nécessitent des redémarrages de chaque processeur, allant d’une fois toutes les quelques semaines à plusieurs fois par jour, suivant les conditions d’utilisation, d'autant plus fréquemment que le processeur est gravé finement (haute performance).

Produire suffisamment d’électricité

Les géants de la tech parlent actuellement de construire des data centers terrestres consommant de l’ordre de 1 000 MW. À titre de comparaison, les réacteurs de centrales nucléaires françaises ont des puissances électriques nominales (ce qu’elles peuvent produire à 100 % de leur puissance normale d’utilisation) entre 890 MW et 1 600 MW. En d’autres termes, un tel data center consommerait complètement la puissance d’un des petits réacteurs français.

Or, dans l’espace, pour produire de l’électricité, il faut utiliser des panneaux solaires ou des procédés plus exotiques et peu utilisés – microréacteur nucléaire ou générateur à radioéléments, ces derniers étant utilisés pour des sondes partant vers des régions éloignées du Soleil et où il serait donc difficile d’utiliser des panneaux solaires.

Aujourd’hui, les panneaux solaires de la Station spatiale internationale produisent environ 100 kilowatt (kW) de puissance, autrement dit 1 000 fois moins que ce que consomme un data center de 100 MW. Suivant l’orbite, il peut être nécessaire de gérer les périodes où le satellite passe dans l’ombre de la Terre avec des batteries (qui ont une durée de vie limitée), ou accepter que chaque satellite ne fonctionne qu’une partie du temps, ce qui pose d’autres problèmes.

Évacuer la chaleur

Il peut paraître surprenant, vu le froid de l’espace, qu’il soit difficile d’y évacuer de la chaleur. Sur Terre, nous évacuons la chaleur des data centers directement dans l’air, ou encore via des liquides pour ensuite restituer cette chaleur à l’air via une tour de refroidissement. Dans l’espace, il n’y a pas d’air à qui transférer de la chaleur, que ce soit par conduction ou par convection.

Ainsi, la seule façon d’évacuer de la chaleur dans l’espace est le rayonnement lumineux qu’émet tout objet. Quand un objet est très chaud, comme du fer chauffé à blanc, ce rayonnement est intense (et en lumière visible). En revanche, pour des objets tels qu’un ordinateur en fonctionnement ou un corps humain, ce rayonnement (en lumière infrarouge, invisible aux yeux humains mais visible à l’aide de caméras spéciales), est peu intense. Il faut donc de grandes surfaces de radiateurs pour disperser de la chaleur dans l’espace. Organiser l’évacuation de chaleur n’a rien d’évident dans un satellite…

Des problèmes très terre-à-terre

Venons-en à des problèmes plus pratiques. Quand on a un problème dans un data center sur Terre, on envoie un·e technicien·ne. Dans l’espace, cela impliquerait une mission spatiale. Certes, certaines tâches pourraient être accomplies par des robots, mais on est à des ordres de grandeur de complications par rapport à une maintenance dans un bâtiment terrestre. Or, les panneaux solaires et les autres composants ont une durée de vie limitée. Enfin, communiquer avec un satellite est plus compliqué et offre un moindre débit que d’installer un raccordement fibre optique dans une zone bien desservie sur Terre.

Bien entendu, il y aurait également la question de la masse considérable de matériel à transférer en orbite, celle du coût des lancements et de l’assemblage.

On peut également évoquer la pollution, pour l’observation astronomique, du ciel par le passage de constellations de satellites, ainsi que la pollution des orbites par les débris des satellites détruits.

En résumé, même s’il était éventuellement possible techniquement de faire des calculs d’intelligence artificielle dans un satellite en orbite (ou sur une base lunaire), cela serait à un coût considérable et au prix de grandes difficultés. Dans les propos de ceux qui annoncent des data centers spatiaux, on peine à trouver une bonne raison à tant de complications. Parmi certaines justifications avancées, celle d’échapper dans l’espace aux législations des États.

Pourquoi donc parler de mettre des data centers en orbite ?

La question intéressante, plutôt que de savoir s’il serait possible de faire un centre de calcul IA dans l’espace, est donc de savoir à qui cela profite de parler dans les médias de projets relevant plus de la science-fiction que du développement industriel réaliste. Il est bien entendu périlleux de prétendre identifier les objectifs derrière les actes de communication, mais nous pouvons fournir quelques hypothèses.

L’industrie spatiale états-unienne, notamment SpaceX, nourrit l’idée de l’espace comme dernière frontière, avec en ligne de mire l’installation sur Mars, voire la colonisation de cette planète – qu’importe qu’elle soit froide (- 63 °C en moyenne à l’équateur), à l’atmosphère très ténue, et sans protection contre le rayonnement cosmique, autrement dit très hostile à la vie.

L’industrie de l’intelligence artificielle, quant à elle, nourrit l’idée du dépassement du cerveau humain.

Ces deux industries ont un besoin intense de capitaux – par exemple, OpenAI a une dette de 96 milliards de dollars (81,2 milliards d’euros). Pour les attirer, elles ont besoin de récits qui font rêver. Toutes deux créent la « fear of missing out » (ou FOMO), la peur de passer à côté d’une évolution importante et de devenir obsolètes.

D’ailleurs, cette communication fonctionne. La preuve, j’ai rédigé cet article qui, même si c’est pour expliquer à quel point ces projets sont irréalistes, leur accorde une publicité supplémentaire…

The Conversation

David Monniaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

04.02.2026 à 11:26

Pourquoi les pénis humains sont-ils si grands ? Une nouvelle étude sur l’évolution révèle deux raisons principales

Upama Aich, Forrest Research Fellow, Centre for Evolutionary Biology, The University of Western Australia
MIchael Jennions, Emeritus Professor, Evolutionary Biology, Australian National University
img
Comparés à ceux des autres grands singes, les pénis humains sont mystérieusement grands, ce qui suggère qu’ils pourraient servir de signal aux partenaires.
Texte intégral (2108 mots)
Formations rocheuses dans la vallée de l’Amour entre les villages d’Uçhisarr et de Göreme, en Anatolie centrale, Turquie. Nevit Dilmen/Wikimédia Commons, CC BY

Comparés à ceux des autres grands singes, les pénis humains sont mystérieusement grands, ce qui suggère qu’ils pourraient servir de signal aux partenaires.


« La taille compte », c'est une phrase assez cliché, mais pour les biologistes de l’évolution, la taille du pénis humain constitue un véritable mystère. Comparé à celui d’autres grands singes, comme les chimpanzés et les gorilles, le pénis humain est plus long et plus épais que ce à quoi on pourrait s’attendre pour un primate de notre taille.

Si la fonction principale du pénis est simplement de transférer le sperme, pourquoi le pénis humain est-il si nettement plus grand que celui de nos plus proches parents ?

Notre nouvelle étude, publiée aujourd’hui dans PLOS Biology révèle qu’un pénis plus grand chez l’être humain remplit deux fonctions supplémentaires : attirer des partenaires et intimider les rivaux.

Pourquoi est-il si proéminent ?

Comprendre pourquoi le corps humain a cette apparence est une question centrale en biologie évolutive. Nous savons déjà que certaines caractéristiques physiques, comme une grande taille ou un torse en forme de V, augmentent l’attrait sexuel d’un homme

En revanche, on sait moins de choses sur l’effet d’un pénis plus grand. Les humains ont marché debout bien avant l’invention des vêtements, ce qui rendait le pénis très visible aux yeux des partenaires et des rivaux pendant une grande partie de notre évolution.

Cette proéminence aurait-elle favorisé la sélection d’une plus grande taille ?

Un graphique montrant que les humains ont les plus gros pénis par rapport à leur taille corporelle, tandis que les autres singes ont des testicules plus gros ou que les deux sont petits
Organes sexuels masculins des grands singes, comparaison par taille. Mark Maslin, « The Cradle of Humanity »/The Conversation

Il y a treize ans, dans une étude qui a fait date, nous avons présenté à des femmes des projections grandeur nature de 343 silhouettes masculines en 3D générées par ordinateur, anatomiquement réalistes, variant selon la taille, le rapport épaules-hanches (silhouette) et la taille du pénis.

Nous avons constaté que les femmes préfèrent généralement les hommes plus grands, avec des épaules plus larges et un pénis plus grand.

Cette étude a fait la une des médias du monde entier, mais elle ne racontait qu’une partie de l’histoire. Dans notre nouvelle étude, nous montrons que les hommes aussi prêtent attention à la taille du pénis.

Une double fonction ?

Chez de nombreuses espèces, les traits plus marqués chez les mâles, comme la crinière du lion ou les bois du cerf remplissent deux fonctions : attirer les femelles et signaler la capacité de combat aux autres mâles. Jusqu’à présent, nous ne savions pas si la taille du pénis humain pouvait elle aussi remplir une telle double fonction.

Dans cette nouvelle étude, nous avons confirmé notre conclusion précédente selon laquelle les femmes trouvent un pénis plus grand plus attirant. Nous avons ensuite cherché à déterminer si les hommes percevaient également un rival doté d’un pénis plus grand comme plus attirant pour les femmes et, pour la première fois, si les hommes considéraient un pénis plus grand comme le signe d’un adversaire plus dangereux en cas de confrontation physique.

Pour répondre à ces questions, nous avons montré à plus de 800 participants les 343 silhouettes variant en taille, en morphologie et en taille de pénis. Les participants ont observé et évalué un sous-ensemble de ces silhouettes, soit en personne sous forme de projections grandeur nature, soit en ligne sur leur propre ordinateur, tablette ou téléphone.

Exemple des silhouettes utilisées dans l’étude. Aich U, et coll., 2025, PLOS Biology

Nous avons demandé aux femmes d’évaluer l’attrait sexuel des personnages, et aux hommes de les évaluer en tant que rivaux potentiels, en indiquant dans quelle mesure chaque personnage leur semblait physiquement menaçant ou sexuellement compétitif.

Ce que nous avons découvert

Pour les femmes, un pénis plus grand, une stature plus élevée et un torse en forme de V augmentaient l’attrait d’un homme. Toutefois, cet effet présentait un rendement décroissant : au-delà d’un certain seuil, une augmentation supplémentaire de la taille du pénis ou de la taille corporelle n’apportait que des bénéfices marginaux.

La véritable révélation est cependant venue des hommes. Ceux-ci percevaient un pénis plus grand comme le signe d’un rival à la fois plus combatif et plus compétitif sur le plan sexuel. Les silhouettes plus grandes et au torse plus en V étaient évaluées de manière similaire.

Cependant, contrairement aux femmes, les hommes classaient systématiquement les individus présentant les traits les plus exagérés comme des concurrents sexuels plus redoutables, ce qui suggère qu’ils ont tendance à surestimer l’attrait de ces caractéristiques pour les femmes.

Nous avons été frappés par la cohérence de nos résultats. Les évaluations des différentes silhouettes ont conduit à des conclusions très similaires, que les participants aient vu les projections grandeur nature en personne ou les aient observées sur un écran plus petit en ligne.

Jugement instantané – avec des limites

Il est important de rappeler que le pénis humain a avant tout évolué pour le transfert du sperme. Néanmoins, nos résultats montrent qu’il fonctionne également comme un signal biologique.

Nous disposons désormais de preuves indiquant que l’évolution de la taille du pénis pourrait avoir été en partie guidée par les préférences sexuelles des femmes et par son rôle de signal de capacité physique entre hommes.

Il convient toutefois de noter que l’effet de la taille du pénis sur l’attractivité était quatre à sept fois plus important que son effet en tant que signal de capacité de combat. Cela suggère que l’augmentation de la taille du pénis chez l’homme a évolué davantage en réponse à son rôle d’ornement sexuel destiné à attirer les femmes qu’en tant que symbole de statut social pour les hommes, bien qu’il remplisse effectivement ces deux fonctions.

Fait intéressant, notre étude a également mis en évidence une particularité psychologique. Nous avons mesuré la rapidité avec laquelle les participants évaluaient les silhouettes. Ceux-ci étaient nettement plus rapides pour juger les silhouettes présentant un pénis plus petit, une taille plus réduite et un haut du corps moins en forme de V. Cette rapidité suggère que ces traits sont évalués inconsciemment, presque instantanément, comme moins attirants sexuellement ou moins menaçants physiquement.

Il existe bien sûr des limites à ce que révèle notre expérience. Nous avons fait varier la taille corporelle, la taille du pénis et la morphologie, mais dans la réalité, des caractéristiques telles que les traits du visage et la personnalité jouent également un rôle important dans la manière dont nous évaluons les autres. Il reste à déterminer comment ces facteurs interagissent entre eux.

Enfin, bien que nos conclusions soient valables pour des hommes et des femmes issus de différentes origines ethniques, nous reconnaissons que les normes culturelles de la masculinité varient à travers le monde et évoluent au fil du temps.

The Conversation

Upama Aich a reçu des financements de la Forrest Research Foundation pour travailler à l'Université d'Australie occidentale et a reçu une bourse de recherche de la Monash University pour mener cette étude.

MIchael Jennions ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

04.02.2026 à 11:26

Quand macaques et hippopotames se baignaient dans la Seine il y a 400 000 ans

Julie Dabkowski, Directrice de recherche CNRS en Géologie de la Préhistoire, Université Paris 1 Panthéon-Sorbonne, Université Paris-Est Créteil Val de Marne (UPEC)
Nicole Limondin-Lozouet, Directrice de Recherche, Malacologue quaternariste, Centre national de la recherche scientifique (CNRS)
Pierre Louis Antoine, Directeur de Recherche CNRS, géoloque et géomorphologue spécialiste des paléoenvironnements du Quaternaire, Centre national de la recherche scientifique (CNRS)
img
S’il est aujourd’hui à nouveau possible de se baigner dans la Seine, pouvez-vous imaginer devoir faire attention aux hippopotames avant de plonger ? C’était bien ce que devaient faire nos ancêtres il y a 400 000 ans.
Texte intégral (2495 mots)
Le paysage de la vallée de la Seine lors de l’optimum climatique interglaciaire il y a 400 000 ans Illustration : Benoit Clarys, Fourni par l'auteur

S’il est aujourd’hui à nouveau possible de se baigner dans la Seine, pouvez-vous imaginer devoir faire attention aux hippopotames avant de plonger ? C’était bien ce que devaient faire nos ancêtres, il y a 400 000 ans. Une étude récente décrit un paysage insoupçonné.


À 15 km de Fontainebleau (Seine-et-Marne), le site de La Celle est connu depuis le XIXᵉ siècle. Il livre à cette époque quelques outils façonnés par des humains préhistoriques mais, surtout, une remarquable collection d’empreintes de végétaux et de coquilles de mollusques. Au cours de nouvelles études entamées en 2003, des restes d’hippopotame et de macaque y sont également découverts.

Notre équipe de recherche constituée d’une quinzaine de spécialistes de disciplines très variées a pu exploiter tout le potentiel de ce site pour reconstituer des conditions climatiques et environnementales particulièrement douces dans la vallée de la Seine, il y a environ 400 000 ans. Retour sur plus de vingt années de recherche dont nous avons récemment publié une synthèse.

Depuis 2,6 millions d’années, le climat de la Terre alterne entre périodes glaciaires et interglaciaires. Les périodes glaciaires sont des phases froides. Les glaciers y étaient bien plus étendus, aux pôles comme en montagne. Ces périodes durent en moyenne 80 000 ans. Les interglaciaires sont, au contraire, des phases chaudes. Elles ressemblent au climat actuel et sont plus courtes, environ 20 000 ans.

Le site de La Celle est daté par des méthodes diverses d’une de ces périodes interglaciaires survenue il y a environ 400 000 ans. Cet interglaciaire en particulier peut être considérée comme une période « modèle » pour comprendre l’évolution récente du climat, depuis une dizaine de milliers d’années, en dehors des effets du dérèglement climatique lié aux activités humaines.

La principale formation géologique observée à La Celle est ce que l’on appelle un tuf calcaire. C’est une roche sédimentaire qui se forme à l’émergence de certaines sources ou dans des cours d’eau peu profonds. Sa formation est favorisée par un climat tempéré et humide, justement typique des périodes interglaciaires. Les tufs sont des archives géologiques particulièrement intéressantes car ils fossilisent des informations riches et diversifiées sur les environnements et climats passés.

Café GéodéO : Aux sources du passé : les tufs calcaires des super-enregistrements de l’environnement, du climat et des occupations humaines paléolithiques, par Julie Dabkowski.

À La Celle, plusieurs milliers d’années ont été nécessaires à la formation de près de 15 mètres d’épaisseur de tuf. Dans certains niveaux les empreintes de feuilles d’arbres et de fruits sont conservées et renvoient l’image d’une végétation riche qui se développe sous des conditions plutôt chaudes : chêne, peuplier, saule… mais surtout buis, figuier et micocoulier. Au milieu du dépôt la présence d’ossements de macaque et d’hippopotame est aussi un indice de conditions climatiques clémentes.

Reconstruire les milieux du passé grâce aux escargots

Notre équipe a également étudié de petits fossiles particulièrement intéressants pour reconstituer en détail l’évolution de l’environnement : les coquilles de mollusques (escargots et limaces). Chaque escargot a des contraintes écologiques particulières et porte sur sa coquille des caractères distinctifs qui permettent même sur un petit morceau de reconnaître l’espèce à laquelle elle appartenait. Ainsi, la malacologie, discipline qui étudie ces fossiles de mollusques, permet de déduire à partir des assemblages d’escargots les milieux dans lesquels ils vivaient.

Quelques espèces emblématiques de la « faune à Lyrodiscus ». Espèces éteintes : 1.- Retinella (Lyrodiscus) elephantium, 2.- Aegopis acieformis, 3.- Aegopinella bourdieri. Espèces centre-européennes : 4.- Macrogastra ventricosa, 5.- Ruthenica filograna, 6.- Platyla polita, 7.- Ena montana. Espèce atlantique : 8.- Spermodea lamellata. Aucun de ces escargots n’est plus présent dans la faune moderne de la région. Photographie : Pierre Lozouet, Fourni par l'auteur

Dans le tuf de La Celle, les coquilles sont particulièrement bien conservées : plus de 42 000 individus ont été collectés, représentant 94 espèces de mollusques ! Elles sont par ailleurs présentes sur toute l’épaisseur du tuf ce qui permet de reconstituer des changements environnementaux sur plusieurs milliers d’années. La succession des faunes d’escargots de La Celle révèle trois étapes environnementales. À la base, une prairie marécageuse évolue vers une forêt de plus en plus dense. Celle-ci est contemporaine des silex taillés par les préhistoriques et des ossements de macaque et d’hippopotame. Dans la partie supérieure du dépôt, la forêt laisse place à une zone humide.

À La Celle les escargots de milieu forestier sont remarquables par leur diversité. Plusieurs espèces sont aujourd’hui éteintes où ne vivent plus que dans des contrées éloignées d’Europe centrale ou de la côte Atlantique sud. Elles constituent ce qui est nommée « la faune à Lyrodiscus » du nom d’un sous-genre d’escargot qui n’existe plus dans la faune moderne qu’aux îles Canaries. La faune à Lyrodiscus a été identifiée dans sept gisements de tuf répartis dans les vallées de la Seine, de la Somme et le sud de l’Angleterre, tous datés du même interglaciaire. Cependant, par son épaisseur exceptionnelle, le tuf de La Celle est le seul qui enregistre en détail l’émergence, le développement et la disparition de cette faune caractéristique d’une forêt tempérée et humide. La Celle sert de modèle pour positionner dans la succession forestière les séries plus courtes des autres gisements.

Des macaques et des hippopotames dans le nord de la « France »

Certaines caractéristiques chimiques du tuf lui-même renseignent sur les conditions de température et d’humidité au moment de sa formation : c’est l’étude géochimique. Ces analyses menées en parallèle de l’étude des mollusques montrent que l’optimum climatique, qui correspond aux conditions les plus chaudes et les plus humides enregistrées au cours de toute la séquence, intervient au même moment que le développement maximal de la forêt. Ces données géochimiques ont été comparées avec celles obtenues sur d’autres tufs du nord de la France datés de périodes interglaciaires plus récentes : le dernier interglaciaire, il y a environ 125 000 ans (enregistré à Caours dans la Somme) et l’interglaciaire actuel. Nous avons ainsi pu montrer que l’interglaciaire de La Celle, il y a 400 000 ans, avait été le plus chaud et le plus humide, ce qui explique, au moins en partie, la très grande richesse des faunes d’escargots, mais également la présence du macaque, de l’hippopotame et de plantes méridionales.

1. Prémolaire de macaque. 2. Métatarse d’hippopotame. Le macaque de La Celle appartient à la même espèce que les singes de Gibraltar. L’hippopotame est proche de son congénère actuel africain. Photographie : Pierre Lozouet, Fourni par l'auteur

Par son épaisseur importante, rarement observée pour un tuf de cet âge, la diversité et la complémentarité des informations conservées, le tuf de La Celle peut maintenant être considéré comme une référence européenne pour la connaissance des changements environnementaux et climatiques au cours de la période interglaciaire survenue il y a 400 000 ans. De tels sites sont importants, car si les sédiments marins ou les couches de glace en Antarctique nous renseignent de façon spectaculaire sur les variations climatiques globales des dernières centaines de milliers d’années, il est plus complexe d’obtenir des enregistrements longs sur les séries des continents beaucoup plus soumises à l’érosion. Or, les macaques, les hippopotames… et les humains préhistoriques ne vivaient ni au fond des océans, ni au Pôle sud !

Si vous avez envie de voir à quoi ressemble ce tuf en vrai, bonne nouvelle : il est aménagé et accessible librement, alors venez le visiter !

Le tuf de La Celle, aujourd’hui. Photographie : Julie Dabkowski, Fourni par l'auteur
The Conversation

Julie Dabkowski a reçu des financements de CNRS.

Nicole Limondin-Lozouet a reçu des financements de CNRS.

Pierre Louis Antoine a reçu des financements de CNRS

04.02.2026 à 11:26

Comment Sophie Adenot va étudier les effets de la gravité dans l’ISS

Marc-Antoine Custaud, Professeur de Physiologie, Université d’Angers
img
Pour comprendre l’effet de la gravité sur notre corps, il faut être capable de s’en soustraire, et la Station spatiale internationale est l’unique laboratoire où cela est possible sur des périodes prolongées.
Texte intégral (1691 mots)

Pour comprendre l’effet de la gravité sur notre corps, il faut être capable de s’en soustraire, et la Station spatiale internationale est l’unique laboratoire où cela est possible sur des périodes prolongées. Sophie Adenot va pouvoir y mener différentes expériences pendant ses huit mois de mission.


Depuis plus de vingt ans, la Station spatiale internationale (ISS) est un laboratoire scientifique unique où l’absence de pesanteur met la physiologie humaine à l’épreuve. La station se déplace très vite autour de la Terre, elle est en chute libre permanente tout en restant en orbite terrestre, c’est cette configuration bien particulière qui fait que tout « flotte » à l’intérieur.

Nous parlerons plutôt d’état de micropesanteur, car il reste tout de même des accélérations minimes. Si l’astronaute dans l’ISS reste bien dans le champ de gravité de la Terre, les effets physiologiques de la gravité sur son organisme sont en revanche totalement supprimés. En conduisant des études biomédicales dans l’ISS, il s’agit non seulement de permettre à l’humain de s’adapter à un environnement extrême caractérisé par cette micropesanteur, mais aussi d’étudier le rôle de la gravité sur les grandes fonctions de notre organisme. Et comment comprendre le rôle de cette force omniprésente sur le vivant si ce n’est en étudiant la suppression de ses effets ?

Gravité et micropesanteur du niveau cellulaire jusqu’à l’organisme

Au niveau tissulaire, il existe des cellules spécialisées dont le rôle est de percevoir précisément la gravité. Ce sont par exemple les cellules ciliées du vestibule situé dans l’oreille interne chez l’humain. C’est l’organe dont la perturbation par l’absence de pesanteur contribue au mal de l’espace qui ressemble au mal de mer. La question de la faculté de graviception pour chacune de nos cellules se pose. Dans quelle mesure la force de gravité interagit-elle sur le cytosquelette, ce réseau de filaments protéiques à l’intérieur de la cellule qui lui donne sa forme et, plus généralement, sur les interactions moléculaires comme celle d’une enzyme avec son substrat ?

Au niveau de l’organisme, si la gravité n’existait pas, nul besoin d’un système cardiovasculaire aussi complexe avec ses mécanismes de protection permettant de maintenir une circulation normale au niveau du cerveau en position debout, cet organe a en effet besoin d’avoir un flux sanguin permanent et suffisant pour pouvoir fonctionner. Le tissu osseux serait inutile, au même titre que le tissu musculaire, puisqu’une partie importante du rôle de ces systèmes est de lutter contre la gravité. L’absence de pesanteur dans une station spatiale induit donc chez nos astronautes une sédentarité poussée avec toutes les conséquences médicales sur leur santé.

Déconditionnement à la gravité

La gravité a façonné le vivant depuis des millions d’années, et, de façon très surprenante, soustraire notre organisme de l’influence de cette force, même partiellement et après quelques jours seulement, conduit à une désadaptation à la gravité. C’est ce que nous appelons le déconditionnement. Ce syndrome comporte principalement un risque de syncope, une diminution de la capacité à effectuer un exercice physique, une amyotrophie, une fragilisation osseuse et des troubles métaboliques. De très nombreuses expériences sont ainsi conduites par les équipages dans l’ISS afin de comprendre l’impact de l’absence de pesanteur sur l’ensemble de nos grandes fonctions. À côté des expériences conduites dans un environnement spatial vrai, nous mettons aussi en place des études sur des analogues au sol par alitement (le sujet est rendu inactif dans un lit) ou par immersion sèche (le sujet flotte dans une grande baignoire au sec isolé par un film élastique). Il est aussi possible d’induire de courtes durées de micropesanteur (de l’ordre de trente secondes) en avion lors de vols paraboliques. Ces études, permettent de conduire des travaux sur un nombre de sujets plus importants et de valider des méthodes prophylactiques (appelées contre-mesures) afin de lutter contre ce déconditionnement, avant de les prescrire aux astronautes.

Le Centre national des études spatiales (CNES) est reconnu pour son soutien aux travaux de médecine et de physiologie spatiale ainsi que pour le développement d’outils spécifiques. Il s’appuie sur ses équipes d’ingénieurs qui ont une longue expérience dans le développement et la qualification de tels instruments biomédicaux. Il a lancé très tôt un programme dans le domaine cardiovasculaire. Citons le programme Physiolab, qui a été mis en œuvre lors de la mission Cassiopée (1996), à bord de la station Mir, par Claudie Haigneré, première astronaute française à être allée dans l’espace. Physiolab a permis une étude fine à l’échelle du battement cardiaque de la régulation cardiovasculaire. Suivre la fréquence cardiaque et la pression artérielle battement par battement permet de décrire et de comprendre la survenue des épisodes de syncope au retour sur terre. Plusieurs évolutions de ce système ont été utilisées depuis Physiolab, aboutissant aujourd’hui au programme « Physiotool ».

Le protocole Physiotool

Pour bien comprendre les effets d’un séjour dans l’espace sur le corps et surveiller de près le système cardiovasculaire des astronautes, il faut une approche intégrative qui permet de suivre non seulement les paramètres cardiovasculaires habituels, mais aussi des flux sanguins périphériques (cérébraux et musculaires), l’activation musculaire elle-même ainsi que les mouvements respiratoires.

C’est ce que permet Physiotool, développé et intégré par le CNES en combinant différents appareils biomédicaux utilisables en ambulatoire. Nous pourrons ainsi réaliser un suivi physiologique de l’astronaute au repos, lors de sessions d’exercices physiques, de stimulations cognitives ou sur de plus longues durées. Après des tests au sol, Physiotool sera utilisé en vol pour la première fois lors de la mission Epsilon.

Cet instrument développé par le CNES, en lien avec l’Agence spatiale européenne (ESA), permettra de réaliser un protocole scientifique porté conjointement par l’Université d’Angers et l’Université de Lorraine avec Benoît  Bolmont. Physiotool a pour vocation de devenir un moniteur ambulatoire de la santé cardiovasculaire de l’astronaute !

Le protocole Echo-bones

La physiologie spatiale est une discipline qui favorise les études inter-systèmes. Nous souhaitons connaître dans quelle mesure les vaisseaux sanguins sont impliqués dans la fragilisation osseuse induit par l’absence de pesanteur. Le projet Echo-bones permet d’étudier à la fois la structure de l’os, mais aussi les flux vasculaires intra-osseux avec un échographe innovant.

Ce projet est particulièrement soutenu par le CNES et ouvre des perspectives en médecine pour mieux comprendre par exemple l’ostéoporose et l’arthrose. Ce protocole scientifique est porté en France par le CHU d’Angers, l’Université de Saint-Étienne (Laurence Vico) et aux Pays-Bas par l’Université de Delft (Guillaume Renaud qui est à l’origine du développement de cet échographe innovant). Dans le cadre de la mission Epsilon, des mesures en pré et post vols seront réalisées afin de quantifier les modifications osseuses induites par cette mission de longue durée.

Voici deux exemples d’études dont je suis l’investigateur principal et qui seront conduites à l’occasion de la mission Epsilon dont le décollage est prévu très prochainement. D’autres protocoles en médecine spatiale sont bien entendus mis en place avec le CNES dans le cadre de cette mission, comme Echo-Finder pour faciliter la réalisation, par un astronaute novice, en complète autonomie, d’une échographie afin d’étudier un ensemble d’organes (ce protocole est porté par l’Université de Caen). Ce système prépare les futures missions d’exploration lointaine (Lune, Mars). Et il y aura évidemment aussi tout le programme d’études scientifiques internationales réalisées régulièrement dans le domaine des sciences de la vie !

Et après ?

L’après-ISS se prépare activement (elle sera détruite en 2030), avec la programmation de futures stations spatiales, qu’elles soient privées ou issues de partenariats académiques, et qui ouvriront de nouveaux cadres pour la poursuite de nos études scientifiques et médicales. Parallèlement, des projets d’exploration spatiale se mettent en place, notamment avec les missions Artemis visant le retour très prochain sur la Lune.

Le suivi médical et physiologique des astronautes sera un point critique pour le succès de ces missions. Cette surveillance devra d’autant plus évoluer que de nouvelles problématiques médicales devront être prises en compte, comme l’exposition au régolithe (la poussière lunaire), l’augmentation des risques liés aux radiations cosmiques et l’éloignement de l’équipage dont les conséquences psychologiques doivent être anticipées.

The Conversation

Marc-Antoine Custaud a reçu des financements du CNES, de la région des Pays de la Loire et du CNRS. Il est président de l'ISGP, association scientifique à vocation académique (International Society for Gravitational Physiology)

04.02.2026 à 11:24

ISS : quelles expériences scientifiques va réaliser Sophie Adenot, la nouvelle astronaute française ?

Rémi Canton, Chef de Projet Vols Habités (CADMOS) , Centre national d’études spatiales (CNES)
img
Dans la Station spatiale internationale, les astronautes réalisent de nombreuses expériences scientifiques –&nbsp;c’est même le cœur de leur activité.
Texte intégral (1687 mots)

Dans la Station spatiale internationale, les astronautes réalisent de nombreuses expériences scientifiques – c’est même le cœur de leur activité. Aujourd’hui, Rémi Canton, responsable au Centre national d’études spatiales de la préparation des expériences françaises à bord de l’ISS, nous parle des recherches scientifiques à bord.


The Conversation : Sophie Adenot, la nouvelle astronaute française, va partir un peu en avance par rapport à ce qui avait été prévu et devrait rester huit mois à bord d’ISS – ce qui est plus long que la plupart des missions ?

Rémi Canton : Oui, le départ de Sophie va peut-être être légèrement avancé à cause du retour anticipé de la mission précédente, en raison d’un problème de santé d’un des membres de l’équipage. La durée de sa mission en revanche n’est pas liée à des raisons scientifiques ou de santé, mais a été fixée par la Nasa qui souhaite réduire le nombre de lancements de rotation d’équipage pour réduire les coûts et prévoit donc que les missions à bord de l’ISS seront dorénavant plus longues.

Outre les expériences de physiologie dont nous parle votre collègue Marc-Antoine Custaud dans un autre article, Sophie Adenot va travailler sur les contaminations par des microorganismes : bactéries, champignons, virus… Mais honnêtement, on n’imagine pas au premier abord une station spatiale comme un nid à microbes ! D’où viennent ces contaminations ?

R. C. : La biocontamination n’est évidemment pas une spécificité spatiale, et il n’y a pas de problème particulier identifié à bord, mais les enjeux dans un espace confiné sont importants. En premier lieu pour protéger la santé de l’équipage, mais aussi pour minimiser le temps d’entretien afin de maximiser le temps consacré aux expériences scientifiques.

Le matériel que l’on monte est bien sûr désinfecté pour éviter d’amener toute sorte de contamination dans l’ISS. Mais il peut y avoir des résidus et, avec l’équipage à bord, il y a forcément du vivant. Le corps humain contient en grand nombre tout un ensemble de bactéries, de microchampignons et autres microorganismes, que l’on appelle le microbiote. Et qui peut se propager à cause de postillons, par exemple.

Il faut donc en limiter la prolifération, dans cet environnement confiné et que l’on ne peut pas aérer !

Dans quel but étudier ces contaminations ?

R. C. : Il s’agit d’abord de protéger la santé des astronautes, mais aussi la durée de vie du matériel, qui peut être endommagé par la corrosion bactérienne. Il y a des endroits difficiles d’accès et donc compliqués à nettoyer : connectique, derrière des câbles ou des baies informatiques, par exemple.

La première étape est de caractériser les microorganismes présents dans l’ISS et qui sont responsables de la biocontamination. La deuxième étape est de trouver des matériaux et des traitements – physiques et non chimiques – de surface, c’est-à-dire des textures ou revêtements, qui ralentissent ou empêchent la prolifération des contaminants. Soit en les piégeant, soit en les repoussant pour les empêcher de s’accrocher et de proliférer derrière un biofilm protecteur. Cela se fait grâce à l’expérience Matiss-4, dernière itération d’une expérience commencée dès la mission Proxima de Thomas Pesquet en 2016. On étudie par exemple des surfaces hydrophiles et hydrophobes, des surfaces texturées avec des petits plots en silice qui font que c’est plus difficile de s’accrocher d’un point de vue microscopique.

À terme, on espère identifier les meilleurs matériaux et revêtements qui pourraient être utilisés pour les futures stations spatiales et bases lunaires, et qui répondent parfaitement à cette problématique.

À bord, Sophie Adenot n’analysera pas ces surfaces ?

R. C. : Non, Sophie accrochera ces porte-échantillons avec différents types de surfaces dans des endroits stratégiques de l’ISS, près des filtres et bouches d’aération par exemple. Ils seront exposés pendant plusieurs mois à l’environnement ISS avant d’être ramenés sur Terre bien après sa mission pour une analyse au sol par fluorescence X ou spectroscopie Raman, par les scientifiques.

En parallèle, elle utilisera un deuxième instrument, appelé MultISS, caméra multimodale et multispectrale, qui permettra de prendre des photos des surfaces dans différentes longueurs d’onde (ultraviolets notamment) pour évaluer la contamination des surfaces invisible à l’œil nu. Cela permettra d’identifier les zones qui nécessitent le plus d’attention.

Existe-t-il pour ces expériences un objectif de développement d’applications qui soient utiles sur Terre ?

R. C. : Le but du Cadmos, le service dont je m’occupe au CNES, est d’abord de répondre à des objectifs scientifiques pour améliorer la connaissance et la compréhension de phénomènes inobservables sur Terre : nous recevons des demandes de laboratoires de recherche qui veulent observer certains phénomènes physiques, biologiques ou physiologiques en impesanteur, car cela permet de s’affranchir des effets de la gravité, comme le poids, la convection thermique, la poussée d’Archimède, la sédimentation ou la pression hydrostatique. Ces chercheuses et chercheurs ne cherchent pas à aller dans l’espace ! Au contraire, pour eux c’est plus une contrainte qu’autre chose. Mais c’est le seul endroit où ils peuvent avoir accès à l’impesanteur sur de longues périodes, ce qui leur « ouvre les yeux » sur un univers invisible sur Terre.

Donc, pour répondre à votre question : les applications terrestres ne sont pas dans le cahier des charges initial, c’est le principe même de la recherche fondamentale, mais le fait est que l’on découvre ensuite une multitude d’applications terrestres possibles.

Par exemple, nous avons étudié les fluides supercritiques (des fluides sous très haute pression et très haute température) dans l’expérience DECLIC. Parmi les propriétés qui ont été découvertes : en présence d’un oxydant, l’eau supercritique dissout et oxyde les substances organiques sans dégager d’oxyde d’azote… En d’autres termes, il s’agit d’un procédé de combustion « propre », beaucoup moins polluante. Au niveau spatial, cela pourrait être très intéressant pour le traitement des déchets, par exemple, sur une base lunaire. C’est d’ailleurs ce procédé qu’utilise Matt Damon dans Seul sur Mars, avec notre expérience, pour traiter ses déchets organiques. Mais ce serait surtout une technologie très utile sur Terre, car bien moins polluante que les incinérateurs classiques. Peut-être avec un rendement moindre que dans l’ISS, car le fluide supercritique serait moins homogène qu’en impesanteur, mais ce serait une technologie issue de la recherche spatiale, et qui a d’ailleurs commencé à être déployée pour traiter les déchets de certaines usines pétrochimiques.

Au-delà des expériences scientifiques qui nous sont demandées par les chercheurs, nous travaillons aussi à la préparation des technologies nécessaires pour l’exploration habitée plus lointaine. Et même si c’est moins intuitif et que cela peut paraître paradoxal, beaucoup d’applications terrestres découlent de cette branche. Car il s’agit de répondre à des problématiques de gestion et de recyclage de l’eau, le stockage de l’énergie, le traitement des déchets ou l’autonomie en santé. Et en effet, un équipage dans une station ou sur une base spatiale doit utiliser au mieux des ressources limitées, comme nous sur Terre, à une autre échelle. L’environnement exigeant et très contraint du spatial nous force ainsi à trouver des solutions innovantes, et sert ainsi d’accélérateur de technologie. Nous avons par exemple développé des techniques pour faire de l’échographie à distance avec des sondes motorisées et pilotables à distance, qui sont utilisées aujourd’hui en télémédecine dans des déserts médicaux.

Nous parlions de prévention de biocontamination tout à l’heure : l’objectif initial était une application spatiale, mais au final l’application sera surtout terrestre, pour les milieux hospitaliers, les transports en commun (barres de métro…), les lieux publics (boutons d’ascenseur, poignées de porte…), afin d’éviter la propagation d’agents pathogènes.

En parlant de recherche fondamentale : en 2023, l’astronaute danois Andy Morgensen a fait une mousse au chocolat pour étudier la formation d’émulsions en micropesanteur. Est-ce que Sophie Adenot va tester une nouvelle recette ?

R. C. : Oui, mais plus pour le plaisir que pour la science, cette fois-ci ! Nous avons juste décidé d’intégrer un objectif supplémentaire par rapport à la mousse au chocolat : dans un scénario réaliste, il n’y aura ni cacaotier ni d’œufs sur une base lunaire… Sophie va réaliser ce coup-ci une recette incorporant des ingrédients que des astronautes pourraient un jour faire pousser sur une base spatiale. Au menu : houmous et caviar d’aubergine !

The Conversation

Rémi Canton ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.02.2026 à 15:26

Une nouvelle carte de la matière noire

Olivier Ilbert, Astronome au Laboratoire d'Astrophysique de Marseille / Aix-Marseille Université, spécialiste de la formation et de l'évolution des galaxies, Aix-Marseille Université (AMU)
img
Une étude très récente publiée dans «&nbsp;Nature Astronomy&nbsp;» dévoile une carte très précise de la matière noire dans une région du ciel de référence pour les astronomes.
Texte intégral (2168 mots)
Une nouvelle carte de la matière permet de faire le lien entre les galaxies (en couleur) et la matière noire (contours blancs). Diana Scognamiglio et coll., Fourni par l'auteur

Depuis plus d’un siècle, les astronomes n’ont cessé d’étudier les galaxies, découvrant peu à peu la diversité de leurs formes et de leurs propriétés. Grâce aux progrès de nos instruments d’observation, nous avons pu cartographier la position de millions de galaxies dans l’Univers proche. De vastes régions de l’Univers se révèlent très vides, traversées par d’immenses filaments qui relient des régions où les galaxies se regroupent. Sous l’effet de la gravité, les galaxies sont entraînées inexorablement les unes vers les autres pour façonner ces immenses structures, qui grandissent au fil des milliards d’années de temps cosmique qui s’écoule.

L’étude d’une de ces structures, l’amas de Coma, par Fritz Zwicky en 1933 a mis au jour un des aspects les plus mystérieux de notre compréhension de l’Univers : la majeure partie de la masse de Coma ne peut pas être expliquée par la présence de matière ordinaire.

Les études cosmologiques les plus modernes confirment que le gaz et les étoiles ne représentent qu’environ un sixième de la masse totale de l’Univers. Le reste ? Une matière invisible, baptisée matière noire par les physiciens. L’une des plus grandes énigmes de la physique moderne reste entière : de quoi cette matière noire est-elle faite ? Comme interagit-elle avec la matière ordinaire ? Comment sa présence impacte-t-elle la formation et l’évolution des galaxies ?

Dans notre étude publiée dans Nature Astronomy, et dirigée par Diana Scognamiglio du Jet Propulsion Laboratory de la Nasa, nous présentons une carte détaillée de la distribution de la matière noire. Bien que notre étude ne puisse pas répondre directement à la question fondamentale sur la nature de la matière noire, elle apporte un outil puissant pour relier la matière ordinaire et la matière noire, sur un intervalle de temps cosmique couvrant les deux tiers de l’âge de l’Univers.

Notre nouvelle carte montre en particulier que la matière noire et la matière visible évoluent conjointement.

Comment cette découverte a-t-elle pu être réalisée ?

Dans cette étude, nous avons employé l’une des méthodes les plus puissantes pour révéler la présence de matière noire : le lentillage gravitationnel faible. La présence d’une grande structure de matière noire va entraîner une déformation de l’espace-temps. La lumière d’une galaxie qui se trouve en arrière-plan va être légèrement déviée en traversant la structure. La forme de cette galaxie d’arrière-plan va donc se trouver artificiellement étirée quand sa lumière atteindra nos télescopes.

schéma de lentille gravitationnelle faible
En analysant de nombreuses images du télescope spatial James-Webb, on décèle l’effet de lentille gravitationnelle : l’image des galaxies en arrière-plan est déformée très faiblement par les objets massifs qui se trouvent entre nous et la galaxie. ESA (contribution d’ATG sous contrat avec l’ESA), CC BY-SA

La clé de notre méthode réside dans l’accumulation de données : en observant un grand nombre de galaxies dans une petite région du ciel, nous pouvons détecter une distorsion cohérente de la forme des galaxies d’arrière-plan et en déduire la masse de la structure en avant-plan.

Pour bâtir une carte de ces déformations de l’espace-temps, il est donc essentiel de mesurer la forme d’un grand nombre de galaxies.

Le miroir de 6,5 mètres du télescope spatiale James-Webb lors d’un test en 2020, avant son lancement. Il est tellement grand qu’il a dû être plié pour entrer dans la fusée, puis déployé dans l’espace. NASA/Chris Gunn

Près de 255 heures d’observation sur le télescope spatial James-Webb ont permis de couvrir une zone beaucoup plus vaste que celles observées précédemment (environ la surface de trois pleines lunes), avec des détails sans précédent sur la forme des galaxies.

En analysant en détail 250 000 galaxies lointaines (distance, morphologie, masse), nous avons mesuré la densité de matière noire d’avant-plan et créé ainsi une carte de la matière noire dans cette région du ciel.

En effet, notre carte de lentille gravitationnelle faible retrace la distribution projetée de la matière totale, sombre et lumineuse, à travers les amas de galaxies, les filaments et les régions sous-denses. Les pics proéminents correspondent à des amas massifs.

En quoi cette recherche est-elle importante ?

Notre équipe étudie cette région du ciel, baptisée « COSMOS », depuis plus de vingt ans. En comparant cette nouvelle carte de matière noire avec les données accumulées sur les galaxies et le gaz chaud, nous voyons que la matière noire, le gaz chaud et les galaxies retracent souvent les mêmes structures.

En d’autres termes, cette carte nous montre que la matière noire et la matière visible évoluent conjointement.

De plus, COSMOS est aujourd’hui le champ de référence pour les études sur l’évolution des galaxies. Il fournit désormais un repère haute résolution à partir duquel les futures cartes de l’univers sombre pourront être calibrées et comparées.

carte des constellations
Le champ de vue COSMOS dans la constellation du Sextant. ESO, IAU et Sky & Telescope, CC BY

Quelles sont les suites de ces recherches ?

La prochaine étape consiste à étendre cette cartographie à des volumes beaucoup plus importants de l’Univers à l’aide de missions telles que Euclid de l’Agence spatiale européenne (ESA) et le télescope spatial Nancy-Grace-Roman de la Nasa qui couvriront jusqu’à un tiers du ciel. Tous ces télescopes utilisent COSMOS comme point d’étalonnage.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


Le projet instruire l’émergence des galaxies massives et leur évolution — iMAGE est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Olivier Ilbert a reçu des financements de l'ANR et du CNES (projet HST-COSMOS).

02.02.2026 à 14:41

Allumer la lumière pour éteindre la douleur chez les rongeurs

Marion Bied, Docteure en biologie, Université Côte d’Azur
Guillaume Sandoz, Directeur de Recherche, Université Côte d’Azur
img
Une simple lumière UV supprime la douleur chez les rongeurs, sans aucun médicament et de manière plus efficace et durable que l’ibuprofène.
Texte intégral (1434 mots)

Allumer la lumière pour éteindre la douleur. Ce slogan résume bien notre découverte : une simple lumière dans l’UV-A supprime la douleur chez les rongeurs, sans aucun médicament et de manière plus efficace et durable que l’ibuprofène. Cette méthode, que nous avons appelée Light-Induced Analgesia, récemment publiée dans Nature Communications, le 26 janvier 2026, pourrait améliorer le bien-être animal et bouleverser les pratiques vétérinaires dans le cadre de l’expérimentation animale, mais aussi lors de la prise en charge des nouveaux animaux de compagnie, comme les hamsters, les chinchillas et même les tortues ou les boas.

Comment est née cette méthode antidouleur reposant sur la lumière ?

Comme Pasteur l’a dit, « le hasard ne favorise que les esprits préparés ». Effectivement, toute notre étude repose sur une observation inattendue que nous avons faite lors d’une expérience témoin : une protéine appelée TRAAK s’active (en d’autres mots, elle se met en marche), lorsqu’elle est éclairée avec de la lumière UV-A.

Aussi fortuite qu’elle puisse paraître, cette observation nous a souri puisque l’activité principale de notre laboratoire porte sur TRAAK et les protéines qui lui sont proches.

TRAAK est une protéine présente dans les récepteurs de la douleur et freine la transmission des messages douloureux vers le cerveau quand elle est dans son état actif. D’où notre idée : activer ces protéines des récepteurs de la douleur présents dans la peau avec de la lumière et ainsi inhiber les récepteurs de la douleur. Cela empêcherait alors les messages nerveux d’atteindre le cerveau, et induirait donc une analgésie.

Pour vérifier cela, nous avons illuminé les pattes de souris et avons testé leur sensibilité mécanique en déterminant la pression à appliquer pour déclencher leur réflexe de retrait de la patte. Cette procédure, couramment utilisée en expérimentation animale et humaine n’induit aucune douleur chez la souris puisque le réflexe est déclenché physiologiquement avant que la souris ne ressente la douleur. Nous avons ainsi pu montrer que, après le traitement à la lumière, il faut trois fois plus de force pour induire le retrait, ce qui veut dire que les pattes des souris deviennent trois fois moins sensibles, que ce soit sur des souris saines ou soumises à une douleur chronique pour une durée allant jusqu’à six heures. Nous avons même démontré que cet effet est plus efficace et durable que les antidouleurs utilisés couramment, comme l’ibuprofène ou la crème anesthésiante Emla (souvent utilisée lors de la vaccination).

Analgésie induite par la lumière (LIA) : l’illumination de la peau de rongeurs avec une simple lampe UV-A (appelée lumière noire) active les canaux TRAAK présents dans les terminaisons nerveuses des récepteurs de la douleur situés dans la zone exposée. Cette activation inhibe l’activité de ces récepteurs, qui cessent alors de transmettre des signaux douloureux vers le cerveau. Ce processus génère un effet analgésique net et prolongé, observé aussi bien chez le rat que chez la souris. Fourni par l'auteur

Pourquoi cette découverte est-elle importante ?

Ce nouveau traitement est non invasif, peu coûteux et simple à mettre en place. De plus, l’analgésie induite par la lumière (LIA) ne requiert aucune injection ni traitement médicamenteux et permet de s’affranchir de tout effet secondaire ou d’interaction médicamenteuse. Ce dernier point en fait une véritable aubaine en expérimentation animale, en proposant une solution pour soulager la douleur sans avoir de répercussion sur les conclusions des expériences.

En effet, dans le cadre des expériences précliniques sur rongeurs, bien contrôler la douleur est essentiel, à la fois pour le bien-être des animaux et pour la fiabilité des résultats scientifiques. Une douleur mal prise en charge peut en effet modifier le fonctionnement de l’organisme et fausser les observations et conclusions de l’étude. Les solutions actuelles pour soulager la douleur reposent essentiellement sur des médicaments qui sont efficaces mais susceptibles d’induire des effets secondaires pouvant modifier les paramètres biologiques étudiés et ainsi fausser les résultats et conclusions de l’étude.

Au-delà du cadre de l’expérimentation animale, la LIA pourra être appliquée aux nouveaux animaux de compagnie pour une analgésie locale, rapide et robuste. Par exemple, un vétérinaire pourrait l’employer pour rendre plus supportable le nettoyage d’un abcès chez les hamsters.

Quelles sont les suites de cette étude ?

La LIA n’est pas applicable chez l’humain, une unique différence dans la séquence de TRAAK rend la lumière inefficace sur la version humaine de la protéine : la lumière n’aura donc aucun effet antidouleur.

Nous sommes tout de même très excités, car notre étude identifie TRAAK comme une cible prometteuse pour le développement de nouveaux traitements antidouleur, y compris chez l’humain (en l’activant d’une manière différente). Nous allons donc poursuivre nos travaux pour développer des molécules activant TRAAK et proposer une stratégie potentiellement plus efficace et plus ciblée que les antidouleurs disponibles actuellement sur le marché.

Enfin, même si nous avons déterminé le mécanisme moléculaire à l’origine de l’activation de TRAAK par la lumière, une question subsiste : pourquoi certaines espèces possèdent-elles une version activable à la lumière ? Cela joue-t-il un rôle physiologique, par exemple au niveau du rythme nocturne/diurne des espèces ou encore dans la vision ? Nous comptons bien trouver des explications en étudiant quelles espèces possèdent une protéine TRAAK sensible à la lumière et leurs caractéristiques écologiques.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.

The Conversation

Marion Bied a reçu des financements de la Fondation pour la Recherche Médicale (FRM).

Guillaume Sandoz a reçu des financements de la Fondation pour la Recherche Médicale, l'Agence Nationale de la Recherche

01.02.2026 à 10:17

Une piste vers des stations de traitement d’eau plus sobres en énergie grâce aux bactéries… électriques

Grégory Bataillou, Ingénieur Recherche en bio-électrochimie, Centrale Lyon
img
Le traitement des eaux usées est essentiel pour éviter la pollution de l’environnement et ses impacts potentiels sur la santé humaine. Des pistes existent pour rendre les stations d’épuration plus efficientes, et donc réduire le prix de l’eau.
Texte intégral (2146 mots)

Le traitement des eaux usées est essentiel pour éviter la pollution de l’environnement et ses impacts potentiels sur la santé humaine. Différentes pistes existent pour rendre les stations d’épuration plus efficientes, et donc réduire le prix de l’eau.


En France, le coût du traitement de l’eau (ou « assainissement collectif ») représente 40 % de son prix de vente. Un ménage paie en moyenne 260 euros par an juste pour l’assainissement… dont plus de 35 euros directement imputable à la consommation d’énergie des stations d’épuration.

Au vu de la volatilité du prix de l’énergie, de nouvelles solutions émergent pour réduire drastiquement la consommation énergétique des stations de traitement. Des solutions qui utilisent des bactéries électriques !

Traitement de l’eau – comment ça marche ?

Les technologies d’épuration des eaux usées sont connues de longue date et très matures. Leur principe est relativement simple : il s’agit de soustraire (ou mieux, d’éliminer) les polluants de l’eau, du plus gros au plus petit. Dans ces étapes, celle dite d’aération est une étape clef… mais c’est également la principale consommatrice d’énergie !

Le processus commence en général par des grilles et tamis permettant de retirer la fraction solide volumineuse (branches, détritus, cailloux…) présente les eaux usées à l’entrée de la station.

Vient alors l’étape de séparation du sable (grosses particules) qui décante assez facilement au fond du bassin de traitement, et des huiles moins denses que l’eau, récupérées à la surface.

Les particules plus légères sont encore trop nombreuses et trop lentes à décanter au fond du bassin – certaines peuvent mettre des mois à décanter ! Des lamelles insérées en biais permettent de les rapprocher du fond du bassin, et de diminuer ainsi leur temps de décantation. Des produits chimiques sont également ajoutés (floculants) pour agréger les particules entre elles et les rendre plus lourdes. On parle de traitement primaire.

Ensuite, le bassin d’aération constitue le cœur de la station de traitement. Il s’agit tout simplement d’aérer l’eau en permanence pendant un certain temps grâce à des bulleurs au fond du bassin. Cette aération permet à des microorganismes de se développer et de décomposer toute la matière organique encore présente. Sans cette aération, les microorganismes efficaces ne se développent plus, l’eau croupit, et la matière organique se dégrade peu (pensez à l’eau des tourbières, ou simplement celle des flaques d’eau qui ne sont jamais remuées). L’aération est le principal poste de consommation de la station, responsable de 40 à 80 % de l’énergie utilisée. Cette énergie est nécessaire au fonctionnement des pompes et surpresseurs employés pour injecter de l’air en continu dans le bassin. On parle de traitement secondaire.

Dans la plupart des stations d’épuration existantes, à la suite du traitement biologique par aération, l’eau passe de nouveau dans un bassin de décantation (décantation secondaire ou clarificateur) pour faire sédimenter les milliards de bactéries mortes.

Enfin, l’eau est rejetée dans la nature.

Station d’épuration à Pierre-Bénite (Rhône) – Le cycle urbain de l’eau expliqué aux enfants. Source : Grand Lyon TV.

Repenser le système grâce à d’autres microorganismes

Il existe donc un enjeu important dans le monde de l’assainissement : comment limiter la consommation d’énergie liée à l’aération, tout en traitant aussi bien les eaux usées et sans faire exploser les coûts ?

Car si l’aération fonctionne aussi bien, c’est parce qu’elle permet une oxygénation de l’eau, et que les microorganismes qui se développent dans les milieux oxygénés sont très efficaces pour dégrader la matière organique.

En effet, l’oxygène est un élément naturellement oxydant, c’est-à-dire qu’il est avide d’électrons. À l’inverse, la matière organique est riche en électrons du fait de son important nombre de liaisons Carbone. La présence d’oxygène facilite la rupture des liaisons Carbone, les électrons libérés étant transférés vers l’oxygène. Ce transfert est naturellement lent (heureusement, sinon, nous brûlerions instantanément), mais il est accéléré par la présence des bactéries, véritables usines de décomposition). C’est bien ce qui est souhaité dans cette étape : casser les chaînes de carbone jusqu’à obtenir des éléments simples, non assimilables par des bactéries pathogènes en aval dans les cours d’eau.

Si l’on décide de se passer d’aération, l’oxygène devient difficilement accessible, et la dégradation peu efficace. Sauf si on utilise des microorganismes un peu spéciaux.

Par exemple, à Villeurbanne (Rhône), une station d’épuration utilise des microorganismes capables de digérer les boues des stations d’épuration et de fabriquer du méthane, qui est injecté dans le réseau de gaz de ville.

Dans notre groupe de recherche, nous explorons une autre piste : celle des bactéries électriques !

images de microscopie
Bactéries « électriques » ayant colonisé un matériau carboné conducteur (image obtenue par microscope électronique à balayage). Grégory Bataillou, Fourni par l'auteur

Éviter l’aération grâce aux bactéries « électriques »

Dès le début des années 2000, les chercheurs ont redécouvert des bactéries « électriques ». Ces bactéries, telles des araignées dans le monde microscopique, ont la capacité de fabriquer des fils de taille nanométrique, qui ont la curieuse propriété d’être conducteurs électriques. Nul besoin d’oxygène en leur sein : il suffit de se connecter à un oxydant externe, qui peut être plus loin. Imaginez-vous être capable de respirer grâce à un fil dont un bout reste exposé à l’air libre, peu importe l’endroit dans lequel vous vous trouvez.

Pour en revenir au traitement de l’eau, voici l’idée : plutôt que d’amener l’oxygène aux bactéries par l’aération, les bactéries électriques présentes dans tout le bassin se connectent à un matériau conducteur présent sur toute la colonne d’eau et s’y développent. Ainsi, les bactéries sont connectées à l’oxygène de la surface. Pour cela, l’eau transite dans des structures en carbone conducteur appelées « biofiltres électro-actifs », sur lesquelles se développent les bactéries électriques. Plus besoin d’aérer : si un chemin électrique existe entre la bactérie et l’air ambiant, elle dégradera presque aussi bien la matière organique l’environnant.

L’avantage est considérable : une fois installé, le système est passif, nécessite un faible entretien, et régénérable à l’infini. Ces systèmes sont déjà proposés à la vente pour les petites stations de traitement, notamment par la start-up espagnole METfilter.

schémas pour comparer les deux modes de fonctionnement
Différence entre traitement standard énergivore (aération, à gauche), et traitement par décomposition passive grâce à des bactéries électriques (à droite). Bien entendu, les bactéries n’ont pas d’yeux en réalité. Grégory Bataillou, Fourni par l'auteur

Cerise sur le gâteau : ces bactéries « électriques » existent spontanément dans l’environnement, elles n’ont pas à être artificiellement ajoutées au système et sont sélectionnées naturellement par la présence du matériau carboné.

Si cette piste nous semble prometteuse pour diminuer la facture d’électricité des stations d’épuration, ces bactéries ne dégradent pas tout : résidus de médicaments, PFAS, et autres substances résiduelles dans notre eau traversent encore les stations de traitement, et se retrouvent disséminées dans l’environnement. Les solutions techniques étant encore très énergivores, chaque économie d’énergie sur l’ensemble de la chaîne est un pas vers un traitement plus vertueux de nos eaux usées.


Le projet IRONTECH est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Grégory Bataillou a travaillé comme Post-Doctorant sur le financement ANR appelé IRONTECH qui vise à utiliser du Fer et des bactéries actives pour dénitrifier les effluents agro-industriels.

29.01.2026 à 16:03

Quel type de télétravailleur êtes-vous ? Quand les maths éclairent votre profil

Niousha Shahidi, Full professor, data analysis, EDC Paris Business School
Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Sana Henda, Professeur en Gestion des Ressources Humaines, ESC Amiens
img
Nous classons les choses sans même y penser&nbsp;: ranger les livres de la bibliothèque selon le genre, classer les e-mails… pour certains classements plus compliqués, les maths peuvent nous aider.
Texte intégral (1564 mots)

Chaque jour, sans même y penser, nous classons les choses : ranger les livres de la bibliothèque selon le genre, classer les e-mails… Mais comment classer des éléments quand on ne dispose pas d’une classification existante ? Les mathématiques peuvent répondre à ce type de questions. Ici, une illustration sur le télétravail.


Dans le cadre du télétravail, nous nous sommes posé la question de savoir si les télétravailleurs peuvent être regroupés en fonction de leur perception de l’autonomie et du contrôle organisationnel.

Ceci nous a permis de justifier mathématiquement que deux grandes classes de télétravailleurs existent, et que leur vision du télétravail diffère. Ceci peut permettre aux managers et aux services de ressources humaines d’adapter le management de chacun en fonction de son profil.

Classer, c’est mesurer la similarité

Nous avons considéré 159 télétravailleurs. Pour classer les individus, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela on identifie des « profils type » à partir de l’évaluation de « construits », qui sont des ensembles de critères qui traitent le même sujet.

Dans notre étude, les construits principaux sont le contrôle et l’autonomie. On évalue ces deux construits grâce à plusieurs questions posées aux télétravailleurs, par exemple « J’ai l’impression d’être constamment surveillé·e par l’utilisation de la technologie à la maison ». Ceux-ci donnent leur réponse sur une échelle en 5 points (de 1-pas du tout d’accord à 5-tout à fait d’accord).

Ensuite, chaque télétravailleur est représenté par une ligne de données : ce sont les réponses du télétravailleur dans l’ordre des critères. Par exemple pour le collaborateur 1, on peut voir les réponses (3, 1, 3, 2…), voir figure.

tableau
Extrait des réponses des différents collaborateurs en fonction des critères choisis. Données de Diard et al. (2025), Fourni par l'auteur

Pour regrouper les télétravailleurs, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela, on mesure la distance entre les profils (en utilisant des distances euclidiennes). Cette notion de distance est très importante, car c’est elle qui quantifie la similitude entre deux télétravailleurs. Plus deux profils sont proches, plus ils auront vocation à être dans la même classe.

Si on considère autant de classes que de personnes, la séparation est parfaite mais le résultat est sans intérêt. L’enjeu est donc double : avoir un nombre raisonnable de classes distinctes tel que, dans chaque classe, les individus soient suffisamment semblables.


À lire aussi : Maths au quotidien : pourquoi votre assurance vous propose un contrat avec franchise


Combien de classes choisir ?

Nous avons utilisé la méthode de classification ascendante hiérarchique, qui consiste à regrouper les individus les plus semblables possibles dans une même classe tandis que les classes restent dissemblables.

Plus précisément, au début, chaque télétravailleur est traité comme une classe et on essaie de regrouper deux ou plusieurs classes de manière appropriée pour former une nouvelle classe. On continue ainsi « jusqu’à obtenir la classe tout entière, c’est-à-dire l’échantillon total ». L’arbre aussi obtenu (dendrogramme) peut être coupé à différents niveaux.

Une question importante se pose alors : comment choisir le nombre de classes ? Il existe plusieurs méthodes. Par exemple, la méthode du coude : le point où la courbe (variance intra-classe en fonction du nombre de classes) « fait un coude » correspond au nombre de classes à retenir. Cela signifie que si « on ajoute une classe de plus, on gagne peu en précision ». Dans notre étude, le nombre de classes retenu est deux.

Afin d’améliorer notre classification, nous poursuivons avec une méthode de classification non hiérarchique (k-means) qui répartit à nouveau les télétravailleurs dans deux classes (mais ceux-ci sont légèrement différents) tout en minimisant la distance aux « centres » de classes (scores moyens des critères de chaque classe trouvés précédemment).

Nous découvrons alors deux classes de télétravailleurs mieux répartis : les « satellites-autonomes » et les « dépendants-contrôlés ».

La classification au service du manager

Une fois la classification trouvée, on s’intéresse alors à analyser les scores moyens par rapport aux autres construits du modèle, en l’occurrence l’expérience du télétravailleur. Les « satellites autonomes » ont une vision globalement plus positive de leur travail que les « dépendants contrôlés » et estiment que leurs conditions de travail se sont améliorées depuis la mise en place du télétravail.

Il existe bien sûr des limites à notre étude : il faudra en tester la robustesse, répéter l’analyse avec des sous-échantillons ou d’autres échantillons de télétravailleurs et encore tester plusieurs méthodes de classification. Une nouvelle enquête pourra montrer si le nombre ou la nature des classes que nous avons trouvées évolue. Mais il est important de noter que ce résultat (deux profils de télétravailleurs) est le fruit d’une démarche mathématique et statistique rigoureuse, qui complète les études antérieures qualitatives.

La classification est un outil bien connu en matière de gestion des ressources humaines. Par exemple, elle consiste à « peser » le poste et le positionner dans une grille prédéfinie en comparant son profil aux caractéristiques de quelques postes repères. Chaque convention collective dispose d’une grille de classification. C’est la loi du 23 décembre 1946 et les arrêtés Parodi-Croizat du 11 avril 1946 qui avaient ouvert la voie de la classification des ouvriers en sept échelons.

À l’aide des mathématiques, notre classification montre que le télétravail ne peut pas être géré comme un dispositif unique. Chaque profil correspond à des besoins et à des dynamiques organisationnelles spécifiques. Savoir qu’il existe deux profils majoritaires permet de proposer des actions différenciantes dans l’accompagnement des télétravailleurs.

Les mathématiques sont ici un outil au service du manager et aident à voir des structures invisibles dans un ensemble complexe de données. Il s’agit d’un outil d’aide à la décision.

The Conversation

Rien à déclarer

Caroline Diard et Niousha Shahidi ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

29.01.2026 à 16:03

L’IA arrive dans le jugement olympique. Qu’est-ce qui pourrait (bien) se passer ?

Willem Standaert, Associate Professor, Université de Liège
img
Alors que le Comité international olympique (CIO) adopte le jugement assisté par l’IA, en quoi cette nouvelle technologie peut-elle bouleverser le sport&nbsp;?
Texte intégral (2007 mots)

Alors que le Comité international olympique (CIO) adopte le jugement assisté par l’intelligence artificielle, cette technologie promet une plus grande cohérence et une meilleure transparence. Pourtant, les résultats de la recherche suggèrent que la confiance, la légitimité et les valeurs culturelles comptent autant que la précision technique.


En 2024, le CIO a dévoilé son agenda olympique de l’intelligence artificielle (IA), positionnant celle-ci comme un pilier central des futurs Jeux olympiques. Cette vision a été renforcée lors du tout premier Forum olympique sur l’IA, organisé en novembre 2025, où athlètes, fédérations, partenaires technologiques et décideurs politiques ont discuté de la manière dont l’IA pourrait soutenir le jugement, la préparation des athlètes et l’expérience des fans.

Aux Jeux olympiques d’hiver de 2026 de Milan-Cortina qui démarrent vendredi 6 février, le CIO envisage d’utiliser l’IA pour soutenir le jugement en patinage artistique (épreuves individuelles et en couple, hommes et femmes), en aidant les juges à identifier précisément le nombre de rotations effectuées lors d’un saut.

Son utilisation s’étendra également à des disciplines, telles que le big air, le halfpipe et le saut à ski (des épreuves de ski et de snowboard où les athlètes enchaînent des sauts et figures aériennes), où des systèmes automatisés pourront mesurer la hauteur des sauts et les angles de décollage. À mesure que ces systèmes passent de l’expérimentation à un usage opérationnel, il devient essentiel d’examiner ce qui pourrait bien se passer… ou mal se passer.

Sports jugés et erreurs humaines

Dans les sports olympiques tels que la gymnastique et le patinage artistique, qui reposent sur des panels de juges humains, l’IA est de plus en plus présentée par les fédérations internationales et les instances sportives comme une solution aux problèmes de biais, d’incohérence et de manque de transparence. En effet, les juges doivent évaluer des mouvements complexes réalisés en une fraction de seconde, souvent depuis des angles de vue limités, et ce pendant plusieurs heures consécutives.

Les analyses post-compétition montrent que les erreurs involontaires et les divergences entre juges ne sont pas des exceptions. Cela s’est à nouveau matérialisé en 2024, lorsqu’une erreur de jugement impliquant la gymnaste américaine Jordan Chiles lors des Jeux olympiques de Paris a déclenché une vive polémique. En finale du sol, Chiles avait initialement reçu une note qui la plaçait à la quatrième place. Son entraîneur a alors introduit une réclamation, estimant qu’un élément technique n’avait pas été correctement pris en compte dans la note de difficulté. Après réexamen, la note a été augmentée de 0,1 point, permettant à Chiles d’accéder provisoirement à la médaille de bronze. Cette décision a toutefois été contestée par la délégation roumaine, qui a fait valoir que la réclamation américaine avait été déposée hors délai, dépassant de quatre secondes la fenêtre réglementaire d’une minute. L’épisode a mis en lumière la complexité des règles, la difficulté pour le public de suivre la logique des décisions, et la fragilité de la confiance accordée aux panels de juges humains.

Par ailleurs, des cas de fraude ont également été observés : on se souvient notamment du scandale de jugement en patinage artistique lors des Jeux olympiques d’hiver de Salt Lake City en 2002. À l’issue de l’épreuve en couple, des accusations ont révélé qu’une juge aurait favorisé un duo en échange d’un soutien promis dans une autre compétition, mettant au jour des pratiques d’échanges de votes au sein du panel de juges. C’est précisément en réponse à ce type d’incidents que des systèmes d’IA ont été développés, notamment par Fujitsu en collaboration avec la Fédération internationale de gymnastique.

Ce que l’IA peut (et ne peut pas) corriger dans le jugement

Nos recherches sur le jugement assisté par l’IA en gymnastique artistique montrent que la question ne se résume pas à savoir si les algorithmes sont plus précis que les humains. Les erreurs de jugement proviennent souvent des limites de la perception humaine, ainsi que de la vitesse et de la complexité des performances de haut niveau, ce qui rend l’IA attrayante. Cependant, notre étude impliquant juges, gymnastes, entraîneurs, fédérations, fournisseurs de technologies et fans met en lumière une série de tensions.

L’IA peut être trop exacte, évaluant les routines avec un niveau de précision qui dépasse ce que les corps humains peuvent réalistement exécuter. Par exemple, là où un juge humain apprécie visuellement si une position est correctement tenue, un système d’IA peut détecter qu’un angle de jambe ou de bras s’écarte de quelques degrés seulement de la position idéale, pénalisant une athlète pour une imperfection imperceptible à l’œil nu. Si l’IA est souvent présentée comme objective, de nouveaux biais peuvent émerger à travers la conception et la mise en œuvre des systèmes. Par exemple, un algorithme entraîné principalement sur des performances masculines ou sur des styles dominants peut pénaliser involontairement certaines morphologies. En outre, l’IA peine à prendre en compte l’expression artistique et les émotions, des éléments considérés comme centraux dans des sports tels que la gymnastique et le patinage artistique. Enfin, si l’IA promet une plus grande cohérence, son maintien exige une supervision humaine continue afin d’adapter les règles et les systèmes à l’évolution des disciplines.

Les sports d’action ont une autre logique

Nos recherches montrent que ces préoccupations sont encore plus marquées dans les sports d’action comme le snowboard et le ski freestyle. Beaucoup de ces disciplines ont été ajoutées au programme olympique afin de moderniser les Jeux et d’attirer un public plus jeune. Pourtant, des chercheurs avertissent que l’inclusion olympique peut accélérer la commercialisation et la standardisation, au détriment de la créativité et de l’identité de ces sports.

Un moment emblématique remonte à 2006, lorsque la snowboardeuse américaine Lindsey Jacobellis a perdu la médaille d’or olympique après avoir effectué un geste acrobatique consistant à saisir sa planche en plein saut en plein saut alors qu’elle menait la finale de snowboard cross. Ce geste, célébré dans la culture de son sport, a entraîné une chute qui lui a coûté la médaille d’or.

Les essais de jugement par IA aux X Games

Le jugement assisté par l’IA ajoute de nouvelles couches à cette tension. Des travaux antérieurs sur le halfpipe en snowboard avaient déjà montré comment les critères de jugement peuvent, avec le temps, remodeler subtilement les styles de performance. Contrairement à d’autres sports jugés, les sports d’action accordent une importance particulière au style et à la prise de risque, des éléments particulièrement difficiles à formaliser algorithmiquement.

Pourtant, l’IA a déjà été testée lors des X Games 2025, notamment pendant les compétitions de snowboard SuperPipe, une version de grande taille du halfpipe, avec des parois plus hautes permettant des sauts plus amples et plus techniques. Des caméras vidéo ont suivi les mouvements de chaque athlète, tandis que l’IA analysait les images afin de produire une note de performance indépendante. Ce système était testé en parallèle du jugement humain, les juges continuant à attribuer les résultats officiels et les médailles.

Cet essai n’a toutefois pas modifié les résultats officiels, et aucune comparaison publique n’a été communiquée quant à l’alignement entre les notes produites par l’IA et celles des juges humains. Néanmoins, les réactions ont été très contrastées : certains acteurs saluent une plus grande cohérence et transparence, tandis que d’autres ont averti que les systèmes d’IA ne sauraient pas quoi faire lorsqu’un athlète introduit une nouvelle figure – souvent très appréciée des juges humains et du public.

Au-delà du jugement : entraînement, performance et expérience des fans

L’influence de l’IA dépasse largement le seul cadre du jugement. À l’entraînement, le suivi des mouvements et l’analyse de la performance orientent de plus en plus le développement technique et la prévention des blessures, façonnant la manière dont les athlètes se préparent à la compétition. Parallèlement, l’IA transforme l’expérience des fans grâce à des ralentis enrichis, des visualisations biomécaniques et des explications en temps réel des performances.

Ces outils promettent davantage de transparence, mais ils cadrent aussi la manière dont les performances sont interprétées, avec davantage de « storytelling » autour de ce qui peut être mesuré, visualisé et comparé.

À quel prix ?

L’Agenda olympique de l’IA reflète l’ambition de rendre le sport plus juste, plus transparent et plus engageant. Toutefois, à mesure que l’IA s’intègre au jugement, à l’entraînement et à l’expérience des fans, elle joue aussi un rôle discret mais puissant dans la définition de ce qui constitue l’excellence. Si les juges d’élite sont progressivement remplacés ou marginalisés, les effets pourraient se répercuter à tous les niveaux : formation des juges, développement des athlètes et évolutions des sports eux-mêmes.

Le défi auquel sont confrontés les sports du programme olympique n’est donc pas seulement technologique ; il est institutionnel et culturel. Comment éviter que l’IA ne vide de leur substance les valeurs qui donnent à chaque sport son sens ?

The Conversation

Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.01.2026 à 14:43

Des fossiles datés de 773 000 ans éclairent l’histoire de nos origines

Jean-Jacques Hublin, Paléoanthropologue, Collège de France; Académie des sciences
img
Une étude très récente publiée dans «&nbsp;Nature&nbsp;» décrit des fossiles d’hominines datés de 773&nbsp;000&nbsp;ans. Ils nous permettent d’enraciner très loin dans le temps les ancêtres de notre espèce en Afrique.
Texte intégral (1024 mots)

Le site de la grotte aux Hominidés à Casablanca, sur la côte atlantique du Maroc, offre l’un des registres de restes humains les plus importants d’Afrique du Nord. Il est connu depuis 1969 et étudié par des missions scientifiques impliquant le Maroc et la France. Ce site éclaire une période cruciale de l’évolution humaine : celle de la divergence entre les lignées africaines qui donneront nos ancêtres directs, les Néandertaliens en Europe et les Dénisoviens en Asie.

Une étude très récente publiée dans Nature décrit des fossiles d’hominines datés de 773 000 ans. Le groupe des hominines rassemble à toutes les espèces qui ont précédé la nôtre depuis la divergence de la lignée des chimpanzés. Ces fossiles (des vertèbres, des dents et des fragments de mâchoires) ont été découverts dans une carrière qui a fait l’objet de fouilles pendant de nombreuses années. Les découvertes les plus importantes et les plus spectaculaires ont eu lieu en 2008-2009. La raison pour laquelle ce matériel n’avait pas été révélé plus tôt à la communauté scientifique et au public est que nous n’avions pas de datation précise.

Comment cette découverte a-t-elle pu être réalisée ?

Grâce à l’étude du paléomagnétisme, nous avons finalement pu établir une datation très précise. Cette technique a été mise en œuvre par Serena Perini et Giovanni Muttoni de l’Université de Milan (Italie). Ces chercheurs s’intéressent à l’évolution du champ magnétique terrestre. Le pôle Nord magnétique se déplace au cours du temps, mais il y a aussi de très grandes variations : des inversions. À certaines époques, le champ devient instable et finit par se fixer dans une position inverse de la précédente. Ce phénomène laisse des traces dans les dépôts géologiques sur toute la planète.

Certaines roches contiennent des particules sensibles au champ magnétique, comme des oxydes de fer, qui se comportent comme les aiguilles d’une boussole. Au moment où ces particules se déposent ou se fixent (dans des laves ou des sédiments), elles « fossilisent » l’orientation du champ magnétique de l’époque. Nous connaissons précisément la chronologie de ces inversions passées du champ magnétique terrestre et, dans cette carrière marocaine, nous avons identifié une grande inversion datée de 773 000 ans (l’inversion Brunhes-Matuyama). Les fossiles se trouvent précisément (et par chance) dans cette couche.

En quoi cette recherche est-elle importante ?

En Afrique, nous avons pas mal de fossiles humains, mais il y avait une sorte de trou dans la documentation entre un million d’années et 600 000 ans avant le présent. C’était d’autant plus embêtant que c’est la période pendant laquelle les chercheurs en paléogénétique placent la divergence entre les lignées africaines (qui vont donner nos ancêtres directs), les ancêtres des Néandertaliens en Europe et les formes asiatiques apparentées (les Dénisoviens).

Ce nouveau matériel remplit donc un vide et documente une période de l’évolution humaine assez mal connue. Ils nous permettent d’enraciner très loin dans le temps les ancêtres de notre espèce – les prédécesseurs d’Homo sapiens – qui ont vécu dans la région de Casablanca.

Le manque d’informations pour la période précédant Homo sapiens (entre 300 000 ans et un million d’années) a poussé quelques chercheurs à spéculer sur une origine eurasienne de notre espèce, avant un retour en Afrique. Je pense qu’il n’y a pas vraiment d’argument scientifique pour cela. Dans les débuts de la paléoanthropologie, les Européens avaient du mal à imaginer que l’origine de l’humanité actuelle ne se place pas en Europe.

Plus tard, au cours du XXᵉ siècle, le modèle prépondérant a été celui d’une origine locale des différentes populations actuelles (les Asiatiques en Chine, les Aborigènes australiens en Indonésie et les Européens avec Néandertal). Ce modèle a été depuis largement abandonné face notamment aux preuves génétiques pointant vers une origine africaine de tous les hommes actuels.

Quelles sont les suites de ces recherches ?

Notre découverte ne clôt peut-être pas définitivement le débat, mais elle montre que, dans ce qui était un vide documentaire, nous avons des fossiles en Afrique qui représentent un ancêtre très plausible pour les Sapiens. On n’a donc pas besoin de les faire venir d’ailleurs.

Nous avons en projet de réaliser le séquençage des protéines fossiles peut-être préservées dans ces ossements. Si ces analyses sont couronnées de succès, elles apporteront des éléments supplémentaires à la compréhension de leur position dans l’arbre des origines humaines.


Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.

The Conversation

Jean-Jacques Hublin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.01.2026 à 11:56

Du chatbot du pape au canard de Vaucanson, les croyances derrière l’intelligence artificielle ne datent pas d’hier

Michael Falk, Senior Lecturer in Digital Studies, The University of Melbourne
img
Et si nos contemporains étaient prêts à croire en l’IA parce qu’elle fait écho à des mythes profondément ancrés dans leur imaginaire&nbsp;? Passage en revue de précédents historiques…
Texte intégral (3699 mots)
Le feu de Prométhée, un mythe qui explique en partie le succès du narratif entourant l’IA. Public domain, via Wikimedia Commons

Des mythes antiques à la tête parlante du pape, de Prométhée aux algorithmes modernes, l’intelligence artificielle (IA) puise dans notre fascination intemporelle pour la création et le pouvoir de la connaissance.


Il semble que l’engouement pour l’intelligence artificielle (IA) ait donné naissance à une véritable bulle spéculative. Des bulles, il y en a déjà eu beaucoup, de la tulipomanie du XVIIe siècle à celle des subprimes du XXIe siècle. Pour de nombreux commentateurs, le précédent le plus pertinent aujourd’hui reste la bulle Internet des années 1990. À l’époque, une nouvelle technologie – le World Wide Web – avait déclenché une vague d’« exubérance irrationnelle ». Les investisseurs déversaient des milliards dans n’importe quelle entreprise dont le nom contenait « .com ».

Trois décennies plus tard, une autre technologie émergente déclenche une nouvelle vague d’enthousiasme. Les investisseurs injectent à présent des milliards dans toute entreprise affichant « IA » dans son nom. Mais il existe une différence cruciale entre ces deux bulles, qui n’est pas toujours reconnue. Le Web existait. Il était bien réel. L’intelligence artificielle générale, elle, n’existe pas, et personne ne sait si elle existera un jour.

En février, le PDG d’OpenAI, Sam Altman, écrivait sur son blog que les systèmes les plus récents commencent tout juste à « pointer vers » l’IA dans son acception « générale ». OpenAI peut commercialiser ses produits comme des « IA », mais ils se réduisent à des machines statistiques qui brassent des données, et non des « intelligences » au sens où on l’entend pour un être humain.

Pourquoi, dès lors, les investisseurs sont-ils si prompts à financer ceux qui vendent des modèles d’IA ? L’une des raisons tient peut-être au fait que l’IA est un mythe technologique. Je ne veux pas dire par là qu’il s’agit d’un mensonge, mais que l’IA convoque un récit puissant et fondateur de la culture occidentale, celui des capacités humaines de création. Peut-être les investisseurs sont-ils prêts à croire que l’IA est pour demain, parce qu’elle puise dans des mythes profondément ancrés dans leur imaginaire ?

Le mythe de Prométhée

Le mythe le plus pertinent pour penser l’IA est celui de Prométhée, issu de la Grèce antique. Il en existe de nombreuses versions, mais les plus célèbres se trouvent dans les poèmes d’Hésiode, la Théogonie et les Travaux et les Jours, ainsi que dans la pièce Prométhée enchaîné, traditionnellement attribuée à Eschyle.

Prométhée était un Titan, un dieu du panthéon grec antique. C’était aussi un criminel, coupable d’avoir dérobé le feu à Héphaïstos, le dieu forgeron. Dissimulé dans une tige de fenouil, le feu fut apporté sur Terre par Prométhée, qui l’offrit aux humains. Pour le punir, il fut enchaîné à une montagne, où un aigle venait chaque jour lui dévorer le foie.

Le don de Prométhée n’était pas seulement celui du feu ; c’était celui de l’intelligence. Dans Prométhée enchaîné, il affirme qu’avant son don, les humains voyaient sans voir et entendaient sans entendre. Après celui-ci, ils purent écrire, bâtir des maisons, lire les étoiles, pratiquer les mathématiques, domestiquer les animaux, construire des navires, inventer des remèdes, interpréter les rêves et offrir aux dieux des sacrifices appropriés.

Le mythe de Prométhée est un récit de création d’un genre particulier. Dans la Bible hébraïque, Dieu ne confère pas à Adam le pouvoir de créer la vie. Prométhée, en revanche, transmet aux humains une part du pouvoir créateur des dieux.

Hésiode souligne cet aspect du mythe dans la Théogonie. Dans ce poème, Zeus ne punit pas seulement Prométhée pour le vol du feu ; il châtie aussi l’humanité. Il ordonne à Héphaïstos d’allumer sa forge et de façonner la première femme, Pandore, qui déchaîne le mal sur le monde. Or le feu qu’Héphaïstos utilise pour créer Pandore est le même que celui que Prométhée a offert aux humains.

Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle
Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle. Wikimedia

Les Grecs ont avancé l’idée que les humains sont eux-mêmes une forme d’intelligence artificielle. Prométhée et Héphaïstos recourent à la technique pour fabriquer les hommes et les femmes. Comme le montre l’historienne Adrienne Mayor dans son ouvrage Gods and Robots, les Anciens représentaient souvent Prométhée comme un artisan, utilisant des outils ordinaires pour créer des êtres humains dans un atelier tout aussi banal.

Si Prométhée nous a donné le feu des dieux, il semble logique que nous puissions utiliser ce feu pour fabriquer nos propres êtres intelligents. De tels récits abondent dans la littérature grecque antique, de l’inventeur Dédale, qui créa des statues capables de prendre vie, à la magicienne Médée, qui savait rendre la jeunesse et la vigueur grâce à ses drogues ingénieuses. Les inventeurs grecs ont également conçu des calculateurs mécaniques pour l’astronomie ainsi que des automates remarquables, mues par la gravité, l’eau et l’air.

Le pape et le chatbot

Deux mille sept cents ans se sont écoulés depuis qu’Hésiode a consigné pour la première fois le mythe de Prométhée. Au fil des siècles, ce récit a été repris sans relâche, en particulier depuis la publication, en 1818, de Frankenstein ; ou le Prométhée moderne de Mary Shelley.

Mais le mythe n’est pas toujours raconté comme une fiction. Voici deux exemples historiques où le mythe de Prométhée semble s’être incarné dans la réalité.

Gerbert d’Aurillac fut le Prométhée du Xe siècle. Né au début des années 940 de notre ère, il étudia à l’abbaye d’Aurillac avant de devenir moine à son tour. Il entreprit alors de maîtriser toutes les branches du savoir connues de son temps. En 999, il fut élu pape. Il mourut en 1003 sous son nom pontifical de Sylvestre II.

Des rumeurs sur Gerbert se répandirent rapidement à travers l’Europe. Moins d’un siècle après sa mort, sa vie était déjà devenue légendaire. L’une des légendes les plus célèbres, et la plus pertinente à l’ère actuelle de l’engouement pour l’IA, est celle de la « tête parlante » de Gerbert. Cette légende fut racontée dans les années 1120 par l’historien anglais Guillaume de Malmesbury dans son ouvrage reconnu et soigneusement documenté, la Gesta Regum Anglorum (Les actions des rois d’Angleterre).

Gerbert possédait des connaissances approfondies en astronomie, une science de la prévision. Les astronomes pouvaient utiliser l’astrolabe pour déterminer la position des étoiles et prévoir des événements cosmiques, comme les éclipses. Selon Guillaume, Gerbert aurait mis son savoir en astronomie au service de la création d’une tête parlante. Après avoir observé les mouvements des étoiles et des planètes, il aurait façonné une tête en bronze capable de répondre à des questions par « oui » ou par « non ».

Gerbert posa d’abord la question : « Deviendrai-je pape ? »

« Oui », répondit la tête.

Puis il demanda : « Mourrai-je avant d’avoir célébré la messe à Jérusalem ? »

« Non », répondit la tête.

Dans les deux cas, la tête avait raison, mais pas comme Gerbert l’avait prévu. Il devint bien pape et évita judicieusement de partir en pèlerinage à Jérusalem. Un jour cependant, il célébra la messe à la basilique Sainte-Croix-de-Jérusalem à Rome. Malheureusement pour lui, la basilique était alors simplement appelée « Jérusalem ».

Gerbert tomba malade et mourut. Sur son lit de mort, il demanda à ses serviteurs de découper son corps et de disperser les morceaux, afin de rejoindre son véritable maître, Satan. De cette manière, il fut, à l’instar de Prométhée, puni pour avoir volé le feu.

Le pape Sylvestre II et le Diable. Wikimedia

C’est une histoire fascinante. On ne sait pas si Guillaume de Malmesbury y croyait vraiment. Mais il s’est bel et bien efforcé de persuader ses lecteurs que cela était plausible. Pourquoi ce grand historien, attaché à la vérité, aurait-il inséré une légende fantaisiste sur un pape français dans son histoire de l’Angleterre ? Bonne question !

Est-ce si extravagant de croire qu’un astronome accompli puisse construire une machine de prédiction à usage général ? À l’époque, l’astronomie était la science de la prédiction la plus puissante. Guillaume, sobre et érudit, était au moins disposé à envisager que des avancées brillantes en astronomie pourraient permettre à un pape de créer un chatbot intelligent.

Aujourd’hui, cette même possibilité est attribuée aux algorithmes d’apprentissage automatique, capables de prédire sur quelle publicité vous cliquerez, quel film vous regarderez ou quel mot vous taperez ensuite. Il est compréhensible que nous tombions sous le même sortilège.

L’anatomiste et l’automate

Le Prométhée du XVIIIe siècle fut Jacques de Vaucanson, du moins si l’on en croit Voltaire :

Le hardi Vaucanson, rival de Prométhée,
Semblait, de la nature imitant les ressorts
Prendre le feu des cieux pour animer les corps.

Jacques de Vaucanson, par Joseph Boze (1784). Wikimedia

Vaucanson était un grand mécanicien, célèbre pour ses automates, des dispositifs à horlogerie reproduisant de manière réaliste l’anatomie humaine ou animale. Les philosophes de l’époque considéraient le corps comme une machine – alors pourquoi un mécanicien n’aurait-il pu en construire une ?

Parfois, les automates de Vaucanson avaient aussi une valeur scientifique. Il construisit par exemple un « Flûteur automate » doté de lèvres, de poumons et de doigts, capable de jouer de la flûte traversière de façon très proche de celle d’un humain. L’historienne Jessica Riskin explique dans son ouvrage The Restless Clock que Vaucanson dut faire d’importantes découvertes en acoustique pour que son flûtiste joue juste.

Parfois, ses automates étaient moins scientifiques. Son « Canard digérateur » connut un immense succès, mais se révéla frauduleux. Il semblait manger et digérer de la nourriture, mais ses excréments étaient en réalité des granulés préfabriqués dissimulés dans le mécanisme.

Vaucanson consacra des décennies à ce qu’il appelait une « anatomie en mouvement ». En 1741, il présenta à l’Académie de Lyon un projet visant à construire une « imitation de toutes les opérations animales ». Vingt ans plus tard, il s’y remit. Il obtint le soutien du roi Louis XV pour réaliser une simulation du système circulatoire et affirma pouvoir construire un corps artificiel complet et vivant.

Trois automates de Vaucanson, le Flûteur automate, le Canard digérateur et le Berger provençal. Wikimedia

Il n’existe aucune preuve que Vaucanson ait jamais achevé un corps entier. Finalement, il ne put tenir la promesse que soulevait sa réputation. Mais beaucoup de ses contemporains croyaient qu’il en était capable. Ils voulaient croire en ses mécanismes magiques. Ils souhaitaient qu’il s’empare du feu de la vie.

Si Vaucanson pouvait fabriquer un nouveau corps humain, ne pourrait-il pas aussi en réparer un existant ? C’est la promesse de certaines entreprises d’IA aujourd’hui. Selon Dario Amodei, PDG d’Anthropic, l’IA permettra bientôt aux gens « de vivre aussi longtemps qu’ils le souhaitent ». L’immortalité semble un investissement séduisant.

Sylvestre II et Vaucanson furent de grands maîtres de la technologie, mais aucun des deux ne fut un Prométhée. Ils ne volèrent nul feu aux dieux. Les aspirants Prométhée de la Silicon Valley réussiront-ils là où leurs prédécesseurs ont échoué ? Si seulement nous avions la tête parlante de Sylvestre II, nous pourrions le lui demander.

The Conversation

Michael Falk a reçu des financements de l'Australian Research Council.

27.01.2026 à 16:26

Qu’est-ce que l’intégrité scientifique aujourd’hui ?

Catherine Guaspare, Sociologue, Ingénieure d'études, Centre national de la recherche scientifique (CNRS)
Michel Dubois, Sociologue, Directeur de recherche CNRS, Sorbonne Université
img
Dans un contexte où la production scientifique est soumise à des pressions multiples, où les théories pseudoscientifiques circulent sur les réseaux sociaux, l’intégrité scientifique apparaît plus que jamais comme l’un des piliers de la confiance dans la science.
Texte intégral (2405 mots)

Dans un contexte où la production scientifique est soumise à des pressions multiples, où les théories pseudoscientifiques circulent sur les réseaux sociaux, l’intégrité scientifique apparaît plus que jamais comme l’un des piliers de la confiance dans la science. Nous vous proposons de découvrir les conclusions de l’ouvrage L’intégrité scientifique. Sociologie des bonnes pratiques, de Catherine Guaspare et Michel Dubois aux éditions PUF, en 2025.


L’intégrité scientifique est une priorité institutionnelle qui fait consensus. Par-delà la détection et le traitement des méconduites scientifiques, la plupart des organismes d’enseignement supérieur et de recherche partagent aujourd’hui un même objectif de promouvoir une culture des bonnes pratiques de recherche.

Il est tentant d’inscrire cette culture dans une perspective historique : la priorité accordée aujourd’hui à l’intégrité n’étant qu’un moment dans une histoire plus longue, celle des régulations qui s’exercent sur les conduites scientifiques. Montgomery et Oliver ont par exemple proposé de distinguer trois grandes périodes dans l’histoire de ces régulations : la période antérieure aux années 1970 caractérisée par l’autorégulation de la communauté scientifique, la période des années 1970-1990 caractérisée par l’importance accordée à la détection et la prévention des fraudes scientifiques et, depuis les années 1990 et la création de l’Office of Research Integrity, première agence fédérale américaine chargée de l’enquête et de la prévention des manquements à l’intégrité dans la recherche biomédicale financée sur fonds publics, la période de l’intégrité scientifique et de la promotion des bonnes pratiques.

Cette mise en récit historique de l’intégrité peut sans doute avoir une valeur heuristique, mais comme tous les grands récits, celui-ci se heurte aux faits. Elle laisse croire que la communauté scientifique, jusque dans les années 1970, aurait été capable de définir et de faire appliquer par elle-même les normes et les valeurs de la recherche. Pourtant, la régulation qui s’exerce par exemple sur la recherche biomédicale est très largement antérieure aux années 1970, puisqu’elle prend forme dès l’après-Seconde Guerre mondiale avec le Code de Nuremberg (1947), se renforce avec la Déclaration d’Helsinki (1964) et s’institutionnalise progressivement à travers les comités d’éthique et les dispositifs juridiques de protection des personnes.

Elle laisse ensuite penser que la détection des fraudes scientifiques comme la promotion des bonnes pratiques seraient autant de reculs pour l’autonomie de la communauté scientifique. Mais, à y regarder de plus près, les transformations institutionnelles – l’adoption de la charte nationale de déontologie des métiers de la recherche en 2015, la création de l’Office français de l’intégrité scientifique en 2017, l’entrée de l’intégrité dans la loi en 2020 –, sont le plus souvent portées par des représentants de la communauté scientifique. Et ce qui peut paraître, de loin, une injonction du politique faite au scientifique relève fréquemment de l’auto-saisine, directe ou indirecte, de la communauté scientifique. L’entrée en politique de l’intégrité scientifique démontre la capacité d’une partie limitée de la communauté scientifique à saisir des fenêtres d’opportunité politique. À l’évidence, pour la France, la période 2015-2017 a été l’une de ces fenêtres, où, à la faveur d’une affaire retentissante de méconduite scientifique au CNRS en 2015, du rapport porté par Pierre Corvol en 2016, de la lettre circulaire de Thierry Mandon en 2017, ces questions passent d’un débat professionnel à un objet de politique publique structuré.

Enfin, ce récit historique de l’intégrité semble suggérer qu’à la culture institutionnelle de détection des fraudes scientifiques, caractéristique des années 1970-1990, viendrait désormais se substituer une culture, plus positive, des bonnes pratiques et de la recherche responsable. Certes, l’innovation et la recherche responsables sont autant de mots-clés désormais incontournables pour les grandes institutions scientifiques, mais la question de la détection des méconduites demeure plus que jamais d’actualité, et ce d’autant qu’il s’est opéré ces dernières années un déplacement de la détection des fraudes scientifiques vers celle des pratiques discutables. La question de la qualification des méconduites scientifiques comme celle de leur mesure n’ont jamais été autant d’actualité.

Si le sociologue ne peut que gagner à ne pas s’improviser historien des sciences, il ne peut toutefois rester aveugle face aux grandes transformations des sciences et des techniques. En particulier, la communauté scientifique du XXIᵉ siècle est clairement différente de celle du siècle dernier. Dans son rapport 2021, l’Unesco rappelait qu’entre 2014 et 2018 le nombre de chercheurs a augmenté trois fois plus vite que la population mondiale, avec un total de plus de huit millions de chercheurs en équivalent temps plein à travers le monde.

Cette densification de la communauté scientifique n’est pas sans enjeu pour l’intégrité scientifique. Avec une communauté de plus en plus vaste, il faut non seulement être en mesure de parler d’une même voix, normaliser les guides et les chartes, mais s’assurer que cette voix soit entendue par tous. Même si l’institutionnalisation de l’intégrité est allée de pair avec une forme d’internationalisation, tous les pays ne sont pas en mesure de créer les structures et les rôles que nous avons eu l’occasion de décrire.

Par ailleurs, la croissance de la communauté scientifique s’accompagne mécaniquement d’une augmentation du volume des publications scientifiques qui met à mal les mécanismes traditionnels de contrôle. D’où d’ailleurs le développement d’alternatives au mécanisme de contrôle par les pairs. On a beaucoup parlé de la vague de publications liées à la crise de la Covid-19, mais la vague souterraine, peut-être moins perceptible pour le grand public, est plus structurelle : toujours selon les données de l’Unesco, entre 2015 et 2019, la production mondiale de publications scientifiques a augmenté de 21 %. Qui aujourd’hui est capable de garantir la fiabilité d’un tel volume de publications ?

Qui dit enfin accroissement du volume de la communauté scientifique, dit potentiellement densification des réseaux de collaborations internationales, à l’intérieur desquels les chercheurs comme les équipes de recherche sont autant d’associés rivaux. La multiplication des collaborations internationales suppose de pouvoir mutualiser les efforts et de s’assurer de la qualité de la contribution de chacun comme de sa reconnaissance. Nous avons eu l’occasion de souligner l’importance de considérer les sentiments de justice et d’injustice éprouvés par les scientifiques dans la survenue des méconduites scientifiques : une contribution ignorée, un compétiteur qui se voit récompensé tout en s’écartant des bonnes pratiques, des institutions scientifiques qui interdisent d’un côté ce qu’elles récompensent de l’autre, etc., autant de situations qui nourrissent ces sentiments.

« La recherche en danger », une discussion avec Stéphanie Balme/The Conversation France et Canalchat Grandialogue.

Par ailleurs, la multiplication des collaborations, dans un contexte où les ressources (financements, postes, distinctions, etc.) sont par principe contraintes, implique également des logiques de mise en concurrence qui peuvent être vécues comme autant d’incitations à prendre des raccourcis.

Outre la transformation démographique de la communauté scientifique, le sociologue des sciences ne peut ignorer l’évolution des modalités d’exercice du travail scientifique à l’ère numérique. La « datafication » de la science, à l’œuvre depuis la fin du XXᵉ siècle, correspond tout autant à l’augmentation du volume des données numériques de la recherche qu’à l’importance prise par les infrastructures technologiques indispensables pour leur traitement, leur stockage et leur diffusion. L’accessibilité et la diffusion rapide des données de la recherche, au nom de la science ouverte, ouvrent des perspectives inédites pour les collaborations scientifiques. Elles créent une redistribution des rôles et des expertises dans ces collaborations, avec un poids croissant accordé à l’ingénierie des données.

Mais, là encore, cette évolution technologique engendre des défis majeurs en termes d’intégrité scientifique. L’édition scientifique en ligne a vu naître un marché en ligne des revues prédatrices qui acceptent, moyennant paiement, des articles sans les évaluer réellement. Si les outils de l’intelligence artificielle s’ajoutent aux instruments traditionnels des équipes de recherche, des structures commerciales clandestines, les « paper mill » ou usines à papier, détournent ces outils numériques pour fabriquer et vendre des articles scientifiques frauduleux à des auteurs en quête de publications. Si l’immatérialité des données numériques permet une circulation accélérée des résultats de recherche, comme on a pu le voir durant la crise de la Covid-19, elle rend également possibles des manipulations de plus en plus sophistiquées. Ces transformations structurelles créent une demande inédite de vigilance à laquelle viennent répondre, chacun à leur manière, l’évaluation postpublication comme ceux que l’on appelle parfois les nouveaux détectives de la science et qui traquent en ligne les anomalies dans les articles publiés (images dupliquées, données incohérentes, plagiat) et ce faisant contribuent à la mise en lumière de fraudes ou de pratiques douteuses.


À lire aussi : Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac


Plus fondamentalement, cette montée en puissance des données numériques de la recherche engendre des tensions inédites entre l’intégrité scientifique et l’éthique de la recherche. À l’occasion d’un entretien, un physicien, travaillant quotidiennement à partir des téraoctets de données générés par un accélérateur de particules, nous faisait remarquer, avec une pointe d’ironie, qu’il comprenait sans difficulté l’impératif institutionnel d’archiver, au nom de l’intégrité scientifique, l’intégralité de ses données sur des serveurs, mais que ce stockage systématique d’un volume toujours croissant de données entrait directement en contradiction avec l’éthique environnementale de la recherche prônée par ailleurs par son établissement. Intégrité scientifique ou éthique de la recherche ? Faut-il choisir ?

Éditions PUF, 2025.

On touche du doigt ici la diversité des dilemmes auxquels sont quotidiennement confrontés les scientifiques dans l’exercice de leurs activités. La science à l’ère numérique évolue dans un équilibre délicat entre l’intégrité scientifique et l’éthique de la recherche. Et l’un des enjeux actuels est sans doute de parvenir à maximiser les bénéfices des technologies numériques tout en minimisant leurs impacts négatifs. D’où la nécessité pour les institutions de recherche de promouvoir une culture de l’intégrité qui puisse dépasser la simple exigence de conformité aux bonnes pratiques, en intégrant les valeurs de responsabilité sociale auxquelles aspire, comme le montrent nos enquêtes, une part croissante de la communauté scientifique.


Le texte a été très légèrement remanié pour pouvoir être lu indépendamment du reste de l’ouvrage en accord avec les auteurs.

The Conversation

Catherine Guaspare et Michel Dubois sont les auteurs du livre L'intégrité scientifique dont cet article est tiré.

Michel Dubois a reçu des financements de l'Agence nationale de la recherche (ANR). Il est directeur de l'Office français de l'intégrité scientifique depuis septembre 2025.

26.01.2026 à 15:01

Dans le cerveau des chevaux : comment le lien maternel affecte le cerveau et le comportement des poulains

Mathilde Valenchon, Chercheuse en Ethologie, Inrae
David Barrière, Chargé de recherche, Centre national de la recherche scientifique (CNRS)
img
Une nouvelle étude montre comment la présence prolongée de la mère façonne le développement comportemental, physiologique et cérébral des poulains.
Texte intégral (1629 mots)
Les interactions entre les poulains et leurs mères ont des implications sur leur comportement, sur leur physiologie et sur leur développement cérébral. © UMR PRC INRAE-CNRS-Université de Tours, M. E. Le Bachelier de la Rivière., Fourni par l'auteur

Une nouvelle étude montre comment la présence prolongée de la mère façonne le développement comportemental, physiologique et cérébral des poulains.


Chez les mammifères sociaux, les relations sociales jouent un rôle déterminant dans le développement. On sait depuis longtemps que la période autour de la naissance est cruciale, lorsque le nouveau-né dépend entièrement de son ou de ses parent(s) pour se nourrir et se protéger. En revanche, ce qui se joue après, lorsque le jeune n’est plus physiquement dépendant de sa mère mais continue de vivre à ses côtés, reste encore mal compris.

Dans une étude récente publiée dans Nature Communications, nous avons exploré chez le cheval cette période souvent négligée du développement. Nos résultats montrent que la présence prolongée de la mère façonne à la fois le cerveau, le comportement
– social en particulier – et la physiologie des poulains.

Pourquoi s’intéresser à l’« enfance » chez le cheval ?

Le cheval est un modèle particulièrement pertinent pour étudier le rôle du lien parental sur le développement des jeunes. Comme chez l’humain, les mères donnent généralement naissance à un seul petit à la fois, procurent des soins parentaux prolongés et établissent un lien mère-jeune fort sur le plan affectif, individualisé et durable.

Dans des conditions naturelles, les poulains restent avec leur groupe familial, et donc avec leur mère, jusqu’à l’âge de 2 ou 3 ans. En revanche, en élevage ou chez les particuliers, la séparation est le plus souvent décidée par l’humain et intervient bien plus tôt, autour de 6 mois. Ce contraste offre une occasion unique d’étudier l’impact de la présence maternelle sur le développement au-delà de la période néonatale.

Comment étudier de rôle d’une présence maternelle prolongée chez le cheval ?

Pour isoler l’effet de la présence maternelle, nous avons suivi 24 poulains de l’âge de 6 à 13 mois. Cette période peut être assimilée à celle de l’enfance chez l’être humain. En effet, durant cette période, les poulains ressemblent déjà physiquement à de petits adultes, apparaissent autonomes dans leurs déplacements et consomment très majoritairement des aliments solides, tout en étant encore sexuellement immatures. En d’autres termes, leur survie immédiate ne dépend plus directement de la mère.

Dans notre étude, tous les poulains vivaient ensemble dans un contexte social riche, avec d’autres jeunes et des adultes. La seule différence concernait la présence ou non de leurs mères respectives à partir de l’âge de 6 mois : ainsi, 12 poulains sont restés avec leur mère tandis que 12 autres en ont été séparés, comme c’est fréquemment le cas en élevage.

Durant les sept mois qui ont suivi, nous avons étudié le développement de ces poulains. En éthologie, les comportements sont étudiés de façon quantitative. Nous avons suivi le développement comportemental des poulains à l’aide d’observations et de tests comportementaux standardisés, puis analysé statistiquement ces données pour comparer leurs trajectoires développementales. Ces données ont été complétées par des mesures physiologiques régulières (par exemple, la prise de poids, les concentrations hormonales) et par une approche d’imagerie par résonance magnétique (IRM) pour visualiser les différences fonctionnelles et morphologiques entre nos deux groupes de poulains de manière non invasive.


À lire aussi : Les chevaux nous reconnaissent-ils ?


La présence de la mère favorise l’émergence des compétences sociales

Les résultats issus de nos observations répétées dans le temps montrent que les poulains bénéficiant de la présence de leur mère interagissaient davantage avec leurs congénères, notamment à travers des comportements positifs, comme le jeu ou le toilettage mutuel, que les poulains séparés de leurs mères. Ils se montraient aussi plus explorateurs et plus à l’aise face à des situations sociales nouvelles, suggérant une plus grande sociabilité.

Autre résultat intéressant, les poulains bénéficiant de la présence de leur mère passaient moins de temps à manger mais prenaient plus de poids, suggérant une croissance plus efficace.

Le lien maternel, moteur du développement du cerveau

Pour aller plus loin, nous avons combiné ces observations comportementales avec une approche encore rare chez les animaux d’élevage : l’imagerie médicale. Ici nous avons utilisé des techniques d’IRM, permettant d’observer le fonctionnement et l’organisation du cerveau vivant, sans douleur. Ainsi, nous avons pu caractériser le développement cérébral de nos poulains.

« Comprendre l’IRM en deux minutes ». Source : Institut du cerveau — Paris Brain Institute.

Cette approche nous a permis d’identifier, pour la première fois chez le cheval, un réseau cérébral appelé le réseau du mode par défaut. Bien connu chez l’humain et identifié chez une poignée d’autres espèces animales, ce réseau serait impliqué dans l’intégration des pensées introspectives, la perception de soi et des autres. Chez les poulains ayant bénéficié d’une présence maternelle prolongée, ce réseau était plus développé, faisant écho aux meilleures compétences sociales que nous avons observées.

En outre, nous avons observé des différences morphologiques dans une région fortement impliquée dans la régulation physiologique, l’hypothalamus, en lien avec les différences physiologiques et de comportement alimentaire mises en évidence.

Une phase clé du développement aux effets multidimensionnels

Pris dans leur ensemble, nos résultats soulignent l’importance de cette phase du développement, encore peu étudiée chez l’animal, située entre la petite enfance et l’adolescence.

Ils suggèrent que la présence maternelle prolongée induit un développement comportemental, cérébral et physiologique plus harmonieux, qui pourrait contribuer à équiper les jeunes pour leur vie adulte future, notamment dans le domaine de compétences sociales.

Quelles implications pour l’élevage… et au-delà ?

Notre travail ne permet pas de définir une règle universelle sur l’âge idéal de séparation chez le cheval. Il montre en revanche que la séparation précoce a des conséquences mesurables, bien au-delà de la seule question alimentaire.

Lorsque les conditions le permettent, garder plus longtemps le poulain avec sa mère pourrait donc constituer un levier simple et favorable au développement du jeune. Cependant, d’autres études sont nécessaires pour évaluer l’impact de ces pratiques sur les mères et les capacités de récupération des poulains après la séparation, par exemple.

Avec grande prudence, ces résultats font aussi écho à ce que l’on observe chez d’autres mammifères sociaux, y compris l’humain : le rôle du parent ou de la/du soignant·e (« caregiver ») comme médiateur entre le jeune et son environnement social et physique pourrait être un mécanisme largement partagé. Le cheval offre ainsi un modèle précieux pour mieux comprendre comment les premières relations sociales façonnent durablement le cerveau et le comportement.

The Conversation

Cette étude a été financée grâce à une bourse européenne HORIZON 2020 Marie Skłodowska-Curie Actions (MSCA) (ref: 101033271, MSCA European Individual Fellowship, https://doi.org/10.3030/101033271) et au Conseil Scientifique de l'Institut Français du Cheval et de l’Equitation (IFCE) (ref: DEVELOPPEMENTPOULAIN).

David Barrière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.01.2026 à 18:12

Pourquoi mon filtre antispam fonctionne-t-il si mal ?

Antony Dalmiere, Ph.D Student - Processus cognitifs dans les attaques d'ingénieries sociales, INSA Toulouse; Centre national de la recherche scientifique (CNRS)
img
Les hackeurs développent toujours de nouvelles astuces pour noyer le poisson et franchir les filtres antispam.
Texte intégral (1221 mots)

Comment les spams passent-ils au travers des multiples couches de protection annoncées comme presque infranchissables par les entreprises et par les chercheurs en cybersécurité ?


Les escroqueries existent depuis fort longtemps, du remède miracle vendu par un charlatan aux courriers dans la boîte aux lettres nous promettant monts et merveilles plus ou moins fantasques. Mais le Web a rendu ces canaux moins intéressants pour les arnaqueurs.

Les e-mails de spam et le « phishing » (hameçonnage) se comptent aujourd’hui en millions d’e-mails par an et ont été la porte d’entrée pour des incidents majeurs, comme les fuites d’e-mails internes d’Emmanuel Macron lors de sa campagne présidentielle en 2017, mais aussi le vol de 81 millions de dollars (plus de 69 millions d’euros) à la banque du Bangladesh en 2016.

Il est difficile de quantifier les effets de ces arnaques à l’échelle globale, mais le FBI a recensé des plaintes s’élevant à 2,9 milliards de dollars (soit 2,47 milliards d’euros) en 2023 pour une seule catégorie de ce type d’attaques – les pertes dues aux attaques par e-mail en général sont sûrement beaucoup plus élevées.

Bien sûr, la situation n’est pas récente, et les entreprises proposant des boîtes de messagerie investissent depuis longtemps dans des filtres antispam à la pointe de la technologie et parfois très coûteux. De même pour la recherche académique, dont les détecteurs atteignent des précisions supérieures à 99 % depuis plusieurs années ! Dans les faits pourtant, les signalements de phishing ont bondi de 23 % en 2024.

Pourquoi, malgré ces filtres, recevons-nous chaque jour des e-mails nous demandant si notre compte CPF contient 200 euros, ou bien nous informant que nous aurions gagné 100 000 euros ?

Plusieurs techniques superposables

Il faut d’abord comprendre que les e-mails ne sont pas si différents des courriers classiques dans leur fonctionnement. Quand vous envoyez un e-mail, il arrive à un premier serveur, puis il est relayé de serveur en serveur jusqu’à arriver au destinataire. À chaque étape, le message est susceptible d’être bloqué, car, dans cette chaîne de transmission, la plupart des serveurs sont équipés de bloqueurs.

Dans le cadre de ma thèse, j’ai réalisé une étude empirique qui nous a permis d’analyser plus de 380 e-mails de spams et de phishing ayant franchi les filtres mis en place. Nous avons ainsi analysé une dizaine de techniques exploitées dans des proportions très différentes.

La plus répandue de ces techniques est incroyablement ingénieuse et consiste à dessiner le texte sur une image incluse dans l’e-mail plutôt que de l’écrire directement dans le corps du message. L’intérêt est de créer une différence de contenu entre ce que voit l’utilisateur et ce que voient les bloqueurs de spams et de phishing. En effet, l’utilisateur ne fait pas la différence entre « cliquez ici » écrit dans l’e-mail ou « cliquez ici » dessiné avec la même police d’écriture que l’ordinateur. Pourtant, du point de vue des bloqueurs automatisés, cela fait une grosse différence, car, quand le message est dessiné, identifier le texte présent dans l’image demande une analyse très coûteuse… que les bloqueurs ne peuvent souvent pas se permettre de réaliser.

Une autre technique, plus ancienne, observée dans d’autres contextes et recyclée pour franchir les bloqueurs, est l’utilisation de lettres qui sont jumelles dans leur apparence pour l’œil humain mais radicalement différentes. Prenons par exemple un mail essayant de vous faire cliquer sur un lien téléchargeant un virus sur votre téléphone. Un hackeur débutant pourrait envoyer un mail malicieux demandant de cliquer ici. Ce qui serait vu du point de vue de votre ordinateur par 99 108 105 113 117 101 114. Cette suite de nombres est bien évidemment surveillée de près et suspectée par tous les bloqueurs de la chaîne de transmission. Maintenant, un hackeur chevronné, pour contourner le problème, remplacera le l minuscule par un i majuscule (I). De votre point de vue, cela ressemblera à cIiquer ici – avec plus ou moins de réussite en fonction de la police d’écriture. Mais du point de vue de l’ordinateur, cela change tout, car ça devient : 99 76 105 113 117 101 114. Les bloqueurs n’ont jamais vu cette version-là et donc laissent passer le message.

Tromper les filtres à spams basés sur l’IA

Parmi toutes les techniques que nous avons observées, certaines sont plus avancées que d’autres. Contre les bloqueurs de nouvelle génération, les hackers ont mis au point des techniques spécialisées dans la neutralisation des intelligences artificielles (IA) défensives.

Un exemple observé dans notre étude est l’ajout dans l’e-mail de pages Wikipédia écrites en blanc sur blanc. Ces pages sont complètement hors contexte et portent sur des sujets, tels que l’hémoglobine ou les agrumes, alors que l’e-mail demande d’envoyer des bitcoins. Ce texte, invisible pour l’utilisateur, sert à perturber les détecteurs basés sur des systèmes d’intelligence artificielle en faisant une « attaque adversariale » (montrer une grande quantité de texte anodin, en plus du message frauduleux, de telle sorte que le modèle de détection n’est plus capable de déterminer s’il s’agit d’un e-mail dangereux ou pas).

Et le pire est que la plupart des e-mails contiennent plusieurs de ces techniques pour augmenter leurs chances d’être acceptés par les bloqueurs ! Nous avons dénombré en moyenne 1,7 technique d’obfuscation par e-mails, avec la plupart des e-mails comportant au moins une technique d’obfuscation.


Cet article est le fruit d’un travail collectif entre le Laboratoire de recherche spécialisé dans l’analyse et l’architecture des systèmes (LAAS-CNRS) et le Laboratoire d’études et de recherches appliquées en sciences sociales (LERASS). Je tiens à remercier Guillaume Auriol, Pascal Marchand et Vincent Nicomette pour leur soutien et leurs corrections.

The Conversation

Antony Dalmiere a reçu des financements de l'Université de Toulouse et de l'Institut en Cybersécurité d'Occitanie.

21.01.2026 à 11:36

Des éclairs détectés sur Mars pour la toute première fois

Baptiste Chide, Chargé de Recherche CNRS à l'IRAP (Université de Toulouse, CNES), Observatoire Midi-Pyrénées
Franck Montmessin, Directeur de recherche CNRS au Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
img
Pour la première fois, un microphone placé sur le rover Perseverance a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière.
Texte intégral (1727 mots)

Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.


Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.

Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de trente heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ trois minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.

Un jackpot scientifique

Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.

Le son du tout premier éclair enregistré sur Mars. NASA/JPL-Caltech/LANL/CNES/CNRS/IRAP, Fourni par l'auteur214 ko (download)

Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.

Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !

Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.

En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars, en revanche, l’atmosphère ténue de CO₂ rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.

Des implications au niveau du climat martien

Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.

En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.

Expliquer la disparition du méthane

L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.

Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.

Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.

On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.

Peut-être lors de futures missions ? L’Agence spatiale européenne (ESA) avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.

The Conversation

Franck Montmessin a reçu des financements de l'ANR et du CNES.

Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview