Version smartphones allégée
🟥 Accueil 🟨 Médias 🟦 International
Lien du flux RSS
L’expertise universitaire, l’exigence journalistique

▸ les 25 dernières parutions

02.02.2026 à 14:41

Allumer la lumière pour éteindre la douleur chez les rongeurs

Marion Bied, Docteure en biologie, Université Côte d’Azur
Guillaume Sandoz, Directeur de Recherche, Université Côte d’Azur
img
Une simple lumière UV supprime la douleur chez les rongeurs, sans aucun médicament et de manière plus efficace et durable que l’ibuprofène.
Texte intégral (1434 mots)

Allumer la lumière pour éteindre la douleur. Ce slogan résume bien notre découverte : une simple lumière dans l’UV-A supprime la douleur chez les rongeurs, sans aucun médicament et de manière plus efficace et durable que l’ibuprofène. Cette méthode, que nous avons appelée Light-Induced Analgesia, récemment publiée dans Nature Communications, le 26 janvier 2026, pourrait améliorer le bien-être animal et bouleverser les pratiques vétérinaires dans le cadre de l’expérimentation animale, mais aussi lors de la prise en charge des nouveaux animaux de compagnie, comme les hamsters, les chinchillas et même les tortues ou les boas.

Comment est née cette méthode antidouleur reposant sur la lumière ?

Comme Pasteur l’a dit, « le hasard ne favorise que les esprits préparés ». Effectivement, toute notre étude repose sur une observation inattendue que nous avons faite lors d’une expérience témoin : une protéine appelée TRAAK s’active (en d’autres mots, elle se met en marche), lorsqu’elle est éclairée avec de la lumière UV-A.

Aussi fortuite qu’elle puisse paraître, cette observation nous a souri puisque l’activité principale de notre laboratoire porte sur TRAAK et les protéines qui lui sont proches.

TRAAK est une protéine présente dans les récepteurs de la douleur et freine la transmission des messages douloureux vers le cerveau quand elle est dans son état actif. D’où notre idée : activer ces protéines des récepteurs de la douleur présents dans la peau avec de la lumière et ainsi inhiber les récepteurs de la douleur. Cela empêcherait alors les messages nerveux d’atteindre le cerveau, et induirait donc une analgésie.

Pour vérifier cela, nous avons illuminé les pattes de souris et avons testé leur sensibilité mécanique en déterminant la pression à appliquer pour déclencher leur réflexe de retrait de la patte. Cette procédure, couramment utilisée en expérimentation animale et humaine n’induit aucune douleur chez la souris puisque le réflexe est déclenché physiologiquement avant que la souris ne ressente la douleur. Nous avons ainsi pu montrer que, après le traitement à la lumière, il faut trois fois plus de force pour induire le retrait, ce qui veut dire que les pattes des souris deviennent trois fois moins sensibles, que ce soit sur des souris saines ou soumises à une douleur chronique pour une durée allant jusqu’à six heures. Nous avons même démontré que cet effet est plus efficace et durable que les antidouleurs utilisés couramment, comme l’ibuprofène ou la crème anesthésiante Emla (souvent utilisée lors de la vaccination).

Analgésie induite par la lumière (LIA) : l’illumination de la peau de rongeurs avec une simple lampe UV-A (appelée lumière noire) active les canaux TRAAK présents dans les terminaisons nerveuses des récepteurs de la douleur situés dans la zone exposée. Cette activation inhibe l’activité de ces récepteurs, qui cessent alors de transmettre des signaux douloureux vers le cerveau. Ce processus génère un effet analgésique net et prolongé, observé aussi bien chez le rat que chez la souris. Fourni par l'auteur

Pourquoi cette découverte est-elle importante ?

Ce nouveau traitement est non invasif, peu coûteux et simple à mettre en place. De plus, l’analgésie induite par la lumière (LIA) ne requiert aucune injection ni traitement médicamenteux et permet de s’affranchir de tout effet secondaire ou d’interaction médicamenteuse. Ce dernier point en fait une véritable aubaine en expérimentation animale, en proposant une solution pour soulager la douleur sans avoir de répercussion sur les conclusions des expériences.

En effet, dans le cadre des expériences précliniques sur rongeurs, bien contrôler la douleur est essentiel, à la fois pour le bien-être des animaux et pour la fiabilité des résultats scientifiques. Une douleur mal prise en charge peut en effet modifier le fonctionnement de l’organisme et fausser les observations et conclusions de l’étude. Les solutions actuelles pour soulager la douleur reposent essentiellement sur des médicaments qui sont efficaces mais susceptibles d’induire des effets secondaires pouvant modifier les paramètres biologiques étudiés et ainsi fausser les résultats et conclusions de l’étude.

Au-delà du cadre de l’expérimentation animale, la LIA pourra être appliquée aux nouveaux animaux de compagnie pour une analgésie locale, rapide et robuste. Par exemple, un vétérinaire pourrait l’employer pour rendre plus supportable le nettoyage d’un abcès chez les hamsters.

Quelles sont les suites de cette étude ?

La LIA n’est pas applicable chez l’humain, une unique différence dans la séquence de TRAAK rend la lumière inefficace sur la version humaine de la protéine : la lumière n’aura donc aucun effet antidouleur.

Nous sommes tout de même très excités, car notre étude identifie TRAAK comme une cible prometteuse pour le développement de nouveaux traitements antidouleur, y compris chez l’humain (en l’activant d’une manière différente). Nous allons donc poursuivre nos travaux pour développer des molécules activant TRAAK et proposer une stratégie potentiellement plus efficace et plus ciblée que les antidouleurs disponibles actuellement sur le marché.

Enfin, même si nous avons déterminé le mécanisme moléculaire à l’origine de l’activation de TRAAK par la lumière, une question subsiste : pourquoi certaines espèces possèdent-elles une version activable à la lumière ? Cela joue-t-il un rôle physiologique, par exemple au niveau du rythme nocturne/diurne des espèces ou encore dans la vision ? Nous comptons bien trouver des explications en étudiant quelles espèces possèdent une protéine TRAAK sensible à la lumière et leurs caractéristiques écologiques.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.

The Conversation

Marion Bied a reçu des financements de la Fondation pour la Recherche Médicale (FRM).

Guillaume Sandoz a reçu des financements de la Fondation pour la Recherche Médicale, l'Agence Nationale de la Recherche

01.02.2026 à 10:17

Une piste vers des stations de traitement d’eau plus sobres en énergie grâce aux bactéries… électriques

Grégory Bataillou, Ingénieur Recherche en bio-électrochimie, Centrale Lyon
img
Le traitement des eaux usées est essentiel pour éviter la pollution de l’environnement et ses impacts potentiels sur la santé humaine. Des pistes existent pour rendre les stations d’épuration plus efficientes, et donc réduire le prix de l’eau.
Texte intégral (2146 mots)

Le traitement des eaux usées est essentiel pour éviter la pollution de l’environnement et ses impacts potentiels sur la santé humaine. Différentes pistes existent pour rendre les stations d’épuration plus efficientes, et donc réduire le prix de l’eau.


En France, le coût du traitement de l’eau (ou « assainissement collectif ») représente 40 % de son prix de vente. Un ménage paie en moyenne 260 euros par an juste pour l’assainissement… dont plus de 35 euros directement imputable à la consommation d’énergie des stations d’épuration.

Au vu de la volatilité du prix de l’énergie, de nouvelles solutions émergent pour réduire drastiquement la consommation énergétique des stations de traitement. Des solutions qui utilisent des bactéries électriques !

Traitement de l’eau – comment ça marche ?

Les technologies d’épuration des eaux usées sont connues de longue date et très matures. Leur principe est relativement simple : il s’agit de soustraire (ou mieux, d’éliminer) les polluants de l’eau, du plus gros au plus petit. Dans ces étapes, celle dite d’aération est une étape clef… mais c’est également la principale consommatrice d’énergie !

Le processus commence en général par des grilles et tamis permettant de retirer la fraction solide volumineuse (branches, détritus, cailloux…) présente les eaux usées à l’entrée de la station.

Vient alors l’étape de séparation du sable (grosses particules) qui décante assez facilement au fond du bassin de traitement, et des huiles moins denses que l’eau, récupérées à la surface.

Les particules plus légères sont encore trop nombreuses et trop lentes à décanter au fond du bassin – certaines peuvent mettre des mois à décanter ! Des lamelles insérées en biais permettent de les rapprocher du fond du bassin, et de diminuer ainsi leur temps de décantation. Des produits chimiques sont également ajoutés (floculants) pour agréger les particules entre elles et les rendre plus lourdes. On parle de traitement primaire.

Ensuite, le bassin d’aération constitue le cœur de la station de traitement. Il s’agit tout simplement d’aérer l’eau en permanence pendant un certain temps grâce à des bulleurs au fond du bassin. Cette aération permet à des microorganismes de se développer et de décomposer toute la matière organique encore présente. Sans cette aération, les microorganismes efficaces ne se développent plus, l’eau croupit, et la matière organique se dégrade peu (pensez à l’eau des tourbières, ou simplement celle des flaques d’eau qui ne sont jamais remuées). L’aération est le principal poste de consommation de la station, responsable de 40 à 80 % de l’énergie utilisée. Cette énergie est nécessaire au fonctionnement des pompes et surpresseurs employés pour injecter de l’air en continu dans le bassin. On parle de traitement secondaire.

Dans la plupart des stations d’épuration existantes, à la suite du traitement biologique par aération, l’eau passe de nouveau dans un bassin de décantation (décantation secondaire ou clarificateur) pour faire sédimenter les milliards de bactéries mortes.

Enfin, l’eau est rejetée dans la nature.

Station d’épuration à Pierre-Bénite (Rhône) – Le cycle urbain de l’eau expliqué aux enfants. Source : Grand Lyon TV.

Repenser le système grâce à d’autres microorganismes

Il existe donc un enjeu important dans le monde de l’assainissement : comment limiter la consommation d’énergie liée à l’aération, tout en traitant aussi bien les eaux usées et sans faire exploser les coûts ?

Car si l’aération fonctionne aussi bien, c’est parce qu’elle permet une oxygénation de l’eau, et que les microorganismes qui se développent dans les milieux oxygénés sont très efficaces pour dégrader la matière organique.

En effet, l’oxygène est un élément naturellement oxydant, c’est-à-dire qu’il est avide d’électrons. À l’inverse, la matière organique est riche en électrons du fait de son important nombre de liaisons Carbone. La présence d’oxygène facilite la rupture des liaisons Carbone, les électrons libérés étant transférés vers l’oxygène. Ce transfert est naturellement lent (heureusement, sinon, nous brûlerions instantanément), mais il est accéléré par la présence des bactéries, véritables usines de décomposition). C’est bien ce qui est souhaité dans cette étape : casser les chaînes de carbone jusqu’à obtenir des éléments simples, non assimilables par des bactéries pathogènes en aval dans les cours d’eau.

Si l’on décide de se passer d’aération, l’oxygène devient difficilement accessible, et la dégradation peu efficace. Sauf si on utilise des microorganismes un peu spéciaux.

Par exemple, à Villeurbanne (Rhône), une station d’épuration utilise des microorganismes capables de digérer les boues des stations d’épuration et de fabriquer du méthane, qui est injecté dans le réseau de gaz de ville.

Dans notre groupe de recherche, nous explorons une autre piste : celle des bactéries électriques !

images de microscopie
Bactéries « électriques » ayant colonisé un matériau carboné conducteur (image obtenue par microscope électronique à balayage). Grégory Bataillou, Fourni par l'auteur

Éviter l’aération grâce aux bactéries « électriques »

Dès le début des années 2000, les chercheurs ont redécouvert des bactéries « électriques ». Ces bactéries, telles des araignées dans le monde microscopique, ont la capacité de fabriquer des fils de taille nanométrique, qui ont la curieuse propriété d’être conducteurs électriques. Nul besoin d’oxygène en leur sein : il suffit de se connecter à un oxydant externe, qui peut être plus loin. Imaginez-vous être capable de respirer grâce à un fil dont un bout reste exposé à l’air libre, peu importe l’endroit dans lequel vous vous trouvez.

Pour en revenir au traitement de l’eau, voici l’idée : plutôt que d’amener l’oxygène aux bactéries par l’aération, les bactéries électriques présentes dans tout le bassin se connectent à un matériau conducteur présent sur toute la colonne d’eau et s’y développent. Ainsi, les bactéries sont connectées à l’oxygène de la surface. Pour cela, l’eau transite dans des structures en carbone conducteur appelées « biofiltres électro-actifs », sur lesquelles se développent les bactéries électriques. Plus besoin d’aérer : si un chemin électrique existe entre la bactérie et l’air ambiant, elle dégradera presque aussi bien la matière organique l’environnant.

L’avantage est considérable : une fois installé, le système est passif, nécessite un faible entretien, et régénérable à l’infini. Ces systèmes sont déjà proposés à la vente pour les petites stations de traitement, notamment par la start-up espagnole METfilter.

schémas pour comparer les deux modes de fonctionnement
Différence entre traitement standard énergivore (aération, à gauche), et traitement par décomposition passive grâce à des bactéries électriques (à droite). Bien entendu, les bactéries n’ont pas d’yeux en réalité. Grégory Bataillou, Fourni par l'auteur

Cerise sur le gâteau : ces bactéries « électriques » existent spontanément dans l’environnement, elles n’ont pas à être artificiellement ajoutées au système et sont sélectionnées naturellement par la présence du matériau carboné.

Si cette piste nous semble prometteuse pour diminuer la facture d’électricité des stations d’épuration, ces bactéries ne dégradent pas tout : résidus de médicaments, PFAS, et autres substances résiduelles dans notre eau traversent encore les stations de traitement, et se retrouvent disséminées dans l’environnement. Les solutions techniques étant encore très énergivores, chaque économie d’énergie sur l’ensemble de la chaîne est un pas vers un traitement plus vertueux de nos eaux usées.


Le projet IRONTECH est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Grégory Bataillou a travaillé comme Post-Doctorant sur le financement ANR appelé IRONTECH qui vise à utiliser du Fer et des bactéries actives pour dénitrifier les effluents agro-industriels.

29.01.2026 à 16:03

Quel type de télétravailleur êtes-vous ? Quand les maths éclairent votre profil

Niousha Shahidi, Full professor, data analysis, EDC Paris Business School
Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
Sana Henda, Professeur en Gestion des Ressources Humaines, ESC Amiens
img
Nous classons les choses sans même y penser : ranger les livres de la bibliothèque selon le genre, classer les e-mails… pour certains classements plus compliqués, les maths peuvent nous aider.
Texte intégral (1564 mots)

Chaque jour, sans même y penser, nous classons les choses : ranger les livres de la bibliothèque selon le genre, classer les e-mails… Mais comment classer des éléments quand on ne dispose pas d’une classification existante ? Les mathématiques peuvent répondre à ce type de questions. Ici, une illustration sur le télétravail.


Dans le cadre du télétravail, nous nous sommes posé la question de savoir si les télétravailleurs peuvent être regroupés en fonction de leur perception de l’autonomie et du contrôle organisationnel.

Ceci nous a permis de justifier mathématiquement que deux grandes classes de télétravailleurs existent, et que leur vision du télétravail diffère. Ceci peut permettre aux managers et aux services de ressources humaines d’adapter le management de chacun en fonction de son profil.

Classer, c’est mesurer la similarité

Nous avons considéré 159 télétravailleurs. Pour classer les individus, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela on identifie des « profils type » à partir de l’évaluation de « construits », qui sont des ensembles de critères qui traitent le même sujet.

Dans notre étude, les construits principaux sont le contrôle et l’autonomie. On évalue ces deux construits grâce à plusieurs questions posées aux télétravailleurs, par exemple « J’ai l’impression d’être constamment surveillé·e par l’utilisation de la technologie à la maison ». Ceux-ci donnent leur réponse sur une échelle en 5 points (de 1-pas du tout d’accord à 5-tout à fait d’accord).

Ensuite, chaque télétravailleur est représenté par une ligne de données : ce sont les réponses du télétravailleur dans l’ordre des critères. Par exemple pour le collaborateur 1, on peut voir les réponses (3, 1, 3, 2…), voir figure.

tableau
Extrait des réponses des différents collaborateurs en fonction des critères choisis. Données de Diard et al. (2025), Fourni par l'auteur

Pour regrouper les télétravailleurs, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela, on mesure la distance entre les profils (en utilisant des distances euclidiennes). Cette notion de distance est très importante, car c’est elle qui quantifie la similitude entre deux télétravailleurs. Plus deux profils sont proches, plus ils auront vocation à être dans la même classe.

Si on considère autant de classes que de personnes, la séparation est parfaite mais le résultat est sans intérêt. L’enjeu est donc double : avoir un nombre raisonnable de classes distinctes tel que, dans chaque classe, les individus soient suffisamment semblables.


À lire aussi : Maths au quotidien : pourquoi votre assurance vous propose un contrat avec franchise


Combien de classes choisir ?

Nous avons utilisé la méthode de classification ascendante hiérarchique, qui consiste à regrouper les individus les plus semblables possibles dans une même classe tandis que les classes restent dissemblables.

Plus précisément, au début, chaque télétravailleur est traité comme une classe et on essaie de regrouper deux ou plusieurs classes de manière appropriée pour former une nouvelle classe. On continue ainsi « jusqu’à obtenir la classe tout entière, c’est-à-dire l’échantillon total ». L’arbre aussi obtenu (dendrogramme) peut être coupé à différents niveaux.

Une question importante se pose alors : comment choisir le nombre de classes ? Il existe plusieurs méthodes. Par exemple, la méthode du coude : le point où la courbe (variance intra-classe en fonction du nombre de classes) « fait un coude » correspond au nombre de classes à retenir. Cela signifie que si « on ajoute une classe de plus, on gagne peu en précision ». Dans notre étude, le nombre de classes retenu est deux.

Afin d’améliorer notre classification, nous poursuivons avec une méthode de classification non hiérarchique (k-means) qui répartit à nouveau les télétravailleurs dans deux classes (mais ceux-ci sont légèrement différents) tout en minimisant la distance aux « centres » de classes (scores moyens des critères de chaque classe trouvés précédemment).

Nous découvrons alors deux classes de télétravailleurs mieux répartis : les « satellites-autonomes » et les « dépendants-contrôlés ».

La classification au service du manager

Une fois la classification trouvée, on s’intéresse alors à analyser les scores moyens par rapport aux autres construits du modèle, en l’occurrence l’expérience du télétravailleur. Les « satellites autonomes » ont une vision globalement plus positive de leur travail que les « dépendants contrôlés » et estiment que leurs conditions de travail se sont améliorées depuis la mise en place du télétravail.

Il existe bien sûr des limites à notre étude : il faudra en tester la robustesse, répéter l’analyse avec des sous-échantillons ou d’autres échantillons de télétravailleurs et encore tester plusieurs méthodes de classification. Une nouvelle enquête pourra montrer si le nombre ou la nature des classes que nous avons trouvées évolue. Mais il est important de noter que ce résultat (deux profils de télétravailleurs) est le fruit d’une démarche mathématique et statistique rigoureuse, qui complète les études antérieures qualitatives.

La classification est un outil bien connu en matière de gestion des ressources humaines. Par exemple, elle consiste à « peser » le poste et le positionner dans une grille prédéfinie en comparant son profil aux caractéristiques de quelques postes repères. Chaque convention collective dispose d’une grille de classification. C’est la loi du 23 décembre 1946 et les arrêtés Parodi-Croizat du 11 avril 1946 qui avaient ouvert la voie de la classification des ouvriers en sept échelons.

À l’aide des mathématiques, notre classification montre que le télétravail ne peut pas être géré comme un dispositif unique. Chaque profil correspond à des besoins et à des dynamiques organisationnelles spécifiques. Savoir qu’il existe deux profils majoritaires permet de proposer des actions différenciantes dans l’accompagnement des télétravailleurs.

Les mathématiques sont ici un outil au service du manager et aident à voir des structures invisibles dans un ensemble complexe de données. Il s’agit d’un outil d’aide à la décision.

The Conversation

Rien à déclarer

Caroline Diard et Niousha Shahidi ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

29.01.2026 à 16:03

L’IA arrive dans le jugement olympique. Qu’est-ce qui pourrait (bien) se passer ?

Willem Standaert, Associate Professor, Université de Liège
img
Alors que le Comité international olympique (CIO) adopte le jugement assisté par l’IA, en quoi cette nouvelle technologie peut-elle bouleverser le sport ?
Texte intégral (2007 mots)

Alors que le Comité international olympique (CIO) adopte le jugement assisté par l’intelligence artificielle, cette technologie promet une plus grande cohérence et une meilleure transparence. Pourtant, les résultats de la recherche suggèrent que la confiance, la légitimité et les valeurs culturelles comptent autant que la précision technique.


En 2024, le CIO a dévoilé son agenda olympique de l’intelligence artificielle (IA), positionnant celle-ci comme un pilier central des futurs Jeux olympiques. Cette vision a été renforcée lors du tout premier Forum olympique sur l’IA, organisé en novembre 2025, où athlètes, fédérations, partenaires technologiques et décideurs politiques ont discuté de la manière dont l’IA pourrait soutenir le jugement, la préparation des athlètes et l’expérience des fans.

Aux Jeux olympiques d’hiver de 2026 de Milan-Cortina qui démarrent vendredi 6 février, le CIO envisage d’utiliser l’IA pour soutenir le jugement en patinage artistique (épreuves individuelles et en couple, hommes et femmes), en aidant les juges à identifier précisément le nombre de rotations effectuées lors d’un saut.

Son utilisation s’étendra également à des disciplines, telles que le big air, le halfpipe et le saut à ski (des épreuves de ski et de snowboard où les athlètes enchaînent des sauts et figures aériennes), où des systèmes automatisés pourront mesurer la hauteur des sauts et les angles de décollage. À mesure que ces systèmes passent de l’expérimentation à un usage opérationnel, il devient essentiel d’examiner ce qui pourrait bien se passer… ou mal se passer.

Sports jugés et erreurs humaines

Dans les sports olympiques tels que la gymnastique et le patinage artistique, qui reposent sur des panels de juges humains, l’IA est de plus en plus présentée par les fédérations internationales et les instances sportives comme une solution aux problèmes de biais, d’incohérence et de manque de transparence. En effet, les juges doivent évaluer des mouvements complexes réalisés en une fraction de seconde, souvent depuis des angles de vue limités, et ce pendant plusieurs heures consécutives.

Les analyses post-compétition montrent que les erreurs involontaires et les divergences entre juges ne sont pas des exceptions. Cela s’est à nouveau matérialisé en 2024, lorsqu’une erreur de jugement impliquant la gymnaste américaine Jordan Chiles lors des Jeux olympiques de Paris a déclenché une vive polémique. En finale du sol, Chiles avait initialement reçu une note qui la plaçait à la quatrième place. Son entraîneur a alors introduit une réclamation, estimant qu’un élément technique n’avait pas été correctement pris en compte dans la note de difficulté. Après réexamen, la note a été augmentée de 0,1 point, permettant à Chiles d’accéder provisoirement à la médaille de bronze. Cette décision a toutefois été contestée par la délégation roumaine, qui a fait valoir que la réclamation américaine avait été déposée hors délai, dépassant de quatre secondes la fenêtre réglementaire d’une minute. L’épisode a mis en lumière la complexité des règles, la difficulté pour le public de suivre la logique des décisions, et la fragilité de la confiance accordée aux panels de juges humains.

Par ailleurs, des cas de fraude ont également été observés : on se souvient notamment du scandale de jugement en patinage artistique lors des Jeux olympiques d’hiver de Salt Lake City en 2002. À l’issue de l’épreuve en couple, des accusations ont révélé qu’une juge aurait favorisé un duo en échange d’un soutien promis dans une autre compétition, mettant au jour des pratiques d’échanges de votes au sein du panel de juges. C’est précisément en réponse à ce type d’incidents que des systèmes d’IA ont été développés, notamment par Fujitsu en collaboration avec la Fédération internationale de gymnastique.

Ce que l’IA peut (et ne peut pas) corriger dans le jugement

Nos recherches sur le jugement assisté par l’IA en gymnastique artistique montrent que la question ne se résume pas à savoir si les algorithmes sont plus précis que les humains. Les erreurs de jugement proviennent souvent des limites de la perception humaine, ainsi que de la vitesse et de la complexité des performances de haut niveau, ce qui rend l’IA attrayante. Cependant, notre étude impliquant juges, gymnastes, entraîneurs, fédérations, fournisseurs de technologies et fans met en lumière une série de tensions.

L’IA peut être trop exacte, évaluant les routines avec un niveau de précision qui dépasse ce que les corps humains peuvent réalistement exécuter. Par exemple, là où un juge humain apprécie visuellement si une position est correctement tenue, un système d’IA peut détecter qu’un angle de jambe ou de bras s’écarte de quelques degrés seulement de la position idéale, pénalisant une athlète pour une imperfection imperceptible à l’œil nu. Si l’IA est souvent présentée comme objective, de nouveaux biais peuvent émerger à travers la conception et la mise en œuvre des systèmes. Par exemple, un algorithme entraîné principalement sur des performances masculines ou sur des styles dominants peut pénaliser involontairement certaines morphologies. En outre, l’IA peine à prendre en compte l’expression artistique et les émotions, des éléments considérés comme centraux dans des sports tels que la gymnastique et le patinage artistique. Enfin, si l’IA promet une plus grande cohérence, son maintien exige une supervision humaine continue afin d’adapter les règles et les systèmes à l’évolution des disciplines.

Les sports d’action ont une autre logique

Nos recherches montrent que ces préoccupations sont encore plus marquées dans les sports d’action comme le snowboard et le ski freestyle. Beaucoup de ces disciplines ont été ajoutées au programme olympique afin de moderniser les Jeux et d’attirer un public plus jeune. Pourtant, des chercheurs avertissent que l’inclusion olympique peut accélérer la commercialisation et la standardisation, au détriment de la créativité et de l’identité de ces sports.

Un moment emblématique remonte à 2006, lorsque la snowboardeuse américaine Lindsey Jacobellis a perdu la médaille d’or olympique après avoir effectué un geste acrobatique consistant à saisir sa planche en plein saut en plein saut alors qu’elle menait la finale de snowboard cross. Ce geste, célébré dans la culture de son sport, a entraîné une chute qui lui a coûté la médaille d’or.

Les essais de jugement par IA aux X Games

Le jugement assisté par l’IA ajoute de nouvelles couches à cette tension. Des travaux antérieurs sur le halfpipe en snowboard avaient déjà montré comment les critères de jugement peuvent, avec le temps, remodeler subtilement les styles de performance. Contrairement à d’autres sports jugés, les sports d’action accordent une importance particulière au style et à la prise de risque, des éléments particulièrement difficiles à formaliser algorithmiquement.

Pourtant, l’IA a déjà été testée lors des X Games 2025, notamment pendant les compétitions de snowboard SuperPipe, une version de grande taille du halfpipe, avec des parois plus hautes permettant des sauts plus amples et plus techniques. Des caméras vidéo ont suivi les mouvements de chaque athlète, tandis que l’IA analysait les images afin de produire une note de performance indépendante. Ce système était testé en parallèle du jugement humain, les juges continuant à attribuer les résultats officiels et les médailles.

Cet essai n’a toutefois pas modifié les résultats officiels, et aucune comparaison publique n’a été communiquée quant à l’alignement entre les notes produites par l’IA et celles des juges humains. Néanmoins, les réactions ont été très contrastées : certains acteurs saluent une plus grande cohérence et transparence, tandis que d’autres ont averti que les systèmes d’IA ne sauraient pas quoi faire lorsqu’un athlète introduit une nouvelle figure – souvent très appréciée des juges humains et du public.

Au-delà du jugement : entraînement, performance et expérience des fans

L’influence de l’IA dépasse largement le seul cadre du jugement. À l’entraînement, le suivi des mouvements et l’analyse de la performance orientent de plus en plus le développement technique et la prévention des blessures, façonnant la manière dont les athlètes se préparent à la compétition. Parallèlement, l’IA transforme l’expérience des fans grâce à des ralentis enrichis, des visualisations biomécaniques et des explications en temps réel des performances.

Ces outils promettent davantage de transparence, mais ils cadrent aussi la manière dont les performances sont interprétées, avec davantage de « storytelling » autour de ce qui peut être mesuré, visualisé et comparé.

À quel prix ?

L’Agenda olympique de l’IA reflète l’ambition de rendre le sport plus juste, plus transparent et plus engageant. Toutefois, à mesure que l’IA s’intègre au jugement, à l’entraînement et à l’expérience des fans, elle joue aussi un rôle discret mais puissant dans la définition de ce qui constitue l’excellence. Si les juges d’élite sont progressivement remplacés ou marginalisés, les effets pourraient se répercuter à tous les niveaux : formation des juges, développement des athlètes et évolutions des sports eux-mêmes.

Le défi auquel sont confrontés les sports du programme olympique n’est donc pas seulement technologique ; il est institutionnel et culturel. Comment éviter que l’IA ne vide de leur substance les valeurs qui donnent à chaque sport son sens ?

The Conversation

Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.01.2026 à 14:43

Des fossiles datés de 773 000 ans éclairent l’histoire de nos origines

Jean-Jacques Hublin, Paléoanthropologue, Collège de France; Académie des sciences
img
Une étude très récente publiée dans « Nature » décrit des fossiles d’hominines datés de 773 000 ans. Ils nous permettent d’enraciner très loin dans le temps les ancêtres de notre espèce en Afrique.
Texte intégral (1024 mots)

Le site de la grotte aux Hominidés à Casablanca, sur la côte atlantique du Maroc, offre l’un des registres de restes humains les plus importants d’Afrique du Nord. Il est connu depuis 1969 et étudié par des missions scientifiques impliquant le Maroc et la France. Ce site éclaire une période cruciale de l’évolution humaine : celle de la divergence entre les lignées africaines qui donneront nos ancêtres directs, les Néandertaliens en Europe et les Dénisoviens en Asie.

Une étude très récente publiée dans Nature décrit des fossiles d’hominines datés de 773 000 ans. Le groupe des hominines rassemble à toutes les espèces qui ont précédé la nôtre depuis la divergence de la lignée des chimpanzés. Ces fossiles (des vertèbres, des dents et des fragments de mâchoires) ont été découverts dans une carrière qui a fait l’objet de fouilles pendant de nombreuses années. Les découvertes les plus importantes et les plus spectaculaires ont eu lieu en 2008-2009. La raison pour laquelle ce matériel n’avait pas été révélé plus tôt à la communauté scientifique et au public est que nous n’avions pas de datation précise.

Comment cette découverte a-t-elle pu être réalisée ?

Grâce à l’étude du paléomagnétisme, nous avons finalement pu établir une datation très précise. Cette technique a été mise en œuvre par Serena Perini et Giovanni Muttoni de l’Université de Milan (Italie). Ces chercheurs s’intéressent à l’évolution du champ magnétique terrestre. Le pôle Nord magnétique se déplace au cours du temps, mais il y a aussi de très grandes variations : des inversions. À certaines époques, le champ devient instable et finit par se fixer dans une position inverse de la précédente. Ce phénomène laisse des traces dans les dépôts géologiques sur toute la planète.

Certaines roches contiennent des particules sensibles au champ magnétique, comme des oxydes de fer, qui se comportent comme les aiguilles d’une boussole. Au moment où ces particules se déposent ou se fixent (dans des laves ou des sédiments), elles « fossilisent » l’orientation du champ magnétique de l’époque. Nous connaissons précisément la chronologie de ces inversions passées du champ magnétique terrestre et, dans cette carrière marocaine, nous avons identifié une grande inversion datée de 773 000 ans (l’inversion Brunhes-Matuyama). Les fossiles se trouvent précisément (et par chance) dans cette couche.

En quoi cette recherche est-elle importante ?

En Afrique, nous avons pas mal de fossiles humains, mais il y avait une sorte de trou dans la documentation entre un million d’années et 600 000 ans avant le présent. C’était d’autant plus embêtant que c’est la période pendant laquelle les chercheurs en paléogénétique placent la divergence entre les lignées africaines (qui vont donner nos ancêtres directs), les ancêtres des Néandertaliens en Europe et les formes asiatiques apparentées (les Dénisoviens).

Ce nouveau matériel remplit donc un vide et documente une période de l’évolution humaine assez mal connue. Ils nous permettent d’enraciner très loin dans le temps les ancêtres de notre espèce – les prédécesseurs d’Homo sapiens – qui ont vécu dans la région de Casablanca.

Le manque d’informations pour la période précédant Homo sapiens (entre 300 000 ans et un million d’années) a poussé quelques chercheurs à spéculer sur une origine eurasienne de notre espèce, avant un retour en Afrique. Je pense qu’il n’y a pas vraiment d’argument scientifique pour cela. Dans les débuts de la paléoanthropologie, les Européens avaient du mal à imaginer que l’origine de l’humanité actuelle ne se place pas en Europe.

Plus tard, au cours du XXᵉ siècle, le modèle prépondérant a été celui d’une origine locale des différentes populations actuelles (les Asiatiques en Chine, les Aborigènes australiens en Indonésie et les Européens avec Néandertal). Ce modèle a été depuis largement abandonné face notamment aux preuves génétiques pointant vers une origine africaine de tous les hommes actuels.

Quelles sont les suites de ces recherches ?

Notre découverte ne clôt peut-être pas définitivement le débat, mais elle montre que, dans ce qui était un vide documentaire, nous avons des fossiles en Afrique qui représentent un ancêtre très plausible pour les Sapiens. On n’a donc pas besoin de les faire venir d’ailleurs.

Nous avons en projet de réaliser le séquençage des protéines fossiles peut-être préservées dans ces ossements. Si ces analyses sont couronnées de succès, elles apporteront des éléments supplémentaires à la compréhension de leur position dans l’arbre des origines humaines.


Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.

The Conversation

Jean-Jacques Hublin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

28.01.2026 à 11:56

Du chatbot du pape au canard de Vaucanson, les croyances derrière l’intelligence artificielle ne datent pas d’hier

Michael Falk, Senior Lecturer in Digital Studies, The University of Melbourne
img
Et si nos contemporains étaient prêts à croire en l’IA parce qu’elle fait écho à des mythes profondément ancrés dans leur imaginaire ? Passage en revue de précédents historiques…
Texte intégral (3699 mots)
Le feu de Prométhée, un mythe qui explique en partie le succès du narratif entourant l’IA. Public domain, via Wikimedia Commons

Des mythes antiques à la tête parlante du pape, de Prométhée aux algorithmes modernes, l’intelligence artificielle (IA) puise dans notre fascination intemporelle pour la création et le pouvoir de la connaissance.


Il semble que l’engouement pour l’intelligence artificielle (IA) ait donné naissance à une véritable bulle spéculative. Des bulles, il y en a déjà eu beaucoup, de la tulipomanie du XVIIe siècle à celle des subprimes du XXIe siècle. Pour de nombreux commentateurs, le précédent le plus pertinent aujourd’hui reste la bulle Internet des années 1990. À l’époque, une nouvelle technologie – le World Wide Web – avait déclenché une vague d’« exubérance irrationnelle ». Les investisseurs déversaient des milliards dans n’importe quelle entreprise dont le nom contenait « .com ».

Trois décennies plus tard, une autre technologie émergente déclenche une nouvelle vague d’enthousiasme. Les investisseurs injectent à présent des milliards dans toute entreprise affichant « IA » dans son nom. Mais il existe une différence cruciale entre ces deux bulles, qui n’est pas toujours reconnue. Le Web existait. Il était bien réel. L’intelligence artificielle générale, elle, n’existe pas, et personne ne sait si elle existera un jour.

En février, le PDG d’OpenAI, Sam Altman, écrivait sur son blog que les systèmes les plus récents commencent tout juste à « pointer vers » l’IA dans son acception « générale ». OpenAI peut commercialiser ses produits comme des « IA », mais ils se réduisent à des machines statistiques qui brassent des données, et non des « intelligences » au sens où on l’entend pour un être humain.

Pourquoi, dès lors, les investisseurs sont-ils si prompts à financer ceux qui vendent des modèles d’IA ? L’une des raisons tient peut-être au fait que l’IA est un mythe technologique. Je ne veux pas dire par là qu’il s’agit d’un mensonge, mais que l’IA convoque un récit puissant et fondateur de la culture occidentale, celui des capacités humaines de création. Peut-être les investisseurs sont-ils prêts à croire que l’IA est pour demain, parce qu’elle puise dans des mythes profondément ancrés dans leur imaginaire ?

Le mythe de Prométhée

Le mythe le plus pertinent pour penser l’IA est celui de Prométhée, issu de la Grèce antique. Il en existe de nombreuses versions, mais les plus célèbres se trouvent dans les poèmes d’Hésiode, la Théogonie et les Travaux et les Jours, ainsi que dans la pièce Prométhée enchaîné, traditionnellement attribuée à Eschyle.

Prométhée était un Titan, un dieu du panthéon grec antique. C’était aussi un criminel, coupable d’avoir dérobé le feu à Héphaïstos, le dieu forgeron. Dissimulé dans une tige de fenouil, le feu fut apporté sur Terre par Prométhée, qui l’offrit aux humains. Pour le punir, il fut enchaîné à une montagne, où un aigle venait chaque jour lui dévorer le foie.

Le don de Prométhée n’était pas seulement celui du feu ; c’était celui de l’intelligence. Dans Prométhée enchaîné, il affirme qu’avant son don, les humains voyaient sans voir et entendaient sans entendre. Après celui-ci, ils purent écrire, bâtir des maisons, lire les étoiles, pratiquer les mathématiques, domestiquer les animaux, construire des navires, inventer des remèdes, interpréter les rêves et offrir aux dieux des sacrifices appropriés.

Le mythe de Prométhée est un récit de création d’un genre particulier. Dans la Bible hébraïque, Dieu ne confère pas à Adam le pouvoir de créer la vie. Prométhée, en revanche, transmet aux humains une part du pouvoir créateur des dieux.

Hésiode souligne cet aspect du mythe dans la Théogonie. Dans ce poème, Zeus ne punit pas seulement Prométhée pour le vol du feu ; il châtie aussi l’humanité. Il ordonne à Héphaïstos d’allumer sa forge et de façonner la première femme, Pandore, qui déchaîne le mal sur le monde. Or le feu qu’Héphaïstos utilise pour créer Pandore est le même que celui que Prométhée a offert aux humains.

Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle
Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle. Wikimedia

Les Grecs ont avancé l’idée que les humains sont eux-mêmes une forme d’intelligence artificielle. Prométhée et Héphaïstos recourent à la technique pour fabriquer les hommes et les femmes. Comme le montre l’historienne Adrienne Mayor dans son ouvrage Gods and Robots, les Anciens représentaient souvent Prométhée comme un artisan, utilisant des outils ordinaires pour créer des êtres humains dans un atelier tout aussi banal.

Si Prométhée nous a donné le feu des dieux, il semble logique que nous puissions utiliser ce feu pour fabriquer nos propres êtres intelligents. De tels récits abondent dans la littérature grecque antique, de l’inventeur Dédale, qui créa des statues capables de prendre vie, à la magicienne Médée, qui savait rendre la jeunesse et la vigueur grâce à ses drogues ingénieuses. Les inventeurs grecs ont également conçu des calculateurs mécaniques pour l’astronomie ainsi que des automates remarquables, mues par la gravité, l’eau et l’air.

Le pape et le chatbot

Deux mille sept cents ans se sont écoulés depuis qu’Hésiode a consigné pour la première fois le mythe de Prométhée. Au fil des siècles, ce récit a été repris sans relâche, en particulier depuis la publication, en 1818, de Frankenstein ; ou le Prométhée moderne de Mary Shelley.

Mais le mythe n’est pas toujours raconté comme une fiction. Voici deux exemples historiques où le mythe de Prométhée semble s’être incarné dans la réalité.

Gerbert d’Aurillac fut le Prométhée du Xe siècle. Né au début des années 940 de notre ère, il étudia à l’abbaye d’Aurillac avant de devenir moine à son tour. Il entreprit alors de maîtriser toutes les branches du savoir connues de son temps. En 999, il fut élu pape. Il mourut en 1003 sous son nom pontifical de Sylvestre II.

Des rumeurs sur Gerbert se répandirent rapidement à travers l’Europe. Moins d’un siècle après sa mort, sa vie était déjà devenue légendaire. L’une des légendes les plus célèbres, et la plus pertinente à l’ère actuelle de l’engouement pour l’IA, est celle de la « tête parlante » de Gerbert. Cette légende fut racontée dans les années 1120 par l’historien anglais Guillaume de Malmesbury dans son ouvrage reconnu et soigneusement documenté, la Gesta Regum Anglorum (Les actions des rois d’Angleterre).

Gerbert possédait des connaissances approfondies en astronomie, une science de la prévision. Les astronomes pouvaient utiliser l’astrolabe pour déterminer la position des étoiles et prévoir des événements cosmiques, comme les éclipses. Selon Guillaume, Gerbert aurait mis son savoir en astronomie au service de la création d’une tête parlante. Après avoir observé les mouvements des étoiles et des planètes, il aurait façonné une tête en bronze capable de répondre à des questions par « oui » ou par « non ».

Gerbert posa d’abord la question : « Deviendrai-je pape ? »

« Oui », répondit la tête.

Puis il demanda : « Mourrai-je avant d’avoir célébré la messe à Jérusalem ? »

« Non », répondit la tête.

Dans les deux cas, la tête avait raison, mais pas comme Gerbert l’avait prévu. Il devint bien pape et évita judicieusement de partir en pèlerinage à Jérusalem. Un jour cependant, il célébra la messe à la basilique Sainte-Croix-de-Jérusalem à Rome. Malheureusement pour lui, la basilique était alors simplement appelée « Jérusalem ».

Gerbert tomba malade et mourut. Sur son lit de mort, il demanda à ses serviteurs de découper son corps et de disperser les morceaux, afin de rejoindre son véritable maître, Satan. De cette manière, il fut, à l’instar de Prométhée, puni pour avoir volé le feu.

Le pape Sylvestre II et le Diable. Wikimedia

C’est une histoire fascinante. On ne sait pas si Guillaume de Malmesbury y croyait vraiment. Mais il s’est bel et bien efforcé de persuader ses lecteurs que cela était plausible. Pourquoi ce grand historien, attaché à la vérité, aurait-il inséré une légende fantaisiste sur un pape français dans son histoire de l’Angleterre ? Bonne question !

Est-ce si extravagant de croire qu’un astronome accompli puisse construire une machine de prédiction à usage général ? À l’époque, l’astronomie était la science de la prédiction la plus puissante. Guillaume, sobre et érudit, était au moins disposé à envisager que des avancées brillantes en astronomie pourraient permettre à un pape de créer un chatbot intelligent.

Aujourd’hui, cette même possibilité est attribuée aux algorithmes d’apprentissage automatique, capables de prédire sur quelle publicité vous cliquerez, quel film vous regarderez ou quel mot vous taperez ensuite. Il est compréhensible que nous tombions sous le même sortilège.

L’anatomiste et l’automate

Le Prométhée du XVIIIe siècle fut Jacques de Vaucanson, du moins si l’on en croit Voltaire :

Le hardi Vaucanson, rival de Prométhée,
Semblait, de la nature imitant les ressorts
Prendre le feu des cieux pour animer les corps.

Jacques de Vaucanson, par Joseph Boze (1784). Wikimedia

Vaucanson était un grand mécanicien, célèbre pour ses automates, des dispositifs à horlogerie reproduisant de manière réaliste l’anatomie humaine ou animale. Les philosophes de l’époque considéraient le corps comme une machine – alors pourquoi un mécanicien n’aurait-il pu en construire une ?

Parfois, les automates de Vaucanson avaient aussi une valeur scientifique. Il construisit par exemple un « Flûteur automate » doté de lèvres, de poumons et de doigts, capable de jouer de la flûte traversière de façon très proche de celle d’un humain. L’historienne Jessica Riskin explique dans son ouvrage The Restless Clock que Vaucanson dut faire d’importantes découvertes en acoustique pour que son flûtiste joue juste.

Parfois, ses automates étaient moins scientifiques. Son « Canard digérateur » connut un immense succès, mais se révéla frauduleux. Il semblait manger et digérer de la nourriture, mais ses excréments étaient en réalité des granulés préfabriqués dissimulés dans le mécanisme.

Vaucanson consacra des décennies à ce qu’il appelait une « anatomie en mouvement ». En 1741, il présenta à l’Académie de Lyon un projet visant à construire une « imitation de toutes les opérations animales ». Vingt ans plus tard, il s’y remit. Il obtint le soutien du roi Louis XV pour réaliser une simulation du système circulatoire et affirma pouvoir construire un corps artificiel complet et vivant.

Trois automates de Vaucanson, le Flûteur automate, le Canard digérateur et le Berger provençal. Wikimedia

Il n’existe aucune preuve que Vaucanson ait jamais achevé un corps entier. Finalement, il ne put tenir la promesse que soulevait sa réputation. Mais beaucoup de ses contemporains croyaient qu’il en était capable. Ils voulaient croire en ses mécanismes magiques. Ils souhaitaient qu’il s’empare du feu de la vie.

Si Vaucanson pouvait fabriquer un nouveau corps humain, ne pourrait-il pas aussi en réparer un existant ? C’est la promesse de certaines entreprises d’IA aujourd’hui. Selon Dario Amodei, PDG d’Anthropic, l’IA permettra bientôt aux gens « de vivre aussi longtemps qu’ils le souhaitent ». L’immortalité semble un investissement séduisant.

Sylvestre II et Vaucanson furent de grands maîtres de la technologie, mais aucun des deux ne fut un Prométhée. Ils ne volèrent nul feu aux dieux. Les aspirants Prométhée de la Silicon Valley réussiront-ils là où leurs prédécesseurs ont échoué ? Si seulement nous avions la tête parlante de Sylvestre II, nous pourrions le lui demander.

The Conversation

Michael Falk a reçu des financements de l'Australian Research Council.

27.01.2026 à 16:26

Qu’est-ce que l’intégrité scientifique aujourd’hui ?

Catherine Guaspare, Sociologue, Ingénieure d'études, Centre national de la recherche scientifique (CNRS)
Michel Dubois, Sociologue, Directeur de recherche CNRS, Sorbonne Université
img
Dans un contexte où la production scientifique est soumise à des pressions multiples, où les théories pseudoscientifiques circulent sur les réseaux sociaux, l’intégrité scientifique apparaît plus que jamais comme l’un des piliers de la confiance dans la science.
Texte intégral (2405 mots)

Dans un contexte où la production scientifique est soumise à des pressions multiples, où les théories pseudoscientifiques circulent sur les réseaux sociaux, l’intégrité scientifique apparaît plus que jamais comme l’un des piliers de la confiance dans la science. Nous vous proposons de découvrir les conclusions de l’ouvrage L’intégrité scientifique. Sociologie des bonnes pratiques, de Catherine Guaspare et Michel Dubois aux éditions PUF, en 2025.


L’intégrité scientifique est une priorité institutionnelle qui fait consensus. Par-delà la détection et le traitement des méconduites scientifiques, la plupart des organismes d’enseignement supérieur et de recherche partagent aujourd’hui un même objectif de promouvoir une culture des bonnes pratiques de recherche.

Il est tentant d’inscrire cette culture dans une perspective historique : la priorité accordée aujourd’hui à l’intégrité n’étant qu’un moment dans une histoire plus longue, celle des régulations qui s’exercent sur les conduites scientifiques. Montgomery et Oliver ont par exemple proposé de distinguer trois grandes périodes dans l’histoire de ces régulations : la période antérieure aux années 1970 caractérisée par l’autorégulation de la communauté scientifique, la période des années 1970-1990 caractérisée par l’importance accordée à la détection et la prévention des fraudes scientifiques et, depuis les années 1990 et la création de l’Office of Research Integrity, première agence fédérale américaine chargée de l’enquête et de la prévention des manquements à l’intégrité dans la recherche biomédicale financée sur fonds publics, la période de l’intégrité scientifique et de la promotion des bonnes pratiques.

Cette mise en récit historique de l’intégrité peut sans doute avoir une valeur heuristique, mais comme tous les grands récits, celui-ci se heurte aux faits. Elle laisse croire que la communauté scientifique, jusque dans les années 1970, aurait été capable de définir et de faire appliquer par elle-même les normes et les valeurs de la recherche. Pourtant, la régulation qui s’exerce par exemple sur la recherche biomédicale est très largement antérieure aux années 1970, puisqu’elle prend forme dès l’après-Seconde Guerre mondiale avec le Code de Nuremberg (1947), se renforce avec la Déclaration d’Helsinki (1964) et s’institutionnalise progressivement à travers les comités d’éthique et les dispositifs juridiques de protection des personnes.

Elle laisse ensuite penser que la détection des fraudes scientifiques comme la promotion des bonnes pratiques seraient autant de reculs pour l’autonomie de la communauté scientifique. Mais, à y regarder de plus près, les transformations institutionnelles – l’adoption de la charte nationale de déontologie des métiers de la recherche en 2015, la création de l’Office français de l’intégrité scientifique en 2017, l’entrée de l’intégrité dans la loi en 2020 –, sont le plus souvent portées par des représentants de la communauté scientifique. Et ce qui peut paraître, de loin, une injonction du politique faite au scientifique relève fréquemment de l’auto-saisine, directe ou indirecte, de la communauté scientifique. L’entrée en politique de l’intégrité scientifique démontre la capacité d’une partie limitée de la communauté scientifique à saisir des fenêtres d’opportunité politique. À l’évidence, pour la France, la période 2015-2017 a été l’une de ces fenêtres, où, à la faveur d’une affaire retentissante de méconduite scientifique au CNRS en 2015, du rapport porté par Pierre Corvol en 2016, de la lettre circulaire de Thierry Mandon en 2017, ces questions passent d’un débat professionnel à un objet de politique publique structuré.

Enfin, ce récit historique de l’intégrité semble suggérer qu’à la culture institutionnelle de détection des fraudes scientifiques, caractéristique des années 1970-1990, viendrait désormais se substituer une culture, plus positive, des bonnes pratiques et de la recherche responsable. Certes, l’innovation et la recherche responsables sont autant de mots-clés désormais incontournables pour les grandes institutions scientifiques, mais la question de la détection des méconduites demeure plus que jamais d’actualité, et ce d’autant qu’il s’est opéré ces dernières années un déplacement de la détection des fraudes scientifiques vers celle des pratiques discutables. La question de la qualification des méconduites scientifiques comme celle de leur mesure n’ont jamais été autant d’actualité.

Si le sociologue ne peut que gagner à ne pas s’improviser historien des sciences, il ne peut toutefois rester aveugle face aux grandes transformations des sciences et des techniques. En particulier, la communauté scientifique du XXIᵉ siècle est clairement différente de celle du siècle dernier. Dans son rapport 2021, l’Unesco rappelait qu’entre 2014 et 2018 le nombre de chercheurs a augmenté trois fois plus vite que la population mondiale, avec un total de plus de huit millions de chercheurs en équivalent temps plein à travers le monde.

Cette densification de la communauté scientifique n’est pas sans enjeu pour l’intégrité scientifique. Avec une communauté de plus en plus vaste, il faut non seulement être en mesure de parler d’une même voix, normaliser les guides et les chartes, mais s’assurer que cette voix soit entendue par tous. Même si l’institutionnalisation de l’intégrité est allée de pair avec une forme d’internationalisation, tous les pays ne sont pas en mesure de créer les structures et les rôles que nous avons eu l’occasion de décrire.

Par ailleurs, la croissance de la communauté scientifique s’accompagne mécaniquement d’une augmentation du volume des publications scientifiques qui met à mal les mécanismes traditionnels de contrôle. D’où d’ailleurs le développement d’alternatives au mécanisme de contrôle par les pairs. On a beaucoup parlé de la vague de publications liées à la crise de la Covid-19, mais la vague souterraine, peut-être moins perceptible pour le grand public, est plus structurelle : toujours selon les données de l’Unesco, entre 2015 et 2019, la production mondiale de publications scientifiques a augmenté de 21 %. Qui aujourd’hui est capable de garantir la fiabilité d’un tel volume de publications ?

Qui dit enfin accroissement du volume de la communauté scientifique, dit potentiellement densification des réseaux de collaborations internationales, à l’intérieur desquels les chercheurs comme les équipes de recherche sont autant d’associés rivaux. La multiplication des collaborations internationales suppose de pouvoir mutualiser les efforts et de s’assurer de la qualité de la contribution de chacun comme de sa reconnaissance. Nous avons eu l’occasion de souligner l’importance de considérer les sentiments de justice et d’injustice éprouvés par les scientifiques dans la survenue des méconduites scientifiques : une contribution ignorée, un compétiteur qui se voit récompensé tout en s’écartant des bonnes pratiques, des institutions scientifiques qui interdisent d’un côté ce qu’elles récompensent de l’autre, etc., autant de situations qui nourrissent ces sentiments.

« La recherche en danger », une discussion avec Stéphanie Balme/The Conversation France et Canalchat Grandialogue.

Par ailleurs, la multiplication des collaborations, dans un contexte où les ressources (financements, postes, distinctions, etc.) sont par principe contraintes, implique également des logiques de mise en concurrence qui peuvent être vécues comme autant d’incitations à prendre des raccourcis.

Outre la transformation démographique de la communauté scientifique, le sociologue des sciences ne peut ignorer l’évolution des modalités d’exercice du travail scientifique à l’ère numérique. La « datafication » de la science, à l’œuvre depuis la fin du XXᵉ siècle, correspond tout autant à l’augmentation du volume des données numériques de la recherche qu’à l’importance prise par les infrastructures technologiques indispensables pour leur traitement, leur stockage et leur diffusion. L’accessibilité et la diffusion rapide des données de la recherche, au nom de la science ouverte, ouvrent des perspectives inédites pour les collaborations scientifiques. Elles créent une redistribution des rôles et des expertises dans ces collaborations, avec un poids croissant accordé à l’ingénierie des données.

Mais, là encore, cette évolution technologique engendre des défis majeurs en termes d’intégrité scientifique. L’édition scientifique en ligne a vu naître un marché en ligne des revues prédatrices qui acceptent, moyennant paiement, des articles sans les évaluer réellement. Si les outils de l’intelligence artificielle s’ajoutent aux instruments traditionnels des équipes de recherche, des structures commerciales clandestines, les « paper mill » ou usines à papier, détournent ces outils numériques pour fabriquer et vendre des articles scientifiques frauduleux à des auteurs en quête de publications. Si l’immatérialité des données numériques permet une circulation accélérée des résultats de recherche, comme on a pu le voir durant la crise de la Covid-19, elle rend également possibles des manipulations de plus en plus sophistiquées. Ces transformations structurelles créent une demande inédite de vigilance à laquelle viennent répondre, chacun à leur manière, l’évaluation postpublication comme ceux que l’on appelle parfois les nouveaux détectives de la science et qui traquent en ligne les anomalies dans les articles publiés (images dupliquées, données incohérentes, plagiat) et ce faisant contribuent à la mise en lumière de fraudes ou de pratiques douteuses.


À lire aussi : Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac


Plus fondamentalement, cette montée en puissance des données numériques de la recherche engendre des tensions inédites entre l’intégrité scientifique et l’éthique de la recherche. À l’occasion d’un entretien, un physicien, travaillant quotidiennement à partir des téraoctets de données générés par un accélérateur de particules, nous faisait remarquer, avec une pointe d’ironie, qu’il comprenait sans difficulté l’impératif institutionnel d’archiver, au nom de l’intégrité scientifique, l’intégralité de ses données sur des serveurs, mais que ce stockage systématique d’un volume toujours croissant de données entrait directement en contradiction avec l’éthique environnementale de la recherche prônée par ailleurs par son établissement. Intégrité scientifique ou éthique de la recherche ? Faut-il choisir ?

Éditions PUF, 2025.

On touche du doigt ici la diversité des dilemmes auxquels sont quotidiennement confrontés les scientifiques dans l’exercice de leurs activités. La science à l’ère numérique évolue dans un équilibre délicat entre l’intégrité scientifique et l’éthique de la recherche. Et l’un des enjeux actuels est sans doute de parvenir à maximiser les bénéfices des technologies numériques tout en minimisant leurs impacts négatifs. D’où la nécessité pour les institutions de recherche de promouvoir une culture de l’intégrité qui puisse dépasser la simple exigence de conformité aux bonnes pratiques, en intégrant les valeurs de responsabilité sociale auxquelles aspire, comme le montrent nos enquêtes, une part croissante de la communauté scientifique.


Le texte a été très légèrement remanié pour pouvoir être lu indépendamment du reste de l’ouvrage en accord avec les auteurs.

The Conversation

Catherine Guaspare et Michel Dubois sont les auteurs du livre L'intégrité scientifique dont cet article est tiré.

Michel Dubois a reçu des financements de l'Agence nationale de la recherche (ANR). Il est directeur de l'Office français de l'intégrité scientifique depuis septembre 2025.

26.01.2026 à 15:01

Dans le cerveau des chevaux : comment le lien maternel affecte le cerveau et le comportement des poulains

Mathilde Valenchon, Chercheuse en Ethologie, Inrae
David Barrière, Chargé de recherche, Centre national de la recherche scientifique (CNRS)
img
Une nouvelle étude montre comment la présence prolongée de la mère façonne le développement comportemental, physiologique et cérébral des poulains.
Texte intégral (1629 mots)
Les interactions entre les poulains et leurs mères ont des implications sur leur comportement, sur leur physiologie et sur leur développement cérébral. © UMR PRC INRAE-CNRS-Université de Tours, M. E. Le Bachelier de la Rivière., Fourni par l'auteur

Une nouvelle étude montre comment la présence prolongée de la mère façonne le développement comportemental, physiologique et cérébral des poulains.


Chez les mammifères sociaux, les relations sociales jouent un rôle déterminant dans le développement. On sait depuis longtemps que la période autour de la naissance est cruciale, lorsque le nouveau-né dépend entièrement de son ou de ses parent(s) pour se nourrir et se protéger. En revanche, ce qui se joue après, lorsque le jeune n’est plus physiquement dépendant de sa mère mais continue de vivre à ses côtés, reste encore mal compris.

Dans une étude récente publiée dans Nature Communications, nous avons exploré chez le cheval cette période souvent négligée du développement. Nos résultats montrent que la présence prolongée de la mère façonne à la fois le cerveau, le comportement
– social en particulier – et la physiologie des poulains.

Pourquoi s’intéresser à l’« enfance » chez le cheval ?

Le cheval est un modèle particulièrement pertinent pour étudier le rôle du lien parental sur le développement des jeunes. Comme chez l’humain, les mères donnent généralement naissance à un seul petit à la fois, procurent des soins parentaux prolongés et établissent un lien mère-jeune fort sur le plan affectif, individualisé et durable.

Dans des conditions naturelles, les poulains restent avec leur groupe familial, et donc avec leur mère, jusqu’à l’âge de 2 ou 3 ans. En revanche, en élevage ou chez les particuliers, la séparation est le plus souvent décidée par l’humain et intervient bien plus tôt, autour de 6 mois. Ce contraste offre une occasion unique d’étudier l’impact de la présence maternelle sur le développement au-delà de la période néonatale.

Comment étudier de rôle d’une présence maternelle prolongée chez le cheval ?

Pour isoler l’effet de la présence maternelle, nous avons suivi 24 poulains de l’âge de 6 à 13 mois. Cette période peut être assimilée à celle de l’enfance chez l’être humain. En effet, durant cette période, les poulains ressemblent déjà physiquement à de petits adultes, apparaissent autonomes dans leurs déplacements et consomment très majoritairement des aliments solides, tout en étant encore sexuellement immatures. En d’autres termes, leur survie immédiate ne dépend plus directement de la mère.

Dans notre étude, tous les poulains vivaient ensemble dans un contexte social riche, avec d’autres jeunes et des adultes. La seule différence concernait la présence ou non de leurs mères respectives à partir de l’âge de 6 mois : ainsi, 12 poulains sont restés avec leur mère tandis que 12 autres en ont été séparés, comme c’est fréquemment le cas en élevage.

Durant les sept mois qui ont suivi, nous avons étudié le développement de ces poulains. En éthologie, les comportements sont étudiés de façon quantitative. Nous avons suivi le développement comportemental des poulains à l’aide d’observations et de tests comportementaux standardisés, puis analysé statistiquement ces données pour comparer leurs trajectoires développementales. Ces données ont été complétées par des mesures physiologiques régulières (par exemple, la prise de poids, les concentrations hormonales) et par une approche d’imagerie par résonance magnétique (IRM) pour visualiser les différences fonctionnelles et morphologiques entre nos deux groupes de poulains de manière non invasive.


À lire aussi : Les chevaux nous reconnaissent-ils ?


La présence de la mère favorise l’émergence des compétences sociales

Les résultats issus de nos observations répétées dans le temps montrent que les poulains bénéficiant de la présence de leur mère interagissaient davantage avec leurs congénères, notamment à travers des comportements positifs, comme le jeu ou le toilettage mutuel, que les poulains séparés de leurs mères. Ils se montraient aussi plus explorateurs et plus à l’aise face à des situations sociales nouvelles, suggérant une plus grande sociabilité.

Autre résultat intéressant, les poulains bénéficiant de la présence de leur mère passaient moins de temps à manger mais prenaient plus de poids, suggérant une croissance plus efficace.

Le lien maternel, moteur du développement du cerveau

Pour aller plus loin, nous avons combiné ces observations comportementales avec une approche encore rare chez les animaux d’élevage : l’imagerie médicale. Ici nous avons utilisé des techniques d’IRM, permettant d’observer le fonctionnement et l’organisation du cerveau vivant, sans douleur. Ainsi, nous avons pu caractériser le développement cérébral de nos poulains.

« Comprendre l’IRM en deux minutes ». Source : Institut du cerveau — Paris Brain Institute.

Cette approche nous a permis d’identifier, pour la première fois chez le cheval, un réseau cérébral appelé le réseau du mode par défaut. Bien connu chez l’humain et identifié chez une poignée d’autres espèces animales, ce réseau serait impliqué dans l’intégration des pensées introspectives, la perception de soi et des autres. Chez les poulains ayant bénéficié d’une présence maternelle prolongée, ce réseau était plus développé, faisant écho aux meilleures compétences sociales que nous avons observées.

En outre, nous avons observé des différences morphologiques dans une région fortement impliquée dans la régulation physiologique, l’hypothalamus, en lien avec les différences physiologiques et de comportement alimentaire mises en évidence.

Une phase clé du développement aux effets multidimensionnels

Pris dans leur ensemble, nos résultats soulignent l’importance de cette phase du développement, encore peu étudiée chez l’animal, située entre la petite enfance et l’adolescence.

Ils suggèrent que la présence maternelle prolongée induit un développement comportemental, cérébral et physiologique plus harmonieux, qui pourrait contribuer à équiper les jeunes pour leur vie adulte future, notamment dans le domaine de compétences sociales.

Quelles implications pour l’élevage… et au-delà ?

Notre travail ne permet pas de définir une règle universelle sur l’âge idéal de séparation chez le cheval. Il montre en revanche que la séparation précoce a des conséquences mesurables, bien au-delà de la seule question alimentaire.

Lorsque les conditions le permettent, garder plus longtemps le poulain avec sa mère pourrait donc constituer un levier simple et favorable au développement du jeune. Cependant, d’autres études sont nécessaires pour évaluer l’impact de ces pratiques sur les mères et les capacités de récupération des poulains après la séparation, par exemple.

Avec grande prudence, ces résultats font aussi écho à ce que l’on observe chez d’autres mammifères sociaux, y compris l’humain : le rôle du parent ou de la/du soignant·e (« caregiver ») comme médiateur entre le jeune et son environnement social et physique pourrait être un mécanisme largement partagé. Le cheval offre ainsi un modèle précieux pour mieux comprendre comment les premières relations sociales façonnent durablement le cerveau et le comportement.

The Conversation

Cette étude a été financée grâce à une bourse européenne HORIZON 2020 Marie Skłodowska-Curie Actions (MSCA) (ref: 101033271, MSCA European Individual Fellowship, https://doi.org/10.3030/101033271) et au Conseil Scientifique de l'Institut Français du Cheval et de l’Equitation (IFCE) (ref: DEVELOPPEMENTPOULAIN).

David Barrière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.01.2026 à 18:12

Pourquoi mon filtre antispam fonctionne-t-il si mal ?

Antony Dalmiere, Ph.D Student - Processus cognitifs dans les attaques d'ingénieries sociales, INSA Toulouse; Centre national de la recherche scientifique (CNRS)
img
Les hackeurs développent toujours de nouvelles astuces pour noyer le poisson et franchir les filtres antispam.
Texte intégral (1221 mots)

Comment les spams passent-ils au travers des multiples couches de protection annoncées comme presque infranchissables par les entreprises et par les chercheurs en cybersécurité ?


Les escroqueries existent depuis fort longtemps, du remède miracle vendu par un charlatan aux courriers dans la boîte aux lettres nous promettant monts et merveilles plus ou moins fantasques. Mais le Web a rendu ces canaux moins intéressants pour les arnaqueurs.

Les e-mails de spam et le « phishing » (hameçonnage) se comptent aujourd’hui en millions d’e-mails par an et ont été la porte d’entrée pour des incidents majeurs, comme les fuites d’e-mails internes d’Emmanuel Macron lors de sa campagne présidentielle en 2017, mais aussi le vol de 81 millions de dollars (plus de 69 millions d’euros) à la banque du Bangladesh en 2016.

Il est difficile de quantifier les effets de ces arnaques à l’échelle globale, mais le FBI a recensé des plaintes s’élevant à 2,9 milliards de dollars (soit 2,47 milliards d’euros) en 2023 pour une seule catégorie de ce type d’attaques – les pertes dues aux attaques par e-mail en général sont sûrement beaucoup plus élevées.

Bien sûr, la situation n’est pas récente, et les entreprises proposant des boîtes de messagerie investissent depuis longtemps dans des filtres antispam à la pointe de la technologie et parfois très coûteux. De même pour la recherche académique, dont les détecteurs atteignent des précisions supérieures à 99 % depuis plusieurs années ! Dans les faits pourtant, les signalements de phishing ont bondi de 23 % en 2024.

Pourquoi, malgré ces filtres, recevons-nous chaque jour des e-mails nous demandant si notre compte CPF contient 200 euros, ou bien nous informant que nous aurions gagné 100 000 euros ?

Plusieurs techniques superposables

Il faut d’abord comprendre que les e-mails ne sont pas si différents des courriers classiques dans leur fonctionnement. Quand vous envoyez un e-mail, il arrive à un premier serveur, puis il est relayé de serveur en serveur jusqu’à arriver au destinataire. À chaque étape, le message est susceptible d’être bloqué, car, dans cette chaîne de transmission, la plupart des serveurs sont équipés de bloqueurs.

Dans le cadre de ma thèse, j’ai réalisé une étude empirique qui nous a permis d’analyser plus de 380 e-mails de spams et de phishing ayant franchi les filtres mis en place. Nous avons ainsi analysé une dizaine de techniques exploitées dans des proportions très différentes.

La plus répandue de ces techniques est incroyablement ingénieuse et consiste à dessiner le texte sur une image incluse dans l’e-mail plutôt que de l’écrire directement dans le corps du message. L’intérêt est de créer une différence de contenu entre ce que voit l’utilisateur et ce que voient les bloqueurs de spams et de phishing. En effet, l’utilisateur ne fait pas la différence entre « cliquez ici » écrit dans l’e-mail ou « cliquez ici » dessiné avec la même police d’écriture que l’ordinateur. Pourtant, du point de vue des bloqueurs automatisés, cela fait une grosse différence, car, quand le message est dessiné, identifier le texte présent dans l’image demande une analyse très coûteuse… que les bloqueurs ne peuvent souvent pas se permettre de réaliser.

Une autre technique, plus ancienne, observée dans d’autres contextes et recyclée pour franchir les bloqueurs, est l’utilisation de lettres qui sont jumelles dans leur apparence pour l’œil humain mais radicalement différentes. Prenons par exemple un mail essayant de vous faire cliquer sur un lien téléchargeant un virus sur votre téléphone. Un hackeur débutant pourrait envoyer un mail malicieux demandant de cliquer ici. Ce qui serait vu du point de vue de votre ordinateur par 99 108 105 113 117 101 114. Cette suite de nombres est bien évidemment surveillée de près et suspectée par tous les bloqueurs de la chaîne de transmission. Maintenant, un hackeur chevronné, pour contourner le problème, remplacera le l minuscule par un i majuscule (I). De votre point de vue, cela ressemblera à cIiquer ici – avec plus ou moins de réussite en fonction de la police d’écriture. Mais du point de vue de l’ordinateur, cela change tout, car ça devient : 99 76 105 113 117 101 114. Les bloqueurs n’ont jamais vu cette version-là et donc laissent passer le message.

Tromper les filtres à spams basés sur l’IA

Parmi toutes les techniques que nous avons observées, certaines sont plus avancées que d’autres. Contre les bloqueurs de nouvelle génération, les hackers ont mis au point des techniques spécialisées dans la neutralisation des intelligences artificielles (IA) défensives.

Un exemple observé dans notre étude est l’ajout dans l’e-mail de pages Wikipédia écrites en blanc sur blanc. Ces pages sont complètement hors contexte et portent sur des sujets, tels que l’hémoglobine ou les agrumes, alors que l’e-mail demande d’envoyer des bitcoins. Ce texte, invisible pour l’utilisateur, sert à perturber les détecteurs basés sur des systèmes d’intelligence artificielle en faisant une « attaque adversariale » (montrer une grande quantité de texte anodin, en plus du message frauduleux, de telle sorte que le modèle de détection n’est plus capable de déterminer s’il s’agit d’un e-mail dangereux ou pas).

Et le pire est que la plupart des e-mails contiennent plusieurs de ces techniques pour augmenter leurs chances d’être acceptés par les bloqueurs ! Nous avons dénombré en moyenne 1,7 technique d’obfuscation par e-mails, avec la plupart des e-mails comportant au moins une technique d’obfuscation.


Cet article est le fruit d’un travail collectif entre le Laboratoire de recherche spécialisé dans l’analyse et l’architecture des systèmes (LAAS-CNRS) et le Laboratoire d’études et de recherches appliquées en sciences sociales (LERASS). Je tiens à remercier Guillaume Auriol, Pascal Marchand et Vincent Nicomette pour leur soutien et leurs corrections.

The Conversation

Antony Dalmiere a reçu des financements de l'Université de Toulouse et de l'Institut en Cybersécurité d'Occitanie.

21.01.2026 à 11:36

Des éclairs détectés sur Mars pour la toute première fois

Baptiste Chide, Chargé de Recherche CNRS à l'IRAP (Université de Toulouse, CNES), Observatoire Midi-Pyrénées
Franck Montmessin, Directeur de recherche CNRS au Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
img
Pour la première fois, un microphone placé sur le rover Perseverance a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière.
Texte intégral (1727 mots)

Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.


Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.

Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de trente heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ trois minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.

Un jackpot scientifique

Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.

Le son du tout premier éclair enregistré sur Mars. NASA/JPL-Caltech/LANL/CNES/CNRS/IRAP, Fourni par l'auteur214 ko (download)

Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.

Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !

Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.

En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars, en revanche, l’atmosphère ténue de CO₂ rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.

Des implications au niveau du climat martien

Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.

En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.

Expliquer la disparition du méthane

L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.

Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.

Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.

On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.

Peut-être lors de futures missions ? L’Agence spatiale européenne (ESA) avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.

The Conversation

Franck Montmessin a reçu des financements de l'ANR et du CNES.

Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview