04.02.2026 à 16:14
Différents acteurs de la tech envisagent d’utiliser des satellites pour faire des calculs. En d’autres termes, il s’agit d’envoyer des data centers dans l’espace. Est-ce réaliste ? Un informaticien fait le point.
On parle de l’idée d’installer dans l’espace, en orbite, des data centers destinés à l’intelligence artificielle. Par exemple, en novembre 2025, Google annonçait son projet Suncatcher.
Quel crédit accorder à cette proposition ? Je vais d’abord expliquer les difficultés techniques qui font que cela semble très compliqué et coûteux pour un avantage peu clair, avant de formuler des hypothèses sur les raisons qui motivent ces annonces.
L’apprentissage automatique à grande échelle est au cœur des applications d’intelligences artificielles (IA) génératives (ChatGPT et consorts). Pour cela, il faut beaucoup de processeurs de calcul, qui consomment de l’électricité et rejettent sous forme de chaleur l’énergie ainsi consommée. Sur Terre, un grand data center de calculs d’intelligence artificielle peut consommer 100 mégawatts (MW) et au-delà ; on a même projeté la construction de data centers à 1 000 MW.
Dans l’espace, du point de vue technique, se posent alors quatre problèmes :
les composants électroniques sont irradiés par les rayons cosmiques, ce qui peut causer des pannes ;
il faut produire de l’électricité ;
il faut évacuer la chaleur produite ;
les installations ne sont pas aisément accessibles pour intervenir.
Récemment, un Airbus A320 a fait une embardée dans le ciel, car son informatique de commande avait été touchée par des rayons cosmiques. En effet, dans l’espace et, dans une moindre mesure, en altitude (les avions de ligne volent à une dizaine de kilomètres d’altitude), l’électronique est soumise à un rude régime.
Les rayonnements cosmiques peuvent au pire détruire certains composants, au mieux perturber temporairement leur fonctionnement. Pour cette raison, les fournisseurs conçoivent pour équiper les engins spatiaux des processeurs spéciaux résistant aux rayonnements, par exemple le LEON et le NOEL-V, mais ceux-ci ont des performances de calcul modestes (par exemple, le NOEL-V, pourtant moderne, est environ dix fois plus lent qu’un seul cœur de mon ordinateur portable, qui en comporte 12). Si l’on utilise dans l’espace des composants destinés à des applications terrestres conventionnelles, les radiations peuvent provoquer des pannes qui nécessitent des redémarrages de chaque processeur, allant d’une fois toutes les quelques semaines à plusieurs fois par jour, suivant les conditions d’utilisation, d'autant plus fréquemment que le processeur est gravé finement (haute performance).
Les géants de la tech parlent actuellement de construire des data centers terrestres consommant de l’ordre de 1 000 MW. À titre de comparaison, les réacteurs de centrales nucléaires françaises ont des puissances électriques nominales (ce qu’elles peuvent produire à 100 % de leur puissance normale d’utilisation) entre 890 MW et 1 600 MW. En d’autres termes, un tel data center consommerait complètement la puissance d’un des petits réacteurs français.
Or, dans l’espace, pour produire de l’électricité, il faut utiliser des panneaux solaires ou des procédés plus exotiques et peu utilisés – microréacteur nucléaire ou générateur à radioéléments, ces derniers étant utilisés pour des sondes partant vers des régions éloignées du Soleil et où il serait donc difficile d’utiliser des panneaux solaires.
Aujourd’hui, les panneaux solaires de la Station spatiale internationale produisent environ 100 kilowatt (kW) de puissance, autrement dit 1 000 fois moins que ce que consomme un data center de 100 MW. Suivant l’orbite, il peut être nécessaire de gérer les périodes où le satellite passe dans l’ombre de la Terre avec des batteries (qui ont une durée de vie limitée), ou accepter que chaque satellite ne fonctionne qu’une partie du temps, ce qui pose d’autres problèmes.
Il peut paraître surprenant, vu le froid de l’espace, qu’il soit difficile d’y évacuer de la chaleur. Sur Terre, nous évacuons la chaleur des data centers directement dans l’air, ou encore via des liquides pour ensuite restituer cette chaleur à l’air via une tour de refroidissement. Dans l’espace, il n’y a pas d’air à qui transférer de la chaleur, que ce soit par conduction ou par convection.
Ainsi, la seule façon d’évacuer de la chaleur dans l’espace est le rayonnement lumineux qu’émet tout objet. Quand un objet est très chaud, comme du fer chauffé à blanc, ce rayonnement est intense (et en lumière visible). En revanche, pour des objets tels qu’un ordinateur en fonctionnement ou un corps humain, ce rayonnement (en lumière infrarouge, invisible aux yeux humains mais visible à l’aide de caméras spéciales), est peu intense. Il faut donc de grandes surfaces de radiateurs pour disperser de la chaleur dans l’espace. Organiser l’évacuation de chaleur n’a rien d’évident dans un satellite…
Venons-en à des problèmes plus pratiques. Quand on a un problème dans un data center sur Terre, on envoie un·e technicien·ne. Dans l’espace, cela impliquerait une mission spatiale. Certes, certaines tâches pourraient être accomplies par des robots, mais on est à des ordres de grandeur de complications par rapport à une maintenance dans un bâtiment terrestre. Or, les panneaux solaires et les autres composants ont une durée de vie limitée. Enfin, communiquer avec un satellite est plus compliqué et offre un moindre débit que d’installer un raccordement fibre optique dans une zone bien desservie sur Terre.
Bien entendu, il y aurait également la question de la masse considérable de matériel à transférer en orbite, celle du coût des lancements et de l’assemblage.
On peut également évoquer la pollution, pour l’observation astronomique, du ciel par le passage de constellations de satellites, ainsi que la pollution des orbites par les débris des satellites détruits.
En résumé, même s’il était éventuellement possible techniquement de faire des calculs d’intelligence artificielle dans un satellite en orbite (ou sur une base lunaire), cela serait à un coût considérable et au prix de grandes difficultés. Dans les propos de ceux qui annoncent des data centers spatiaux, on peine à trouver une bonne raison à tant de complications. Parmi certaines justifications avancées, celle d’échapper dans l’espace aux législations des États.
La question intéressante, plutôt que de savoir s’il serait possible de faire un centre de calcul IA dans l’espace, est donc de savoir à qui cela profite de parler dans les médias de projets relevant plus de la science-fiction que du développement industriel réaliste. Il est bien entendu périlleux de prétendre identifier les objectifs derrière les actes de communication, mais nous pouvons fournir quelques hypothèses.
L’industrie spatiale états-unienne, notamment SpaceX, nourrit l’idée de l’espace comme dernière frontière, avec en ligne de mire l’installation sur Mars, voire la colonisation de cette planète – qu’importe qu’elle soit froide (- 63 °C en moyenne à l’équateur), à l’atmosphère très ténue, et sans protection contre le rayonnement cosmique, autrement dit très hostile à la vie.
L’industrie de l’intelligence artificielle, quant à elle, nourrit l’idée du dépassement du cerveau humain.
Ces deux industries ont un besoin intense de capitaux – par exemple, OpenAI a une dette de 96 milliards de dollars (81,2 milliards d’euros). Pour les attirer, elles ont besoin de récits qui font rêver. Toutes deux créent la « fear of missing out » (ou FOMO), la peur de passer à côté d’une évolution importante et de devenir obsolètes.
D’ailleurs, cette communication fonctionne. La preuve, j’ai rédigé cet article qui, même si c’est pour expliquer à quel point ces projets sont irréalistes, leur accorde une publicité supplémentaire…
David Monniaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.02.2026 à 11:26

Comparés à ceux des autres grands singes, les pénis humains sont mystérieusement grands, ce qui suggère qu’ils pourraient servir de signal aux partenaires.
« La taille compte », c'est une phrase assez cliché, mais pour les biologistes de l’évolution, la taille du pénis humain constitue un véritable mystère. Comparé à celui d’autres grands singes, comme les chimpanzés et les gorilles, le pénis humain est plus long et plus épais que ce à quoi on pourrait s’attendre pour un primate de notre taille.
Si la fonction principale du pénis est simplement de transférer le sperme, pourquoi le pénis humain est-il si nettement plus grand que celui de nos plus proches parents ?
Notre nouvelle étude, publiée aujourd’hui dans PLOS Biology révèle qu’un pénis plus grand chez l’être humain remplit deux fonctions supplémentaires : attirer des partenaires et intimider les rivaux.
Comprendre pourquoi le corps humain a cette apparence est une question centrale en biologie évolutive. Nous savons déjà que certaines caractéristiques physiques, comme une grande taille ou un torse en forme de V, augmentent l’attrait sexuel d’un homme
En revanche, on sait moins de choses sur l’effet d’un pénis plus grand. Les humains ont marché debout bien avant l’invention des vêtements, ce qui rendait le pénis très visible aux yeux des partenaires et des rivaux pendant une grande partie de notre évolution.
Cette proéminence aurait-elle favorisé la sélection d’une plus grande taille ?
Il y a treize ans, dans une étude qui a fait date, nous avons présenté à des femmes des projections grandeur nature de 343 silhouettes masculines en 3D générées par ordinateur, anatomiquement réalistes, variant selon la taille, le rapport épaules-hanches (silhouette) et la taille du pénis.
Nous avons constaté que les femmes préfèrent généralement les hommes plus grands, avec des épaules plus larges et un pénis plus grand.
Cette étude a fait la une des médias du monde entier, mais elle ne racontait qu’une partie de l’histoire. Dans notre nouvelle étude, nous montrons que les hommes aussi prêtent attention à la taille du pénis.
Chez de nombreuses espèces, les traits plus marqués chez les mâles, comme la crinière du lion ou les bois du cerf remplissent deux fonctions : attirer les femelles et signaler la capacité de combat aux autres mâles. Jusqu’à présent, nous ne savions pas si la taille du pénis humain pouvait elle aussi remplir une telle double fonction.
Dans cette nouvelle étude, nous avons confirmé notre conclusion précédente selon laquelle les femmes trouvent un pénis plus grand plus attirant. Nous avons ensuite cherché à déterminer si les hommes percevaient également un rival doté d’un pénis plus grand comme plus attirant pour les femmes et, pour la première fois, si les hommes considéraient un pénis plus grand comme le signe d’un adversaire plus dangereux en cas de confrontation physique.
Pour répondre à ces questions, nous avons montré à plus de 800 participants les 343 silhouettes variant en taille, en morphologie et en taille de pénis. Les participants ont observé et évalué un sous-ensemble de ces silhouettes, soit en personne sous forme de projections grandeur nature, soit en ligne sur leur propre ordinateur, tablette ou téléphone.
Nous avons demandé aux femmes d’évaluer l’attrait sexuel des personnages, et aux hommes de les évaluer en tant que rivaux potentiels, en indiquant dans quelle mesure chaque personnage leur semblait physiquement menaçant ou sexuellement compétitif.
Pour les femmes, un pénis plus grand, une stature plus élevée et un torse en forme de V augmentaient l’attrait d’un homme. Toutefois, cet effet présentait un rendement décroissant : au-delà d’un certain seuil, une augmentation supplémentaire de la taille du pénis ou de la taille corporelle n’apportait que des bénéfices marginaux.
La véritable révélation est cependant venue des hommes. Ceux-ci percevaient un pénis plus grand comme le signe d’un rival à la fois plus combatif et plus compétitif sur le plan sexuel. Les silhouettes plus grandes et au torse plus en V étaient évaluées de manière similaire.
Cependant, contrairement aux femmes, les hommes classaient systématiquement les individus présentant les traits les plus exagérés comme des concurrents sexuels plus redoutables, ce qui suggère qu’ils ont tendance à surestimer l’attrait de ces caractéristiques pour les femmes.
Nous avons été frappés par la cohérence de nos résultats. Les évaluations des différentes silhouettes ont conduit à des conclusions très similaires, que les participants aient vu les projections grandeur nature en personne ou les aient observées sur un écran plus petit en ligne.
Il est important de rappeler que le pénis humain a avant tout évolué pour le transfert du sperme. Néanmoins, nos résultats montrent qu’il fonctionne également comme un signal biologique.
Nous disposons désormais de preuves indiquant que l’évolution de la taille du pénis pourrait avoir été en partie guidée par les préférences sexuelles des femmes et par son rôle de signal de capacité physique entre hommes.
Il convient toutefois de noter que l’effet de la taille du pénis sur l’attractivité était quatre à sept fois plus important que son effet en tant que signal de capacité de combat. Cela suggère que l’augmentation de la taille du pénis chez l’homme a évolué davantage en réponse à son rôle d’ornement sexuel destiné à attirer les femmes qu’en tant que symbole de statut social pour les hommes, bien qu’il remplisse effectivement ces deux fonctions.
Fait intéressant, notre étude a également mis en évidence une particularité psychologique. Nous avons mesuré la rapidité avec laquelle les participants évaluaient les silhouettes. Ceux-ci étaient nettement plus rapides pour juger les silhouettes présentant un pénis plus petit, une taille plus réduite et un haut du corps moins en forme de V. Cette rapidité suggère que ces traits sont évalués inconsciemment, presque instantanément, comme moins attirants sexuellement ou moins menaçants physiquement.
Il existe bien sûr des limites à ce que révèle notre expérience. Nous avons fait varier la taille corporelle, la taille du pénis et la morphologie, mais dans la réalité, des caractéristiques telles que les traits du visage et la personnalité jouent également un rôle important dans la manière dont nous évaluons les autres. Il reste à déterminer comment ces facteurs interagissent entre eux.
Enfin, bien que nos conclusions soient valables pour des hommes et des femmes issus de différentes origines ethniques, nous reconnaissons que les normes culturelles de la masculinité varient à travers le monde et évoluent au fil du temps.
Upama Aich a reçu des financements de la Forrest Research Foundation pour travailler à l'Université d'Australie occidentale et a reçu une bourse de recherche de la Monash University pour mener cette étude.
MIchael Jennions ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
04.02.2026 à 11:26

S’il est aujourd’hui à nouveau possible de se baigner dans la Seine, pouvez-vous imaginer devoir faire attention aux hippopotames avant de plonger ? C’était bien ce que devaient faire nos ancêtres, il y a 400 000 ans. Une étude récente décrit un paysage insoupçonné.
À 15 km de Fontainebleau (Seine-et-Marne), le site de La Celle est connu depuis le XIXᵉ siècle. Il livre à cette époque quelques outils façonnés par des humains préhistoriques mais, surtout, une remarquable collection d’empreintes de végétaux et de coquilles de mollusques. Au cours de nouvelles études entamées en 2003, des restes d’hippopotame et de macaque y sont également découverts.
Notre équipe de recherche constituée d’une quinzaine de spécialistes de disciplines très variées a pu exploiter tout le potentiel de ce site pour reconstituer des conditions climatiques et environnementales particulièrement douces dans la vallée de la Seine, il y a environ 400 000 ans. Retour sur plus de vingt années de recherche dont nous avons récemment publié une synthèse.
Depuis 2,6 millions d’années, le climat de la Terre alterne entre périodes glaciaires et interglaciaires. Les périodes glaciaires sont des phases froides. Les glaciers y étaient bien plus étendus, aux pôles comme en montagne. Ces périodes durent en moyenne 80 000 ans. Les interglaciaires sont, au contraire, des phases chaudes. Elles ressemblent au climat actuel et sont plus courtes, environ 20 000 ans.
Le site de La Celle est daté par des méthodes diverses d’une de ces périodes interglaciaires survenue il y a environ 400 000 ans. Cet interglaciaire en particulier peut être considérée comme une période « modèle » pour comprendre l’évolution récente du climat, depuis une dizaine de milliers d’années, en dehors des effets du dérèglement climatique lié aux activités humaines.
La principale formation géologique observée à La Celle est ce que l’on appelle un tuf calcaire. C’est une roche sédimentaire qui se forme à l’émergence de certaines sources ou dans des cours d’eau peu profonds. Sa formation est favorisée par un climat tempéré et humide, justement typique des périodes interglaciaires. Les tufs sont des archives géologiques particulièrement intéressantes car ils fossilisent des informations riches et diversifiées sur les environnements et climats passés.
À La Celle, plusieurs milliers d’années ont été nécessaires à la formation de près de 15 mètres d’épaisseur de tuf. Dans certains niveaux les empreintes de feuilles d’arbres et de fruits sont conservées et renvoient l’image d’une végétation riche qui se développe sous des conditions plutôt chaudes : chêne, peuplier, saule… mais surtout buis, figuier et micocoulier. Au milieu du dépôt la présence d’ossements de macaque et d’hippopotame est aussi un indice de conditions climatiques clémentes.
Notre équipe a également étudié de petits fossiles particulièrement intéressants pour reconstituer en détail l’évolution de l’environnement : les coquilles de mollusques (escargots et limaces). Chaque escargot a des contraintes écologiques particulières et porte sur sa coquille des caractères distinctifs qui permettent même sur un petit morceau de reconnaître l’espèce à laquelle elle appartenait. Ainsi, la malacologie, discipline qui étudie ces fossiles de mollusques, permet de déduire à partir des assemblages d’escargots les milieux dans lesquels ils vivaient.
Dans le tuf de La Celle, les coquilles sont particulièrement bien conservées : plus de 42 000 individus ont été collectés, représentant 94 espèces de mollusques ! Elles sont par ailleurs présentes sur toute l’épaisseur du tuf ce qui permet de reconstituer des changements environnementaux sur plusieurs milliers d’années. La succession des faunes d’escargots de La Celle révèle trois étapes environnementales. À la base, une prairie marécageuse évolue vers une forêt de plus en plus dense. Celle-ci est contemporaine des silex taillés par les préhistoriques et des ossements de macaque et d’hippopotame. Dans la partie supérieure du dépôt, la forêt laisse place à une zone humide.
À La Celle les escargots de milieu forestier sont remarquables par leur diversité. Plusieurs espèces sont aujourd’hui éteintes où ne vivent plus que dans des contrées éloignées d’Europe centrale ou de la côte Atlantique sud. Elles constituent ce qui est nommée « la faune à Lyrodiscus » du nom d’un sous-genre d’escargot qui n’existe plus dans la faune moderne qu’aux îles Canaries. La faune à Lyrodiscus a été identifiée dans sept gisements de tuf répartis dans les vallées de la Seine, de la Somme et le sud de l’Angleterre, tous datés du même interglaciaire. Cependant, par son épaisseur exceptionnelle, le tuf de La Celle est le seul qui enregistre en détail l’émergence, le développement et la disparition de cette faune caractéristique d’une forêt tempérée et humide. La Celle sert de modèle pour positionner dans la succession forestière les séries plus courtes des autres gisements.
Certaines caractéristiques chimiques du tuf lui-même renseignent sur les conditions de température et d’humidité au moment de sa formation : c’est l’étude géochimique. Ces analyses menées en parallèle de l’étude des mollusques montrent que l’optimum climatique, qui correspond aux conditions les plus chaudes et les plus humides enregistrées au cours de toute la séquence, intervient au même moment que le développement maximal de la forêt. Ces données géochimiques ont été comparées avec celles obtenues sur d’autres tufs du nord de la France datés de périodes interglaciaires plus récentes : le dernier interglaciaire, il y a environ 125 000 ans (enregistré à Caours dans la Somme) et l’interglaciaire actuel. Nous avons ainsi pu montrer que l’interglaciaire de La Celle, il y a 400 000 ans, avait été le plus chaud et le plus humide, ce qui explique, au moins en partie, la très grande richesse des faunes d’escargots, mais également la présence du macaque, de l’hippopotame et de plantes méridionales.
Par son épaisseur importante, rarement observée pour un tuf de cet âge, la diversité et la complémentarité des informations conservées, le tuf de La Celle peut maintenant être considéré comme une référence européenne pour la connaissance des changements environnementaux et climatiques au cours de la période interglaciaire survenue il y a 400 000 ans. De tels sites sont importants, car si les sédiments marins ou les couches de glace en Antarctique nous renseignent de façon spectaculaire sur les variations climatiques globales des dernières centaines de milliers d’années, il est plus complexe d’obtenir des enregistrements longs sur les séries des continents beaucoup plus soumises à l’érosion. Or, les macaques, les hippopotames… et les humains préhistoriques ne vivaient ni au fond des océans, ni au Pôle sud !
Si vous avez envie de voir à quoi ressemble ce tuf en vrai, bonne nouvelle : il est aménagé et accessible librement, alors venez le visiter !
Julie Dabkowski a reçu des financements de CNRS.
Nicole Limondin-Lozouet a reçu des financements de CNRS.
Pierre Louis Antoine a reçu des financements de CNRS
04.02.2026 à 11:26
Pour comprendre l’effet de la gravité sur notre corps, il faut être capable de s’en soustraire, et la Station spatiale internationale est l’unique laboratoire où cela est possible sur des périodes prolongées. Sophie Adenot va pouvoir y mener différentes expériences pendant ses huit mois de mission.
Depuis plus de vingt ans, la Station spatiale internationale (ISS) est un laboratoire scientifique unique où l’absence de pesanteur met la physiologie humaine à l’épreuve. La station se déplace très vite autour de la Terre, elle est en chute libre permanente tout en restant en orbite terrestre, c’est cette configuration bien particulière qui fait que tout « flotte » à l’intérieur.
Nous parlerons plutôt d’état de micropesanteur, car il reste tout de même des accélérations minimes. Si l’astronaute dans l’ISS reste bien dans le champ de gravité de la Terre, les effets physiologiques de la gravité sur son organisme sont en revanche totalement supprimés. En conduisant des études biomédicales dans l’ISS, il s’agit non seulement de permettre à l’humain de s’adapter à un environnement extrême caractérisé par cette micropesanteur, mais aussi d’étudier le rôle de la gravité sur les grandes fonctions de notre organisme. Et comment comprendre le rôle de cette force omniprésente sur le vivant si ce n’est en étudiant la suppression de ses effets ?
Au niveau tissulaire, il existe des cellules spécialisées dont le rôle est de percevoir précisément la gravité. Ce sont par exemple les cellules ciliées du vestibule situé dans l’oreille interne chez l’humain. C’est l’organe dont la perturbation par l’absence de pesanteur contribue au mal de l’espace qui ressemble au mal de mer. La question de la faculté de graviception pour chacune de nos cellules se pose. Dans quelle mesure la force de gravité interagit-elle sur le cytosquelette, ce réseau de filaments protéiques à l’intérieur de la cellule qui lui donne sa forme et, plus généralement, sur les interactions moléculaires comme celle d’une enzyme avec son substrat ?
Au niveau de l’organisme, si la gravité n’existait pas, nul besoin d’un système cardiovasculaire aussi complexe avec ses mécanismes de protection permettant de maintenir une circulation normale au niveau du cerveau en position debout, cet organe a en effet besoin d’avoir un flux sanguin permanent et suffisant pour pouvoir fonctionner. Le tissu osseux serait inutile, au même titre que le tissu musculaire, puisqu’une partie importante du rôle de ces systèmes est de lutter contre la gravité. L’absence de pesanteur dans une station spatiale induit donc chez nos astronautes une sédentarité poussée avec toutes les conséquences médicales sur leur santé.
La gravité a façonné le vivant depuis des millions d’années, et, de façon très surprenante, soustraire notre organisme de l’influence de cette force, même partiellement et après quelques jours seulement, conduit à une désadaptation à la gravité. C’est ce que nous appelons le déconditionnement. Ce syndrome comporte principalement un risque de syncope, une diminution de la capacité à effectuer un exercice physique, une amyotrophie, une fragilisation osseuse et des troubles métaboliques. De très nombreuses expériences sont ainsi conduites par les équipages dans l’ISS afin de comprendre l’impact de l’absence de pesanteur sur l’ensemble de nos grandes fonctions. À côté des expériences conduites dans un environnement spatial vrai, nous mettons aussi en place des études sur des analogues au sol par alitement (le sujet est rendu inactif dans un lit) ou par immersion sèche (le sujet flotte dans une grande baignoire au sec isolé par un film élastique). Il est aussi possible d’induire de courtes durées de micropesanteur (de l’ordre de trente secondes) en avion lors de vols paraboliques. Ces études, permettent de conduire des travaux sur un nombre de sujets plus importants et de valider des méthodes prophylactiques (appelées contre-mesures) afin de lutter contre ce déconditionnement, avant de les prescrire aux astronautes.
Le Centre national des études spatiales (CNES) est reconnu pour son soutien aux travaux de médecine et de physiologie spatiale ainsi que pour le développement d’outils spécifiques. Il s’appuie sur ses équipes d’ingénieurs qui ont une longue expérience dans le développement et la qualification de tels instruments biomédicaux. Il a lancé très tôt un programme dans le domaine cardiovasculaire. Citons le programme Physiolab, qui a été mis en œuvre lors de la mission Cassiopée (1996), à bord de la station Mir, par Claudie Haigneré, première astronaute française à être allée dans l’espace. Physiolab a permis une étude fine à l’échelle du battement cardiaque de la régulation cardiovasculaire. Suivre la fréquence cardiaque et la pression artérielle battement par battement permet de décrire et de comprendre la survenue des épisodes de syncope au retour sur terre. Plusieurs évolutions de ce système ont été utilisées depuis Physiolab, aboutissant aujourd’hui au programme « Physiotool ».
Pour bien comprendre les effets d’un séjour dans l’espace sur le corps et surveiller de près le système cardiovasculaire des astronautes, il faut une approche intégrative qui permet de suivre non seulement les paramètres cardiovasculaires habituels, mais aussi des flux sanguins périphériques (cérébraux et musculaires), l’activation musculaire elle-même ainsi que les mouvements respiratoires.
C’est ce que permet Physiotool, développé et intégré par le CNES en combinant différents appareils biomédicaux utilisables en ambulatoire. Nous pourrons ainsi réaliser un suivi physiologique de l’astronaute au repos, lors de sessions d’exercices physiques, de stimulations cognitives ou sur de plus longues durées. Après des tests au sol, Physiotool sera utilisé en vol pour la première fois lors de la mission Epsilon.
Cet instrument développé par le CNES, en lien avec l’Agence spatiale européenne (ESA), permettra de réaliser un protocole scientifique porté conjointement par l’Université d’Angers et l’Université de Lorraine avec Benoît Bolmont. Physiotool a pour vocation de devenir un moniteur ambulatoire de la santé cardiovasculaire de l’astronaute !
La physiologie spatiale est une discipline qui favorise les études inter-systèmes. Nous souhaitons connaître dans quelle mesure les vaisseaux sanguins sont impliqués dans la fragilisation osseuse induit par l’absence de pesanteur. Le projet Echo-bones permet d’étudier à la fois la structure de l’os, mais aussi les flux vasculaires intra-osseux avec un échographe innovant.
Ce projet est particulièrement soutenu par le CNES et ouvre des perspectives en médecine pour mieux comprendre par exemple l’ostéoporose et l’arthrose. Ce protocole scientifique est porté en France par le CHU d’Angers, l’Université de Saint-Étienne (Laurence Vico) et aux Pays-Bas par l’Université de Delft (Guillaume Renaud qui est à l’origine du développement de cet échographe innovant). Dans le cadre de la mission Epsilon, des mesures en pré et post vols seront réalisées afin de quantifier les modifications osseuses induites par cette mission de longue durée.
Voici deux exemples d’études dont je suis l’investigateur principal et qui seront conduites à l’occasion de la mission Epsilon dont le décollage est prévu très prochainement. D’autres protocoles en médecine spatiale sont bien entendus mis en place avec le CNES dans le cadre de cette mission, comme Echo-Finder pour faciliter la réalisation, par un astronaute novice, en complète autonomie, d’une échographie afin d’étudier un ensemble d’organes (ce protocole est porté par l’Université de Caen). Ce système prépare les futures missions d’exploration lointaine (Lune, Mars). Et il y aura évidemment aussi tout le programme d’études scientifiques internationales réalisées régulièrement dans le domaine des sciences de la vie !
L’après-ISS se prépare activement (elle sera détruite en 2030), avec la programmation de futures stations spatiales, qu’elles soient privées ou issues de partenariats académiques, et qui ouvriront de nouveaux cadres pour la poursuite de nos études scientifiques et médicales. Parallèlement, des projets d’exploration spatiale se mettent en place, notamment avec les missions Artemis visant le retour très prochain sur la Lune.
Le suivi médical et physiologique des astronautes sera un point critique pour le succès de ces missions. Cette surveillance devra d’autant plus évoluer que de nouvelles problématiques médicales devront être prises en compte, comme l’exposition au régolithe (la poussière lunaire), l’augmentation des risques liés aux radiations cosmiques et l’éloignement de l’équipage dont les conséquences psychologiques doivent être anticipées.
Marc-Antoine Custaud a reçu des financements du CNES, de la région des Pays de la Loire et du CNRS. Il est président de l'ISGP, association scientifique à vocation académique (International Society for Gravitational Physiology)
04.02.2026 à 11:24
Dans la Station spatiale internationale, les astronautes réalisent de nombreuses expériences scientifiques – c’est même le cœur de leur activité. Aujourd’hui, Rémi Canton, responsable au Centre national d’études spatiales de la préparation des expériences françaises à bord de l’ISS, nous parle des recherches scientifiques à bord.
The Conversation : Sophie Adenot, la nouvelle astronaute française, va partir un peu en avance par rapport à ce qui avait été prévu et devrait rester huit mois à bord d’ISS – ce qui est plus long que la plupart des missions ?
Rémi Canton : Oui, le départ de Sophie va peut-être être légèrement avancé à cause du retour anticipé de la mission précédente, en raison d’un problème de santé d’un des membres de l’équipage. La durée de sa mission en revanche n’est pas liée à des raisons scientifiques ou de santé, mais a été fixée par la Nasa qui souhaite réduire le nombre de lancements de rotation d’équipage pour réduire les coûts et prévoit donc que les missions à bord de l’ISS seront dorénavant plus longues.
Outre les expériences de physiologie dont nous parle votre collègue Marc-Antoine Custaud dans un autre article, Sophie Adenot va travailler sur les contaminations par des microorganismes : bactéries, champignons, virus… Mais honnêtement, on n’imagine pas au premier abord une station spatiale comme un nid à microbes ! D’où viennent ces contaminations ?
R. C. : La biocontamination n’est évidemment pas une spécificité spatiale, et il n’y a pas de problème particulier identifié à bord, mais les enjeux dans un espace confiné sont importants. En premier lieu pour protéger la santé de l’équipage, mais aussi pour minimiser le temps d’entretien afin de maximiser le temps consacré aux expériences scientifiques.
Le matériel que l’on monte est bien sûr désinfecté pour éviter d’amener toute sorte de contamination dans l’ISS. Mais il peut y avoir des résidus et, avec l’équipage à bord, il y a forcément du vivant. Le corps humain contient en grand nombre tout un ensemble de bactéries, de microchampignons et autres microorganismes, que l’on appelle le microbiote. Et qui peut se propager à cause de postillons, par exemple.
Il faut donc en limiter la prolifération, dans cet environnement confiné et que l’on ne peut pas aérer !
Dans quel but étudier ces contaminations ?
R. C. : Il s’agit d’abord de protéger la santé des astronautes, mais aussi la durée de vie du matériel, qui peut être endommagé par la corrosion bactérienne. Il y a des endroits difficiles d’accès et donc compliqués à nettoyer : connectique, derrière des câbles ou des baies informatiques, par exemple.
La première étape est de caractériser les microorganismes présents dans l’ISS et qui sont responsables de la biocontamination. La deuxième étape est de trouver des matériaux et des traitements – physiques et non chimiques – de surface, c’est-à-dire des textures ou revêtements, qui ralentissent ou empêchent la prolifération des contaminants. Soit en les piégeant, soit en les repoussant pour les empêcher de s’accrocher et de proliférer derrière un biofilm protecteur. Cela se fait grâce à l’expérience Matiss-4, dernière itération d’une expérience commencée dès la mission Proxima de Thomas Pesquet en 2016. On étudie par exemple des surfaces hydrophiles et hydrophobes, des surfaces texturées avec des petits plots en silice qui font que c’est plus difficile de s’accrocher d’un point de vue microscopique.
À terme, on espère identifier les meilleurs matériaux et revêtements qui pourraient être utilisés pour les futures stations spatiales et bases lunaires, et qui répondent parfaitement à cette problématique.
À bord, Sophie Adenot n’analysera pas ces surfaces ?
R. C. : Non, Sophie accrochera ces porte-échantillons avec différents types de surfaces dans des endroits stratégiques de l’ISS, près des filtres et bouches d’aération par exemple. Ils seront exposés pendant plusieurs mois à l’environnement ISS avant d’être ramenés sur Terre bien après sa mission pour une analyse au sol par fluorescence X ou spectroscopie Raman, par les scientifiques.
En parallèle, elle utilisera un deuxième instrument, appelé MultISS, caméra multimodale et multispectrale, qui permettra de prendre des photos des surfaces dans différentes longueurs d’onde (ultraviolets notamment) pour évaluer la contamination des surfaces invisible à l’œil nu. Cela permettra d’identifier les zones qui nécessitent le plus d’attention.
Existe-t-il pour ces expériences un objectif de développement d’applications qui soient utiles sur Terre ?
R. C. : Le but du Cadmos, le service dont je m’occupe au CNES, est d’abord de répondre à des objectifs scientifiques pour améliorer la connaissance et la compréhension de phénomènes inobservables sur Terre : nous recevons des demandes de laboratoires de recherche qui veulent observer certains phénomènes physiques, biologiques ou physiologiques en impesanteur, car cela permet de s’affranchir des effets de la gravité, comme le poids, la convection thermique, la poussée d’Archimède, la sédimentation ou la pression hydrostatique. Ces chercheuses et chercheurs ne cherchent pas à aller dans l’espace ! Au contraire, pour eux c’est plus une contrainte qu’autre chose. Mais c’est le seul endroit où ils peuvent avoir accès à l’impesanteur sur de longues périodes, ce qui leur « ouvre les yeux » sur un univers invisible sur Terre.
Donc, pour répondre à votre question : les applications terrestres ne sont pas dans le cahier des charges initial, c’est le principe même de la recherche fondamentale, mais le fait est que l’on découvre ensuite une multitude d’applications terrestres possibles.
Par exemple, nous avons étudié les fluides supercritiques (des fluides sous très haute pression et très haute température) dans l’expérience DECLIC. Parmi les propriétés qui ont été découvertes : en présence d’un oxydant, l’eau supercritique dissout et oxyde les substances organiques sans dégager d’oxyde d’azote… En d’autres termes, il s’agit d’un procédé de combustion « propre », beaucoup moins polluante. Au niveau spatial, cela pourrait être très intéressant pour le traitement des déchets, par exemple, sur une base lunaire. C’est d’ailleurs ce procédé qu’utilise Matt Damon dans Seul sur Mars, avec notre expérience, pour traiter ses déchets organiques. Mais ce serait surtout une technologie très utile sur Terre, car bien moins polluante que les incinérateurs classiques. Peut-être avec un rendement moindre que dans l’ISS, car le fluide supercritique serait moins homogène qu’en impesanteur, mais ce serait une technologie issue de la recherche spatiale, et qui a d’ailleurs commencé à être déployée pour traiter les déchets de certaines usines pétrochimiques.
Au-delà des expériences scientifiques qui nous sont demandées par les chercheurs, nous travaillons aussi à la préparation des technologies nécessaires pour l’exploration habitée plus lointaine. Et même si c’est moins intuitif et que cela peut paraître paradoxal, beaucoup d’applications terrestres découlent de cette branche. Car il s’agit de répondre à des problématiques de gestion et de recyclage de l’eau, le stockage de l’énergie, le traitement des déchets ou l’autonomie en santé. Et en effet, un équipage dans une station ou sur une base spatiale doit utiliser au mieux des ressources limitées, comme nous sur Terre, à une autre échelle. L’environnement exigeant et très contraint du spatial nous force ainsi à trouver des solutions innovantes, et sert ainsi d’accélérateur de technologie. Nous avons par exemple développé des techniques pour faire de l’échographie à distance avec des sondes motorisées et pilotables à distance, qui sont utilisées aujourd’hui en télémédecine dans des déserts médicaux.
Nous parlions de prévention de biocontamination tout à l’heure : l’objectif initial était une application spatiale, mais au final l’application sera surtout terrestre, pour les milieux hospitaliers, les transports en commun (barres de métro…), les lieux publics (boutons d’ascenseur, poignées de porte…), afin d’éviter la propagation d’agents pathogènes.
En parlant de recherche fondamentale : en 2023, l’astronaute danois Andy Morgensen a fait une mousse au chocolat pour étudier la formation d’émulsions en micropesanteur. Est-ce que Sophie Adenot va tester une nouvelle recette ?
R. C. : Oui, mais plus pour le plaisir que pour la science, cette fois-ci ! Nous avons juste décidé d’intégrer un objectif supplémentaire par rapport à la mousse au chocolat : dans un scénario réaliste, il n’y aura ni cacaotier ni d’œufs sur une base lunaire… Sophie va réaliser ce coup-ci une recette incorporant des ingrédients que des astronautes pourraient un jour faire pousser sur une base spatiale. Au menu : houmous et caviar d’aubergine !
Rémi Canton ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
03.02.2026 à 15:26

Depuis plus d’un siècle, les astronomes n’ont cessé d’étudier les galaxies, découvrant peu à peu la diversité de leurs formes et de leurs propriétés. Grâce aux progrès de nos instruments d’observation, nous avons pu cartographier la position de millions de galaxies dans l’Univers proche. De vastes régions de l’Univers se révèlent très vides, traversées par d’immenses filaments qui relient des régions où les galaxies se regroupent. Sous l’effet de la gravité, les galaxies sont entraînées inexorablement les unes vers les autres pour façonner ces immenses structures, qui grandissent au fil des milliards d’années de temps cosmique qui s’écoule.
L’étude d’une de ces structures, l’amas de Coma, par Fritz Zwicky en 1933 a mis au jour un des aspects les plus mystérieux de notre compréhension de l’Univers : la majeure partie de la masse de Coma ne peut pas être expliquée par la présence de matière ordinaire.
Les études cosmologiques les plus modernes confirment que le gaz et les étoiles ne représentent qu’environ un sixième de la masse totale de l’Univers. Le reste ? Une matière invisible, baptisée matière noire par les physiciens. L’une des plus grandes énigmes de la physique moderne reste entière : de quoi cette matière noire est-elle faite ? Comme interagit-elle avec la matière ordinaire ? Comment sa présence impacte-t-elle la formation et l’évolution des galaxies ?
Dans notre étude publiée dans Nature Astronomy, et dirigée par Diana Scognamiglio du Jet Propulsion Laboratory de la Nasa, nous présentons une carte détaillée de la distribution de la matière noire. Bien que notre étude ne puisse pas répondre directement à la question fondamentale sur la nature de la matière noire, elle apporte un outil puissant pour relier la matière ordinaire et la matière noire, sur un intervalle de temps cosmique couvrant les deux tiers de l’âge de l’Univers.
Notre nouvelle carte montre en particulier que la matière noire et la matière visible évoluent conjointement.
Dans cette étude, nous avons employé l’une des méthodes les plus puissantes pour révéler la présence de matière noire : le lentillage gravitationnel faible. La présence d’une grande structure de matière noire va entraîner une déformation de l’espace-temps. La lumière d’une galaxie qui se trouve en arrière-plan va être légèrement déviée en traversant la structure. La forme de cette galaxie d’arrière-plan va donc se trouver artificiellement étirée quand sa lumière atteindra nos télescopes.
La clé de notre méthode réside dans l’accumulation de données : en observant un grand nombre de galaxies dans une petite région du ciel, nous pouvons détecter une distorsion cohérente de la forme des galaxies d’arrière-plan et en déduire la masse de la structure en avant-plan.
Pour bâtir une carte de ces déformations de l’espace-temps, il est donc essentiel de mesurer la forme d’un grand nombre de galaxies.
Près de 255 heures d’observation sur le télescope spatial James-Webb ont permis de couvrir une zone beaucoup plus vaste que celles observées précédemment (environ la surface de trois pleines lunes), avec des détails sans précédent sur la forme des galaxies.
En analysant en détail 250 000 galaxies lointaines (distance, morphologie, masse), nous avons mesuré la densité de matière noire d’avant-plan et créé ainsi une carte de la matière noire dans cette région du ciel.
En effet, notre carte de lentille gravitationnelle faible retrace la distribution projetée de la matière totale, sombre et lumineuse, à travers les amas de galaxies, les filaments et les régions sous-denses. Les pics proéminents correspondent à des amas massifs.
Notre équipe étudie cette région du ciel, baptisée « COSMOS », depuis plus de vingt ans. En comparant cette nouvelle carte de matière noire avec les données accumulées sur les galaxies et le gaz chaud, nous voyons que la matière noire, le gaz chaud et les galaxies retracent souvent les mêmes structures.
En d’autres termes, cette carte nous montre que la matière noire et la matière visible évoluent conjointement.
De plus, COSMOS est aujourd’hui le champ de référence pour les études sur l’évolution des galaxies. Il fournit désormais un repère haute résolution à partir duquel les futures cartes de l’univers sombre pourront être calibrées et comparées.
La prochaine étape consiste à étendre cette cartographie à des volumes beaucoup plus importants de l’Univers à l’aide de missions telles que Euclid de l’Agence spatiale européenne (ESA) et le télescope spatial Nancy-Grace-Roman de la Nasa qui couvriront jusqu’à un tiers du ciel. Tous ces télescopes utilisent COSMOS comme point d’étalonnage.
Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Le projet instruire l’émergence des galaxies massives et leur évolution — iMAGE est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Olivier Ilbert a reçu des financements de l'ANR et du CNES (projet HST-COSMOS).
02.02.2026 à 14:41
Allumer la lumière pour éteindre la douleur. Ce slogan résume bien notre découverte : une simple lumière dans l’UV-A supprime la douleur chez les rongeurs, sans aucun médicament et de manière plus efficace et durable que l’ibuprofène. Cette méthode, que nous avons appelée Light-Induced Analgesia, récemment publiée dans Nature Communications, le 26 janvier 2026, pourrait améliorer le bien-être animal et bouleverser les pratiques vétérinaires dans le cadre de l’expérimentation animale, mais aussi lors de la prise en charge des nouveaux animaux de compagnie, comme les hamsters, les chinchillas et même les tortues ou les boas.
Comme Pasteur l’a dit, « le hasard ne favorise que les esprits préparés ». Effectivement, toute notre étude repose sur une observation inattendue que nous avons faite lors d’une expérience témoin : une protéine appelée TRAAK s’active (en d’autres mots, elle se met en marche), lorsqu’elle est éclairée avec de la lumière UV-A.
Aussi fortuite qu’elle puisse paraître, cette observation nous a souri puisque l’activité principale de notre laboratoire porte sur TRAAK et les protéines qui lui sont proches.
TRAAK est une protéine présente dans les récepteurs de la douleur et freine la transmission des messages douloureux vers le cerveau quand elle est dans son état actif. D’où notre idée : activer ces protéines des récepteurs de la douleur présents dans la peau avec de la lumière et ainsi inhiber les récepteurs de la douleur. Cela empêcherait alors les messages nerveux d’atteindre le cerveau, et induirait donc une analgésie.
Pour vérifier cela, nous avons illuminé les pattes de souris et avons testé leur sensibilité mécanique en déterminant la pression à appliquer pour déclencher leur réflexe de retrait de la patte. Cette procédure, couramment utilisée en expérimentation animale et humaine n’induit aucune douleur chez la souris puisque le réflexe est déclenché physiologiquement avant que la souris ne ressente la douleur. Nous avons ainsi pu montrer que, après le traitement à la lumière, il faut trois fois plus de force pour induire le retrait, ce qui veut dire que les pattes des souris deviennent trois fois moins sensibles, que ce soit sur des souris saines ou soumises à une douleur chronique pour une durée allant jusqu’à six heures. Nous avons même démontré que cet effet est plus efficace et durable que les antidouleurs utilisés couramment, comme l’ibuprofène ou la crème anesthésiante Emla (souvent utilisée lors de la vaccination).
Ce nouveau traitement est non invasif, peu coûteux et simple à mettre en place. De plus, l’analgésie induite par la lumière (LIA) ne requiert aucune injection ni traitement médicamenteux et permet de s’affranchir de tout effet secondaire ou d’interaction médicamenteuse. Ce dernier point en fait une véritable aubaine en expérimentation animale, en proposant une solution pour soulager la douleur sans avoir de répercussion sur les conclusions des expériences.
En effet, dans le cadre des expériences précliniques sur rongeurs, bien contrôler la douleur est essentiel, à la fois pour le bien-être des animaux et pour la fiabilité des résultats scientifiques. Une douleur mal prise en charge peut en effet modifier le fonctionnement de l’organisme et fausser les observations et conclusions de l’étude. Les solutions actuelles pour soulager la douleur reposent essentiellement sur des médicaments qui sont efficaces mais susceptibles d’induire des effets secondaires pouvant modifier les paramètres biologiques étudiés et ainsi fausser les résultats et conclusions de l’étude.
Au-delà du cadre de l’expérimentation animale, la LIA pourra être appliquée aux nouveaux animaux de compagnie pour une analgésie locale, rapide et robuste. Par exemple, un vétérinaire pourrait l’employer pour rendre plus supportable le nettoyage d’un abcès chez les hamsters.
La LIA n’est pas applicable chez l’humain, une unique différence dans la séquence de TRAAK rend la lumière inefficace sur la version humaine de la protéine : la lumière n’aura donc aucun effet antidouleur.
Nous sommes tout de même très excités, car notre étude identifie TRAAK comme une cible prometteuse pour le développement de nouveaux traitements antidouleur, y compris chez l’humain (en l’activant d’une manière différente). Nous allons donc poursuivre nos travaux pour développer des molécules activant TRAAK et proposer une stratégie potentiellement plus efficace et plus ciblée que les antidouleurs disponibles actuellement sur le marché.
Enfin, même si nous avons déterminé le mécanisme moléculaire à l’origine de l’activation de TRAAK par la lumière, une question subsiste : pourquoi certaines espèces possèdent-elles une version activable à la lumière ? Cela joue-t-il un rôle physiologique, par exemple au niveau du rythme nocturne/diurne des espèces ou encore dans la vision ? Nous comptons bien trouver des explications en étudiant quelles espèces possèdent une protéine TRAAK sensible à la lumière et leurs caractéristiques écologiques.
Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Marion Bied a reçu des financements de la Fondation pour la Recherche Médicale (FRM).
Guillaume Sandoz a reçu des financements de la Fondation pour la Recherche Médicale, l'Agence Nationale de la Recherche
01.02.2026 à 10:17
Le traitement des eaux usées est essentiel pour éviter la pollution de l’environnement et ses impacts potentiels sur la santé humaine. Différentes pistes existent pour rendre les stations d’épuration plus efficientes, et donc réduire le prix de l’eau.
En France, le coût du traitement de l’eau (ou « assainissement collectif ») représente 40 % de son prix de vente. Un ménage paie en moyenne 260 euros par an juste pour l’assainissement… dont plus de 35 euros directement imputable à la consommation d’énergie des stations d’épuration.
Au vu de la volatilité du prix de l’énergie, de nouvelles solutions émergent pour réduire drastiquement la consommation énergétique des stations de traitement. Des solutions qui utilisent des bactéries électriques !
Les technologies d’épuration des eaux usées sont connues de longue date et très matures. Leur principe est relativement simple : il s’agit de soustraire (ou mieux, d’éliminer) les polluants de l’eau, du plus gros au plus petit. Dans ces étapes, celle dite d’aération est une étape clef… mais c’est également la principale consommatrice d’énergie !
Le processus commence en général par des grilles et tamis permettant de retirer la fraction solide volumineuse (branches, détritus, cailloux…) présente les eaux usées à l’entrée de la station.
Vient alors l’étape de séparation du sable (grosses particules) qui décante assez facilement au fond du bassin de traitement, et des huiles moins denses que l’eau, récupérées à la surface.
Les particules plus légères sont encore trop nombreuses et trop lentes à décanter au fond du bassin – certaines peuvent mettre des mois à décanter ! Des lamelles insérées en biais permettent de les rapprocher du fond du bassin, et de diminuer ainsi leur temps de décantation. Des produits chimiques sont également ajoutés (floculants) pour agréger les particules entre elles et les rendre plus lourdes. On parle de traitement primaire.
Ensuite, le bassin d’aération constitue le cœur de la station de traitement. Il s’agit tout simplement d’aérer l’eau en permanence pendant un certain temps grâce à des bulleurs au fond du bassin. Cette aération permet à des microorganismes de se développer et de décomposer toute la matière organique encore présente. Sans cette aération, les microorganismes efficaces ne se développent plus, l’eau croupit, et la matière organique se dégrade peu (pensez à l’eau des tourbières, ou simplement celle des flaques d’eau qui ne sont jamais remuées). L’aération est le principal poste de consommation de la station, responsable de 40 à 80 % de l’énergie utilisée. Cette énergie est nécessaire au fonctionnement des pompes et surpresseurs employés pour injecter de l’air en continu dans le bassin. On parle de traitement secondaire.
Dans la plupart des stations d’épuration existantes, à la suite du traitement biologique par aération, l’eau passe de nouveau dans un bassin de décantation (décantation secondaire ou clarificateur) pour faire sédimenter les milliards de bactéries mortes.
Enfin, l’eau est rejetée dans la nature.
Il existe donc un enjeu important dans le monde de l’assainissement : comment limiter la consommation d’énergie liée à l’aération, tout en traitant aussi bien les eaux usées et sans faire exploser les coûts ?
Car si l’aération fonctionne aussi bien, c’est parce qu’elle permet une oxygénation de l’eau, et que les microorganismes qui se développent dans les milieux oxygénés sont très efficaces pour dégrader la matière organique.
En effet, l’oxygène est un élément naturellement oxydant, c’est-à-dire qu’il est avide d’électrons. À l’inverse, la matière organique est riche en électrons du fait de son important nombre de liaisons Carbone. La présence d’oxygène facilite la rupture des liaisons Carbone, les électrons libérés étant transférés vers l’oxygène. Ce transfert est naturellement lent (heureusement, sinon, nous brûlerions instantanément), mais il est accéléré par la présence des bactéries, véritables usines de décomposition). C’est bien ce qui est souhaité dans cette étape : casser les chaînes de carbone jusqu’à obtenir des éléments simples, non assimilables par des bactéries pathogènes en aval dans les cours d’eau.
Si l’on décide de se passer d’aération, l’oxygène devient difficilement accessible, et la dégradation peu efficace. Sauf si on utilise des microorganismes un peu spéciaux.
Par exemple, à Villeurbanne (Rhône), une station d’épuration utilise des microorganismes capables de digérer les boues des stations d’épuration et de fabriquer du méthane, qui est injecté dans le réseau de gaz de ville.
Dans notre groupe de recherche, nous explorons une autre piste : celle des bactéries électriques !
Dès le début des années 2000, les chercheurs ont redécouvert des bactéries « électriques ». Ces bactéries, telles des araignées dans le monde microscopique, ont la capacité de fabriquer des fils de taille nanométrique, qui ont la curieuse propriété d’être conducteurs électriques. Nul besoin d’oxygène en leur sein : il suffit de se connecter à un oxydant externe, qui peut être plus loin. Imaginez-vous être capable de respirer grâce à un fil dont un bout reste exposé à l’air libre, peu importe l’endroit dans lequel vous vous trouvez.
Pour en revenir au traitement de l’eau, voici l’idée : plutôt que d’amener l’oxygène aux bactéries par l’aération, les bactéries électriques présentes dans tout le bassin se connectent à un matériau conducteur présent sur toute la colonne d’eau et s’y développent. Ainsi, les bactéries sont connectées à l’oxygène de la surface. Pour cela, l’eau transite dans des structures en carbone conducteur appelées « biofiltres électro-actifs », sur lesquelles se développent les bactéries électriques. Plus besoin d’aérer : si un chemin électrique existe entre la bactérie et l’air ambiant, elle dégradera presque aussi bien la matière organique l’environnant.
L’avantage est considérable : une fois installé, le système est passif, nécessite un faible entretien, et régénérable à l’infini. Ces systèmes sont déjà proposés à la vente pour les petites stations de traitement, notamment par la start-up espagnole METfilter.
Cerise sur le gâteau : ces bactéries « électriques » existent spontanément dans l’environnement, elles n’ont pas à être artificiellement ajoutées au système et sont sélectionnées naturellement par la présence du matériau carboné.
Si cette piste nous semble prometteuse pour diminuer la facture d’électricité des stations d’épuration, ces bactéries ne dégradent pas tout : résidus de médicaments, PFAS, et autres substances résiduelles dans notre eau traversent encore les stations de traitement, et se retrouvent disséminées dans l’environnement. Les solutions techniques étant encore très énergivores, chaque économie d’énergie sur l’ensemble de la chaîne est un pas vers un traitement plus vertueux de nos eaux usées.
Le projet IRONTECH est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Grégory Bataillou a travaillé comme Post-Doctorant sur le financement ANR appelé IRONTECH qui vise à utiliser du Fer et des bactéries actives pour dénitrifier les effluents agro-industriels.
29.01.2026 à 16:03
Chaque jour, sans même y penser, nous classons les choses : ranger les livres de la bibliothèque selon le genre, classer les e-mails… Mais comment classer des éléments quand on ne dispose pas d’une classification existante ? Les mathématiques peuvent répondre à ce type de questions. Ici, une illustration sur le télétravail.
Dans le cadre du télétravail, nous nous sommes posé la question de savoir si les télétravailleurs peuvent être regroupés en fonction de leur perception de l’autonomie et du contrôle organisationnel.
Ceci nous a permis de justifier mathématiquement que deux grandes classes de télétravailleurs existent, et que leur vision du télétravail diffère. Ceci peut permettre aux managers et aux services de ressources humaines d’adapter le management de chacun en fonction de son profil.
Nous avons considéré 159 télétravailleurs. Pour classer les individus, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela on identifie des « profils type » à partir de l’évaluation de « construits », qui sont des ensembles de critères qui traitent le même sujet.
Dans notre étude, les construits principaux sont le contrôle et l’autonomie. On évalue ces deux construits grâce à plusieurs questions posées aux télétravailleurs, par exemple « J’ai l’impression d’être constamment surveillé·e par l’utilisation de la technologie à la maison ». Ceux-ci donnent leur réponse sur une échelle en 5 points (de 1-pas du tout d’accord à 5-tout à fait d’accord).
Ensuite, chaque télétravailleur est représenté par une ligne de données : ce sont les réponses du télétravailleur dans l’ordre des critères. Par exemple pour le collaborateur 1, on peut voir les réponses (3, 1, 3, 2…), voir figure.
Pour regrouper les télétravailleurs, il faut d’abord mesurer à quel point ils se ressemblent. Pour cela, on mesure la distance entre les profils (en utilisant des distances euclidiennes). Cette notion de distance est très importante, car c’est elle qui quantifie la similitude entre deux télétravailleurs. Plus deux profils sont proches, plus ils auront vocation à être dans la même classe.
Si on considère autant de classes que de personnes, la séparation est parfaite mais le résultat est sans intérêt. L’enjeu est donc double : avoir un nombre raisonnable de classes distinctes tel que, dans chaque classe, les individus soient suffisamment semblables.
À lire aussi : Maths au quotidien : pourquoi votre assurance vous propose un contrat avec franchise
Nous avons utilisé la méthode de classification ascendante hiérarchique, qui consiste à regrouper les individus les plus semblables possibles dans une même classe tandis que les classes restent dissemblables.
Plus précisément, au début, chaque télétravailleur est traité comme une classe et on essaie de regrouper deux ou plusieurs classes de manière appropriée pour former une nouvelle classe. On continue ainsi « jusqu’à obtenir la classe tout entière, c’est-à-dire l’échantillon total ». L’arbre aussi obtenu (dendrogramme) peut être coupé à différents niveaux.
Une question importante se pose alors : comment choisir le nombre de classes ? Il existe plusieurs méthodes. Par exemple, la méthode du coude : le point où la courbe (variance intra-classe en fonction du nombre de classes) « fait un coude » correspond au nombre de classes à retenir. Cela signifie que si « on ajoute une classe de plus, on gagne peu en précision ». Dans notre étude, le nombre de classes retenu est deux.
Afin d’améliorer notre classification, nous poursuivons avec une méthode de classification non hiérarchique (k-means) qui répartit à nouveau les télétravailleurs dans deux classes (mais ceux-ci sont légèrement différents) tout en minimisant la distance aux « centres » de classes (scores moyens des critères de chaque classe trouvés précédemment).
Nous découvrons alors deux classes de télétravailleurs mieux répartis : les « satellites-autonomes » et les « dépendants-contrôlés ».
Une fois la classification trouvée, on s’intéresse alors à analyser les scores moyens par rapport aux autres construits du modèle, en l’occurrence l’expérience du télétravailleur. Les « satellites autonomes » ont une vision globalement plus positive de leur travail que les « dépendants contrôlés » et estiment que leurs conditions de travail se sont améliorées depuis la mise en place du télétravail.
Il existe bien sûr des limites à notre étude : il faudra en tester la robustesse, répéter l’analyse avec des sous-échantillons ou d’autres échantillons de télétravailleurs et encore tester plusieurs méthodes de classification. Une nouvelle enquête pourra montrer si le nombre ou la nature des classes que nous avons trouvées évolue. Mais il est important de noter que ce résultat (deux profils de télétravailleurs) est le fruit d’une démarche mathématique et statistique rigoureuse, qui complète les études antérieures qualitatives.
La classification est un outil bien connu en matière de gestion des ressources humaines. Par exemple, elle consiste à « peser » le poste et le positionner dans une grille prédéfinie en comparant son profil aux caractéristiques de quelques postes repères. Chaque convention collective dispose d’une grille de classification. C’est la loi du 23 décembre 1946 et les arrêtés Parodi-Croizat du 11 avril 1946 qui avaient ouvert la voie de la classification des ouvriers en sept échelons.
À l’aide des mathématiques, notre classification montre que le télétravail ne peut pas être géré comme un dispositif unique. Chaque profil correspond à des besoins et à des dynamiques organisationnelles spécifiques. Savoir qu’il existe deux profils majoritaires permet de proposer des actions différenciantes dans l’accompagnement des télétravailleurs.
Les mathématiques sont ici un outil au service du manager et aident à voir des structures invisibles dans un ensemble complexe de données. Il s’agit d’un outil d’aide à la décision.
Rien à déclarer
Caroline Diard et Niousha Shahidi ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
29.01.2026 à 16:03
Alors que le Comité international olympique (CIO) adopte le jugement assisté par l’intelligence artificielle, cette technologie promet une plus grande cohérence et une meilleure transparence. Pourtant, les résultats de la recherche suggèrent que la confiance, la légitimité et les valeurs culturelles comptent autant que la précision technique.
En 2024, le CIO a dévoilé son agenda olympique de l’intelligence artificielle (IA), positionnant celle-ci comme un pilier central des futurs Jeux olympiques. Cette vision a été renforcée lors du tout premier Forum olympique sur l’IA, organisé en novembre 2025, où athlètes, fédérations, partenaires technologiques et décideurs politiques ont discuté de la manière dont l’IA pourrait soutenir le jugement, la préparation des athlètes et l’expérience des fans.
Aux Jeux olympiques d’hiver de 2026 de Milan-Cortina qui démarrent vendredi 6 février, le CIO envisage d’utiliser l’IA pour soutenir le jugement en patinage artistique (épreuves individuelles et en couple, hommes et femmes), en aidant les juges à identifier précisément le nombre de rotations effectuées lors d’un saut.
Son utilisation s’étendra également à des disciplines, telles que le big air, le halfpipe et le saut à ski (des épreuves de ski et de snowboard où les athlètes enchaînent des sauts et figures aériennes), où des systèmes automatisés pourront mesurer la hauteur des sauts et les angles de décollage. À mesure que ces systèmes passent de l’expérimentation à un usage opérationnel, il devient essentiel d’examiner ce qui pourrait bien se passer… ou mal se passer.
Dans les sports olympiques tels que la gymnastique et le patinage artistique, qui reposent sur des panels de juges humains, l’IA est de plus en plus présentée par les fédérations internationales et les instances sportives comme une solution aux problèmes de biais, d’incohérence et de manque de transparence. En effet, les juges doivent évaluer des mouvements complexes réalisés en une fraction de seconde, souvent depuis des angles de vue limités, et ce pendant plusieurs heures consécutives.
Les analyses post-compétition montrent que les erreurs involontaires et les divergences entre juges ne sont pas des exceptions. Cela s’est à nouveau matérialisé en 2024, lorsqu’une erreur de jugement impliquant la gymnaste américaine Jordan Chiles lors des Jeux olympiques de Paris a déclenché une vive polémique. En finale du sol, Chiles avait initialement reçu une note qui la plaçait à la quatrième place. Son entraîneur a alors introduit une réclamation, estimant qu’un élément technique n’avait pas été correctement pris en compte dans la note de difficulté. Après réexamen, la note a été augmentée de 0,1 point, permettant à Chiles d’accéder provisoirement à la médaille de bronze. Cette décision a toutefois été contestée par la délégation roumaine, qui a fait valoir que la réclamation américaine avait été déposée hors délai, dépassant de quatre secondes la fenêtre réglementaire d’une minute. L’épisode a mis en lumière la complexité des règles, la difficulté pour le public de suivre la logique des décisions, et la fragilité de la confiance accordée aux panels de juges humains.
Par ailleurs, des cas de fraude ont également été observés : on se souvient notamment du scandale de jugement en patinage artistique lors des Jeux olympiques d’hiver de Salt Lake City en 2002. À l’issue de l’épreuve en couple, des accusations ont révélé qu’une juge aurait favorisé un duo en échange d’un soutien promis dans une autre compétition, mettant au jour des pratiques d’échanges de votes au sein du panel de juges. C’est précisément en réponse à ce type d’incidents que des systèmes d’IA ont été développés, notamment par Fujitsu en collaboration avec la Fédération internationale de gymnastique.
Nos recherches sur le jugement assisté par l’IA en gymnastique artistique montrent que la question ne se résume pas à savoir si les algorithmes sont plus précis que les humains. Les erreurs de jugement proviennent souvent des limites de la perception humaine, ainsi que de la vitesse et de la complexité des performances de haut niveau, ce qui rend l’IA attrayante. Cependant, notre étude impliquant juges, gymnastes, entraîneurs, fédérations, fournisseurs de technologies et fans met en lumière une série de tensions.
L’IA peut être trop exacte, évaluant les routines avec un niveau de précision qui dépasse ce que les corps humains peuvent réalistement exécuter. Par exemple, là où un juge humain apprécie visuellement si une position est correctement tenue, un système d’IA peut détecter qu’un angle de jambe ou de bras s’écarte de quelques degrés seulement de la position idéale, pénalisant une athlète pour une imperfection imperceptible à l’œil nu. Si l’IA est souvent présentée comme objective, de nouveaux biais peuvent émerger à travers la conception et la mise en œuvre des systèmes. Par exemple, un algorithme entraîné principalement sur des performances masculines ou sur des styles dominants peut pénaliser involontairement certaines morphologies. En outre, l’IA peine à prendre en compte l’expression artistique et les émotions, des éléments considérés comme centraux dans des sports tels que la gymnastique et le patinage artistique. Enfin, si l’IA promet une plus grande cohérence, son maintien exige une supervision humaine continue afin d’adapter les règles et les systèmes à l’évolution des disciplines.
Nos recherches montrent que ces préoccupations sont encore plus marquées dans les sports d’action comme le snowboard et le ski freestyle. Beaucoup de ces disciplines ont été ajoutées au programme olympique afin de moderniser les Jeux et d’attirer un public plus jeune. Pourtant, des chercheurs avertissent que l’inclusion olympique peut accélérer la commercialisation et la standardisation, au détriment de la créativité et de l’identité de ces sports.
Un moment emblématique remonte à 2006, lorsque la snowboardeuse américaine Lindsey Jacobellis a perdu la médaille d’or olympique après avoir effectué un geste acrobatique consistant à saisir sa planche en plein saut en plein saut alors qu’elle menait la finale de snowboard cross. Ce geste, célébré dans la culture de son sport, a entraîné une chute qui lui a coûté la médaille d’or.
Le jugement assisté par l’IA ajoute de nouvelles couches à cette tension. Des travaux antérieurs sur le halfpipe en snowboard avaient déjà montré comment les critères de jugement peuvent, avec le temps, remodeler subtilement les styles de performance. Contrairement à d’autres sports jugés, les sports d’action accordent une importance particulière au style et à la prise de risque, des éléments particulièrement difficiles à formaliser algorithmiquement.
Pourtant, l’IA a déjà été testée lors des X Games 2025, notamment pendant les compétitions de snowboard SuperPipe, une version de grande taille du halfpipe, avec des parois plus hautes permettant des sauts plus amples et plus techniques. Des caméras vidéo ont suivi les mouvements de chaque athlète, tandis que l’IA analysait les images afin de produire une note de performance indépendante. Ce système était testé en parallèle du jugement humain, les juges continuant à attribuer les résultats officiels et les médailles.
Cet essai n’a toutefois pas modifié les résultats officiels, et aucune comparaison publique n’a été communiquée quant à l’alignement entre les notes produites par l’IA et celles des juges humains. Néanmoins, les réactions ont été très contrastées : certains acteurs saluent une plus grande cohérence et transparence, tandis que d’autres ont averti que les systèmes d’IA ne sauraient pas quoi faire lorsqu’un athlète introduit une nouvelle figure – souvent très appréciée des juges humains et du public.
L’influence de l’IA dépasse largement le seul cadre du jugement. À l’entraînement, le suivi des mouvements et l’analyse de la performance orientent de plus en plus le développement technique et la prévention des blessures, façonnant la manière dont les athlètes se préparent à la compétition. Parallèlement, l’IA transforme l’expérience des fans grâce à des ralentis enrichis, des visualisations biomécaniques et des explications en temps réel des performances.
Ces outils promettent davantage de transparence, mais ils cadrent aussi la manière dont les performances sont interprétées, avec davantage de « storytelling » autour de ce qui peut être mesuré, visualisé et comparé.
L’Agenda olympique de l’IA reflète l’ambition de rendre le sport plus juste, plus transparent et plus engageant. Toutefois, à mesure que l’IA s’intègre au jugement, à l’entraînement et à l’expérience des fans, elle joue aussi un rôle discret mais puissant dans la définition de ce qui constitue l’excellence. Si les juges d’élite sont progressivement remplacés ou marginalisés, les effets pourraient se répercuter à tous les niveaux : formation des juges, développement des athlètes et évolutions des sports eux-mêmes.
Le défi auquel sont confrontés les sports du programme olympique n’est donc pas seulement technologique ; il est institutionnel et culturel. Comment éviter que l’IA ne vide de leur substance les valeurs qui donnent à chaque sport son sens ?
Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 14:43
Le site de la grotte aux Hominidés à Casablanca, sur la côte atlantique du Maroc, offre l’un des registres de restes humains les plus importants d’Afrique du Nord. Il est connu depuis 1969 et étudié par des missions scientifiques impliquant le Maroc et la France. Ce site éclaire une période cruciale de l’évolution humaine : celle de la divergence entre les lignées africaines qui donneront nos ancêtres directs, les Néandertaliens en Europe et les Dénisoviens en Asie.
Une étude très récente publiée dans Nature décrit des fossiles d’hominines datés de 773 000 ans. Le groupe des hominines rassemble à toutes les espèces qui ont précédé la nôtre depuis la divergence de la lignée des chimpanzés. Ces fossiles (des vertèbres, des dents et des fragments de mâchoires) ont été découverts dans une carrière qui a fait l’objet de fouilles pendant de nombreuses années. Les découvertes les plus importantes et les plus spectaculaires ont eu lieu en 2008-2009. La raison pour laquelle ce matériel n’avait pas été révélé plus tôt à la communauté scientifique et au public est que nous n’avions pas de datation précise.
Grâce à l’étude du paléomagnétisme, nous avons finalement pu établir une datation très précise. Cette technique a été mise en œuvre par Serena Perini et Giovanni Muttoni de l’Université de Milan (Italie). Ces chercheurs s’intéressent à l’évolution du champ magnétique terrestre. Le pôle Nord magnétique se déplace au cours du temps, mais il y a aussi de très grandes variations : des inversions. À certaines époques, le champ devient instable et finit par se fixer dans une position inverse de la précédente. Ce phénomène laisse des traces dans les dépôts géologiques sur toute la planète.
Certaines roches contiennent des particules sensibles au champ magnétique, comme des oxydes de fer, qui se comportent comme les aiguilles d’une boussole. Au moment où ces particules se déposent ou se fixent (dans des laves ou des sédiments), elles « fossilisent » l’orientation du champ magnétique de l’époque. Nous connaissons précisément la chronologie de ces inversions passées du champ magnétique terrestre et, dans cette carrière marocaine, nous avons identifié une grande inversion datée de 773 000 ans (l’inversion Brunhes-Matuyama). Les fossiles se trouvent précisément (et par chance) dans cette couche.
En Afrique, nous avons pas mal de fossiles humains, mais il y avait une sorte de trou dans la documentation entre un million d’années et 600 000 ans avant le présent. C’était d’autant plus embêtant que c’est la période pendant laquelle les chercheurs en paléogénétique placent la divergence entre les lignées africaines (qui vont donner nos ancêtres directs), les ancêtres des Néandertaliens en Europe et les formes asiatiques apparentées (les Dénisoviens).
Ce nouveau matériel remplit donc un vide et documente une période de l’évolution humaine assez mal connue. Ils nous permettent d’enraciner très loin dans le temps les ancêtres de notre espèce – les prédécesseurs d’Homo sapiens – qui ont vécu dans la région de Casablanca.
Le manque d’informations pour la période précédant Homo sapiens (entre 300 000 ans et un million d’années) a poussé quelques chercheurs à spéculer sur une origine eurasienne de notre espèce, avant un retour en Afrique. Je pense qu’il n’y a pas vraiment d’argument scientifique pour cela. Dans les débuts de la paléoanthropologie, les Européens avaient du mal à imaginer que l’origine de l’humanité actuelle ne se place pas en Europe.
Plus tard, au cours du XXᵉ siècle, le modèle prépondérant a été celui d’une origine locale des différentes populations actuelles (les Asiatiques en Chine, les Aborigènes australiens en Indonésie et les Européens avec Néandertal). Ce modèle a été depuis largement abandonné face notamment aux preuves génétiques pointant vers une origine africaine de tous les hommes actuels.
Notre découverte ne clôt peut-être pas définitivement le débat, mais elle montre que, dans ce qui était un vide documentaire, nous avons des fossiles en Afrique qui représentent un ancêtre très plausible pour les Sapiens. On n’a donc pas besoin de les faire venir d’ailleurs.
Nous avons en projet de réaliser le séquençage des protéines fossiles peut-être préservées dans ces ossements. Si ces analyses sont couronnées de succès, elles apporteront des éléments supplémentaires à la compréhension de leur position dans l’arbre des origines humaines.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Jean-Jacques Hublin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
28.01.2026 à 11:56

Des mythes antiques à la tête parlante du pape, de Prométhée aux algorithmes modernes, l’intelligence artificielle (IA) puise dans notre fascination intemporelle pour la création et le pouvoir de la connaissance.
Il semble que l’engouement pour l’intelligence artificielle (IA) ait donné naissance à une véritable bulle spéculative. Des bulles, il y en a déjà eu beaucoup, de la tulipomanie du XVIIe siècle à celle des subprimes du XXIe siècle. Pour de nombreux commentateurs, le précédent le plus pertinent aujourd’hui reste la bulle Internet des années 1990. À l’époque, une nouvelle technologie – le World Wide Web – avait déclenché une vague d’« exubérance irrationnelle ». Les investisseurs déversaient des milliards dans n’importe quelle entreprise dont le nom contenait « .com ».
Trois décennies plus tard, une autre technologie émergente déclenche une nouvelle vague d’enthousiasme. Les investisseurs injectent à présent des milliards dans toute entreprise affichant « IA » dans son nom. Mais il existe une différence cruciale entre ces deux bulles, qui n’est pas toujours reconnue. Le Web existait. Il était bien réel. L’intelligence artificielle générale, elle, n’existe pas, et personne ne sait si elle existera un jour.
En février, le PDG d’OpenAI, Sam Altman, écrivait sur son blog que les systèmes les plus récents commencent tout juste à « pointer vers » l’IA dans son acception « générale ». OpenAI peut commercialiser ses produits comme des « IA », mais ils se réduisent à des machines statistiques qui brassent des données, et non des « intelligences » au sens où on l’entend pour un être humain.
Pourquoi, dès lors, les investisseurs sont-ils si prompts à financer ceux qui vendent des modèles d’IA ? L’une des raisons tient peut-être au fait que l’IA est un mythe technologique. Je ne veux pas dire par là qu’il s’agit d’un mensonge, mais que l’IA convoque un récit puissant et fondateur de la culture occidentale, celui des capacités humaines de création. Peut-être les investisseurs sont-ils prêts à croire que l’IA est pour demain, parce qu’elle puise dans des mythes profondément ancrés dans leur imaginaire ?
Le mythe le plus pertinent pour penser l’IA est celui de Prométhée, issu de la Grèce antique. Il en existe de nombreuses versions, mais les plus célèbres se trouvent dans les poèmes d’Hésiode, la Théogonie et les Travaux et les Jours, ainsi que dans la pièce Prométhée enchaîné, traditionnellement attribuée à Eschyle.
Prométhée était un Titan, un dieu du panthéon grec antique. C’était aussi un criminel, coupable d’avoir dérobé le feu à Héphaïstos, le dieu forgeron. Dissimulé dans une tige de fenouil, le feu fut apporté sur Terre par Prométhée, qui l’offrit aux humains. Pour le punir, il fut enchaîné à une montagne, où un aigle venait chaque jour lui dévorer le foie.
Le don de Prométhée n’était pas seulement celui du feu ; c’était celui de l’intelligence. Dans Prométhée enchaîné, il affirme qu’avant son don, les humains voyaient sans voir et entendaient sans entendre. Après celui-ci, ils purent écrire, bâtir des maisons, lire les étoiles, pratiquer les mathématiques, domestiquer les animaux, construire des navires, inventer des remèdes, interpréter les rêves et offrir aux dieux des sacrifices appropriés.
Le mythe de Prométhée est un récit de création d’un genre particulier. Dans la Bible hébraïque, Dieu ne confère pas à Adam le pouvoir de créer la vie. Prométhée, en revanche, transmet aux humains une part du pouvoir créateur des dieux.
Hésiode souligne cet aspect du mythe dans la Théogonie. Dans ce poème, Zeus ne punit pas seulement Prométhée pour le vol du feu ; il châtie aussi l’humanité. Il ordonne à Héphaïstos d’allumer sa forge et de façonner la première femme, Pandore, qui déchaîne le mal sur le monde. Or le feu qu’Héphaïstos utilise pour créer Pandore est le même que celui que Prométhée a offert aux humains.
Les Grecs ont avancé l’idée que les humains sont eux-mêmes une forme d’intelligence artificielle. Prométhée et Héphaïstos recourent à la technique pour fabriquer les hommes et les femmes. Comme le montre l’historienne Adrienne Mayor dans son ouvrage Gods and Robots, les Anciens représentaient souvent Prométhée comme un artisan, utilisant des outils ordinaires pour créer des êtres humains dans un atelier tout aussi banal.
Si Prométhée nous a donné le feu des dieux, il semble logique que nous puissions utiliser ce feu pour fabriquer nos propres êtres intelligents. De tels récits abondent dans la littérature grecque antique, de l’inventeur Dédale, qui créa des statues capables de prendre vie, à la magicienne Médée, qui savait rendre la jeunesse et la vigueur grâce à ses drogues ingénieuses. Les inventeurs grecs ont également conçu des calculateurs mécaniques pour l’astronomie ainsi que des automates remarquables, mues par la gravité, l’eau et l’air.
Deux mille sept cents ans se sont écoulés depuis qu’Hésiode a consigné pour la première fois le mythe de Prométhée. Au fil des siècles, ce récit a été repris sans relâche, en particulier depuis la publication, en 1818, de Frankenstein ; ou le Prométhée moderne de Mary Shelley.
Mais le mythe n’est pas toujours raconté comme une fiction. Voici deux exemples historiques où le mythe de Prométhée semble s’être incarné dans la réalité.
Gerbert d’Aurillac fut le Prométhée du Xe siècle. Né au début des années 940 de notre ère, il étudia à l’abbaye d’Aurillac avant de devenir moine à son tour. Il entreprit alors de maîtriser toutes les branches du savoir connues de son temps. En 999, il fut élu pape. Il mourut en 1003 sous son nom pontifical de Sylvestre II.
Des rumeurs sur Gerbert se répandirent rapidement à travers l’Europe. Moins d’un siècle après sa mort, sa vie était déjà devenue légendaire. L’une des légendes les plus célèbres, et la plus pertinente à l’ère actuelle de l’engouement pour l’IA, est celle de la « tête parlante » de Gerbert. Cette légende fut racontée dans les années 1120 par l’historien anglais Guillaume de Malmesbury dans son ouvrage reconnu et soigneusement documenté, la Gesta Regum Anglorum (Les actions des rois d’Angleterre).
Gerbert possédait des connaissances approfondies en astronomie, une science de la prévision. Les astronomes pouvaient utiliser l’astrolabe pour déterminer la position des étoiles et prévoir des événements cosmiques, comme les éclipses. Selon Guillaume, Gerbert aurait mis son savoir en astronomie au service de la création d’une tête parlante. Après avoir observé les mouvements des étoiles et des planètes, il aurait façonné une tête en bronze capable de répondre à des questions par « oui » ou par « non ».
Gerbert posa d’abord la question : « Deviendrai-je pape ? »
« Oui », répondit la tête.
Puis il demanda : « Mourrai-je avant d’avoir célébré la messe à Jérusalem ? »
« Non », répondit la tête.
Dans les deux cas, la tête avait raison, mais pas comme Gerbert l’avait prévu. Il devint bien pape et évita judicieusement de partir en pèlerinage à Jérusalem. Un jour cependant, il célébra la messe à la basilique Sainte-Croix-de-Jérusalem à Rome. Malheureusement pour lui, la basilique était alors simplement appelée « Jérusalem ».
Gerbert tomba malade et mourut. Sur son lit de mort, il demanda à ses serviteurs de découper son corps et de disperser les morceaux, afin de rejoindre son véritable maître, Satan. De cette manière, il fut, à l’instar de Prométhée, puni pour avoir volé le feu.
C’est une histoire fascinante. On ne sait pas si Guillaume de Malmesbury y croyait vraiment. Mais il s’est bel et bien efforcé de persuader ses lecteurs que cela était plausible. Pourquoi ce grand historien, attaché à la vérité, aurait-il inséré une légende fantaisiste sur un pape français dans son histoire de l’Angleterre ? Bonne question !
Est-ce si extravagant de croire qu’un astronome accompli puisse construire une machine de prédiction à usage général ? À l’époque, l’astronomie était la science de la prédiction la plus puissante. Guillaume, sobre et érudit, était au moins disposé à envisager que des avancées brillantes en astronomie pourraient permettre à un pape de créer un chatbot intelligent.
Aujourd’hui, cette même possibilité est attribuée aux algorithmes d’apprentissage automatique, capables de prédire sur quelle publicité vous cliquerez, quel film vous regarderez ou quel mot vous taperez ensuite. Il est compréhensible que nous tombions sous le même sortilège.
Le Prométhée du XVIIIe siècle fut Jacques de Vaucanson, du moins si l’on en croit Voltaire :
Le hardi Vaucanson, rival de Prométhée,
Semblait, de la nature imitant les ressorts
Prendre le feu des cieux pour animer les corps.
Vaucanson était un grand mécanicien, célèbre pour ses automates, des dispositifs à horlogerie reproduisant de manière réaliste l’anatomie humaine ou animale. Les philosophes de l’époque considéraient le corps comme une machine – alors pourquoi un mécanicien n’aurait-il pu en construire une ?
Parfois, les automates de Vaucanson avaient aussi une valeur scientifique. Il construisit par exemple un « Flûteur automate » doté de lèvres, de poumons et de doigts, capable de jouer de la flûte traversière de façon très proche de celle d’un humain. L’historienne Jessica Riskin explique dans son ouvrage The Restless Clock que Vaucanson dut faire d’importantes découvertes en acoustique pour que son flûtiste joue juste.
Parfois, ses automates étaient moins scientifiques. Son « Canard digérateur » connut un immense succès, mais se révéla frauduleux. Il semblait manger et digérer de la nourriture, mais ses excréments étaient en réalité des granulés préfabriqués dissimulés dans le mécanisme.
Vaucanson consacra des décennies à ce qu’il appelait une « anatomie en mouvement ». En 1741, il présenta à l’Académie de Lyon un projet visant à construire une « imitation de toutes les opérations animales ». Vingt ans plus tard, il s’y remit. Il obtint le soutien du roi Louis XV pour réaliser une simulation du système circulatoire et affirma pouvoir construire un corps artificiel complet et vivant.
Il n’existe aucune preuve que Vaucanson ait jamais achevé un corps entier. Finalement, il ne put tenir la promesse que soulevait sa réputation. Mais beaucoup de ses contemporains croyaient qu’il en était capable. Ils voulaient croire en ses mécanismes magiques. Ils souhaitaient qu’il s’empare du feu de la vie.
Si Vaucanson pouvait fabriquer un nouveau corps humain, ne pourrait-il pas aussi en réparer un existant ? C’est la promesse de certaines entreprises d’IA aujourd’hui. Selon Dario Amodei, PDG d’Anthropic, l’IA permettra bientôt aux gens « de vivre aussi longtemps qu’ils le souhaitent ». L’immortalité semble un investissement séduisant.
Sylvestre II et Vaucanson furent de grands maîtres de la technologie, mais aucun des deux ne fut un Prométhée. Ils ne volèrent nul feu aux dieux. Les aspirants Prométhée de la Silicon Valley réussiront-ils là où leurs prédécesseurs ont échoué ? Si seulement nous avions la tête parlante de Sylvestre II, nous pourrions le lui demander.
Michael Falk a reçu des financements de l'Australian Research Council.
27.01.2026 à 16:26
Dans un contexte où la production scientifique est soumise à des pressions multiples, où les théories pseudoscientifiques circulent sur les réseaux sociaux, l’intégrité scientifique apparaît plus que jamais comme l’un des piliers de la confiance dans la science. Nous vous proposons de découvrir les conclusions de l’ouvrage L’intégrité scientifique. Sociologie des bonnes pratiques, de Catherine Guaspare et Michel Dubois aux éditions PUF, en 2025.
L’intégrité scientifique est une priorité institutionnelle qui fait consensus. Par-delà la détection et le traitement des méconduites scientifiques, la plupart des organismes d’enseignement supérieur et de recherche partagent aujourd’hui un même objectif de promouvoir une culture des bonnes pratiques de recherche.
Il est tentant d’inscrire cette culture dans une perspective historique : la priorité accordée aujourd’hui à l’intégrité n’étant qu’un moment dans une histoire plus longue, celle des régulations qui s’exercent sur les conduites scientifiques. Montgomery et Oliver ont par exemple proposé de distinguer trois grandes périodes dans l’histoire de ces régulations : la période antérieure aux années 1970 caractérisée par l’autorégulation de la communauté scientifique, la période des années 1970-1990 caractérisée par l’importance accordée à la détection et la prévention des fraudes scientifiques et, depuis les années 1990 et la création de l’Office of Research Integrity, première agence fédérale américaine chargée de l’enquête et de la prévention des manquements à l’intégrité dans la recherche biomédicale financée sur fonds publics, la période de l’intégrité scientifique et de la promotion des bonnes pratiques.
Cette mise en récit historique de l’intégrité peut sans doute avoir une valeur heuristique, mais comme tous les grands récits, celui-ci se heurte aux faits. Elle laisse croire que la communauté scientifique, jusque dans les années 1970, aurait été capable de définir et de faire appliquer par elle-même les normes et les valeurs de la recherche. Pourtant, la régulation qui s’exerce par exemple sur la recherche biomédicale est très largement antérieure aux années 1970, puisqu’elle prend forme dès l’après-Seconde Guerre mondiale avec le Code de Nuremberg (1947), se renforce avec la Déclaration d’Helsinki (1964) et s’institutionnalise progressivement à travers les comités d’éthique et les dispositifs juridiques de protection des personnes.
Elle laisse ensuite penser que la détection des fraudes scientifiques comme la promotion des bonnes pratiques seraient autant de reculs pour l’autonomie de la communauté scientifique. Mais, à y regarder de plus près, les transformations institutionnelles – l’adoption de la charte nationale de déontologie des métiers de la recherche en 2015, la création de l’Office français de l’intégrité scientifique en 2017, l’entrée de l’intégrité dans la loi en 2020 –, sont le plus souvent portées par des représentants de la communauté scientifique. Et ce qui peut paraître, de loin, une injonction du politique faite au scientifique relève fréquemment de l’auto-saisine, directe ou indirecte, de la communauté scientifique. L’entrée en politique de l’intégrité scientifique démontre la capacité d’une partie limitée de la communauté scientifique à saisir des fenêtres d’opportunité politique. À l’évidence, pour la France, la période 2015-2017 a été l’une de ces fenêtres, où, à la faveur d’une affaire retentissante de méconduite scientifique au CNRS en 2015, du rapport porté par Pierre Corvol en 2016, de la lettre circulaire de Thierry Mandon en 2017, ces questions passent d’un débat professionnel à un objet de politique publique structuré.
Enfin, ce récit historique de l’intégrité semble suggérer qu’à la culture institutionnelle de détection des fraudes scientifiques, caractéristique des années 1970-1990, viendrait désormais se substituer une culture, plus positive, des bonnes pratiques et de la recherche responsable. Certes, l’innovation et la recherche responsables sont autant de mots-clés désormais incontournables pour les grandes institutions scientifiques, mais la question de la détection des méconduites demeure plus que jamais d’actualité, et ce d’autant qu’il s’est opéré ces dernières années un déplacement de la détection des fraudes scientifiques vers celle des pratiques discutables. La question de la qualification des méconduites scientifiques comme celle de leur mesure n’ont jamais été autant d’actualité.
Si le sociologue ne peut que gagner à ne pas s’improviser historien des sciences, il ne peut toutefois rester aveugle face aux grandes transformations des sciences et des techniques. En particulier, la communauté scientifique du XXIᵉ siècle est clairement différente de celle du siècle dernier. Dans son rapport 2021, l’Unesco rappelait qu’entre 2014 et 2018 le nombre de chercheurs a augmenté trois fois plus vite que la population mondiale, avec un total de plus de huit millions de chercheurs en équivalent temps plein à travers le monde.
Cette densification de la communauté scientifique n’est pas sans enjeu pour l’intégrité scientifique. Avec une communauté de plus en plus vaste, il faut non seulement être en mesure de parler d’une même voix, normaliser les guides et les chartes, mais s’assurer que cette voix soit entendue par tous. Même si l’institutionnalisation de l’intégrité est allée de pair avec une forme d’internationalisation, tous les pays ne sont pas en mesure de créer les structures et les rôles que nous avons eu l’occasion de décrire.
Par ailleurs, la croissance de la communauté scientifique s’accompagne mécaniquement d’une augmentation du volume des publications scientifiques qui met à mal les mécanismes traditionnels de contrôle. D’où d’ailleurs le développement d’alternatives au mécanisme de contrôle par les pairs. On a beaucoup parlé de la vague de publications liées à la crise de la Covid-19, mais la vague souterraine, peut-être moins perceptible pour le grand public, est plus structurelle : toujours selon les données de l’Unesco, entre 2015 et 2019, la production mondiale de publications scientifiques a augmenté de 21 %. Qui aujourd’hui est capable de garantir la fiabilité d’un tel volume de publications ?
Qui dit enfin accroissement du volume de la communauté scientifique, dit potentiellement densification des réseaux de collaborations internationales, à l’intérieur desquels les chercheurs comme les équipes de recherche sont autant d’associés rivaux. La multiplication des collaborations internationales suppose de pouvoir mutualiser les efforts et de s’assurer de la qualité de la contribution de chacun comme de sa reconnaissance. Nous avons eu l’occasion de souligner l’importance de considérer les sentiments de justice et d’injustice éprouvés par les scientifiques dans la survenue des méconduites scientifiques : une contribution ignorée, un compétiteur qui se voit récompensé tout en s’écartant des bonnes pratiques, des institutions scientifiques qui interdisent d’un côté ce qu’elles récompensent de l’autre, etc., autant de situations qui nourrissent ces sentiments.
Par ailleurs, la multiplication des collaborations, dans un contexte où les ressources (financements, postes, distinctions, etc.) sont par principe contraintes, implique également des logiques de mise en concurrence qui peuvent être vécues comme autant d’incitations à prendre des raccourcis.
Outre la transformation démographique de la communauté scientifique, le sociologue des sciences ne peut ignorer l’évolution des modalités d’exercice du travail scientifique à l’ère numérique. La « datafication » de la science, à l’œuvre depuis la fin du XXᵉ siècle, correspond tout autant à l’augmentation du volume des données numériques de la recherche qu’à l’importance prise par les infrastructures technologiques indispensables pour leur traitement, leur stockage et leur diffusion. L’accessibilité et la diffusion rapide des données de la recherche, au nom de la science ouverte, ouvrent des perspectives inédites pour les collaborations scientifiques. Elles créent une redistribution des rôles et des expertises dans ces collaborations, avec un poids croissant accordé à l’ingénierie des données.
Mais, là encore, cette évolution technologique engendre des défis majeurs en termes d’intégrité scientifique. L’édition scientifique en ligne a vu naître un marché en ligne des revues prédatrices qui acceptent, moyennant paiement, des articles sans les évaluer réellement. Si les outils de l’intelligence artificielle s’ajoutent aux instruments traditionnels des équipes de recherche, des structures commerciales clandestines, les « paper mill » ou usines à papier, détournent ces outils numériques pour fabriquer et vendre des articles scientifiques frauduleux à des auteurs en quête de publications. Si l’immatérialité des données numériques permet une circulation accélérée des résultats de recherche, comme on a pu le voir durant la crise de la Covid-19, elle rend également possibles des manipulations de plus en plus sophistiquées. Ces transformations structurelles créent une demande inédite de vigilance à laquelle viennent répondre, chacun à leur manière, l’évaluation postpublication comme ceux que l’on appelle parfois les nouveaux détectives de la science et qui traquent en ligne les anomalies dans les articles publiés (images dupliquées, données incohérentes, plagiat) et ce faisant contribuent à la mise en lumière de fraudes ou de pratiques douteuses.
À lire aussi : Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac
Plus fondamentalement, cette montée en puissance des données numériques de la recherche engendre des tensions inédites entre l’intégrité scientifique et l’éthique de la recherche. À l’occasion d’un entretien, un physicien, travaillant quotidiennement à partir des téraoctets de données générés par un accélérateur de particules, nous faisait remarquer, avec une pointe d’ironie, qu’il comprenait sans difficulté l’impératif institutionnel d’archiver, au nom de l’intégrité scientifique, l’intégralité de ses données sur des serveurs, mais que ce stockage systématique d’un volume toujours croissant de données entrait directement en contradiction avec l’éthique environnementale de la recherche prônée par ailleurs par son établissement. Intégrité scientifique ou éthique de la recherche ? Faut-il choisir ?
On touche du doigt ici la diversité des dilemmes auxquels sont quotidiennement confrontés les scientifiques dans l’exercice de leurs activités. La science à l’ère numérique évolue dans un équilibre délicat entre l’intégrité scientifique et l’éthique de la recherche. Et l’un des enjeux actuels est sans doute de parvenir à maximiser les bénéfices des technologies numériques tout en minimisant leurs impacts négatifs. D’où la nécessité pour les institutions de recherche de promouvoir une culture de l’intégrité qui puisse dépasser la simple exigence de conformité aux bonnes pratiques, en intégrant les valeurs de responsabilité sociale auxquelles aspire, comme le montrent nos enquêtes, une part croissante de la communauté scientifique.
Le texte a été très légèrement remanié pour pouvoir être lu indépendamment du reste de l’ouvrage en accord avec les auteurs.
Catherine Guaspare et Michel Dubois sont les auteurs du livre L'intégrité scientifique dont cet article est tiré.
Michel Dubois a reçu des financements de l'Agence nationale de la recherche (ANR). Il est directeur de l'Office français de l'intégrité scientifique depuis septembre 2025.
26.01.2026 à 15:01

Une nouvelle étude montre comment la présence prolongée de la mère façonne le développement comportemental, physiologique et cérébral des poulains.
Chez les mammifères sociaux, les relations sociales jouent un rôle déterminant dans le développement. On sait depuis longtemps que la période autour de la naissance est cruciale, lorsque le nouveau-né dépend entièrement de son ou de ses parent(s) pour se nourrir et se protéger. En revanche, ce qui se joue après, lorsque le jeune n’est plus physiquement dépendant de sa mère mais continue de vivre à ses côtés, reste encore mal compris.
Dans une étude récente publiée dans Nature Communications, nous avons exploré chez le cheval cette période souvent négligée du développement. Nos résultats montrent que la présence prolongée de la mère façonne à la fois le cerveau, le comportement
– social en particulier – et la physiologie des poulains.
Le cheval est un modèle particulièrement pertinent pour étudier le rôle du lien parental sur le développement des jeunes. Comme chez l’humain, les mères donnent généralement naissance à un seul petit à la fois, procurent des soins parentaux prolongés et établissent un lien mère-jeune fort sur le plan affectif, individualisé et durable.
Dans des conditions naturelles, les poulains restent avec leur groupe familial, et donc avec leur mère, jusqu’à l’âge de 2 ou 3 ans. En revanche, en élevage ou chez les particuliers, la séparation est le plus souvent décidée par l’humain et intervient bien plus tôt, autour de 6 mois. Ce contraste offre une occasion unique d’étudier l’impact de la présence maternelle sur le développement au-delà de la période néonatale.
Pour isoler l’effet de la présence maternelle, nous avons suivi 24 poulains de l’âge de 6 à 13 mois. Cette période peut être assimilée à celle de l’enfance chez l’être humain. En effet, durant cette période, les poulains ressemblent déjà physiquement à de petits adultes, apparaissent autonomes dans leurs déplacements et consomment très majoritairement des aliments solides, tout en étant encore sexuellement immatures. En d’autres termes, leur survie immédiate ne dépend plus directement de la mère.
Dans notre étude, tous les poulains vivaient ensemble dans un contexte social riche, avec d’autres jeunes et des adultes. La seule différence concernait la présence ou non de leurs mères respectives à partir de l’âge de 6 mois : ainsi, 12 poulains sont restés avec leur mère tandis que 12 autres en ont été séparés, comme c’est fréquemment le cas en élevage.
Durant les sept mois qui ont suivi, nous avons étudié le développement de ces poulains. En éthologie, les comportements sont étudiés de façon quantitative. Nous avons suivi le développement comportemental des poulains à l’aide d’observations et de tests comportementaux standardisés, puis analysé statistiquement ces données pour comparer leurs trajectoires développementales. Ces données ont été complétées par des mesures physiologiques régulières (par exemple, la prise de poids, les concentrations hormonales) et par une approche d’imagerie par résonance magnétique (IRM) pour visualiser les différences fonctionnelles et morphologiques entre nos deux groupes de poulains de manière non invasive.
À lire aussi : Les chevaux nous reconnaissent-ils ?
Les résultats issus de nos observations répétées dans le temps montrent que les poulains bénéficiant de la présence de leur mère interagissaient davantage avec leurs congénères, notamment à travers des comportements positifs, comme le jeu ou le toilettage mutuel, que les poulains séparés de leurs mères. Ils se montraient aussi plus explorateurs et plus à l’aise face à des situations sociales nouvelles, suggérant une plus grande sociabilité.
Autre résultat intéressant, les poulains bénéficiant de la présence de leur mère passaient moins de temps à manger mais prenaient plus de poids, suggérant une croissance plus efficace.
Pour aller plus loin, nous avons combiné ces observations comportementales avec une approche encore rare chez les animaux d’élevage : l’imagerie médicale. Ici nous avons utilisé des techniques d’IRM, permettant d’observer le fonctionnement et l’organisation du cerveau vivant, sans douleur. Ainsi, nous avons pu caractériser le développement cérébral de nos poulains.
Cette approche nous a permis d’identifier, pour la première fois chez le cheval, un réseau cérébral appelé le réseau du mode par défaut. Bien connu chez l’humain et identifié chez une poignée d’autres espèces animales, ce réseau serait impliqué dans l’intégration des pensées introspectives, la perception de soi et des autres. Chez les poulains ayant bénéficié d’une présence maternelle prolongée, ce réseau était plus développé, faisant écho aux meilleures compétences sociales que nous avons observées.
En outre, nous avons observé des différences morphologiques dans une région fortement impliquée dans la régulation physiologique, l’hypothalamus, en lien avec les différences physiologiques et de comportement alimentaire mises en évidence.
Pris dans leur ensemble, nos résultats soulignent l’importance de cette phase du développement, encore peu étudiée chez l’animal, située entre la petite enfance et l’adolescence.
Ils suggèrent que la présence maternelle prolongée induit un développement comportemental, cérébral et physiologique plus harmonieux, qui pourrait contribuer à équiper les jeunes pour leur vie adulte future, notamment dans le domaine de compétences sociales.
Notre travail ne permet pas de définir une règle universelle sur l’âge idéal de séparation chez le cheval. Il montre en revanche que la séparation précoce a des conséquences mesurables, bien au-delà de la seule question alimentaire.
Lorsque les conditions le permettent, garder plus longtemps le poulain avec sa mère pourrait donc constituer un levier simple et favorable au développement du jeune. Cependant, d’autres études sont nécessaires pour évaluer l’impact de ces pratiques sur les mères et les capacités de récupération des poulains après la séparation, par exemple.
Avec grande prudence, ces résultats font aussi écho à ce que l’on observe chez d’autres mammifères sociaux, y compris l’humain : le rôle du parent ou de la/du soignant·e (« caregiver ») comme médiateur entre le jeune et son environnement social et physique pourrait être un mécanisme largement partagé. Le cheval offre ainsi un modèle précieux pour mieux comprendre comment les premières relations sociales façonnent durablement le cerveau et le comportement.
Cette étude a été financée grâce à une bourse européenne HORIZON 2020 Marie Skłodowska-Curie Actions (MSCA) (ref: 101033271, MSCA European Individual Fellowship, https://doi.org/10.3030/101033271) et au Conseil Scientifique de l'Institut Français du Cheval et de l’Equitation (IFCE) (ref: DEVELOPPEMENTPOULAIN).
David Barrière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.01.2026 à 18:12
Comment les spams passent-ils au travers des multiples couches de protection annoncées comme presque infranchissables par les entreprises et par les chercheurs en cybersécurité ?
Les escroqueries existent depuis fort longtemps, du remède miracle vendu par un charlatan aux courriers dans la boîte aux lettres nous promettant monts et merveilles plus ou moins fantasques. Mais le Web a rendu ces canaux moins intéressants pour les arnaqueurs.
Les e-mails de spam et le « phishing » (hameçonnage) se comptent aujourd’hui en millions d’e-mails par an et ont été la porte d’entrée pour des incidents majeurs, comme les fuites d’e-mails internes d’Emmanuel Macron lors de sa campagne présidentielle en 2017, mais aussi le vol de 81 millions de dollars (plus de 69 millions d’euros) à la banque du Bangladesh en 2016.
Il est difficile de quantifier les effets de ces arnaques à l’échelle globale, mais le FBI a recensé des plaintes s’élevant à 2,9 milliards de dollars (soit 2,47 milliards d’euros) en 2023 pour une seule catégorie de ce type d’attaques – les pertes dues aux attaques par e-mail en général sont sûrement beaucoup plus élevées.
Bien sûr, la situation n’est pas récente, et les entreprises proposant des boîtes de messagerie investissent depuis longtemps dans des filtres antispam à la pointe de la technologie et parfois très coûteux. De même pour la recherche académique, dont les détecteurs atteignent des précisions supérieures à 99 % depuis plusieurs années ! Dans les faits pourtant, les signalements de phishing ont bondi de 23 % en 2024.
Pourquoi, malgré ces filtres, recevons-nous chaque jour des e-mails nous demandant si notre compte CPF contient 200 euros, ou bien nous informant que nous aurions gagné 100 000 euros ?
Il faut d’abord comprendre que les e-mails ne sont pas si différents des courriers classiques dans leur fonctionnement. Quand vous envoyez un e-mail, il arrive à un premier serveur, puis il est relayé de serveur en serveur jusqu’à arriver au destinataire. À chaque étape, le message est susceptible d’être bloqué, car, dans cette chaîne de transmission, la plupart des serveurs sont équipés de bloqueurs.
Dans le cadre de ma thèse, j’ai réalisé une étude empirique qui nous a permis d’analyser plus de 380 e-mails de spams et de phishing ayant franchi les filtres mis en place. Nous avons ainsi analysé une dizaine de techniques exploitées dans des proportions très différentes.
La plus répandue de ces techniques est incroyablement ingénieuse et consiste à dessiner le texte sur une image incluse dans l’e-mail plutôt que de l’écrire directement dans le corps du message. L’intérêt est de créer une différence de contenu entre ce que voit l’utilisateur et ce que voient les bloqueurs de spams et de phishing. En effet, l’utilisateur ne fait pas la différence entre « cliquez ici » écrit dans l’e-mail ou « cliquez ici » dessiné avec la même police d’écriture que l’ordinateur. Pourtant, du point de vue des bloqueurs automatisés, cela fait une grosse différence, car, quand le message est dessiné, identifier le texte présent dans l’image demande une analyse très coûteuse… que les bloqueurs ne peuvent souvent pas se permettre de réaliser.
Une autre technique, plus ancienne, observée dans d’autres contextes et recyclée pour franchir les bloqueurs, est l’utilisation de lettres qui sont jumelles dans leur apparence pour l’œil humain mais radicalement différentes. Prenons par exemple un mail essayant de vous faire cliquer sur un lien téléchargeant un virus sur votre téléphone. Un hackeur débutant pourrait envoyer un mail malicieux demandant de cliquer ici. Ce qui serait vu du point de vue de votre ordinateur par 99 108 105 113 117 101 114. Cette suite de nombres est bien évidemment surveillée de près et suspectée par tous les bloqueurs de la chaîne de transmission. Maintenant, un hackeur chevronné, pour contourner le problème, remplacera le l minuscule par un i majuscule (I). De votre point de vue, cela ressemblera à cIiquer ici – avec plus ou moins de réussite en fonction de la police d’écriture. Mais du point de vue de l’ordinateur, cela change tout, car ça devient : 99 76 105 113 117 101 114. Les bloqueurs n’ont jamais vu cette version-là et donc laissent passer le message.
Parmi toutes les techniques que nous avons observées, certaines sont plus avancées que d’autres. Contre les bloqueurs de nouvelle génération, les hackers ont mis au point des techniques spécialisées dans la neutralisation des intelligences artificielles (IA) défensives.
Un exemple observé dans notre étude est l’ajout dans l’e-mail de pages Wikipédia écrites en blanc sur blanc. Ces pages sont complètement hors contexte et portent sur des sujets, tels que l’hémoglobine ou les agrumes, alors que l’e-mail demande d’envoyer des bitcoins. Ce texte, invisible pour l’utilisateur, sert à perturber les détecteurs basés sur des systèmes d’intelligence artificielle en faisant une « attaque adversariale » (montrer une grande quantité de texte anodin, en plus du message frauduleux, de telle sorte que le modèle de détection n’est plus capable de déterminer s’il s’agit d’un e-mail dangereux ou pas).
Et le pire est que la plupart des e-mails contiennent plusieurs de ces techniques pour augmenter leurs chances d’être acceptés par les bloqueurs ! Nous avons dénombré en moyenne 1,7 technique d’obfuscation par e-mails, avec la plupart des e-mails comportant au moins une technique d’obfuscation.
Cet article est le fruit d’un travail collectif entre le Laboratoire de recherche spécialisé dans l’analyse et l’architecture des systèmes (LAAS-CNRS) et le Laboratoire d’études et de recherches appliquées en sciences sociales (LERASS). Je tiens à remercier Guillaume Auriol, Pascal Marchand et Vincent Nicomette pour leur soutien et leurs corrections.
Antony Dalmiere a reçu des financements de l'Université de Toulouse et de l'Institut en Cybersécurité d'Occitanie.
21.01.2026 à 11:36
Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.
Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.
Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de trente heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ trois minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.
Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.
Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.
Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !
Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.
En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars, en revanche, l’atmosphère ténue de CO₂ rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.
Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.
En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.
L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.
Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.
Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.
On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.
Peut-être lors de futures missions ? L’Agence spatiale européenne (ESA) avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.
Franck Montmessin a reçu des financements de l'ANR et du CNES.
Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.