LePartisan - 85 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 25 dernières parutions

23.03.2026 à 15:39

Fusion nucléaire : un nouveau seuil dépassé dans le plus grand tokamak chinois

Dominique Escande, Directeur de Recherche émérite en physique, Aix-Marseille Université (AMU); Centre national de la recherche scientifique (CNRS)
Une nouvelle limite a été franchie dans EAST, un tokamak chinois. Elle est interprétée dans le cadre d’une théorie qui pointe d’autres pistes d’amélioration des expériences de fusion nucléaire.
Texte intégral (1351 mots)
À l’intérieur d’un tokamak en maintenance, en 2017 (ici, aux États-Unis). Ces machines permettent de confiner un plasma, c’est-à-dire une sorte de soupe d’électrons extrêmement actifs, dans lequel peuvent avoir lieu des événements de fusion nucléaire. Rswilcox/Wikipédia, CC BY-SA

Le chemin vers la fusion thermonucléaire est long et semé d’embûches. Une des nombreuses étapes a récemment été franchie dans le plus grand tokamak chinois, EAST, où la limite de densité de plasma qui était observée jusque-là a été dépassée.

Dans un tokamak (un type de machine expérimentale conçue pour exploiter l'énergie de la fusion), le plasma est le milieu où se produisent les réactions de fusion nucléaire. Plus celui-ci est dense, plus les atomes se rencontrent et ont de chance de fusionner et de libérer de l’énergie. L’expérience récente a produit des densités de 30 % à 65 % plus élevées que celles normalement atteintes dans cette machine, sans déclencher les instabilités perturbatrices qui se produisent généralement lorsque la limite de densité du plasma est dépassée.

Cette étude, co-dirigée par Ping Zhu et Ning Yan, que j’ai contribuée à interpréter, a été publiée début janvier dans la revue Science Advances et reprise par la revue Nature. Un point particulièrement prometteur est que cette avancée a une base théorique, que j’avais développée et publiée avec d’autres collègues quatre ans auparavant. En confirmant plusieurs de ses prédictions, l’expérience soutient la théorie, ce qui ouvre la voie à d’autres améliorations.

Pourquoi cette avancée est importante

Le réchauffement climatique, la pollution de l’air, la géopolitique de l’énergie et le caractère intermittent des énergies renouvelables rendent urgent le développement de nouvelles centrales électriques à fonctionnement continu. Dans ce cadre, les atouts majeurs de la fusion thermonucléaire sont le fait que ses cendres et son combustible sont non radioactifs, ainsi que la vaste répartition mondiale de ce dernier et l’absence de risque d’accident nucléaire. Et c’est pourquoi, la communauté scientifique travaille depuis des décennies dans un esprit de collaboration à l’échelle mondiale (remarquablement, malgré la guerre en Ukraine, la Russie participe toujours au projet ITER).

Les recherches sur la fusion thermonucléaire contrôlée ont connu récemment une forte accélération grâce au projet de réacteur international de démonstration ITER – et aussi parce que davantage d’argent privé que public est investi dans ce type de recherche au niveau mondial depuis 2023.

Comme on l’a vu, une des contraintes ralentissant cette entreprise est l’existence d’une limite de densité du plasma dans les expériences réalisées jusqu’à présent : avec des densités de plasma trop faibles, les réactions nucléaires ont lieu trop peu souvent pour générer de l’énergie en quantité importante.

À cause de ce problème, les réacteurs tokamaks en projet sont gigantesques : ceci permet aux ions du plasma d’avoir plus de temps pour entrer en collision avant de s’échapper. ITER, par exemple, fait 23 000 tonnes pour 29 mètres de haut et 28 mètres de diamètre. Aussi, aujourd’hui, un des grands défis de la fusion thermonucléaire est de réaliser un réacteur plus petit, qui soit donc moins cher et plus robuste. Or, jusqu’à présent, nous étions coincés, car nous n’arrivions pas à dépasser expérimentalement une densité, apparemment limite, du plasma.

En 2021, mes collègues Fabio Sattin, Paolo Zanca et moi-même avions proposé une base théorique prédisant deux régimes d’auto-organisation plasma-paroi : le régime habituel où la densité de plasma est limitée et un autre régime sans limite de densité. Nous expliquions que ce régime pourrait être atteint en diminuant la quantité d’impuretés projetées par les parois, dues à leur bombardement par les ions du plasma. Nous suggérions à cette fin de démarrer le plasma en utilisant la stratégie utilisée pour le démarrage d’un autre type d’installation destinée à faire de la fusion thermonucléaire, les « stellarators ».

Cette stratégie a été appliquée avec succès dans EAST, où le régime sans limite de densité a été atteint, confirmant ainsi les résultats expérimentaux obtenus au sein du tokamak chinois J-TEXT annoncés en 2023 à la Fusion Energy Conference de l’AIEA à Londres (Royaume-uni).

Plus précisément, les expériences sur EAST ont combiné le contrôle de la pression initiale du gaz combustible avec un chauffage par résonance cyclotronique électronique pendant la phase de démarrage (ces deux facteurs combinés correspondent aux décharges stellarators), permettant une efficace diminution des interactions plasma-paroi dès le début de la décharge. Grâce à cette approche, l’accumulation d’impuretés et les pertes d’énergie ont été considérablement réduites, et le plasma atteint une densité élevée à la fin du démarrage. De plus, décharge après décharge, une diminution de la quantité d’impuretés a accompagné l’augmentation de la limite. Malheureusement, l’allocation maximale de temps expérimental n’a pas permis de voir jusqu’où pouvait aller cette nette amélioration… mais on peut donc espérer qu’elle se poursuive dans de futures expériences.

Quelles sont les suites de ces travaux ?

L’équipe de recherche d’EAST prévoit donc d’appliquer à nouveau cette méthode lors de la prochaine campagne expérimentale, avec l’idée d’accéder au régime sans limite de densité dans des conditions de plasma à haute performance.

Les physiciens travaillant sur d’autres tokamaks ont également été alertés, et pourraient être intéressés par l’utilisation du même scénario de démarrage pour repousser la limite de densité. Une proposition d’expérience a même déjà été faite pour le nouveau tokamak japonais JT60-SA.


Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


The Conversation

Dominique Escande ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.03.2026 à 17:12

Des bactéries pour aller sur Mars

Laurent Palka, Maître de conférences, Muséum national d’histoire naturelle (MNHN)
Aller sur Mars représente un voyage de plus de mille jours. Comment nourrir un équipage pendant autant de temps en autonomie ? Découvrez le projet MELiSSA qui vise à recréer un véritable écosystème à l’intérieur d’une fusée.
Texte intégral (2357 mots)

Aller sur Mars représente un voyage de plus de mille jours. Comment rendre autonome un équipage pendant autant de temps ? Découvrez le projet MELiSSA qui vise à recycler le carbone, l’hydrogène, l’oxygène et l’azote grâce aux bactéries en recréant le fonctionnement d’un écosystème terrestre à l’intérieur d’une fusée.


Les voyages habités vers la Planète rouge ne sont plus de la fiction. La Nasa prévoit même les premiers dans les années 2030, autrement dit demain. Pourtant, les défis techniques, scientifiques et humains à relever sont encore immenses avant de parcourir les 225 millions de kilomètres qui nous séparent de Mars, à l’aller comme au retour. L’équipage devra résister pendant des mois à l’effet des radiations, de la microgravité, du confinement, de l’isolement, etc., et à l’absence de biodiversité. C’est pourtant d’elle qu’il sera question ici pour régler un autre défi, celui de l’autonomie.

Des ressources pour un voyage au long cours

Dans l’espace, un homme ou une femme a besoin toutes les 24 heures d’un kilo de nourriture, d’un kilo d’oxygène, de trois litres d’eau potable et de 20 litres supplémentaires pour l’hygiène corporelle. De sorte qu’un voyage de mille jours aller-retour vers Mars obligerait à décoller avec 25 tonnes de ressources par personne.

En admettant que ce soit possible avec un des lanceurs super lourds qui emportent 130 à 150 tonnes, il faudrait ajouter la quantité de ressources quotidiennes nécessaire une fois sur Mars et pouvoir redécoller avec un emport suffisant pour le retour. L’autonomie de l’équipage sur le long terme est donc un vrai défi.

L’idée serait de tout produire et recycler en cours de route et sur place, de manière durable. Tel est l’objectif du projet MELiSSA pour l’alimentation. L’acronyme signifie système de support de vie micro-écologique alternatif, qui se base sur deux composantes de la biodiversité, les bactéries et l’écosystème. Ce dispositif bio-inspiré est développé par l’Agence Spatiale Européenne (ESA) et ses partenaires. Pour l’hygiène corporelle, le recyclage de l’eau fait partie d’un processus à part.

Des bactéries fonctionnant comme dans un écosystème terrestre

Le préfixe « éco » du terme écosystème provient du grec ancien Oikos qui se traduit par la métaphore de la maison et ses habitant·es. Mais une maison a besoin de lumière, de CO2 et d’eau pour créer un phénomène crucial pour la vie sur Terre, la photosynthèse oxygénique.

À partir de lumière, de CO2 et d’eau, les cyanobactéries, c’est-à-dire les bactéries photosynthétiques, les algues et les plantes se mettent à fabriquer des molécules carbonées (sucres et lipides), en libérant de l’oxygène. Ce sont les producteurs primaires à la base des principaux écosystèmes, de la pyramide des consommateurs et des réseaux trophiques. Ce type de réseau se définit comme l’ensemble des interactions alimentaires. Mais les producteurs primaires ont besoin de minéraux. Une partie provient de la décomposition de la matière organique et des excréments assurée par les bactéries et les champignons.

C’est ce fonctionnement circulaire dans le milieu terrestre qui a inspiré les scientifiques du projet MELiSSA en le simplifiant pour mieux le contrôler. Le dispositif est ingénieux et comporte cinq compartiments interconnectés. L’objectif est de produire les ressources nécessaires à l’équipage par des plantes cultivées en hydroponie, ou culture hors sol, et des cyanobactéries, puis décomposer les déchets par des consortiums bactériens artificiels.

Fonctionnement du dispositif MELiSSA étudié par l’ESA. L. Palka, Fourni par l'auteur

Les déchets sont un mélange d’au moins 70 % de végétaux non consommés et d’un maximum de 30 % d’excréments. La décomposition se fait en absence d’oxygène et à 55 °C par un consortium dominé par les bacilles Thermocaproicibacter et Thermoanaerobacterium. Dans ce four, les bactéries thermophiles atteignent leur optimum de croissance, tandis que les pathogènes opportunistes meurent, ce qui fait partie aussi de l’objectif. La décomposition libère des acides gras volatiles, du CO2, de l’ammoniac et de l’hydrogène qui vont alimenter les autres compartiments.

Rhodospirillum rubrum, vue en microscopie électronique à balayage sans les flagelles. HZI/Manfred Rohde, Fourni par l'auteur

Les acides gras sont transférés dans le compartiment n°2 contenant une seule espèce de bactéries, Rhodospirillum rubrum. La majorité des cellules sont spiralées et possèdent sept flagelles à chaque pôle. Certaines peuvent atteindre entre 10 et 60 µm de long dans certains milieux. Ces bactéries, de couleur rose en absence d’oxygène, sont multitâches, capables de faire la photosynthèse mais sans produire d’oxygène, de fixer l’azote et de libérer de l’ammoniac. Ce n’est pourtant pas ces caractéristiques qui intéressent MELiSSA, mais leur capacité à pousser plus loin la conversion des acides gras en CO2. Celui-ci passe alors directement dans le compartiment n°4 pour entretenir la photosynthèse par les plantes et par les cyanobactéries.

Le compartiment suivant, n°3, contient deux autres espèces de bactéries, typiques d’une étape fondamentale du cycle de l’azote, la nitrification. Il s’agit de réactions chimiques en chaîne très complexes. Tout commence par les bactéries appartenant au genre Nitrosomonas qui fixent des atomes d’oxygène à l’ammonium en produisant des nitrites ou NO2. L’oxygène nécessaire émane du compartiment n°4 tandis que l’ammoniac provient principalement de l’urine de l’équipage. Les nitrites sont ensuite oxydés à leur tour par les bactéries du genre Nitrobacter en nitrates ou NO3. Les nitrates passent alors dans le compartiment n°4 comme source d’azote pour les plantes et les cyanobactéries.

Un dispositif de production et de recyclage en constante amélioration

Illustration de la cyanobactérie filamenteuse Limnospira, repère 10 µm. C. Duval et C. Bernard, MNHN, Fourni par l'auteur

La biomasse produite, mais aussi l’oxygène et l’eau sont consommés par l’équipage dans le compartiment n°5. Les déchets vont dans le compartiment n°1, le CO2 dans le n°4, et le cycle recommence. Tous les éléments, à savoir le carbone, l’hydrogène, l’oxygène et l’azote, sont recyclés.

Mais ce dispositif est sans cesse en développement pour être optimal. Par exemple les scientifiques de MELiSSA essaient de remplacer R. rubrum par des biopiles où un consortium bactérien contenant le genre Geobacter est associé à l’anode, l’une des deux électrodes, pour convertir les acides gras en CO2 en créant un courant électrique. Sur le plan énergétique, celui-ci est encore marginal, certes.

Les scientifiques testent par ailleurs des plantes, comme la laitue, la tomate, le chou ou le riz et un genre de cyanobactérie, Limnospira connu sous le nom de spiruline. Si les cyanobactéries représentent aujourd’hui seulement 30 % de la biomasse, leur contribution est appelée à croître, car leur système photosynthétique leur donne la capacité de réagir de manière quasi instantanée au changement de flux lumineux. Par ailleurs, la spiruline est très riche en protéines et contient des vitamines et des acides gras de type oméga 6.

Le projet MELiSSA montre que la connaissance des bactéries et la compréhension du fonctionnement des écosystèmes terrestres sont une des clés pour rendre possible l’autonomie alimentaire des vols habités vers la planète Mars. Mais l’autonomie ne sera pas atteinte d’ici les années 2030, ni même le recyclage global de l'eau. A priori, il en serait de même côté américain pour la Nasa, et la question reste posée pour les approches russes et chinoises. Quoi qu’il en soit, l’idée de l’ESA est aussi de valoriser plus rapidement le dispositif sur Terre pour contribuer au développement de l’économie circulaire.


Retrouvez notre vidéo basée sur cet article


Ce texte n’aurait pas été possible sans la relecture de Chloé Audas, directrice du projet MELiSSA, Brigitte Lamaze, ingénieure à l’ESA, et Claude-Gilles Dussap, directeur de la Fondation MELiSSA. L’auteur les remercie vivement.

The Conversation

Laurent Palka est membre du CESCO, Centre d'Ecologie et des Sciences de la Conservation et de l'association Chercheurs Toujours.

20.03.2026 à 15:15

Des centaines d’insectes affamés, un étudiant et une combinaison en mesh… Comment une série d’expériences aide à comprendre le vol des moustiques

David Hu, Professor of Mechanical Engineering and Biology, Adjunct Professor of Physics, Georgia Institute of Technology
L’analyse de 20 millions de trajectoires de vol de moustiques a permis de mettre au jour les règles mathématiques qui gouvernent les déplacements de ces minuscules prédateurs et la manière dont ils localisent leurs cibles humaines.
Texte intégral (3440 mots)
En modélisant les trajectoires de moustiques volant autour d'une cible humaine, les scientifiques ont appris à prédire et caractériser leurs déplacements. David L. Hu, Georgia Tech

Derrière chaque piqûre se cache une mécanique précise : en suivant des moustiques à la trace, une équipe de chercheurs a mis au jour les lois qui gouvernent leur comportement.


« Quatre minutes, c’est trop long ».

Piqûres de moustiques
Le bras de Chris Zuo après une session avec les moustiques. David L. Hu

Voici le message que m’a envoyé Chris Zuo, étudiant de premier cycle, accompagné de photos montrant d’innombrables piqûres de moustiques sur sa peau nue. Ce massacre sur l’ensemble du corps n’était pas le résultat d’un camping qui aurait mal tourné. Il avait passé ce laps de temps limité dans une pièce contenant 100 moustiques affamés, vêtu uniquement d’une combinaison en mesh que nous pensions capable de le protéger.

C’est ainsi qu’a débuté notre enquête de trois ans pour comprendre le comportement d’un insecte d’une simplicité trompeuse : le moustique. Cela peut ressembler au plan sadique d’un professeur, mais en réalité, nous avons respecté toutes les procédures. Le comité d’éthique de notre université a approuvé le protocole, en s’assurant que Chris était en sécurité et qu’il n’était soumis à aucune pression. Les moustiques étaient exempts de maladies et provenaient de notre État, la Géorgie. Et cette séance a donné lieu aux premières — et dernières — piqûres reçues par qui que ce soit dans le cadre de l’étude.

En plus de mon rôle de tortionnaire pour étudiants, je suis auteur et professeur à Georgia Tech, avec plus de 20 ans d’expérience dans l’étude des déplacements des animaux.

Les moustiques sont l’animal le plus dangereux au monde. Les maladies qu’ils transmettent, du paludisme à la dengue, provoquent plus de 700 000 décès par an. Les moustiques ont causé plus de morts que les guerres.

Le monde dépense 19 milliards d’euros par an en milliards de litres d’insecticides, en millions de kilos de larvicides et en millions de moustiquaires imprégnées d’insecticide – le tout pour lutter contre un insecte minuscule qui pèse dix fois moins qu’un grain de riz et ne possède que 200 000 neurones.

Et pourtant, les humains sont en train de perdre la guerre contre les moustiques. Ces insectes évoluent pour prospérer en milieu urbain et propagent les maladies plus rapidement avec le changement climatique. Comment des animaux aussi simples peuvent-ils nous repérer avec une telle facilité ?

Les scientifiques savent que les moustiques ont une très mauvaise vue et qu’ils dépendent de signaux chimiques pour compenser. Mais savoir ce qui attire un moustique ne suffit pas à prédire son comportement. On peut savoir qu’un missile à guidage thermique est attiré par la chaleur sans pour autant comprendre comment il fonctionne.

C’est là qu’intervient Chris et son sacrifice dans la pièce infestée de moustiques. En suivant les trajectoires de nombreux moustiques autour de lui, nous espérions déterminer comment ils adaptent leurs décisions à sa présence. Comprendre la manière dont les moustiques réagissent aux humains constitue une première étape pour mieux les contrôler.

Comment les moustiques repèrent leur repas

Sur les 3 500 espèces de moustiques, plus de 100 sont dites anthropophiles, c’est-à-dire qu’elles préfèrent les humains comme source de nourriture. Certaines espèces sont capables de repérer une seule personne au milieu d’un troupeau entier de bovins pour aller lui sucer le sang.

C’est une prouesse, étant donné que les moustiques ne volent pas bien. Ils cessent de voler dès qu’il y a une légère brise de 3 à 5 km/h, soit une vitesse d’air comparable à celle générée par le balancement de la queue d’un cheval. Dans des conditions plus calmes, les moustiques utilisent leur cerveau minuscule pour suivre la chaleur, l’humidité et les odeurs humaines transportées par le vent.

Le dioxyde de carbone, sous-produit de la respiration de tous les êtres vivants, est particulièrement attractif. Les moustiques le détectent aussi facilement que vous percevez l’odeur d’une benne à ordures pleine, jusqu’à environ 9 mètres de leur hôte, là où les concentrations chutent à quelques parties par million, soit l’équivalent de quelques tasses de colorant dans une piscine olympique.

Contour noir des lettres G et T dans le panneau de gauche ; dans le panneau de droite, des lignes sinueuses noires représentant les trajectoires de vol des moustiques autour des lettres.
Le contour sombre du logo de Georgia Tech plaît beaucoup aux moustiques. David L. Hu, Georgia Tech

La vision des moustiques ne leur est pas très utile pour partir à la recherche de leur prochain repas. Leurs deux yeux comptent plusieurs centaines de petites lentilles individuelles appelées ommatidies, chacune large comme un cheveu humain. Elles produisent une image en mosaïque, légèrement floue, comme pixelisée. En raison des lois de l’optique, les moustiques ne peuvent distinguer un humain adulte qu’à quelques mètres de distance. Avec la seule vue, ils sont incapables de différencier un humain d’un petit arbre. Ils examinent donc chaque objet sombre.

Collecter des données sur les trajectoires de vol

La difficulté lorsqu’on étudie le vol des moustiques, c’est que, comme des enfants surexcités, la plupart de leurs mouvements n'ont pas vraiment de sens. Dans une pièce vide, les moustiques modifient très souvent leur vitesse et leur direction de façon complètement aléatoire. Il nous fallait donc de nombreuses trajectoires de vol pour faire émerger un signal au milieu de ce bruit.

Un homme allongé au sol, visible sur deux images affichées sur l’écran d’un ordinateur portable au premier plan.
Vêtu d’une combinaison en maille, Chris Zuo attend les moustiques, un peu perplexe. David L. Hu, Georgia Tech

L’un de nos collaborateurs, le biologiste de l’université de Californie à Riverside Ring Cardé, nous a expliqué que dans les années 1980, les scientifiques menaient des « études de piqûres » en se mettant en sous-vêtements et en écrasant les moustiques qui se posaient sur leur peau nue. Selon lui, la nudité permettait d’éviter des variables parasites, comme la couleur du tissu d’une chemise.

Chris et moi nous sommes regardés. S’asseoir nu et attendre de servir de proie aux moustiques ? Non… Nous avons plutôt conçu la combinaison en mesh que Chris portait initialement dans la pièce infestée. Mais après avoir vu ses piqûres, il nous fallait une meilleure solution.

À la place, Chris a choisi des vêtements à manches longues, qu'il a lavés avec une lessive sans parfum, et a enfilé gants et masque. Entièrement protégé, il n’avait plus qu’à rester debout et attendre, tandis qu’un nuage de moustiques tourbillonnait autour de lui.

Les Centers for Disease Control and Prevention (CDC) des États-Unis nous ont fait découvrir le Photonic Sentry, une caméra capable de suivre simultanément des centaines d’insectes en vol dans une pièce. Elle enregistre 100 images par seconde avec une résolution de 5 mm, dans un espace de la taille d’un grand studio. En seulement quelques heures, Chris et un autre doctorant, Soohwan Kim, ont produit plus de données sur le vol des moustiques que tout ce qui avait été mesuré auparavant dans l’histoire humaine.

100 moustiques volant autour de Chris Zuo pendant 10 minutes. Seule une partie des trajectoires observées est restituée.

Pour les mathématiciens, comme nos collaborateurs Jörn Dunkel, Chenyi Fei et Alex Cohen du MIT, la géométrie du corps de Chris reste trop complexe pour étudier les réactions des moustiques. Les mathématiciens excellent dans l’art de ramener les problèmes complexes à leur essence. Chenyi a donc suggéré d’épargner Chris : pourquoi ne pas le remplacer par un simple mannequin, une boule noire en polystyrène fixée sur un support, associée à une source de dioxyde de carbone ?

Au cours des deux années suivantes, Chris a filmé sans relâche les moustiques tournoyant autour de ces mannequins en polystyrène. Puis il les aspirait à l’aide d’un aspirateur, en essayant de ne pas se faire piquer.

Décrypter les trajectoires

Un moustique vole comme on pilote un avion : il tourne à gauche ou à droite, accélère ou freine. Nous avons d’abord caractérisé son comportement de vol en fonction de sa vitesse, de sa position et de sa direction par rapport à la cible, première étape pour construire notre modèle.

Notre confiance dans ces règles de comportement s’est renforcée à mesure que nous analysions davantage de trajectoires, jusqu’à exploiter 20 millions de données concernant les positions et les vitesses des moustiques. Cette idée consistant à intégrer des observations pour étayer une hypothèse mathématique remonte à 200 ans et porte le nom d’inférence bayésienne. Nous avons ensuite illustré le comportement des moustiques observé à l’aide d’une application web.

Quatre panneaux montrant la trajectoire d’un moustique en l’absence de cible, en présence d’une cible visuelle, d’une source de CO₂, ou des deux combinées.
Le moustique adapte son vol à la cible qu'on lui présente. David L. Hu

Grâce à notre modèle, nous avons montré que différents types de cibles modifient le vol des moustiques. Les cibles visuelles provoquent des survols, où les moustiques passent à proximité avant de continuer leur route. Le dioxyde de carbone entraîne des hésitations, les moustiques ralentissant à proximité de la cible. La combinaison d’un signal visuel et de dioxyde de carbone génère des trajectoires orbitales à grande vitesse.

Jusqu’à présent, nous avions uniquement utilisé des expériences avec des sphères en polystyrène pour entraîner notre modèle. Le véritable test consistait à voir s’il pouvait prédire le vol des moustiques autour d’un humain. Chris est retourné dans la chambre, cette fois vêtu de blanc et coiffé d’un chapeau noir, se transformant en véritable cible. Notre modèle a correctement prédit la répartition des moustiques autour de lui. Nous avons ainsi identifié des zones à risque, où la probabilité de voir des moustiques tournoyer autour de lui était élevée.

Prédire le comportement des moustiques constitue une première étape pour les déjouer. Dans les zones infestées, on conçoit par exemple des maisons dotées de dispositifs empêchant les moustiques de suivre les signaux humains et d’entrer. De même, les pièges à moustiques aspirent les insectes lorsqu’ils s’approchent trop près, mais laissent encore s’échapper entre 50 % et 90 % d’entre eux. Beaucoup de ces dispositifs reposent encore sur des essais empiriques. Nous espérons que notre étude fournira un outil plus précis pour concevoir des méthodes de capture ou de dissuasion.

Lorsque la mère de Chris a assisté à sa soutenance de master, je lui ai demandé ce qu’elle pensait du fait que son fils se soit proposé comme appât pour les moustiques. Elle m’a répondu qu’elle en était très fière. Moi aussi — et pas seulement parce que je suis soulagé que Chris ne m’ait jamais demandé de prendre sa place dans la chambre infestée de moustiques.

The Conversation

David Hu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

18.03.2026 à 11:32

Pêche récréative et pollution plastique : créer des leurres souples qui disparaissent vraiment

Erwan Vasseur, Doctorant en Sciences et technologie industrielles, Université Bretagne Sud (UBS)
Chaque année, des millions de pêcheurs perdent une partie de leur matériel dans l’eau dont les leurres souples, de petits bouts de plastique très efficaces… mais très persistants.
Texte intégral (2415 mots)
Des millions de leurres finissent dans la nature chaque année en France. Verlin Auliane / Unsplash, CC BY-SA

Chaque année, des millions de pêcheurs perdent (sans le vouloir) une partie de leur matériel dans l’eau. Parmi les objets les plus souvent « abandonnés » : les leurres souples, petits bouts de plastique très efficaces… mais très persistants.


Mon travail de thèse, mené en collaboration avec l’entreprise FiiiSH, a consisté à développer des formulations à base de PHA capables de réduire la persistance des leurres souples dans l’environnement. La solution la plus prometteuse identifiée à ce jour n’est pas encore assez souple pour un usage pleinement satisfaisant, mais elle montre déjà de forts signes de biodégradation et de non-toxicité. Il reste donc du travail pour atteindre le bon compromis mécanique, mais la piste est sérieuse.

Une pratique massive et des pertes invisibles

Illustration de la pollution des leurres souples
Illustration de la pollution des leurres souples. Fourni par l'auteur

La pêche de loisir est un loisir très répandu en France, en mer comme en eau douce. Les estimations institutionnelles évoquent environ 3,8 millions de pratiquants en mer en 2024, et plusieurs millions de cartes de pêche sont délivrées chaque année en eau douce. À cette échelle, même si la grande majorité des pêcheurs adopte de bonnes pratiques, une part de pertes reste inévitable : accrochage sur roches, branches, épaves, casse de ligne, courant, houle… À force de répétitions, un « petit » objet perdu involontairement devient un flux collectif.

Illustration de la souplesse d’un leurre souple. Black Minnow FIIISH, Fourni par l'auteur

Un leurre souple doit « vivre » dans l’eau. Sa nage dépend de sa forme, mais aussi de sa viscoélasticité : trop rigide, il nage mal ; trop mou, il se déchire ; instable, il durcit ou devient poisseux avec le temps. En bref, le matériau doit être à la fois flexible, résistant, stable au stockage et transformable industriellement. C’est un cahier des charges très strict et complexe pour un matériau.

La pollution liée à la pêche est multiple : emballages, fils, plombs, mais aussi fragments de leurres. Un leurre souple ne pèse que quelques grammes : pris isolément, l’impact paraît négligeable. Mais dans des zones très fréquentées (digues, estuaires, embouchures, postes en rivière…), les pertes se concentrent et s’additionnent. On estime qu’un pêcheur perd en moyenne 10 leurres par an, pour environ 15 g par leurre, ce qui donne un ordre de grandeur de cette pollution plastique. Ces chiffres restent toutefois à prendre avec précaution, car ils sont difficiles à mesurer précisément. Avec le temps, les plastiques conventionnels peuvent s’abîmer sous l’effet des UV, de l’abrasion et des contraintes mécaniques, et générer des fragments plus petits : les microplastiques. Dans certains cas, des composés peuvent aussi migrer depuis l’objet en plastique vers l’eau. L’enjeu n’est donc pas seulement esthétique : il touche à la persistance des débris et à leur interaction avec les écosystèmes.

Les PHA : des plastiques produits par des bactéries

Les polyhydroxyalcanoates (PHA) sont une famille de polyesters que certaines bactéries fabriquent naturellement comme réserve de carbone et d’énergie. Industriellement, on retrouve une logique de fermentation : on nourrit des microorganismes avec une source de carbone (par exemple, sucres, huiles), on pilote les conditions pour favoriser l’accumulation de PHA dans les cellules, puis on récupère la biomasse et on extrait/purifie le polymère. On obtient alors une « résine » utilisable en plasturgie, sous forme de granulés. Les PHA sont donc bien des plastiques à part entière. En revanche, dans leur état initial, leurs propriétés sont souvent trop rigides pour des applications comme les leurres souples de pêche, ce qui impose d’ajouter des additifs, notamment des plastifiants, afin d’assouplir la matière.

L’intérêt des PHA est double. D’une part, ils peuvent être biosourcés (selon le procédé et les substrats). D’autre part, leur structure de polyester est favorable à la biodégradation dans certains milieux. Mais ce « peut être biodégradable » est important : tout dépend des conditions et de la formulation finale.

Un plastique biodégradable ne disparaît pas comme un comprimé effervescent. Il ne fond pas au contact de l’eau. La biodégradation est un processus biologique : des microorganismes, via des enzymes, transforment progressivement le matériau en produits simples (CO2, eau, sels minéraux et biomasse en conditions aérobies).

La clé, c’est la conversion finale : un matériau qui ne fait que se fragmenter plus vite peut produire des microplastiques sans réellement être biodégradé. Autre point essentiel : « biodégradable » n’est pas synonyme de « biosourcé ». Un matériau peut être biosourcé sans être biodégradable, et l’inverse. Pour éviter le greenwashing, il faut toujours préciser le milieu (sol, compost, eau douce, mer), la méthode de mesure et l’ordre de grandeur du temps de l’essai dans lequel l’échantillon se dégrade.

Comment transformer un PHA en leurre ?

Le défi est d’obtenir une matière suffisamment souple. Beaucoup de PHA sont naturellement plutôt rigides. Pour approcher la sensation d’un leurre conventionnel, on peut jouer sur la chimie du copolymère, mais aussi sur la formulation : plastifiants compatibles, mélanges, ou architectures internes qui stabilisent la souplesse.

C’est ici que mon travail de recherche s’inscrit, dans le cadre d’une collaboration avec l’entreprise FiiiSH : développer des formulations PHA adaptées à la pêche au leurre souple, en intégrant dès le départ les contraintes industrielles (mise en forme, reproductibilité, stabilité au stockage) et les exigences environnementales. Aujourd’hui, ces travaux ont déjà permis d’identifier plusieurs formulations prometteuses et de les évaluer à l’échelle laboratoire à travers des essais de caractérisation thermique, mécanique et rhéologique (la rhéologie est l’étude de la déformation et de l’écoulement de la matière sous l’effet d’une contrainte appliquée). L’enjeu est désormais de confirmer leur robustesse, leur stabilité dans le temps et leur pertinence pour un usage réaliste en leurre souple.

Différence de souplesse entre la matière actuellement utilisée (a) et la matière finale formulée à partir de PHA (b). Fourni par l'auteur

Même avec un PHA prometteur, tout se joue souvent dans sa plastification. Obtenir un matériau souple ne suffit pas : il faut une souplesse stable et une bonne tenue mécanique. Or la compatibilité entre un PHA et un plastifiant est délicate : un plastifiant non miscible peut provoquer des hétérogénéités qui induisent une déchirure plus facile et une tenue mécanique qui chute. À l’inverse, un plastifiant trop compatible avec la résine peut « trop bien » s’y intégrer : il assouplit tellement le polymère qu’il relâche une partie du réseau d’enchevêtrements, et on obtient alors un matériau certes mou, mais très sensible à la déchirure. Pour se représenter la structure d’un plastique, on peut imaginer un plat de spaghettis bien emmêlés : les « nœuds » formés par les fils de pâte correspondent aux enchevêtrements, ces points d’accroche qui donnent au matériau sa cohésion.

Un petit objet mais une grande preuve à apporter

Rendre un leurre souple biodégradable ne consiste pas à « changer de plastique » dans une fiche technique. C’est un compromis délicat entre performance, stabilité et preuve environnementale. Les PHA offrent une piste crédible, à condition de rester rigoureux sur les mots (« biodégradable » n’est ni « soluble » ni « effervescent ») et sur les mesures. La suite se joue autant en laboratoire qu’en industrie : formulation, mise à l’échelle, transparence sur les compositions et validation dans des scénarios réalistes.

Si cette transition réussit sur un objet aussi exigeant qu’un leurre souple, elle pourrait inspirer d’autres produits exposés à la nature, où l’on ne peut pas éliminer totalement les pertes mais où l’on peut réduire, concrètement, la persistance.

À ce stade, un premier prototype de leurre a déjà vu le jour. Il reste désormais à l’éprouver en conditions réelles de pêche pour juger de sa performance sur le terrain. La solution n’est pas encore totalement aboutie, notamment parce qu’elle doit encore gagner en souplesse, mais elle n’est plus seulement une idée de laboratoire : elle commence déjà à prendre la forme d’un leurre.

The Conversation

Erwan Vasseur a reçu des financements de l'entreprise Fiiish et IRDL (Institut de Recherche Dupuy De Lôme).

18.03.2026 à 09:58

La théorie des cordes a-t-elle été découverte par accident ?

Piotr Tourkine, Physicien théoricien, Université Savoie Mont Blanc
Quand une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.
Texte intégral (1709 mots)
Gabriele Veneziano au bord du lac d’Annecy (Haute-Savoie), l’été où il mit le doigt par hasard sur une formule qui allait mener à la découverte de la théorie des cordes. G. Veneziano, avec son aimable autorisation, Fourni par l'auteur

Une plongée dans l’histoire de la théorie des cordes, ou quand une solution suggérée pour un problème donné éclaira en réalité un domaine bien plus vaste.


La physique théorique a connu trois grandes révolutions au tournant du XXᵉ siècle : la mécanique quantique et les deux théories de la relativité, restreinte et généralisée. La mécanique quantique décrit l’infiniment petit. La relativité restreinte et sa célèbre formule E = mc² décrivent la physique des objets se déplaçant aux vitesses proches de la lumière. La relativité générale décrit la force de gravité comme provenant de la courbure de l’espace-temps.

Prises ensemble, elles ont bouleversé notre compréhension de l’espace-temps, de la matière, et des interactions fondamentales. Les implications de ce bouleversement ne sont encore aujourd’hui pas totalement comprises.

En effet, on ne sait pas utiliser ce cadre pour décrire certaines situations extrêmes, comme l’espace-temps à l’intérieur des trous noirs, ou au moment du Big Bang – deux situations où les effets quantiques et gravitationnels sont simultanément importants. C’est dans cet entrelacs que réside le mystère central de la « gravité quantique », que la physique moderne cherche à élucider, et pour lequel la théorie des cordes propose un cadre qui unifie relativité générale et physique quantique.

Du point de vue de l’histoire des sciences, un élément remarquable de cette théorie sophistiquée est qu’elle a, en fait, été découverte par hasard, au sein d’un domaine bien différent de la gravité quantique : celui de la physique des particules subatomiques !

Gabriele Veneziano et les particules subatomiques

Genève, fin des années 1960. Gabriele Veneziano a 26 ans, il vient de finir son doctorat de physique nucléaire en Israël et se trouve en visite au CERN. À l’époque, les physiciens théoriciens du monde entier se heurtaient à un problème coriace : la méthode qui avait permis de comprendre les interactions entre électrons et lumière (qu’on appelle aujourd’hui la théorie quantique des champs) semblait ne pas fonctionner pour décrire les interactions entre les autres particules subatomiques.

En particulier, on ne comprenait pas l’interaction nucléaire forte, qui régit les interactions entre les briques élémentaires de la matière : protons, neutrons, etc. Celles-ci forment un véritable zoo de particules qu’on nomme les hadrons.

Une nouvelle approche est alors explorée : le « bootstrap ». Ne pouvant trouver la bonne théorie pour décrire les hadrons individuellement, les physiciens se posèrent la question dans l’autre sens : quelles sont les propriétés générales que doit satisfaire n’importe quelle théorie ? La réponse : au minimum, elle doit satisfaire simultanément aux exigences de la mécanique quantique et de la relativité restreinte.

Cette approche par exemple permet de montrer qu’une interaction fondamentale ne peut excéder une certaine intensité sans briser les lois de la mécanique quantique (un peu comme il existe une vitesse maximale en relativité). En clair : si l’on mélange les lois de la mécanique quantique et celles de la relativité restreinte, tout n’est pas permis, et les lois physiques possibles deviennent fortement contraintes.

C’est dans ce cadre que Gabriele Veneziano proposa en 1968 une fonction mathématique très particulière – la fonction bêta d’Euler – pour modéliser les hadrons et leurs interactions. À ce moment, on ne connaissait pas la théorie qui permettrait d’expliquer d’où sort cette formule : on savait seulement qu’elle satisfaisait, pour la première fois, toutes les propriétés mathématiques recherchées. Son papier eut un succès immédiat, car la formule répondait à de nombreuses questions en même temps.

Sérendipité et théorie des cordes

La sérendipité est souvent idéalisée comme un heureux hasard. Mais, en science, elle prend une forme plus subtile : elle naît de l’interaction entre un contexte de recherche fertile et une capacité à reconnaître qu’une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.

Le cas de la formule de Veneziano est emblématique. Quelques années après l’article de Veneziano, les physiciens Leonard Susskind, Yoichiro Nambu et Holger Bech Nielsen comprirent (indépendamment) que cette formule décrivait en fait non pas des hadrons mais des « cordes quantiques », c’est-à-dire des objets microscopiques filiformes, qui vibrent à la manière de minuscules cordes de violon.

Et c’est là que ça devient vraiment intéressant.

Les cordes et le… graviton ?

Depuis les années 1970, à mesure que l’on explore cette interprétation, d’autres indices troublants apparaissent. La théorie semble invariablement contenir une particule particulière : le graviton, censé véhiculer la force de gravitation quantique. De plus, elle exige l’existence de dimensions d’espace supplémentaires – un prix qui semble alors trop élevé pour une théorie censée décrire les hadrons !

Et surtout, comment une théorie inventée pour décrire les interactions de la matière à l’intérieur du noyau atomique pouvait-elle contenir une théorie qui décrit tout autre chose – la gravité quantique ?

Comme, à la même époque (autour de 1973), la théorie quantique des champs finit par expliquer les interactions fortes grâce à la découverte de la chromodynamique quantique, et notamment de la liberté asymptotique, le modèle de Veneziano est laissé de côté dans ce contexte.

Mais quelques physiciens visionnaires, comme Joël Scherk et John Schwarz, pressentirent que cette théorie, à cause de son mystérieux graviton, possédait un potentiel unique pour s’attaquer à la gravité quantique.

Dix ans plus tard, en 1984, Michael Green et John Schwarz confirmèrent cette intuition et démontrèrent que la théorie des cordes est bel et bien une véritable théorie de gravité quantique.

On voit donc que la découverte de la théorie des cordes est l’illustration même de la sérendipité : une théorie née d’un certain questionnement éclaire le cœur d’un aspect tout autre de la science.

Gabriele Veneziano lui aussi contribuera notablement au développement de la théorie des cordes, notamment en étudiant les liens entre celle-ci et la structure microscopique de l’espace-temps.

La théorie de cordes aujourd’hui

Aujourd’hui, la théorie des cordes est bien plus qu’une simple théorie candidate de la gravité quantique. Aux côtés de la théorie quantique des champs, elle constitue un cadre conceptuel et mathématique d’une richesse inégalée, capable d’unifier des idées venues de la physique des particules, de la relativité, de la théorie des champs, du chaos et des mathématiques pures et produire des avancées conceptuelles et techniques dans ces domaines.

Par exemple, le modèle de Veneziano et ses généralisations, dont on sait aujourd’hui qu’ils proviennent de la théorie des cordes, exhibent des propriétés mathématiques remarquables liées à la fonction zêta de Riemann. Ces propriétés s’expliquent physiquement par la façon dont deux cordes ouvertes s’attachent pour former une corde fermée.

Plus encore, le programme du « bootstrap », qui avait donné naissance à la théorie des cordes, connaît aujourd’hui une nouvelle vie : grâce à la puissance des ordinateurs modernes et à des idées venues de la théorie des cordes et de la théorie des champs, les physiciens appliquent ces idées pour décrire des phénomènes très divers, allant des transitions de phase à la physique hadronique et même à la gravité quantique.

Mais il reste un mystère fondamental : pourquoi cette théorie, née « par hasard », semble-t-elle si naturellement adaptée à décrire la gravité quantique ? Était-ce vraiment un hasard… ou un indice que la seule façon d’unifier les trois théories qui forment le socle de la physique du XXᵉ siècle est la théorie des cordes ? On pourrait bien avoir une réponse à cette question mathématique dans les années qui viennent.

The Conversation

Piotr Tourkine a reçu des financements de l'Agence Nationale de la Recherche (ANR-22-CE31-0017).

17.03.2026 à 16:33

Yellowstone, merveille géologique : aux frontières du feu, de l’eau et du vivant

Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle
Elodie Pourret-Saillet, Enseignante-chercheuse en géologie structurale, UniLaSalle
Derrière des paysages fascinants se dissimule l’un des systèmes volcaniques les plus actifs de la planète, où se trouvent plus de la moitié des geysers du monde.
Texte intégral (2941 mots)
La Morning Glory Pool du Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Le parc national de Yellowstone, aux États-Unis, présente l’un des spectacles géologiques les plus fascinants au monde : geysers en éruption, bassins aux couleurs intenses, terrasses de travertin sculptées par des eaux thermales. Derrière ces paysages se dissimule l’un des systèmes volcaniques les plus actifs de la planète, dont la chaleur souterraine façonne chaque fontaine, chaque couleur, chaque dépôt minéral, et rappelle que la Terre est une planète vivante.


Le parc national de Yellowstone est le plus ancien parc national du monde et est situé dans l’ouest des États-Unis, entre le Wyoming, le Montana et l’Idaho. Inscrit sur la liste du patrimoine mondial de l’Unesco, il est célèbre pour sa faune et ses paysages, mais surtout pour une activité géothermique exceptionnelle, unique par son intensité et sa diversité.

Le parc se situe sur une large caldeira volcanique (c’est-à-dire une vaste dépression circulaire formée par l’effondrement du toit d’une chambre magmatique après une éruption), formée par plusieurs éruptions majeures qui se sont produites il y a 2,1 millions, 1,3 million et environ 640 000 ans. Même en l’absence d’éruptions explosives actuellement, le volcan reste actif : son activité se traduit par une augmentation de température en profondeur et une série de phénomènes hydrothermaux observables en surface.

L’entrée ouest du parc national de Yellowstone, aux États-Unis. Olivier Pourret, CC BY

Une chaudière souterraine toujours en activité

Des réservoirs magmatiques partiellement fondus se situent sous Yellowstone, alimentés par un flux venant du manteau, à grande profondeur. La chaleur émise réchauffe les eaux de pluie et de fonte des neiges qui s’infiltrent dans le sous-sol. Ces eaux peuvent atteindre des températures supérieures à 200 °C tout en restant liquides grâce à la forte pression.

Lorsque les conditions sont réunies, avec un approvisionnement en eau suffisant, des fractures suffisamment étroites et une chaleur stable, l’eau qui devient surchauffée est soudainement expulsée vers la surface : ce phénomène est connu sous le nom de « geyser ». Plus de la moitié des geysers du monde se trouve à Yellowstone, le transformant en un laboratoire naturel pour les géologues.

Le plus célèbre, Old Faithful, entre en éruption toutes les 60 à 90 minutes, projetant une colonne d’eau et de vapeur pouvant dépasser 50 mètres de hauteur. D’autres geysers sont beaucoup moins prévisibles, rappelant que ces systèmes sont fragiles et sensibles à de légères variations de pression ou de circulation de fluides.

photo d’un grand geyser
Le geyser Old Faithful du Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Dans des régions géothermiques telles que le Norris Geyser Basin, l’hydrothermalisme n’est pas réparti aléatoirement dans la roche : il est largement guidé par le réseau de fracturation affectant la roche, véritable « route » pour l’eau chaude, qui régule la circulation des fluides et détermine la position des geysers et des sources chaudes. Les études effectuées au niveau du Steamboat Geyser démontrent que même de petites fractures ou de simples pores interconnectés peuvent être suffisants pour expulser rapidement l’eau lors des éruptions.

Le sous-sol ressemble donc moins à un système de conduits bien définis qu’à un milieu complexe, constitué d’un enchevêtrement de fractures et de pores interconnectés et de dimensions variables. Cette organisation contrôle la circulation de l’eau et de la vapeur en profondeur, et conditionne le déclenchement des éruptions hydrothermales, soulignant combien la structuration et la constitution des roches régissent le fonctionnement des systèmes hydrothermaux.

Sources chaudes et travertins : quand la géologie se fait art

Les geysers ne représentent qu’un aspect du spectacle. Les bassins aux couleurs vives sont principalement formés par l’abondance de sources chaudes. Le plus célèbre et plus large à Yellowstone (60 à 90 mètres de large) d’entre eux est Grand Prismatic Spring, il est aussi le plus photographié pour illustrer ces sources chaudes.

À l’inverse de ce que l’on pourrait penser, ces couleurs ne sont pas celles des minéraux, mais celles de micro-organismes extrémophiles. Chaque communauté microbienne, adaptée à une plage de température spécifique, forme autour des bassins de véritables cercles de couleur : les espèces qui prospèrent dans les zones plus froides en périphérie arborent des teintes jaune et orange, tandis que les températures plus élevées au centre favorisent des micro-organismes bleus ou verts. Dans les premiers cas, les couleurs résultent à la fois des pigments caroténoïdes propres aux bactéries, et des oxydes de fer et de manganèse précipités par leur activité métabolique. Ces bactéries et archées doivent ainsi leurs teintes à leurs pigments photosynthétiques (chlorophylles ou caroténoïdes) dont l’expression varie selon les conditions de température et de lumière. Lorsque la température des sources baisse, l’expansion bactérienne s’intensifie.

Des dépôts de travertin peuvent aussi se former à partir de sources abondantes en carbonate de calcium. Le travertin est une roche calcaire poreuse qui se dépose en surface lorsque de l’eau chaude, ayant dissous du CO2 et du carbonate de calcium en profondeur sous l’effet de la pression et de la température, remonte à la surface : en se refroidissant et en se décomprimant, elle libère le CO2 dissout, ce qui provoque la précipitation de calcite.

Cette calcite forme des terrasses et des cascades minérales blanches ou crème, tandis que les oxydes de fer précipités simultanément par l’activité bactérienne leur confèrent leur teinte orange caractéristique ; comme celles de Mammoth Hot Springs, qui se modifient sans cesse en fonction des changements des conditions hydrologiques et de température.

Les sources chaudes dites de « Mammoth Hot Springs », au Yellowstone National Park, aux États-Unis. Olivier Pourret, CC BY

Un volcan sous surveillance : quels dangers ?

Yellowstone est fréquemment décrit comme un « supervolcan », une expression médiatique qui fait référence à des volcans susceptibles de générer des éruptions de très grande ampleur, correspondant à l’émission d’au moins 1 000 km3 de matériaux. Deux des trois grandes éruptions de Yellowstone ont atteint ce seuil, il y a environ 2,1 millions et 640 000 ans. Les chances d’une telle éruption à Yellowstone dans les prochains millénaires sont jugées infimes par les géologues de l’USGS.

Cependant, le parc est le siège d’une activité sismique quasi permanente : chaque année, des milliers de petits séismes témoignent de la circulation des fluides et des ajustements de la croûte. Les scientifiques du service géologique américain, l’USGS, dotés d’un réseau sophistiqué d’instruments, surveillent de près ces signaux pour détecter la plus petite anomalie.

Ainsi, les dangers les plus immédiats à Yellowstone ne relèvent pas d’une éruption dévastatrice, mais plutôt d’explosions hydrothermales locales susceptibles de projeter des roches et des fluides bouillants sur quelques mètres à plusieurs dizaines de mètres autour du point d’émission. Plusieurs incidents illustrent ce risque dans l’histoire récente du parc : une série d’explosions puissantes s’est produite à Excelsior Geyser dans les années 1880–1890, projetant de gros blocs jusqu’à 15 mètres de distance, tandis qu’une explosion notable a eu lieu à Porkchop Geyser en 1989. En juillet 2024, l’explosion à Biscuit Basin a détruit une passerelle touristique, sans faire de blessés alors que l’explosion d’Echinus Geyser il y a quelques jours n’a pas fait de dégâts majeurs.

Par ailleurs, les forêts du parc restent vulnérables aux incendies, dont la fréquence et l’intensité augmentent avec le changement climatique, un facteur de risque distinct de l’activité volcanique, mais tout aussi réel pour les écosystèmes de Yellowstone.

Yellowstone, une leçon de géologie à ciel ouvert

Yellowstone nous rappelle que notre planète est vivante et en constante évolution. Les geysers, les sources thermales et les terrasses minérales qui émerveillent les visiteurs ne sont pas de simples curiosités naturelles : ils sont la manifestation visible de processus profonds, à la frontière entre le manteau terrestre, la croûte, l’eau de surface et même le vivant.

Yellowstone n’est pas une exception : en Islande, l’interaction entre un point chaud et la dorsale médio-atlantique produit des paysages analogues, à l’image du site de Geysir. En Italie, les champs Phlégréens, à l’ouest de Naples, offrent une autre démonstration de la connexion entre volcanisme, fracturation et fluides.

Le geyser Geysir, en Islande. Airflore, Flickr, CC BY-NC-ND

Ces comparaisons montrent que les phénomènes observés à Yellowstone suivent des lois universelles : partout où se rencontrent chaleur, eau et fractures, des phénomènes géologiques se manifestent parfois de façon impressionnante. Devant ces paysages en constante transformation, la géologie ne demeure plus une science abstraite confinée aux laboratoires et aux modélisations. Elle est concrète, perceptible et associée à notre compréhension des mécanismes internes de la Terre.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

16.03.2026 à 17:53

Déterminer la forme de la Terre : une aventure scientifique et politique entre la France et le Royaume-Uni

Étienne Ghys, Mathématicien, directeur de recherche émérite CNRS, ENS de Lyon; Académie des sciences
Quelle est la forme exacte de la Terre ? Est-elle aplatie ou plutôt allongée aux pôles ? La question a agité les milieux scientifiques anglais et français pendant plusieurs siècles.
Texte intégral (2143 mots)
Charles-Marie de La Condamine, « Mesure des trois premiers degrés du méridien dans l’hémisphère austral », illustration tirée des _Observations de Messieurs de l’Académie royale des sciences, envoyés par le roi sous l’équateur_, Paris, Imprimerie royale, 1751. Archives de l’Académie des sciences, RES 126, Fourni par l'auteur

Quelle est la forme exacte de la Terre ? Est-elle aplatie ou plutôt allongée aux pôles ? La question a agité les milieux scientifiques des deux côtés de la Manche pendant plusieurs siècles. Pour tout savoir de cette controverse scientifique, l’Académie des sciences et la Royal Society de Londres présentent, du 1er avril au 20 juin 2026, l’exposition « La figure de la Terre. Un débat franco-anglais (XVIIᵉ-XXIᵉ siècle) », dans les locaux de la bibliothèque Mazarine, au cœur de l’Institut de France, à Paris.


On pourrait croire la question définitivement réglée : la Terre est ronde. Et pourtant, des enquêtes récentes indiquent qu’environ 8 % de nos concitoyens ne sont pas pleinement convaincus qu’elle le soit. Ce chiffre ne traduit pas seulement une méconnaissance. Selon moi, il révèle surtout une défiance. Ce n’est pas tant la rotondité de la Terre qui est contestée que l’autorité de ceux qui l’affirment. Le doute vise les « sachants », les institutions, les discours officiels. Face à ce phénomène, l’ironie ou l’indignation ne suffisent pas. Il faut peut-être s’interroger sur la manière dont nous racontons l’histoire des sciences, sur ce que nous transmettons, et sur ce que nous omettons.

On a longtemps enseigné que le Moyen Âge aurait cru la Terre plate et que la science moderne aurait progressivement dissipé cette erreur. Ce récit commode est historiquement faux. Depuis l’Antiquité grecque, les savants savent que la Terre est sphérique. Lors des éclipses de Lune, l’ombre projetée par la Terre est toujours circulaire (elle aurait une forme d’ellipse si la Terre était un disque plat) ; les étoiles visibles changent lorsqu’on voyage vers le nord ; au IIIᵉ siècle avant notre ère, Ératosthène mesurait déjà le périmètre terrestre avec une précision remarquable. La rotondité de la Terre n’est pas une conquête récente : elle appartient au patrimoine intellectuel de l’humanité depuis plus de deux millénaires.

Mais ce savoir était longtemps celui des lettrés. Les paysans, les artisans, les marins ordinaires, ceux qui ne lisaient ni Aristote ni les traités d’astronomie, n’avaient sans doute pas de représentation précise de la forme globale du monde. Leur univers était celui de l’horizon familier, du champ, du village, du port. La Terre était vécue, non pensée à l’échelle planétaire. Il ne s’agissait pas d’erreur, mais souvent d’indifférence : la question ne se posait pas. La science progresse d’abord dans des cercles restreints avant de devenir culture commune. Cette distance historique entre savoir savant et imaginaire ordinaire est peut-être l’une des clés de la fragilité contemporaine du consensus scientifique.

La triangulation, une affaire de patience

Au XVIIᵉ siècle, la question change de nature. On ne se contente plus de savoir que la Terre est ronde : on veut désormais la mesurer précisément. En France, sous l’impulsion de la dynastie des Cassini, l’Académie des sciences entreprend de déterminer la longueur d’un degré de latitude. La latitude se mesure par l’angle que fait l’étoile Polaire avec l’horizon : lorsqu’on se déplace vers le nord, cet angle augmente. Il suffit donc, en principe, de mesurer la distance parcourue pour une variation d’un degré afin d’estimer la dimension du globe.

La méthode employée est un chef-d’œuvre de rigueur : la triangulation. On mesure avec un soin extrême la longueur d’un segment sur le terrain puis, depuis des points élevés – collines, tours, clochers –, on observe les angles formés avec d’autres repères visibles à des dizaines de kilomètres. De triangle en triangle, on reconstitue ainsi de vastes distances. C’est une science de patience, d’équipes, d’instruments perfectionnés et d’erreurs soigneusement évaluées. La Terre devient un objet mesurable, arpenté, calculé.

Pierre Bouguer. La figure de la Terre. Déterminée par les Observations de Messieurs Bouguer & de La Condamine, de l’Académie royale des sciences, envoyés par ordre du roi au Pérou, pour observer aux environs de l’équateur. Paris : Jombert, 1749. Académie des sciences, CC BY

Au même moment, en Angleterre, Isaac Newton publie les Principia. Il y expose la théorie de la gravitation universelle et s’interroge sur la forme précise du globe. Si la Terre tourne sur elle-même en vingt-quatre heures, la force centrifuge doit légèrement l’aplatir aux pôles et la faire gonfler à l’équateur. À partir d’une observation apparemment modeste, la différence de période d’un pendule entre l’équateur et Cambridge, Newton réalise une expérience de pensée extraordinaire et estime l’ampleur de cet aplatissement. Pour la première fois, une théorie physique prétend prédire la forme même de la planète.

La rivalité entre la France et l’Angleterre devient scientifique

Les premières mesures françaises semblent pourtant indiquer l’inverse : la Terre serait allongée aux pôles. La controverse s’installe. Derrière le débat scientifique se profile une rivalité ancienne entre la France et l’Angleterre, nations proches, concurrentes et pourtant intimement liées par l’histoire. Pour trancher, l’Académie des sciences décide d’envoyer deux expéditions : l’une en Laponie, près du cercle polaire, l’autre à l’équateur. Il faut mesurer à nouveau, comparer, calculer. Les conditions sont extrêmes, les instruments fragiles, les incertitudes nombreuses. Mais le verdict tombe : la Terre est bien légèrement aplatie aux pôles. Les savants français, par leurs propres observations, confirment la prédiction newtonienne.

Cette victoire de la théorie newtonienne n’efface en rien l’héroïsme scientifique des expéditions. Voltaire, qui fut l’un des plus ardents défenseurs de Newton en France, en a donné une formule restée célèbre, s’adressant à Maupertuis :

« Vous avez trouvé dans les glaces, au milieu des ennuis, ce que Newton trouva sans sortir de chez lui. »

En quelques vers, il résume admirablement la tension féconde entre le travail de terrain, long et éprouvant, et la puissance de l’abstraction théorique. L’un ne va pas sans l’autre : sans hypothèse, pas d’expédition ; sans mesure, pas de confirmation. La science avance ainsi : en acceptant que les faits corrigent les hypothèses, même lorsque cela contredit des traditions prestigieuses.

À la fin du XVIIIᵉ siècle, la Révolution française engage une nouvelle étape. Il s’agit de créer un système de mesures universel, affranchi des usages locaux. Le mètre sera défini comme la dix-millionième partie du quart du méridien terrestre. La Terre devient l’étalon commun de l’humanité. De nouvelles campagnes de mesure sont entreprises pour fixer cette unité. La géodésie (l’étude de la forme de la Terre) rejoint alors des enjeux politiques et économiques : maîtriser la longitude en mer, c’est maîtriser les routes commerciales et la puissance navale. La mesure du globe participe désormais à l’histoire des empires.

Une aventure qui ne s’arrête pas

L’histoire ne s’achève pas avec l’ellipsoïde newtonien. La Terre réelle n’est ni parfaitement sphérique ni exactement régulière. Les masses internes, les reliefs, les océans introduisent des irrégularités que l’on regroupe sous le nom de « géoïde ». Au XIXᵉ siècle, des mathématiciens, comme Henri Poincaré, s’interrogent sur la stabilité des corps en rotation et développent des concepts qui éclairent aussi la compréhension des formes planétaires. Aujourd’hui, grâce aux satellites et à l’altimétrie spatiale, la surface moyenne des océans est connue avec une précision centimétrique. Du bâton d’Ératosthène aux instruments orbitaux, c’est une même quête intellectuelle et technique qui se poursuit.

C’est cette aventure, scientifique autant que politique, que retrace l’exposition organisée conjointement par la Royal Society et l’Académie des sciences. Présentée d’abord à Londres, elle est aujourd’hui accueillie à Paris, à la bibliothèque Mazarine de l’Institut de France. Manuscrits, cartes, instruments, carnets de terrain, correspondances témoignent de ces débats, de ces voyages et de ces calculs. On y voit comment des savants parfois rivaux ont appris au fil du temps à confronter leurs théories au réel, à mesurer leurs erreurs, à dialoguer au-delà des frontières.

À l’heure où certains doutent encore de la rotondité de la Terre, il n’est pas inutile de revenir à cette histoire longue et complexe. Elle rappelle que la science n’est ni un dogme ni une vérité révélée, mais une construction patiente, collective, souvent conflictuelle, toujours ouverte à la révision. Comprendre comment nous avons mesuré la Terre, c’est comprendre comment se fabrique la connaissance. Et c’est peut-être aussi une manière, aujourd’hui, de reconstruire la confiance dans le savoir.

The Conversation

Étienne Ghys ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞