LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

31.07.2025 à 14:49

Des déchets de crevette pour une électronique plus écoresponsable ?

Yann Chevolot, Chercheur chimie et nanotechnologies pour la santé et environnement, Centrale Lyon

Didier Léonard, Professeur de Chimie des Matériaux, Université Claude Bernard Lyon 1

Isabelle Servin, Ingénieur chercheur en microélectronique / éco-innovation, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)

Jean-Louis Leclercq, Chercheur CNRS Hors Classe - Micro nanotechnologies, Centrale Lyon

Olivier Soppera, Directeur de recherche CNRS, photochimie et photophysique, Centre national de la recherche scientifique (CNRS)

Stéphane Trombotto, Maitre de conférences, chimiste organicien et polymériste, spécialiste du chitosane, Université Claude Bernard Lyon 1

Nos appareils électroniques ont un gros impact environnemental, notamment à cause de leur fabrication. Les chercheurs s’attachent à trouver des procédés plus écologiques.
Texte intégral (2164 mots)

Avec l’explosion du numérique, des objets connectés et de l’intelligence artificielle, la production de composants électroniques poursuit sa croissance. La fabrication de ces composants recourt à des techniques de fabrication complexes qui ont pour objet de sculpter la matière à l’échelle de quelques micromètres à quelques nanomètres, soit environ l’équivalent du centième au millième du diamètre d’un cheveu.

L’impact environnemental de ces procédés de fabrication est aujourd’hui estimé entre 360 et 600  mégatonnes équivalent CO2 par an dans le monde. Les chercheurs visent à réduire cet impact en s’attaquant aux différentes étapes de fabrication des produits électroniques.


Les procédés de fabrication en microélectronique requièrent l’emploi de matériaux et solvants pétrosourcés – c’est-à-dire issus de ressources fossiles comme le pétrole. Et certains de ces matériaux comportent des composés chimiques classés comme mutagènes, cancérigènes ou reprotoxiques. Pour des raisons économiques, réglementaires, écologiques et de sécurité, les acteurs du domaine soulignent leur volonté d’accentuer le développement de procédés plus respectueux de l’environnement et moins toxiques. De plus, les projections sur la raréfaction du pétrole imposent d’explorer des matériaux alternatifs aux matériaux pétrosourcés – un domaine que l’on appelle la « chimie verte ».

Dans ce contexte, différents matériaux biosourcés (à savoir, des matériaux issus partiellement ou totalement de la biomasse) et hydrosolubles sont étudiés comme une alternative aux matériaux pétrosourcés. Par exemple, la protéine de la soie ou les protéines du blanc d’œuf, deux matériaux appartenant à la famille des polymères (matériaux constitués de molécules de tailles importantes, aussi appelées « macromolécules ») ont été proposés comme résine de lithographie. Cependant, ces polymères biosourcés possèdent des limitations pratiques par exemple être en compétition avec l’alimentation humaine pour ce qui concerne le blanc d’œuf.


À lire aussi : Comment rendre l’électronique plus soutenable ?


Dans nos travaux, nous explorons le potentiel du chitosane, un matériau polymère naturel produit aujourd’hui à l’échelle industrielle à partir de la chitine, que l’on extrait principalement de déchets agroalimentaires, comme les carapaces de crevettes et de crabes, les endosquelettes de seiches et de calmars, et certains champignons.

Nous avons montré que le chitosane est compatible avec une ligne de production pilote semi-industrielle de microélectronique. L’analyse du cycle de vie du procédé que nous proposons montre une réduction potentielle de 50 % de l’impact environnemental par rapport aux résines conventionnelles lors de la réalisation d’étapes de lithographie-gravure similaires.

La lithographie, processus clé de la fabrication des composants électroniques

Par exemple, aujourd’hui, la fabrication d’un transistor nécessite plusieurs centaines d’étapes (entre 300 et 1 000 par puce suivant la nature du composant).

Parmi ces étapes, les étapes de lithographie permettent de dessiner les motifs des composants à l’échelle micro et nanométrique. Ce sont celles qui nécessitent le plus de produits chimiques actuellement pétrosourcés et pour certains toxiques.

La lithographie consiste à recouvrir la plaque de silicium avec une couche de résine sensible à la lumière ou à un faisceau d’électrons – comme une pellicule photographique – de manière à y inscrire des motifs de quelques micromètres à quelques nanomètres par interaction localisée du faisceau avec la matière. En optique, plusieurs longueurs d’onde sont utilisées selon la taille des motifs souhaités.

Plus la longueur d’onde est petite, plus la taille des motifs inscriptibles est petite, et on peut aujourd’hui atteindre des résolutions de moins de 5 nanomètres avec une lumière de longueur d’onde de 13,5 nanomètres, afin de répondre à la demande de miniaturisation des composants électroniques, correspondant à la loi de Moore. Celle-ci stipule que le nombre de transistors sur un circuit intégré double environ tous les deux ans, entraînant une augmentation exponentielle des performances des microprocesseurs tout en réduisant leur coût unitaire.

In fine, lors de l’étape de développement – encore une fois comme un terme emprunté à la photographie argentique, c’est la différence de solubilité entre les zones de la résine qui ont été exposées ou non à l’irradiation ultraviolette ou d’électrons qui permet de créer des ouvertures de géométrie définie à travers la résine de chitosane. Là où la résine disparaît, on accède au substrat de silicium (ou autre couche/matériau sous-jacente). On peut ainsi le graver ou y déposer d’autres matériaux (métaux, diélectriques et semiconducteurs), la résine restante jouant alors le rôle de masque de protection temporaire pour les zones non traitées.

Le chitosane, une solution bio pour la résine

Comme mentionné précédemment, le chitosane est produit à partir de la chitine, le deuxième polymère naturel le plus abondant sur Terre (après la cellulose), mais il peut aussi être produit par des procédés de biotechnologies. En plus d’être un matériau renouvelable, il est biocompatible, non écotoxique, biodégradable et soluble en milieu aqueux légèrement acide.

Au milieu de tous ces avantages, son grand intérêt pour la micro- et la nanofabrication est qu’il peut former des films minces, c’est-à-dire des couches de très faibles épaisseurs. Le chitosane peut donc être facilement étalé sur le substrat en silicium pour remplacer la résine pétrosourcée.

Dans le cadre de plusieurs projets de recherche, nous avons démontré que le chitosane était compatible avec toute la gamme des techniques de lithographie : lithographie électronique, optique (193 nanomètres et 248 nanomètres) et même en nanoimpression. Cette dernière technique consiste à presser directement le film de chitosane avec un tampon chauffé possédant des motifs de tailles submicrométriques.

Le chitosane change de structure quand il est irradié

Nous avons mis en évidence que, sous une exposition à des faisceaux d’électrons ou de lumière, une réduction de la longueur des macromolécules du chitosane se produit du fait de la rupture de certaines liaisons chimiques, selon un processus de « dépolymérisation partielle ».

Ceci a pour conséquence de rendre la zone irradiée de la résine soluble dans l’eau pure alors que les zones non touchées par le faisceau restent insolubles.

Au final, les performances de la résine en chitosane sont proches des résines commerciales en conditions environnementales contrôlées (salles blanches de microélectronique), et ce, d’autant mieux sous atmosphère à faible teneur en dioxygène et/ou à faible taux d’humidité relative, des conditions qui peuvent être contrôlées en salle blanche.

Les motifs ont été transférés avec succès par gravure dans la silice et le silicium pour atteindre des motifs de moins de 50 nanomètres en écriture électronique.

L’amélioration de la résolution constitue un axe de recherche en cours dans notre consortium pour atteindre les standards des résines de référence d’autant plus que l’industrie est en quête de solutions alternatives aux résines classiques pour répondre aux enjeux environnementaux, économiques et technologiques actuels. Les résines biosourcées peuvent être une réelle alternative à partir du moment où elles permettront d’atteindre les résolutions obtenues par les résines classiques, à savoir quelques nanomètres.


À lire aussi : Vos appareils électroniques sont-ils obsolètes de plus en plus rapidement ?


L’expertise que nous avons construite au cours des années, dans le cadre notamment du projet ANR Lithogreen, a permis à notre consortium de laboratoires français d’intégrer le projet européen Horizon Europe Resin Green avec des visées de développement en lithographie optique sur toute la gamme de 365 nanomètres à 13,5 nanomètres et en lithographie électronique à haute résolution — ce qui permettrait d’atteindre des résolutions comparables à celles obtenues actuellement avec les résines pétrosourcées.


Le projet Lithogreen ANR-19-CE43-0009 a été soutenu par l’Agence Nationale de la Recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Yann Chevolot a reçu des financements de l'ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l'initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'initiative commune Chips JU. L'Union européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

Didier Léonard a reçu des financements de l'ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l'initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'initiative commune Chips JU. L'Union européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

SERVIN Isabelle a reçu des financements pour le projet ANR Lithogreen

Jean-Louis Leclercq a reçu a reçu des financements de l'ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l'initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'initiative commune Chips JU. L'Union européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

Olivier Soppera a reçu des financements de l'ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l'initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'initiative commune Chips JU. L'Union européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

Stéphane Trombotto a reçu des financements de l'ANR pour le projet Lithogreen (ANR-19-CE43-0009) et de l'Union Européenne et Chips JU pour le projet Resin Green (https://resingreen.eu). Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union Européenne ou Chips JU. L'Union Européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

PDF

30.07.2025 à 16:25

Les Néandertaliens auraient-ils accompagné leur viande d’une bonne quantité d’asticots ?

Melanie Beasley, Assistant Professor of Anthropology, Purdue University

De nouvelles recherches soulignent le rôle des asticots comme un supplément nutritif facilement accessible dans le régime alimentaire des Hominini.
Texte intégral (1905 mots)
Les larves de mouches peuvent se nourrir d’animaux en décomposition. Melanie M. Beasley

Les asticots étaient-ils un mets de base du régime alimentaire des Néandertaliens ? Cela expliquerait pourquoi ces derniers présentent des taux d’azote-15 dignes d’hypercarnivores.


Pendant longtemps, les scientifiques ont pensé que les Néandertaliens étaient de grands consommateurs de viande. Des analyses chimiques de leurs restes semblaient indiquer qu’ils en mangeaient autant que des prédateurs de haut niveau comme les lions ou les hyènes. Mais en réalité, les Hominini – c’est-à-dire les Néandertaliens, notre espèce, et d’autres parents proches aujourd’hui éteints – ne sont pas des carnivores spécialisés. Ce sont plutôt des omnivores, qui consomment aussi de nombreux aliments d’origine végétale.

Il est possible pour les humains de survivre avec un régime très carnivore. De fait, plusieurs groupes de chasseurs-cueilleurs traditionnels du Nord, comme les Inuits, ont pu survivre principalement grâce aux aliments d’origine animale. Mais les Hominini ne peuvent tout simplement pas tolérer de grandes quantités de protéines comme les grands carnivores. Chez l’humain, un excès prolongé de protéines sans une quantité suffisante d’autres nutriments peut entraîner une intoxication protéique – un état débilitant, voire mortel, historiquement appelé « famine du lapin ».

Alors, comment expliquer les signatures chimiques retrouvées dans les os de Néandertaliens, qui suggèrent qu’ils mangeaient énormément de viande sans problème apparent ?

Je suis anthropologue et j’étudie l’alimentation de nos lointains ancêtres grâce à des éléments comme l’azote. De nouvelles recherches que mes collègues et moi avons menées suggèrent qu’un ingrédient secret dans le régime des Néandertaliens pourrait expliquer ces signatures chimiques : les asticots.

Les rapports isotopiques renseignent sur ce qu’un animal a mangé

Les proportions d’éléments spécifiques retrouvées dans les os d’un animal permettent d’avoir un aperçu de son alimentation. Les isotopes sont des formes alternatives d’un même élément, dont la masse diffère légèrement. L’azote possède deux isotopes stables : l’azote-14 (le plus courant) et l’azote-15 (plus lourd et plus rare). On note leur rapport sous la forme δ15N, mesuré en « pour mille ».

À mesure que l’on monte dans la chaîne alimentaire, les organismes ont relativement plus d’azote-15 en eux. L’herbe, par exemple, a une valeur de δ15N très faible. Un herbivore, lui, accumule l’azote-15 qu’il consomme en mangeant de l’herbe, de sorte que son propre corps a une valeur de δ15N légèrement plus élevée. Les animaux carnivores ont le ratio d’azote le plus élevé dans un réseau alimentaire ; l’azote-15 de leurs proies se concentre dans leur corps.

En analysant les rapports d’isotopes stables de l’azote, nous pouvons reconstruire les régimes alimentaires des Néandertaliens et des premiers Homo sapiens durant la fin du Pléistocène, qui s’étendait de 11 700 à 129 000 ans avant notre ère (av. n. è.). Les fossiles provenant de différents sites racontent la même histoire : ces Hominini ont des valeurs de δ15N élevées. Ces valeurs les placeraient typiquement au sommet de la chaîne alimentaire, aux côtés des hypercarnivores tels que les lions des cavernes et les hyènes, dont le régime alimentaire est composé à plus de 70 % de viande.

Mais peut-être y avait-il quelque chose d’autre dans leur alimentation qui gonfle ces valeurs ?

Découvrir le menu des Néandertaliens

Notre suspicion s’est portée sur les asticots, qui pouvaient être une source différente d’azote-15 enrichi dans le régime alimentaire des Néandertaliens. Les asticots, qui sont les larves de mouches, peuvent être une source de nourriture riche en graisses. Ils sont inévitables après avoir tué un autre animal, facilement collectables en grande quantité et bénéfiques sur le plan nutritionnel.

Pour explorer cette possibilité, nous avons utilisé un ensemble de données qui avait été initialement créé dans un but très différent : un projet d’anthropologie médico-légale axé sur la manière dont l’azote pourrait aider à estimer le temps écoulé depuis la mort.

J’avais initialement collecté des échantillons contemporains de tissu musculaire et des asticots associés au Centre d’anthropologie médico-légale de l’Université du Tennessee, à Knoxville, pour comprendre comment les valeurs d’azote évoluent pendant la décomposition après la mort.

Bien que ces données soient pensées pour aider dans des enquêtes actuelles sur des morts, nous les avons, nous, réutilisées pour tester une hypothèse très différente. Nous avons ainsi trouvé que les valeurs des isotopes stables de l’azote augmentent modestement à mesure que le tissu musculaire se décompose, allant de -0,6 permil à 7,7 permil.

Cette augmentation est plus marquée dans les asticots eux-mêmes, qui se nourrissent de ce tissu en décomposition : de 5,4 permil à 43,2 permil. Pour mettre ces valeurs en perspective, les scientifiques estiment que les valeurs de δ15N des herbivores du Pléistocène varient entre 0,9 permil et 11,2 permil. On enregistre pour les asticots des mesures pouvant être presque quatre fois plus hautes.

Notre recherche suggère que les valeurs élevées de δ15N observées chez les Hominini du Pléistocène tardif pourraient être gonflées par une consommation tout au long de l’année de mouches larvaires enrichies en 15N trouvées dans des aliments d’animaux séchés, congelés ou stockés.

Les pratiques culturelles influencent l’alimentation

En 2017, mon collègue John Speth a suggéré que les valeurs élevées de δ15N chez les Néandertaliens étaient dues à la consommation de viande putréfiée ou en décomposition, en se basant sur des preuves historiques et culturelles des régimes alimentaires chez les chasseurs-cueilleurs de l’Arctique.

Traditionnellement, les peuples autochtones considéraient presque universellement les aliments d’animaux entièrement putréfiés et infestés de mouches larvaires comme des mets très recherchés, et non comme des rations de survie. En fait, de nombreux peuples laissaient régulièrement et, souvent intentionnellement, les aliments d’origine animale se décomposer au point où ils grouillaient de mouches larvaires et, dans certains cas, commençaient même à se liquéfier.

Cette nourriture en décomposition émettait inévitablement une puanteur si intense que les premiers explorateurs européens, les trappeurs et les missionnaires en étaient dégoûtés. Pourtant, les peuples autochtones considéraient ces aliments comme bons à manger, voire comme une gourmandise. Lorsqu’on leur demandait comment ils pouvaient tolérer cette odeur nauséabonde, ils répondaient simplement : « Nous ne mangeons pas l’odeur. »

Des pratiques culturelles des Néandertaliens similaires pourraient bien être la clé de l’énigme de leurs valeurs élevées de δ15N. Les Hominini anciens coupaient, stockaient, conservaient, cuisaient et cultivaient une grande variété de produits. Toutes ces pratiques enrichissaient leur régime alimentaire paléolithique avec des aliments sous des formes que les carnivores non-Hominini ne consomment pas. Des recherches montrent que les valeurs de δ15N sont plus élevées pour les aliments cuits, pour les tissus musculaires putréfiés provenant de spécimens terrestres et aquatiques et, selon notre étude, pour les larves de mouches se nourrissant de tissus en décomposition.

Les valeurs élevées de δ15N des asticots associées aux aliments animaux putréfiés aident à expliquer comment les Néandertaliens ont pu inclure une grande variété d’autres aliments nutritifs au-delà de la simple viande, tout en affichant des valeurs de δ15N typiques de celles des hypercarnivores.

Nous suspectons que les valeurs élevées de δ15N observées chez les Néandertaliens reflètent la consommation régulière de tissus animaux gras et de contenus d’estomac fermentés, beaucoup étant à l’état semi-putride ou putride, ainsi que le bonus inévitable des mouches larvaires vivantes et mortes enrichies en 15N.

Ce qui reste encore inconnu

Les asticots sont une ressource riche en graisses, dense en nutriments, ubiquitaire et facilement disponible, et tant les Néandertaliens que les premiers Homo sapiens, tout comme les chasseurs-cueilleurs modernes, auraient tiré profit de leur pleine exploitation. Mais nous ne pouvons pas affirmer que les mouches larvaires seules expliquent pourquoi les Néandertaliens ont de telles valeurs élevées de δ15N dans leurs restes.

Plusieurs questions concernant ce régime alimentaire ancien restent sans réponse. Combien d’asticots une personne devait-elle consommer pour expliquer une augmentation des valeurs de δ15N au-delà des valeurs attendues dues à la consommation de viande seule ? Comment les bienfaits nutritionnels de la consommation de mouches larvaires changent-ils en fonction du temps de stockage des aliments ? Des études expérimentales supplémentaires sur les variations des valeurs de δ15N des aliments transformés, stockés et cuits selon les pratiques traditionnelles autochtones pourraient nous aider à mieux comprendre les pratiques alimentaires de nos ancêtres.

The Conversation

Melanie Beasley a reçu un financement de la Haslam Foundation pour cette recherche.

PDF

30.07.2025 à 15:20

Séisme au Kamtchatka : que sait-on de l’un des dix plus puissants tremblements de terre jamais enregistrés ?

Dee Ninis, Earthquake Scientist, Monash University

John Townend, Professor of Geophysics, Te Herenga Waka — Victoria University of Wellington

Le séisme au Kamtchatka est le plus puissant sur Terre depuis 2011. Il est dans une zone sismique qui a été très active ces derniers mois.
Texte intégral (1878 mots)

Mercredi 30 juillet vers 11 h 30 heure locale, un séisme de magnitude 8,8 a frappé la côte de la péninsule du Kamtchatka à l’extrême est de la Russie. La région est le siège d’une activité sismique depuis plusieurs mois, et des dizaines de répliques ont déjà eu lieu autour de ce séisme. Des alertes au tsunami ont été lancées rapidement tout autour du Pacifique – et certaines ont déjà pu être levées.


Avec une profondeur d’environ 20 kilomètres, ce puissant séisme, qui figure parmi les dix plus forts jamais enregistrés et le plus important au monde depuis 2011, a causé des dégâts matériels et fait des blessés dans la plus grande ville voisine, Petropavlovsk-Kamtchatski, située à seulement 119 kilomètres de l’épicentre.

Des alertes au tsunami et des évacuations ont été déclenchées en Russie, au Japon et à Hawaï, et des avis ont été émis pour les Philippines, l’Indonésie et même la Nouvelle-Zélande et le Pérou.

Toute la région du Pacifique est très exposée à des séismes puissants et aux tsunamis qui en résultent, car elle est située dans la « ceinture de feu », une zone d’activité sismique et volcanique intense. Les dix séismes les plus puissants jamais enregistrés dans l’histoire moderne se sont tous produits dans la ceinture de feu.

Voici pourquoi la tectonique des plaques rend cette partie du monde si instable.

Pourquoi le Kamtchatka est-il touché par des séismes aussi violents ?

Au large de la péninsule du Kamtchatka se trouve la fosse des Kouriles, une frontière tectonique où la plaque Pacifique est poussée sous la plaque d’Okhotsk.

Alors que les plaques tectoniques se déplacent continuellement les unes par rapport aux autres, l’interface entre les plaques tectoniques est souvent « bloquée ». La tension liée au mouvement des plaques s’accumule jusqu’à dépasser la résistance de l’interface, puis se libère sous la forme d’une rupture soudaine : un séisme.

En raison de la grande superficie de l’interface aux frontières des plaques, tant en longueur qu’en profondeur, la rupture peut s’étendre sur de vastes zones à la frontière des plaques. Cela donne lieu à certains des séismes les plus importants et potentiellement les plus destructeurs au monde.

Un autre facteur qui influe sur la fréquence et l’intensité des séismes dans les zones de subduction est la vitesse à laquelle les deux plaques se déplacent l’une par rapport à l’autre.

Dans le cas du Kamtchatka, la plaque Pacifique se déplace à environ 75 millimètres par an par rapport à la plaque d’Okhotsk. Il s’agit d’une vitesse relativement élevée pour des plaques tectoniques, ce qui explique que les séismes y sont plus fréquents que dans d’autres zones de subduction. En 1952, un séisme de magnitude 9,0 s’est produit dans la même zone de subduction, à environ 30 kilomètres seulement du séisme de magnitude 8,8 d’aujourd’hui.

Parmi les autres exemples de séismes à la frontière d’une plaque en subduction, on peut citer le séisme de magnitude 9,1 qui a frappé la région de Tohoku au Japon en 2011 et le séisme de magnitude 9,3 qui a frappé Sumatra et les îles Andaman en Indonésie le 26 décembre 2004. Ces deux séismes ont débuté à une profondeur relativement faible et ont provoqué une rupture de la limite des plaques jusqu’à la surface.

Ils ont soulevé un côté du fond marin par rapport à l’autre, déplaçant toute la colonne d’eau de l’océan située au-dessus et provoquant des tsunamis dévastateurs. Dans le cas du séisme de Sumatra, la rupture du fond marin s’est produite sur une longueur d’environ 1 400 kilomètres.

Capture d'écran du site USGS
Capture d'écran du site USGS (United States Geological Survey) montrant les différentes plaques tectoniques du Pacifique (délimitées en rouge) et l'épicentre du séisme, matérialisé par une étoile. USGS, CC BY

Que va-t-il se passer maintenant ?

Au moment où nous écrivons ces lignes, environ six heures après le séisme, 35 répliques d’une magnitude supérieure à 5,0 ont déjà été enregistrées, selon le service de surveillance sismique états-unien (l’United States Geological Survey, USGS).

Les répliques se produisent lorsque les tensions dans la croûte terrestre se redistribuent après le séisme principal. Elles sont souvent d’une magnitude inférieure d’un point à celle du séisme principal. Dans le cas du séisme d’aujourd’hui, cela signifie que des répliques d’une magnitude supérieure à 7,5 sont possibles.


À lire aussi : Pourquoi il y a des séismes en cascade en Turquie et en Syrie


Pour un séisme de cette ampleur, les répliques peuvent se poursuivre pendant des semaines, voire des mois, mais leur magnitude et leur fréquence diminuent généralement avec le temps.

Le séisme d’aujourd’hui a également provoqué un tsunami qui a déjà touché les communautés côtières de la péninsule du Kamtchatka, des îles Kouriles, et d’Hokkaido au Japon.

Au cours des prochaines heures, le tsunami se propagera à travers le Pacifique, atteignant Hawaï environ six heures après le séisme et se poursuivant jusqu’au Chili et au Pérou. [ndlt : à l’heure où nous effectuons cette traduction, les alertes à Hawaï ont été réduites, et annulées aux Philippines. Les vagues ont atteint la côte ouest des États-Unis, jusqu’à un mètre de hauteur en Californie et dans l’Oregon.]

Les spécialistes des tsunamis continueront d’affiner leurs modèles des effets du tsunami au fur et à mesure de sa propagation, et les autorités de la protection civile fourniront des conseils faisant autorité sur les effets locaux attendus.


À lire aussi : Alertes aux séismes et tsunamis : comment gagner de précieuses secondes


Quelles leçons peut-on tirer de ce séisme pour d’autres régions du monde ?

Heureusement, les séismes d’une telle ampleur sont rares. Cependant, leurs effets au niveau local et à l’échelle mondiale peuvent être dévastateurs.

Outre sa magnitude, plusieurs aspects du séisme qui a frappé le Kamtchatka aujourd’hui en feront un sujet de recherche particulièrement important.

Par exemple, la région a connu une activité sismique très intense ces derniers mois et un séisme de magnitude 7,4 s’est produit le 20 juillet. L’influence de cette activité antérieure sur la localisation et le moment du séisme d’aujourd’hui sera un élément crucial de ces recherches.

Tout comme le Kamtchatka et le nord du Japon, la Nouvelle-Zélande est située au-dessus d’une zone de subduction, et même de deux zones de subduction. La plus grande, la zone de subduction de Hikurangi, s’étend au large de la côte est de l’île du Nord.

D’après les caractéristiques de cette interface tectonique et les archives géologiques des séismes passés, la zone de subduction de Hikurangi est susceptible de produire des séismes de magnitude 9. Cela ne s’est jamais produit dans l’histoire, mais si cela arrivait, cela provoquerait un tsunami.

La menace d’un séisme majeur dans une zone de subduction n’est jamais écartée. Le séisme qui s’est produit aujourd’hui au Kamtchatka est un rappel important pour tous ceux qui vivent dans des zones sismiques de rester prudents et de tenir compte des avertissements des autorités de protection civile.

The Conversation

Dee Ninis travaille au Seismology Research Centre, est vice-présidente de l’Australian Earthquake Engineering Society et membre du comité de la Geological Society of Australia – Victoria Division.

John Townend reçoit des financements des fonds Marsden et Catalyst de la Royal Society Te Apārangi, de la Natural Hazards Commission Toka Tū Ake et du ministère néo-zélandais des Entreprises, de l’Innovation et de l’Emploi. Il est ancien président et directeur de la Seismological Society of America ainsi que président de la New Zealand Geophysical Society.

PDF

28.07.2025 à 15:54

Où est le centre de l’Univers ?

Rob Coyne, Teaching Professor of Physics, University of Rhode Island

Puisque l’Univers est en expansion, cela veut-il dire qu’il est parti d’un point précis, où il aurait été tout contracté ? Eh bien non. Un physicien nous explique.
Texte intégral (2350 mots)
Dans l’Univers, il y a quatre dimensions : longueur, largeur, hauteur… et temps. Scaliger/iStock/NASA via Getty Images Plus

Puisque l’Univers est en expansion, cela veut-il dire qu’il est parti d’un point précis, où il aurait été tout contracté ? Eh bien non ! Un physicien nous explique.


Il y a environ un siècle, les scientifiques s’efforçaient de concilier ce qui semblait être une contradiction dans la théorie de la relativité générale d’Albert Einstein.

Publiée en 1915 et déjà largement acceptée dans le monde entier par les physiciens et les mathématiciens, cette théorie supposait que l’Univers était statique, c’est-à-dire immuable et immobile. En bref, Einstein pensait que l’Univers d’aujourd’hui avait la même taille et la même forme que dans le passé.

Puis, lorsque les astronomes ont observé des galaxies lointaines dans le ciel nocturne à l’aide de puissants télescopes, ils ont constaté que l’Univers était loin d’être immuable. Bien au contraire, les nouvelles observations suggéraient que l’Univers était en expansion.

Les scientifiques se sont rapidement rendu compte que la théorie d’Einstein ne stipulait pas que l’Univers devait être statique – elle pouvait tout à fait décrire un Univers en expansion. En utilisant les outils mathématiques que ceux fournis par la théorie d’Einstein, les scientifiques ont créé de nouveaux modèles, qui, eux, montraient que l’Univers était dynamique et en évolution.

J’ai passé des dizaines d’années à essayer de comprendre la relativité générale, y compris dans le cadre de mon travail actuel en tant que professeur de physique, puisque je donne des cours sur le sujet. Je sais que l’idée d’un Univers en perpétuelle expansion peut sembler intimidante, et qu’une partie du défi conceptuel auquel nous sommes tous confrontés ici consiste à dépasser notre intuition de la façon dont les choses fonctionnent.

Par exemple, s’il est difficile d’imaginer que quelque chose d’aussi grand que l’Univers n’a pas de centre… la physique dit que c’est la réalité.

L’espace entre les galaxies

Tout d’abord, définissons ce que l’on entend par « expansion ». Sur Terre, « expansion » signifie que quelque chose grossit. Et en ce qui concerne l’Univers, c’est vrai, en quelque sorte.

L’expansion peut également signifier que « tout s’éloigne de nous », ce qui est également vrai en ce qui concerne l’Univers. Il suffit de pointer un télescope sur des galaxies lointaines pour constater qu’elles semblent toutes s’éloigner de nous. En outre, plus elles sont éloignées, plus elles semblent se déplacer rapidement. Et elles semblent également s’éloigner les unes des autres.

Il est donc plus exact de dire que tout ce qui existe dans l’Univers s’éloigne de tout le reste, en même temps.

Cette idée est subtile mais essentielle. Il est facile d’imaginer la création de l’univers comme un feu d’artifice qui explose : ça commence par un Big Bang, puis toutes les galaxies de l’Univers s’envolent dans toutes les directions à partir d’un point central.

Mais cette analogie n’est pas correcte. Non seulement elle implique à tort que l’expansion de l’Univers a commencé à partir d’un point unique, ce qui n’est pas le cas, mais elle suggère également que ce sont les galaxies qui se déplacent, ce qui n’est pas tout à fait exact non plus.

Ce ne sont pas tant les galaxies qui s’éloignent les unes des autres : c’est l’espace entre les galaxies, le tissu de l’Univers lui-même, qui s’agrandit au fur et à mesure que le temps passe.

En d’autres termes, ce ne sont pas vraiment les galaxies elles-mêmes qui se déplacent dans l’Univers ; c’est plutôt l’Univers lui-même qui les transporte plus loin à mesure qu’il s’étend.

Une analogie courante consiste à imaginer que l’on colle des points sur la surface d’un ballon. Lorsque vous insufflez de l’air dans le ballon, celui-ci se dilate. Comme les points sont collés à la surface du ballon, ils s’éloignent les uns des autres. Bien qu’ils semblent se déplacer, les points restent en fait exactement à l’endroit où vous les avez placés, et la distance qui les sépare s’accroît simplement en raison de l’expansion du ballon.

split screen of a green balloon with red dots and a squiggle on the surface, lightly inflated and then much more blown up
L’espace entre les point s’agrandit. NASA/JPL-Caltech, CC BY

Imaginez maintenant que les points sont des galaxies et que le ballon est le tissu de l’Univers, et vous commencerez à voir ce dont il s’agit ici.

Malheureusement, si cette analogie est un bon début, elle ne permet pas non plus de comprendre les détails.

La quatrième dimension

Pour toute analogie, il est important de comprendre ses limites. Certains défauts sont évidents : un ballon est assez petit pour tenir dans votre main, ce qui n’est pas le cas de l’Univers. Un autre défaut est plus subtil. Le ballon est composé de deux parties : sa surface en latex et son intérieur rempli d’air.

Ces deux parties du ballon sont décrites différemment dans le langage mathématique. La surface du ballon est bidimensionnelle. Si vous marchez dessus, vous pouvez vous déplacer vers l’avant, l’arrière, la gauche ou la droite, mais vous ne pouvez pas vous déplacer vers le haut ou le bas sans quitter la surface.

On pourrait croire que nous nommons ici quatre directions – avant, arrière, gauche et droite –, mais il ne s’agit que de mouvements le long de deux axes de base : d’un côté à l’autre et d’avant en arrière. Ces deux axes, longueur et largeur, rendent la surface bidimensionnelle.

L’intérieur du ballon, en revanche, est tridimensionnel. Vous pouvez donc vous déplacer librement dans toutes les directions : en longueur et en largeur, mais aussi vers le haut ou vers le bas – ce qui constitue un troisième axe, la hauteur.

C’est là que réside la confusion. Ce que nous considérons comme le « centre » du ballon est un point situé quelque part à l’intérieur du ballon, dans l’espace rempli d’air qui se trouve sous la surface.

Mais dans cette analogie, l’Univers ressemble davantage à la surface en latex du ballon. L’intérieur du ballon, rempli d’air, n’a pas d’équivalent dans notre Univers, et nous ne pouvons donc pas utiliser cette partie de l’analogie – seule la surface compte.

Un ballon violet gonflé sur fond bleu
Vous essayez de comprendre comment fonctionne l’Univers ? Commencez par contempler un ballon. Kristopher_K/iStock via Getty Images Plus

Demander « Où est le centre de l’Univers ? », c’est un peu comme demander « Où est le centre de la surface du ballon ? » Il n’y en a tout simplement pas. Vous pourriez voyager le long de la surface du ballon dans n’importe quelle direction, aussi longtemps que vous le souhaitez, et vous n’atteindriez jamais un endroit que vous pourriez appeler son centre parce que vous ne quitteriez jamais la surface.

De la même manière, vous pourriez voyager dans n’importe quelle direction dans l’Univers et vous ne trouveriez jamais son centre, car, tout comme la surface du ballon, il n’en a tout simplement pas.

Si cela peut être si difficile à comprendre, c’est en partie à cause de la façon dont l’Univers est décrit dans le langage mathématique. La surface du ballon a deux dimensions, et l’intérieur du ballon en a trois, mais l’Univers existe en quatre dimensions. Parce qu’il ne s’agit pas seulement de la façon dont les choses se déplacent dans l’espace, mais aussi de la façon dont elles se déplacent dans le temps.

Notre cerveau est conçu pour penser à l’espace et au temps séparément. Mais dans l’Univers, l’espace et le temps sont imbriqués en un seul tissu, appelé « espace-temps ». Cette unification modifie le fonctionnement de l’Univers, par rapport à ce que prévoit notre intuition.

Et cette explication ne répond même pas à la question de savoir comment quelque chose peut être en expansion infinie – les scientifiques tentent toujours de comprendre ce qui est à l’origine de cette expansion.

En nous interrogeant sur le centre de l’Univers, nous nous heurtons donc aux limites de notre intuition. La réponse que nous trouvons (tout est en expansion partout et en même temps) nous donne un aperçu de l’étrangeté et de la beauté de notre Univers.

The Conversation

Rob Coyne a reçu des financements de la National Aeronautics and Space Administration (NASA) et de la US National Science Foundation (NSF).

PDF

24.07.2025 à 20:05

La majorité de la pêche industrielle dans les aires marines protégées échappe à toute surveillance

Raphael Seguin, Doctorant en écologie marine, en thèse avec l'Université de Montpellier et BLOOM, Université de Montpellier

David Mouillot, Professeur en écologie, laboratoire MARBEC, Université de Montpellier

La majorité des aires marines protégées dans le monde n’offre que peu de protection face à la pêche industrielle, qui échappe souvent à toute surveillance publique.
Texte intégral (3396 mots)

Les aires marines protégées sont-elles vraiment efficaces pour protéger la vie marine et la pêche artisanale ? Alors que, à la suite de l’Unoc-3, des États comme la France ou la Grèce annoncent la création de nouvelles aires, une étude, parue ce 24 juillet dans la revue Science, montre que la majorité de ces zones reste exposée à la pêche industrielle, dont une large part échappe à toute surveillance publique. Une grande partie des aires marines ne respecte pas les recommandations scientifiques et n’offre que peu, voire aucune protection pour la vie marine.


La santé de l’océan est en péril, et par extension, la nôtre aussi. L’océan régule le climat et les régimes de pluie, il nourrit plus de trois milliards d’êtres humains et il soutient nos traditions culturelles et nos économies.

Historiquement, c’est la pêche industrielle qui est la première source de destruction de la vie marine : plus d’un tiers des populations de poissons sont surexploitées, un chiffre probablement sous-estimé, et les populations de grands poissons ont diminué de 90 à 99 % selon les régions.

À cela s’ajoute aujourd’hui le réchauffement climatique, qui impacte fortement la plupart des écosystèmes marins, ainsi que de nouvelles pressions encore mal connues, liées au développement des énergies renouvelables en mer, de l’aquaculture et de l’exploitation minière.

Les aires marines protégées, un outil efficace pour protéger l’océan et l’humain

Face à ces menaces, nous disposons d’un outil éprouvé pour protéger et reconstituer la vie marine : les aires marines protégées (AMP). Le principe est simple : nous exploitons trop l’océan, nous devons donc définir certaines zones où réguler, voire interdire, les activités impactantes pour permettre à la vie marine de se régénérer.

Les AMP ambitionnent une triple efficacité écologique, sociale et climatique. Elles permettent le rétablissement des écosystèmes marins et des populations de poissons qui peuvent s’y reproduire. Certaines autorisent uniquement la pêche artisanale, ce qui crée des zones de non-concurrence protégeant des méthodes plus respectueuses de l’environnement et créatrices d’emplois. Elles permettent aussi des activités de loisirs, comme la plongée sous-marine. Enfin, elles protègent des milieux qui stockent du CO2 et contribuent ainsi à la régulation du climat.

Trois photos : en haut à gauche, un banc de poissons ; en bas à gauche, un herbier marin ; à droite, trois hommes sur une plage tire une barque à l’eau
Les aires marines protégées permettent le rétablissement des populations de poissons, protègent des habitats puits de carbone comme les herbiers marins et peuvent protéger des activités non industrielles comme la pêche artisanale ou la plongée sous-marine. Jeff Hester, Umeed Mistry, Hugh Whyte/Ocean Image Bank, Fourni par l'auteur

Dans le cadre de l’accord mondial de Kunming-Montréal signé lors de la COP 15 de la biodiversité, les États se sont engagés à protéger 30 % de l’océan d’ici 2030. Officiellement, plus de 9 % de la surface des océans est aujourd’hui sous protection.

Pour être efficaces, toutes les AMP devraient, selon les recommandations scientifiques, soit interdire la pêche industrielle et exclure toutes les activités humaines, soit en autoriser certaines d’entre elles, comme la pêche artisanale ou la plongée sous-marine, en fonction du niveau de protection. Or, en pratique, une grande partie des AMP ne suivent pas ces recommandations et n’excluent pas les activités industrielles qui sont les plus destructrices pour les écosystèmes marins, ce qui les rend peu, voire pas du tout, efficaces.

Réelle protection ou outil de communication ?

En effet, pour atteindre rapidement les objectifs internationaux de protection et proclamer leur victoire politique, les gouvernements créent souvent de grandes zones protégées sur le papier, mais sans réelle protection effective sur le terrain. Par exemple, la France affirme protéger plus de 33 % de ses eaux, mais seuls 4 % d’entre elles bénéficient de réglementations et d’un niveau de protection réellement efficace, dont seulement 0,1 % dans les eaux métropolitaines.

Lors du Sommet de l’ONU sur l’océan qui s’est tenu à Nice en juin 2025, la France, qui s’oppose par ailleurs à une réglementation européenne visant à interdire le chalutage de fond dans les AMP, a annoncé qu’elle labelliserait 4 % de ses eaux métropolitaines en protection forte et qu’elle y interdirait le chalutage. Le problème, c’est que la quasi-totalité de ces zones se situe dans des zones profondes… où le chalutage de fond est déjà interdit.

La situation est donc critique : dans l’Union européenne, 80 % des aires marines protégées en Europe n’interdisent pas les activités industrielles. Pis, l’intensité de la pêche au chalutage de fond est encore plus élevée dans ces zones qu’en dehors. Dans le monde, la plupart des AMP autorisent la pêche, et seulement un tiers des grandes AMP sont réellement protégées.

De plus, l’ampleur réelle de la pêche industrielle dans les AMP reste largement méconnue à l’échelle mondiale. Notre étude s’est donc attachée à combler en partie cette lacune.

La réalité de la pêche industrielle dans les aires protégées

Historiquement, il a toujours été très difficile de savoir où et quand vont pêcher les bateaux. Cela rendait le suivi de la pêche industrielle et de ses impacts très difficile pour les scientifiques. Il y a quelques années, l’ONG Global Fishing Watch a publié un jeu de données basé sur le système d’identification automatique (AIS), un système initialement conçu pour des raisons de sécurité, qui permet de connaître de manière publique et transparente la position des grands navires de pêche dans le monde. Dans l’Union européenne, ce système est obligatoire pour tous les navires de plus de 15 mètres.

Le problème, c’est que la plupart des navires de pêche n’émettent pas tout le temps leur position via le système AIS. Les raisons sont diverses : ils n’y sont pas forcément contraints, le navire peut se trouver dans une zone où la réception satellite est médiocre, et certains l’éteignent volontairement pour masquer leur activité.

Pour combler ce manque de connaissance, Global Fishing Watch a combiné ces données AIS avec des images satellites du programme Sentinel-1, sur lesquelles il est possible de détecter des navires. On distingue donc les navires qui sont suivis par AIS, et ceux qui ne le sont pas, mais détectés sur les images satellites.

Carte du monde sur fond noir représentant les bateaux transmettant leur position GPS et ceux qui ne l’émettent pas
Global Fishing Watch a analysé des millions d’images satellite radar afin de déterminer l’emplacement des navires qui restent invisibles aux systèmes de surveillance publics. Sur cette carte de 2022 sont indiqués en jaune les navires qui émettent leur position GPS publiquement via le système AIS, et en orange ceux qui ne l’émettent pas mais qui ont été détectés via les images satellites. Global Fishing Watch, Fourni par l'auteur

Les aires sont efficaces, mais parce qu’elles sont placées là où peu de bateaux vont pêcher au départ

Notre étude s’intéresse à la présence de navires de pêche suivis ou non par AIS dans plus de 3 000 AMP côtières à travers le monde entre 2022 et 2024. Durant cette période, deux tiers des navires de pêche industrielle présents dans les AMP n’étaient pas suivis publiquement par AIS, une proportion équivalente à celle observée dans les zones non protégées. Cette proportion variait d’un pays à l’autre, mais des navires de pêche non suivis étaient également présents dans les aires marines protégées de pays membres de l’UE, où l’émission de la position via l’AIS est pourtant obligatoire.

Entre 2022 et 2024, nous avons détecté des navires de pêche industrielle dans la moitié des AMP étudiées. Nos résultats, conformes à une autre étude publiée dans le même numéro de la revue Science, montrent que la présence de navires de pêche industrielle était en effet plus faible dans les AMP réellement protégées, les rares qui interdisent toute activité d’extraction. C’est donc une bonne nouvelle : lorsque les réglementations existent et qu’elles sont efficacement gérées, les AMP excluent efficacement la pêche industrielle.

En revanche, nous avons tenté de comprendre les facteurs influençant la présence ou l’absence de navires de pêche industrielle dans les AMP : s’agit-il du niveau de protection réel ou de la localisation de l’AMP, de sa profondeur ou de sa distance par rapport à la côte ? Nos résultats indiquent que l’absence de pêche industrielle dans une AMP est plus liée à son emplacement stratégique – zones très côtières, reculées ou peu productives, donc peu exploitables – qu’à son niveau de protection. Cela révèle une stratégie opportuniste de localisation des AMP, souvent placées dans des zones peu pêchées afin d’atteindre plus facilement les objectifs internationaux.

Exemple de détections de navires de pêche industrielle suivis par AIS (en bleu) ou non suivis (en beige), le long de la côte atlantique française, à partir des données de l’ONG Global Fishing Watch. Les délimitations des aires marines protégées, selon la base de données WDPA, sont en blanc. Les images satellites du programme Sentinel-1 servent de fond de carte. Raphael Seguin/Université de Montpellier, Fourni par l'auteur

Une pêche méconnue et sous-estimée

Enfin, une question subsistait : une détection de navire de pêche sur une image satellite signifie-t-elle pour autant que le navire est en train de pêcher, ou bien est-il simplement en transit ? Pour y répondre, nous avons comparé le nombre de détections de navires par images satellites dans une AMP à son activité de pêche connue, estimée par Global Fishing Watch à partir des données AIS. Si les deux indicateurs sont corrélés, et que le nombre de détections de navires sur images satellites est relié à un plus grand nombre d’heures de pêche, cela implique qu’il est possible d’estimer la part de l’activité de pêche « invisible » à partir des détections non suivies par AIS.

Nous avons constaté que les deux indicateurs étaient très corrélés, ce qui montre que les détections par satellites constituent un indicateur fiable de l’activité de pêche dans une AMP. Cela révèle que la pêche industrielle dans les AMP est bien plus importante qu’estimée jusqu’à présent, d’au moins un tiers selon nos résultats. Pourtant, la plupart des structures de recherche, de conservation, ONG ou journalistes se fondent sur cette seule source de données publiques et transparentes, qui ne reflète qu’une part limitée de la réalité.

De nombreuses interrogations subsistent encore : la résolution des images satellites nous empêche de voir les navires de moins de 15 mètres et rate une partie importante des navires entre 15 et 30 mètres. Nos résultats sous-estiment donc la pêche industrielle dans les aires protégées et éludent complètement les petits navires de moins de 15 mètres de long, qui peuvent également être considérés comme de la pêche industrielle, notamment s’ils en adoptent les méthodes, comme le chalutage de fond. De plus, les images satellites utilisées couvrent la plupart des eaux côtières, mais pas la majeure partie de la haute mer. Les AMP insulaires ou éloignées des côtes ne sont donc pas incluses dans cette étude.

Vers une véritable protection de l’océan

Nos résultats rejoignent ceux d’autres études sur le sujet et nous amènent à formuler trois recommandations.

D’une part, la quantité d’aires marines protégées ne fait pas leur qualité. Les définitions des AMP doivent suivre les recommandations scientifiques et interdire la pêche industrielle, faute de quoi elles ne devraient pas être considérées comme de véritables AMP. Ensuite, les AMP doivent aussi être situées dans des zones soumises à la pression de la pêche, pas seulement dans des zones peu exploitées. Enfin, la surveillance des pêcheries doit être renforcée et plus transparente, notamment en généralisant l’usage de l’AIS à l’échelle mondiale.

À l’avenir, grâce à l’imagerie satellite optique à haute résolution, nous pourrons également détecter les plus petits navires de pêche, afin d’avoir une vision plus large et plus complète des activités de pêche dans le monde.

Pour l’heure, l’urgence est d’aligner les définitions des aires marines protégées avec les recommandations scientifiques et d’interdire systématiquement les activités industrielles à l’intérieur de ces zones, pour construire une véritable protection de l’océan.

The Conversation

Raphael Seguin est membre de l'association BLOOM.

David Mouillot a reçu des financements de l'ANR.

PDF

22.07.2025 à 16:33

Voir la planète respirer depuis l’espace, ou comment mesurer les gaz à effet de serre par satellite

Carole Deniel, Responsable des programmes de composition atmosphérique et Climat, Centre national d’études spatiales (CNES)

François-Marie Bréon, Physicien-climatologue, chercheur au Laboratoire des sciences du climat et de l’environnement, Université Paris-Saclay

La mission MicroCarb va mesurer le CO2 dans l’atmosphère terrestre. Elle décolle le 25 juillet depuis Kourou.
Texte intégral (2956 mots)
Les activités humaines dégagent du CO<sub>2</sub>. Mais les arbres, les tourbières et les autres écosystèmes sont aussi capables d’en rejeter ou d’en stocker. ©CNES/ill. Oliver Sattler, 2021, Fourni par l'auteur

La quantité de CO2 dans l’atmosphère varie à cause des activités humaines, mais aussi en réponse au fonctionnement des écosystèmes, comme les arbres, qui absorbent et émettent du CO2 en respirant.

Grâce aux satellites, on peut ainsi voir la planète « respirer ». La nouvelle mission MicroCarb du Cnes doit décoller le 25 juillet de Guyane et vient rejoindre d’autres programmes pour suivre de près ce facteur important du changement climatique.


Les satellites sont devenus des outils indispensables pour suivre l’évolution du climat. En effet, les mesures denses et continues de la teneur en CO2 permettent d’identifier les sites d’émission ou au contraire d’absorption par les écosystèmes et les activités humaines.

Avec le lancement de la mission MicroCarb, qui est consacrée à la mesure précise de la concentration du CO2 atmosphérique, la France va apporter une contribution inédite à l’amélioration de notre connaissance du cycle du carbone.

Le rôle du CO₂ dans l’effet de serre

Le dioxyde de carbone (CO2) est le principal moteur du changement climatique actuel. Sa concentration dans l’atmosphère a fortement augmenté depuis le début de l’ère industrielle, à cause de la combustion des énergies fossiles et des changements d’usage des terres (en particulier la déforestation).

Ce gaz joue un rôle fondamental dans l’effet de serre, le phénomène naturel par lequel certains gaz atmosphériques absorbent une partie du rayonnement infrarouge émis par la Terre. Le CO2 contribue ainsi à réchauffer la surface. Si cet effet est indispensable à la vie sur notre planète, son amplification par les activités humaines entraîne les modifications du climat dont nous ressentons déjà les conséquences et qui vont encore s’accentuer.


À lire aussi : « Dis-moi, pourquoi il y a le réchauffement climatique ? »



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le changement climatique entraîne déjà des impacts majeurs : élévation du niveau des mers, intensification des événements extrêmes, réduction des glaciers, modification des régimes de précipitations, et bouleversements pour les écosystèmes et les sociétés humaines.

Le cycle du carbone : des mécanismes d’échange entre les écosystèmes déstabilisés par les émissions issues des activités humaines

Mais au-delà de son rôle moteur du changement climatique, le CO2 intervient aussi dans des rétroactions complexes au sein du cycle du carbone.

Malheureusement, les perturbations sur le cycle du carbone interrogent. Aujourd’hui, environ 55 % des émissions de CO2 sont absorbés naturellement par les océans (où il se dissout) et par la végétation terrestre (via la photosynthèse), qui jouent le rôle de « puits de carbone ». Cette absorption atténue partiellement l’accumulation du CO2 dans l’atmosphère. Or, ces puits de carbone (océan et végétation) sont sensibles au changement climatique lui-même, ce qui conduit donc à des « rétroactions » entre climat et cycle du carbone.

foret et zone humide
Les forêts et les tourbières absorbent et stockent le dioxyde de carbone, mais le changement climatique affecte leur capacité à mitiger ainsi l’effet de ce gaz à effet de serre. Juan Davila, Unsplash, CC BY

À lire aussi : La mission Biomass, un satellite pour mieux comprendre comment les forêts stockent (et émettent) du carbone


Par exemple, quelles seront les conséquences s’ils deviennent moins efficaces du fait, par exemple, de la sécheresse récurrente qui atténue la capacité d’une forêt à absorber le carbone, ou d’autres impacts négatifs du changement climatique sur les écosystèmes ? De même, le réchauffement climatique entraîne des conditions favorables aux incendies, qui peuvent ainsi devenir des sources additionnelles et significatives de CO2 vers l’atmosphère.

Les États signataires de l’accord de Paris (2015) se sont engagés à réduire leurs émissions dans le but de limiter le réchauffement climatique à moins de 2 °C, et même de rester aussi proche que possible de 1,5 °C. En 2024, les objectifs apparaissent difficiles à atteindre car, même si les émissions de certains pays ont commencé à décroître, les émissions continuent de croître globalement.

Dans ce cadre, il apparaît nécessaire, d’une part, de disposer d’un système indépendant pour suivre les émissions de CO2 aux échelles nationales et, d’autre part, de suivre l’évolution des flux naturels en réponse au changement climatique. Cela passe par une observation dense et continue des concentrations atmosphériques de CO2.

Mesurer les absorptions et émissions de carbone à l’échelle planétaire est un défi technique

Aujourd’hui, on mesure la concentration atmosphérique de CO2 proche de la surface, sur une centaine de stations très inégalement réparties sur la Terre. La série de données la plus iconique est celle de Mauna Loa, au sommet d’une des îles de l’archipel d’Hawaï, qui décrit la composition atmosphérique en continu depuis 1958. Depuis, plusieurs réseaux d’observation ont été mis en place et regroupés pour l’Europe dans le programme ICOS en 2015.

Quelques campagnes de mesures spécifiques apportent, par ailleurs, une description résolue sur la verticale depuis la surface jusqu’à près de 30 kilomètres d’altitude.

Malgré ces observations, la densité d’observations reste très insuffisante pour les objectifs scientifiques et sociétaux décrits ci-dessus. C’est pourquoi les satellites apportent un complément nécessaire, avec une mesure certes moins précise que celles des observations in situ, mais avec une densité très largement supérieure.

décollage de Véga-C
Le lanceur léger européen décollera dans la nuit du 25 au 26 juillet 2025 du Centre spatial guyanais pour placer en orbite les satellites d’observation français MicroCarb et CO3D (ici pris en photo lors du décollage avec la mission Biomass à bord). ©CNES/ESA/Optique Vidéo CSG/S. Martin, 2025, Fourni par l'auteur

Une dynamique internationale depuis quinze ans

Dans les rapports internationaux intergouvernementaux GEO (intergovernmental Group on Earth Observations) ou des agences spatiales du CEOS (Committee on Earth Observation Satellites), les groupes d’experts sont unanimes pour reconnaître le besoin de mesure de CO2 depuis l’espace.

Ainsi, la Jaxa (Japon) puis la Nasa (États-Unis) se sont lancé, dès 2009, dans la mesure du CO2 depuis l’espace.

Depuis quelques années, la Chine dispose également d’un programme spécifique ambitieux, avec de nombreux capteurs utilisant diverses technologies déjà en orbite, mais dont malheureusement les données restent très peu distribuées à la communauté internationale (communication entre agences).

En Europe, la Commission européenne a étendu son programme spatial de surveillance environnementale opérationnelle (appelé Copernicus, dont l’implémentation a été confiée à l’Agence spatiale européenne, l’ESA) – dont les missions de surveillance du CO₂ atmosphérique sont une priorité. Ainsi, les données de la mission européenne CO2M sont attendues d’ici fin 2027 pour permettre de mieux surveiller depuis l’espace les émissions anthropiques de CO2 grâce à une résolution spatiale de quatre kilomètres carrés et une fauchée de plus de 200 kilomètres permettant d’obtenir une image des panaches issus des émissions intenses localisées.

Avec le lancement prévu cet été de sa mission MicroCarb, développée en collaboration avec l’Agence spatiale du Royaume-Uni et la Commission européenne, le Centre national d’études spatiales (Cnes) va ouvrir la voie en Europe à des données précises de concentration de CO2.

La mission MicroCarb

MicroCarb est un microsatellite d’environ 200 kilogrammes équipé d’un spectromètre. Celui-ci mesure le rayonnement solaire réfléchi par la surface terrestre, après une double traversée dans l’atmosphère. La mesure à très haute résolution spectrale permet d’identifier les raies d’absorption du CO2, dont les intensités peuvent être reliées à la quantité de CO2 dans l’atmosphère.

Avec des outils sophistiqués qui prennent en compte l’ensemble de la physique de l’interaction entre le rayonnement solaire et les molécules de l’atmosphère, on peut en déduire une estimation de la concentration atmosphérique de CO2 avec une précision d’environ 0,25 % sur une surface d’environ 40 kilomètres carrés.

simulation du mode exploratoire pour observer les villes
Le satellite Microcarb va tester un nouveau mode de fonctionnement, qui permet de zoomer fortement pour avoir une résolution de l’ordre de 2 x 2 kilomètres carrés. Cette fonctionnalité est dite exploratoire. ©CNES, Fourni par l'auteur

Le satellite est sur une orbite héliosynchrone pour faire des mesures autour de midi, ce qui permet d’avoir un éclairement solaire d’une intensité nécessaire à la mesure. Cette mission va donc assurer une continuité avec les missions précédentes, en particulier celle de la Nasa dont la poursuite semble fortement compromise suite au budget prévisionnel du gouvernement Trump pour 2026, notamment pour les sciences de la Terre.

Par ailleurs, le spectromètre de MicroCarb est fondé sur un concept optique innovant par sa compacité permise par l’utilisation d’un seul détecteur pour l’ensemble des canaux de mesures et d’une bande spectrale inédite pour l’amélioration de la précision de mesure. En fonction des performances de MicroCarb, ces innovations pourraient être reprises pour les prochaines missions déjà en préparation.

The Conversation

Carole Deniel travaille à l'Agence Spatiale Francaise, le CNES.

François-Marie Bréon est Responsable Scientifique de la mission MicroCarb. Il est professeur invité au Collège de France sur l'année universitaire 2024-2025. Par ailleurs, il a une implication citoyenne en tant que vice-président et porte-parole de l'Association Française pour l'Information Scientifique (Afis).

PDF

22.07.2025 à 11:46

Ces cellules du cerveau qui pourraient aider à lutter contre l’obésité

Enrica Montalban, Post-doctorante, Inrae

Claire Martin, Directrice de recherche CNRS, Université Paris Cité

Serge Luquet, Directeur de recherche CNRS, Université Paris Cité

Moins connus que les neurones, les astrocytes sont des cellules essentielles au fonctionnement du cerveau. Une nouvelle étude chez la souris révèle leur rôle dans le contexte de l’obésité.
Texte intégral (2183 mots)
Les astrocytes, ici en vert, au milieu des neurones en rouge, sont un type de cellules présentes dans le cerveau. Dchordpdx/Wikipedia, CC BY

Bien que leur rôle soit moins connu que celui des neurones, les astrocytes sont des cellules essentielles au fonctionnement du cerveau. Une nouvelle étude, chez la souris, parue dans la revue Nature communications révèle le rôle des astrocytes du striatum, une structure du circuit de la récompense, dans le contexte de l’obésité induite par une alimentation enrichie en graisses et en sucres. Ces cellules pourraient représenter une cible intéressante pour le traitement des maladies métaboliques.


Le cerveau est constitué de milliards de neurones. Ce sont des cellules excitables, c’est-à-dire qu’elles peuvent générer des potentiels d’actions et transmettre des informations aux autres neurones sous forme de courant électrique. Cependant, les neurones ne constituent que la moitié des cellules du cerveau, l’autre moitié étant constitué de cellules gliales, parmi lesquelles on trouve les astrocytes. Ces derniers sont impliqués dans de nombreuses pathologies du cerveau telles que les maladies neurodégénératives (la maladie d’Alzheimer ou de Parkinson), les troubles psychiatriques ou l’épilepsie.

Contrairement aux neurones, les astrocytes ne peuvent pas générer de courants électriques, mais présentent des variations de leur concentration en calcium intracellulaire. Le calcium intracellulaire est impliqué dans de nombreux processus liés au fonctionnement des cellules et aurait un rôle indispensable pour la physiologie des astrocytes. Le fait que les astrocytes soient silencieux pour les méthodes classiques d’enregistrement de l’activité cérébrale telles que l’électroencéphalogramme (ECG) a rendu leur étude beaucoup plus lente et difficile. Par conséquent, leur rôle a été largement sous-estimé et nous sommes encore loin d’avoir élucidé la manière dont ils communiquent avec les neurones.

C’est avec le développement d’outils d’imagerie ciblant des acteurs cellulaires spécifiques que leur rôle dans les processus cérébraux peut enfin être élucidé. Les résultats que nous avons obtenus permettent de mettre en évidence plusieurs caractéristiques de l’activité astrocytaire dans le contexte de l’obésité induite par l’alimentation enrichie en graisse et en sucre.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Quand le corps n’équilibre plus la balance énergétique

L’obésité est un problème majeur de santé publique, affectant 17 % de la population française et accroissant le risque relatif d’un ensemble de pathologies : par exemple, les maladies cardiaques, l’hypertension, le diabète de type 2, des maladies du foie et certaines formes de cancer. Cette pathologie est complexe et implique différents facteurs dont la contribution au développement de l’obésité varie considérablement d’un individu à l’autre : ces facteurs sont génétiques, environnementaux (comme le stress ou la qualité du sommeil) ou liés aux habitudes alimentaires. Une alimentation enrichie en graisses et en sucres est définitivement une coupable identifiée.

Notre corps maintient un état d’équilibre appelé homéostasie, grâce à un mécanisme de régulation précis qui équilibre les apports nutritionnels et les dépenses énergétiques. Cet équilibre de la balance énergétique est réalisé grâce à des circuits cérébraux bien identifiés, impliquant notamment l’hypothalamus. Toutefois, un autre moteur puissant de l’alimentation est l’aspect hédonique de la nourriture, c’est-à-dire le plaisir que nous trouvons à consommer des aliments appétissants, au-delà des besoins énergétiques du corps. Cette motivation à manger pour le plaisir repose notamment sur la libération de dopamine au niveau d’une région cérébrale appelée striatum.

Il a été démontré que l’obésité induite par l’alimentation était associée à des altérations de la transmission de la dopamine, à des dérèglements alimentaires de type addictif/compulsif ainsi qu’à une altération de la flexibilité cognitive, c’est-à-dire la capacité à s’adapter facilement à de nouvelles situations.

Les astrocytes, des cellules protectrices des neurones

Si l’implication des neurones (qui libèrent ou répondent à la dopamine) a été beaucoup étudiée dans le cadre de ces processus physiologiques et physiopathologiques, le rôle des astrocytes a longtemps été négligé.

L’excès de nutriments favorise des mécanismes inflammatoires dans le cerveau qui s’accompagnent de la libération de substances susceptibles de modifier le fonctionnement des neurones et des astrocytes. Or les astrocytes occupent une place stratégique dans le cerveau, à l’interface entre les vaisseaux sanguins et les neurones, ces cellules pivots permettraient de contrôler aussi bien l’information neuronale que l’apport énergétique. En condition d’excès nutritionnel dans la circulation, elles pourraient constituer un premier rempart qui protégerait les neurones des altérations induites par les éléments circulant dans le sang.

Coupe de cerveaux de souris montrant les astrocytes (en vert) au niveau du striatum. L’obésité modifie la forme des astrocytes qui deviennent réactifs, un signe d’inflammation cérébrale. Montalban et al./Nature Communication, Fourni par l'auteur

Dans notre travail, réalisé chez la souris, nous montrons tout d’abord que les régimes gras affectent la structure et la fonction des astrocytes du striatum.

Nous avions déjà caractérisé de telles modifications dans l’hypothalamus, la région impliquée dans l’initiation de la prise alimentaire et qui est en contact étroit avec le compartiment sanguin, mais elles étaient très peu caractérisées dans le striatum. Nous montrons, d’une part, une réactivité des astrocytes, qui s’exprime par des modifications morphologiques, et, d’autre part, des changements dans la dynamique des flux calciques, susceptibles d’altérer leur communication avec les neurones de la structure.

Un impact sur la flexibilité cognitive et le métabolisme énergétique

Cette observation faite, nous avons décidé de manipuler directement les astrocytes par une approche permettant de forcer une cascade de signalisation dans les cellules en insérant spécifiquement dans les astrocytes un récepteur synthétique jouant le rôle d’interrupteur. Cette approche permet en particulier d’induire une vague de calcium (un second messager clé au niveau intracellulaire) afin d’en observer les conséquences.

Que se passe-t-il si l’on augmente artificiellement la quantité de calcium et que l’on « active » les astrocytes ? Est-ce que cela a un impact sur l’activité neuronale et le comportement des souris ?

L’activation de cet interrupteur moléculaire et l’afflux de calcium cohérent dans la population d’astrocytes ciblée a effectivement eu pour conséquence de modifier la cinétique et la réponse des neurones avoisinants démontrant ainsi, pour la première fois, que la manipulation des astrocytes pouvait interférer avec les réseaux neuronaux.

Nous avons appliqué cette technique en comparant des souris nourries avec un régime standard avec des souris rendues obèses par un régime enrichi en graisses et en sucres. Les souris sous régime enrichi présentent des défauts cognitifs qui s’expriment par une difficulté à s’adapter à une nouvelle situation. Dans notre cas, les souris devaient apprendre qu’une récompense était située dans le bras gauche d’un labyrinthe, puis nous avons examiné comment elles s’adaptaient si nous changions le bras récompensé.

Dans ce contexte, les souris nourries avec un régime enrichi avaient du mal à s’adapter, or l’activation forcée des astrocytes du striatum dorsal a permis aux animaux de réapprendre facilement la tâche, et ce, en absence de perte de poids. La manipulation des astrocytes du striatum a ainsi permis de corriger l’altération cognitive induite par le régime riche.

Si le striatum est bien connu pour son rôle dans les processus cognitifs et motivationnels, cette structure cérébrale n’est pas traditionnellement associée à la régulation du métabolisme corporel. Notre étude apporte un élément supplémentaire dans ce sens. En effet, nous montrons que la manipulation in vivo des astrocytes dans le striatum exerce un contrôle sur le métabolisme énergétique de l’animal en affectant particulièrement le choix des substrats métabolique (lipides ou sucres) utilisés par la souris pour assurer son métabolisme. Après activation des astrocytes, elles utilisent plus de lipides.

Ce travail révèle un rôle nouveau pour les astrocytes dans les circuits de la récompense. Ils participent en effet au contrôle des fonctions cognitives et nos résultats illustrent pour la première fois leur capacité à restaurer une fonction cognitive dans un contexte obésogène. D’autre part, ce travail établit un lien direct entre les astrocytes du striatum et le contrôle du métabolisme énergétique global de l’animal.

Une approche prometteuse consisterait à développer des stratégies thérapeutiques ciblant spécifiquement les astrocytes, plutôt que les neurones, au sein du système de la récompense, dans le traitement de l’obésité et, plus largement, des pathologies métaboliques.

The Conversation

Serge Luquet a reçu des financements de l’Agence Nationale de la Recherche (ANR) ANR-19-CE37-0020-02, ANR-20-CE14-0020, and ANR-20-CE14-0025-01, la Fondation pour la Recherche Médicale (FRM) FRM Project #EQU202003010155.

Claire Martin et Enrica Montalban ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

22.07.2025 à 10:22

Le mode privé vous garantit-il l’anonymat sur Internet ?

Sabrine Mallek, Professeure Assistante en Transformation Digitale, ICN Business School

La plupart des navigateurs proposent une «&nbsp;navigation privée&nbsp;», souvent perçue comme un moyen de surfer anonymement. Pourtant, ce mode ne garantit pas l’anonymat en ligne.
Texte intégral (967 mots)

La plupart des navigateurs proposent une « navigation privée », souvent perçue comme un moyen de surfer anonymement. Pourtant, ce mode ne garantit pas l’anonymat en ligne, et de nombreux internautes surestiment sa portée.


La navigation privée permet d’éviter que quelqu’un d’autre ayant accès à votre ordinateur voie vos activités en ligne a posteriori. C’est utile, par exemple, sur un ordinateur public ou partagé, pour ne pas laisser d’identifiants enregistrés ni d’historique compromettant.

Cependant, il est important de comprendre que cette confidentialité est avant tout locale (sur votre appareil). Le mode privé n’implique pas de naviguer de façon anonyme sur le réseau Internet lui-même. Il ne s’agit pas d’un « bouclier d’invisibilité » vis-à-vis des sites web visités, de votre fournisseur d’accès à Internet (FAI), ou de votre employeur.

Comme l’indique la Commission nationale de l’informatique et des libertés (CNIL), même en mode privé, les sites peuvent collecter des informations via des cookies (des petits fichiers qui enregistrent vos préférences et activités en ligne) ou des techniques de fingerprinting, qui permettent d’identifier un utilisateur de façon unique en analysant les caractéristiques techniques de son navigateur.

Le mode privé présente de nombreuses limites

Des études confirment les limites techniques du mode privé. Des traces subsistent malgré la fermeture de la session, en contradiction avec ce qu’affirme la documentation du navigateur. Une analyse sur Android a révélé que la mémoire vive conserve des données sensibles : mots-clés, identifiants, cookies, récupérables même après redémarrage.

Le mode privé ne bloque pas les cookies publicitaires, il les supprime simplement en fin de session. Lorsqu’on revient sur un site dans une nouvelle session privée, celui-ci ne « se souvient » pas des choix précédents : il faut donc souvent redéfinir ses préférences (accepter ou refuser les cookies). Les bannières de consentement aux cookies, bien connues des internautes européens depuis l’entrée en vigueur du Règlement général sur la protection des données (RGPD) et de la directive ePrivacy, réapparaissent donc systématiquement. La fatigue du consentement pousse de nombreux internautes à tout accepter sans lire.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


En France, 65 % des internautes acceptent systématiquement les cookies, malgré une meilleure information sur le sujet ces dernières années. Pourtant, les internautes sont conscients des risques liés à leur vie privée en ligne, mais n’agissent pas systématiquement, souvent par manque de connaissances ou de confiance dans les outils disponibles. Certains sites dissimulent même l’option « Refuser » pour vous influencer : un panneau bien conçu peut réduire de moitié les acceptations.

Quelles alternatives pour se protéger réellement ?

Le mode privé ne suffit pas à garantir l’anonymat en ligne. Pour mieux protéger sa vie privée, il faut combiner plusieurs outils.

Un VPN (virtual private network ou réseau privé virtuel, en français) crée un tunnel sécurisé entre votre appareil et Internet, permettant de naviguer de façon plus confidentielle en chiffrant vos données et en masquant votre adresse IP. En 2024, 19 % des utilisateurs de VPN français souhaitent avant tout cacher leur activité, et 15 % protéger leurs communications.

Un navigateur comme Tor va plus loin : il rebondit vos requêtes via plusieurs relais pour masquer totalement votre identité. C’est l’outil préféré des journalistes ou militants, mais sa lenteur peut décourager un usage quotidien. Des alternatives comme Brave ou Firefox Focus proposent des modes renforcés contre les traqueurs, tandis que des extensions comme uBlock Origin ou Privacy Badger bloquent efficacement pubs et trackers. Ces extensions sont compatibles avec les principaux navigateurs comme Chrome, Firefox, Edge, Opera et Brave.

Il est aussi essentiel d’adopter une hygiène numérique : gérer les cookies, limiter les autorisations, préférer des moteurs comme DuckDuckGo (qui ne stockent pas vos recherches, ne vous profilent pas et bloquent automatiquement de nombreux traqueurs) et éviter de centraliser ses données sur un seul compte. En ligne, la vraie confidentialité repose sur une approche globale, proactive et éclairée.

The Conversation

Sabrine Mallek ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

22.07.2025 à 08:12

Échecs : quand un professeur de statistiques enquête sur des allégations de tricherie au plus haut niveau

Jeffrey S. Rosenthal, Professor of Statistics, University of Toronto

Lorsqu’un ancien champion du monde d’échecs a laissé entendre qu’un autre grand maître trichait sur la plateforme en ligne «&nbsp;Chess.com&nbsp;», un statisticien a été appelé pour examiner les preuves.
Texte intégral (1210 mots)

Lorsque l’ancien champion du monde d’échecs Vladimir Kramnik a laissé entendre qu’Hikaru Nakamura, l’un des meilleurs joueurs du monde actuellement, trichait sur la plateforme en ligne Chess.com, un statisticien a été appelé pour enquêter.


En tant que professeur de statistiques, il n’est pas fréquent que je sois contacté directement par le PDG d’une entreprise valant plusieurs millions de dollars, et encore moins au sujet d’une histoire d’allégations de tricherie et de malversations impliquant des champions du monde d’échecs.

C’est pourtant ce qui s’est passé l’été dernier. Erik Allebest, PDG du plus grand site d’échecs en ligne au monde, Chess.com, m’a demandé d’enquêter sur les allégations de l’ancien champion du monde d’échecs Vladimir Kramnik concernant les longues séries de victoires d’un des meilleurs joueurs du monde, l’Américain Hikaru Nakura.

Kramnik a déclaré que ces séries avaient une très faible probabilité de se produire et qu’elles étaient donc très suspectes. Il n’a pas formellement accusé Hikaru de tricherie, mais le sous-entendu était clair. Sur Internet, les esprits se sont vite échauffés : les partisans de Kramnik postant des commentaires virulents (souvent en russe) sur cette présumée tricherie, tandis que de nombreux joueurs de Chess.com et partisans d’Hikaru rejetaient les accusations.

Qui a raison ? Qui a tort ? Est-il possible de trancher ?

Erik Allebest m’a demandé de réaliser une analyse statistique indépendante et impartiale pour déterminer le degré d’improbabilité de ces séries de victoires.

Le calcul de probabilités

Pour résoudre ce problème, j’ai d’abord dû calculer la probabilité que chaque joueur gagne ou fasse match nul dans chaque partie. Les joueurs peuvent avoir des niveaux de jeu très différents. Les meilleurs ont évidemment plus de chances de vaincre des adversaires moins expérimentés. Mais à quel point ?

Chess.com attribue un classement à chaque joueur qui varie après chaque partie, et ces notes m’ont été communiquées. Mon analyse a suggéré qu’un modèle mathématique pouvait fournir une estimation précise des probabilités de victoire, de défaite ou de nulle pour chaque partie.

En outre, les écarts par rapport à cette probabilité dans les résultats de parties successives étaient approximativement indépendants, de sorte que l’influence d’une partie sur la suivante pouvait être ignorée en toute sécurité. J’ai ainsi obtenu une probabilité claire que chaque joueur gagne (ou perde) chaque partie.

Je pouvais alors analyser ces séries de victoires qui avaient provoqué tant de débats enflammés. Il s’est avéré qu’Hikaru Nakamura, contrairement à la plupart des autres joueurs de haut niveau, avait joué de nombreuses parties contre des joueurs beaucoup plus faibles. Cela lui donnait donc une très grande probabilité de gagner chaque partie. Mais malgré cela, est-il normal d’observer de si longues séries de victoires, parfois plus de 100 parties d’affilée ?

Tester le caractère aléatoire

Pour le vérifier, j’ai effectué ce que l'on appelle des simulations de Monte Carlo, qui répètent une expérience en intégrant des variations aléatoires.

J’ai codé des programmes informatiques pour attribuer au hasard des victoires, des défaites et des nuls à chaque partie d’Hikaru Nakamura, selon les probabilités de mon modèle. J’ai demandé à l’ordinateur de mesurer à chaque fois les séries de victoires les plus surprenantes (les moins probables). Cela m’a permis de mesurer comment les séries réelles d’Hikaru pouvaient se comparer aux prédictions.

J’ai constaté que dans de nombreuses simulations, les résultats simulés comprenaient des séries tout aussi « improbables » que les séries réelles.

Cela démontre que les résultats d’Hikaru aux échecs étaient à peu près conformes à ce que l’on pouvait attendre. Il avait une telle probabilité de gagner chaque partie, et avait joué tellement de parties sur Chess.com, que des séries de victoires aussi longues étaient susceptibles d’émerger selon les règles des probabilités.

Les réponses à mes découvertes

J’ai rédigé un bref rapport à propos de mes recherches et l’ai envoyé à Chess.com.

Le site a publié un article, qui a suscité de nombreux commentaires, pour la plupart favorables.

Nakamura a ensuite publié son propre commentaire en vidéo, soutenant également mon analyse. Pendant ce temps, Kramnik a publié une vidéo de 29 minutes critiquant mes recherches.

Ce dernier ayant soulevé quelques points importants, j’ai rédigé un addendum à mon rapport pour répondre à ses préoccupations et montrer qu’elles n’avaient pas d’incidence sur la conclusion. J’ai également converti mon rapport en un article scientifique que j’ai soumis à une revue de recherche.

Puis je me suis ensuite consacré à mes tâches d’enseignant et j’ai laissé de côté les controverses sur les échecs jusqu’à ce que je reçoive une réponse de plus de six pages en décembre dernier. Il s’agissait de trois rapports d’arbitres et de commentaires d’éditeurs de la revue dans laquelle j’avais soumis mon article scientifique.

J’ai également découvert que Kramnik avait posté une deuxième vidéo de 59 minutes critiquant mon addendum et soulevant d’autres points.

J’ai tenu compte des points supplémentaires soulevés par Kramnik et par les arbitres tout en révisant mon article en vue de sa publication. Il a finalement été publié dans Harvard Data Science Review.

J’étais heureux de voir mes résultats publiés dans une prestigieuse revue de statistiques, ce qui leur conférait un sceau d’approbation officiel. Et peut-être, enfin, de régler cette controverse sur les échecs au plus haut niveau.

The Conversation

Jeffrey S. Rosenthal reçoit des fonds de recherche du CRSNG du Canada, mais n'a reçu aucune compensation de Chess.com ou de qui que ce soit d'autre pour ce travail.

PDF

21.07.2025 à 18:10

La lune glacée Europe, un phare scintillant dans l’infrarouge ?

Cyril Mergny, Postdoctoral research fellow, Université Paris-Saclay

Frédéric Schmidt, Professeur, Planétologie, Université Paris-Saclay

Si vous pouviez voir dans l’infrarouge, avec un peu de patience, vous verriez Europe clignoter.
Texte intégral (2671 mots)
La glace d’eau à la surface d’Europe change au cours des saisons - ici, le taux de glace cristalline sur le premier micromètre d’épaisseur de glace au cours d'un cycle de saisons de 12 ans. Fourni par l'auteur

Europe est une lune de Jupiter entièrement recouverte d’une épaisse croûte de glace. Sous cette carapace, tout autour de la lune, se trouve un océan global d’eau liquide.

Cette lune intéresse particulièrement les scientifiques depuis que les données de la sonde Galileo, à la fin des années 1990, ont révélé des conditions qui pourraient être propices à l’émergence de la vie dans cet océan sous-glaciaire. En effet, c’est le seul endroit dans le système solaire (en dehors de la Terre) où de l’eau liquide est en contact direct avec un manteau rocheux à la base de l’océan. S’il y a du volcanisme sous-marin sur Europe, cela fournirait une source d’énergie, qui, avec l’eau, est l’un des ingrédients essentiels pour générer les briques de base du vivant.

Mais il reste encore de nombreuses inconnues sur la glace en surface d’Europe. Deux nouvelles études lèvent le voile sur un phénomène inattendu.


Grâce à deux nouvelles études, l’une théorique et l’autre issue des observations du télescope James-Webb, nous comprenons aujourd’hui mieux la surface glacée d’Europe. Nous avons notamment montré que la structure atomique de la glace change au fil des saisons, ce que l’on peut voir dans la lumière réfléchie par cette lune, un peu comme un phare qui scintillerait dans la nuit.

Ces nouvelles connaissances seront utiles pour, un jour, envisager de poser un atterrisseur sur Europe, mais aussi pour mieux comprendre les processus géologiques qui façonnent la surface – on ne sait toujours pas, par exemple, bien expliquer l’origine des « rayures » qui façonnent la surface d’Europe.

Dans les prochaines années, nous espérons que le scintillement du « phare atomique » d’Europe pourra être réellement observé, notamment par la sonde Europa Clipper de la Nasa ainsi par que la mission JUICE de l’ESA.

La glace sur Terre et la glace dans l’espace sont différentes

Sur Terre, la glace d’eau dans son environnement naturel se présente sous une seule forme : une structure cristalline, communément appelée « glace hexagonale ».

Cependant, dans l’espace, comme sur Europe, c’est une autre histoire : il fait tellement froid que la glace d’eau peut adopter des formes plus exotiques avec différentes propriétés.

Ainsi, la forme de glace la plus répandue dans l’Univers est la glace dite « amorphe ».

C’est une forme de glace où l’arrangement des molécules d’eau ne présente aucun ordre à grande échelle, contrairement à la glace cristalline qui, elle, possède des motifs répétitifs.

Une analogie à notre échelle humaine serait un étalage d’oranges. Dans le cas cristallin, les éléments sont tous bien rangés, sous la forme d’un réseau périodique. Dans le cas amorphe, les éléments sont en vrac sans aucune position régulière.

des tas d’agrumes
Les agrumes, un peu comme les atomes et molécules, peuvent être disposés de façon plus ou moins organisée. À gauche, il s’agit d’un analogue d’une organisation cristalline à l’échelle atomique, avec des atomes « bien rangés » ; à droite, l’organisation est aléatoire, analogue à une organisation amorphe à l’échelle atomique. Jen Gunter et Maria Teneva/Unsplash, CC BY

Notre vie quotidienne comprend des exemples de versions amorphes ou cristallines d’un même matériau : par exemple, la barbe à papa contient une forme amorphe du sucre, alors que le sucre de cuisine usuel est cristallin.

En fait, nous nous attendons à ce que le système solaire externe ait de la glace principalement sous une forme amorphe, en premier lieu parce qu’à très faible température (-170 °C sur Europe), les molécules n’ont pas assez d’énergie pour s’organiser correctement ; mais également parce que la structure cristalline a tendance à se briser sous l’effet des bombardements de particules en provenance du Soleil, déviées par la magnétosphère de Jupiter, comme si on envoyait une orange perturbatrice dans un étal bien rangé.

Comparaison de structure de la glace
La glace d’eau peut prendre différentes formes : structure cristalline à gauche et structure amorphe à droite. Cyril Mergny, Fourni par l'auteur

Les observations spatiales précédentes des années 1990 puis dans la décennie 2010 avaient montré que la glace d’Europe est un mélange de formes amorphes et cristallines. Mais, jusqu’à présent, aucun modèle n’expliquait pourquoi.

Une structure qui change avec les saisons

Pour la première fois, nous avons quantifié la compétition entre la cristallisation, due à la température pendant les heures les plus chaudes de la journée, et l’amorphisation induite par le bombardement en surface de particules issues de la magnétosphère de Jupiter.

Nous avons ainsi montré que la cristallinité est stratifiée sur Europe : une très fine couche en surface est amorphe, tandis que la couche en profondeur est cristalline.

Plus remarquable encore, la simulation a révélé que la cristallinité de la glace en surface pouvait varier selon les saisons ! Bien que les variations saisonnières n’affectent pas la quantité de particules qui bombardent Europe, il fait plus chaud en été, ce qui rend la cristallisation plus efficace et fait ainsi pencher la balance en sa faveur. En été, il fait en moyenne 5 °C plus chaud qu’en hiver, ce qui rend la glace jusqu’à 35 % plus cristalline qu’en hiver dans certaines régions.

Nous en avons conclu que si l’on observait Europe au fil des saisons à travers un spectroscope, cela donnerait l’impression que la surface « scintille » sur une période de douze ans (la durée d’une année sur Europe), comme un phare dans la nuit.

Comment fait-on pour connaître la structure atomique de la glace à une distance de 700 millions de kilomètres ?

Simultanément à notre étude, des astronomes de la Nasa ont observé Europe avec le puissant télescope James-Webb. Leur étude vient de montrer que les résultats de nos simulations sont en accord avec leurs observations. En effet, bien que les deux approches utilisent des méthodes radicalement différentes, elles aboutissent aux mêmes conclusions.

Grâce au spectromètre du James-Webb, les chercheurs ont pu estimer, à distance, la structure atomique de la glace à la surface d’Europe (sur le premier micromètre d’épaisseur). Pour cela, ils ont analysé la lumière réfléchie par Europe dans l’infrarouge (légèrement plus rouge que ce que notre œil peut percevoir) à la longueur d’onde de 3,1 micromètres qui reflète l’état de cristallisation de la glace d’eau.

Ils ont ainsi établi une carte de cristallinité de la lune glacée. En comparant leur carte observée avec celle que nous avons simulée, nous constatons un très bon accord, ce qui renforce notre confiance dans ces résultats.

Sur Europe, la surface est donc parsemée de régions avec de la glace d’eau amorphe et d’autres avec de la glace d’eau cristalline, car la température varie selon les zones. Globalement, les régions les plus sombres absorbent davantage les rayons du Soleil, ce qui les réchauffe et, comme sur Terre, les températures sont plus élevées près de l’équateur et plus basses près des pôles.

comparaison des résultats des deux études
Comparaison de la cristallinité sur l’hémisphère arrière d’Europe : observations versus simulation. À gauche : l’observation par le télescope James-Webb de la profondeur de bande à la longueur d’onde 3,1 micromètres, caractéristique de la glace cristalline. À droite, les résultats de cristallinité de nos dernières simulations sur la même zone. Les deux études indiquent qu’en proche surface, les régions Tara et Powys sont composées de glace cristalline, tandis que la glace amorphe est dominante dans les latitudes nord environnantes. Cartwright et collaborateurs 2025 ; Mergny et collaborateurs 2025, Fourni par l'auteur

Cependant, l’étude observationnelle utilisant le télescope James-Webb a capturé une photo d’Europe. Elle ne peut donc pas, pour le moment, détecter les scintillements dans l’infrarouge, car il faudrait observer la surface au cours de plusieurs années pour distinguer un changement. Ces fluctuations de la surface sont une nouveauté que nous avons découverte dans notre étude de simulation, et elles restent à être confirmées par des observations.

Nous espérons que les sondes JUICE et Europa Clipper pourront bientôt observer ces oscillations saisonnières de la lumière réfléchie par Europe dans l’infrarouge.

Notre intérêt se porte désormais aussi sur d’autres lunes glacées de Jupiter, où une cohabitation entre glace amorphe et glace cristalline pourrait exister, comme sur Ganymède et sur Callisto, mais aussi sur d’autres corps tels qu’Encelade, en orbite autour de Saturne, ou encore sur des comètes.

The Conversation

Frédéric Schmidt est Professeur à l'Université Paris-Saclay, membre de l'Institut Universitaire de France (IUF). Il a obtenu divers financements publics (Université Paris-Saclay, CNRS, CNES, ANR, UE, ESA) ainsi que des financements privés (Airbus) pour ses recherches.

Cyril Mergny ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.07.2025 à 18:50

La mission spatiale CO3D, ou comment cartographier la Terre en 3D et au mètre près

Laurent Lebegue, Responsable performances système du projet CO3D, Centre national d’études spatiales (CNES)

La mission CO3D doit décoller ce 25&nbsp;juillet. Elle s’appuie sur de nombreuses innovations technologiques pour imager en 3D et au mètre près les terres émergées du globe.
Texte intégral (2413 mots)

Quatre satellites de nouvelle génération vont quitter Kourou, en Guyane, le 25 juillet, à bord d’une fusée Vega-C.

La mission CO3D, consacrée à la cartographie en trois dimensions des terres émergées du globe, s’appuie sur de nombreuses innovations technologiques. Son défi principal ? Couvrir une surface considérable avec une précision de l’ordre du mètre, en imageant aussi les objets mobiles comme les véhicules ou panaches de fumée, tout en se fondant sur des traitements entièrement automatisés pour réduire les coûts de production.


La mission CO3D, développée conjointement par le Centre national d’études spatiales (Cnes) et Airbus, doit fournir une cartographie des reliefs, que l’on appelle dans le domaine « modèles numériques de surface », pour des besoins bien identifiés – qu’ils soient civils ou militaires –, mais aussi de développer de nouveaux usages de ces informations 3D, encore insoupçonnés, que ce soit par des organismes de recherches ou des start-ups.

Pourquoi cartographier la Terre en 3D ?

Les données acquises par la mission CO3D permettront de surveiller la Terre depuis l’espace. Ainsi, les scientifiques pourront par exemple suivre les variations du volume des glaciers ou des manteaux neigeux en montagne.

Ils pourront aussi étudier l’évolution du trait de côte ou encore l’effondrement des falaises, et ainsi simuler l’impact de la montée du niveau des mers sur les terres littorales.

La cartographie 3D de la biomasse permet aussi de suivre à grande échelle la déforestation ou, plus localement, l’évolution de la végétalisation des villes et la gestion des îlots de chaleur.

L’ensemble de ces données, qui forment l’une des briques de base des jumeaux numériques, sont essentielles pour mieux comprendre l’impact du dérèglement climatique sur les écosystèmes et les territoires.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Au-delà des sciences, la modélisation 3D précise est un outil indispensable pour les acteurs du secteur public comme les collectivités ou la sécurité civile. Ces dernières exploitent les données 3D dans le cadre de l’aménagement du territoire, la gestion des espaces tels que les zones inondables ou encore pour la connaissance précise des terrains en cas de gestion de crise à la suite d’une catastrophe naturelle.

Par exemple, en cas de tremblement de Terre, les satellites d’observation sont activés pour évaluer les dégâts à grande échelle afin d’aider les secours à prioriser leurs interventions, mais aussi pour évaluer les reconstructions à prévoir. Ces opérations sont réalisables avec de l’imagerie 2D classique, mais estimer l’effondrement d’un étage de bâtiment avec une simple vue verticale n’est pas forcément adapté, contrairement à l’imagerie 3D qui permet de mesurer directement les hauteurs.

En matière de défense, les données CO3D aideront, par exemple, à préparer les missions aériennes d’avion ou de drones à basse altitude ainsi que les déploiements de véhicules et de troupes sur divers terrains accidentés.

Comment fonctionne cette nouvelle imagerie 3D ?

La constellation s’articule autour de quatre satellites construits par Airbus, d’une masse de 285 kilogrammes chacun et d’une durée de vie de huit ans, permettant d’acquérir des images en couleurs d’une résolution de 50 centimètres – soit la résolution nécessaire pour produire des modèles numériques de surface avec une précision altimétrique d’environ un mètre.

vue d’artiste d’une paire de satellites
Acquisition stéréoscopique d’une paire de satellites CO3D. CNES, Fourni par l'auteur

Les quatre satellites seront regroupés en deux paires positionnées sur une même orbite (à 502 kilomètres d’altitude), mais en opposition afin de réduire le temps nécessaire aux satellites pour revenir photographier un même site.

Le principe de génération des modèles numériques de surface à partir des images est celui qui nous permet de voir en trois dimensions : la vision stéréoscopique. Les images d’un site sur Terre sont acquises par deux satellites avec un angle différent comme le font nos yeux. La parallaxe mesurée entre les deux images permet, grâce à de puissants logiciels, de calculer la troisième dimension comme le fait notre cerveau.

schéma de principe
Principe de génération de modèle numérique de surface par stéréoscopie spatiale. Cnes, Fourni par l'auteur

De plus, les images étant acquises avec deux satellites différents que l’on peut synchroniser temporellement, il est possible de restituer en 3D des objets mobiles, tels que des véhicules, des panaches de fumée, des vagues, etc. Cette capacité, encore jamais réalisée par des missions précédentes, devrait améliorer la qualité des modèles numériques de surface et ouvrir le champ à de nouvelles applications.

Les couleurs disponibles sont le rouge, le vert, le bleu mais aussi le proche infrarouge, ce qui permet d’avoir des images en couleur naturelle comme les voient nos yeux, mais aussi d’augmenter la capacité à différencier les matériaux, au-delà de ce que peut faire la vision humaine. Par exemple, un terrain de sport apparaissant en vert en couleur naturelle pourra être discriminé en herbe ou en synthétique grâce au proche infrarouge. Notons que la résolution native de 50 centimètres dans le proche infrarouge est inégalée à ce jour par d’autres missions spatiales. Elle permettra par exemple de générer automatiquement des cartes précises de plans d’eau et de végétation qui sont des aides à la production automatique de nos modèles numériques de surface de précision métrique.

Les satellites ont chacun la capacité d’acquérir environ 6 500 images par jour mais malgré cela, il faudra environ quatre ans pour couvrir l’ensemble des terres émergées attendues et produire les données associées ; une image élémentaire ayant une emprise au sol de 35 kilomètres carrés, il faudra environ 3,5 millions de couples d’images stéréoscopiques pour couvrir les 120 millions de kilomètres carrés.

Un gros travail au sol pour tirer le meilleur des données

De nombreuses innovations concernent également la planification de la mission et les traitements réalisés au sol.

Les satellites optiques ne voyant pas à travers les nuages, la prise en compte de prévisions météorologiques les plus fraîches possible est un élément clé des performances de collecte des données. En effet, les satellites sont très agiles et on peut les piloter pour observer entre les nuages. Avec CO3D, la prévision météo est rafraîchie à chaque orbite, à savoir quinze fois par jour.

Ouverture du container contenant les quatre satellites CO3D, en salle blanche à Kourou (Guyane). 2025 ESA-Cnes-Arianespace/Optique vidéo du CSG-P. Piron, Fourni par l'auteur

Le volume de données à générer pour couvrir le monde en 4 ans est considérable, environ 6 000 téraoctets (l’équivalent d’un million de DVD). La seule solution possible pour atteindre cet objectif dans une durée contrainte et à des coûts réduits a été pour le Cnes de développer des chaînes de traitement robustes, sans reprise manuelle et massivement parallélisées dans un cloud sécurisé.

Le Cnes développe aussi un centre de calibration image, consacré à la mission CO3D, qui sera chargé, pendant les six mois qui suivent le lancement, d’effectuer les réglages des satellites, des instruments et des logiciels de traitement qui permettront d’avoir la meilleure qualité possible des images. À l’issue de ces phases de qualification des satellites et des données, les cartographies 3D seront accessibles aux partenaires institutionnels du Cnes (scientifiques, collectivités locales ou équipes de recherche et développement) au fur et à mesure de leur production.

Par la suite, après une phase de démonstration de production à grande échelle de dix-huit mois, Airbus commercialisera également des données pour ses clients.

À quelques jours du lancement, la campagne de préparation des satellites bat son plein à Kourou et l’ensemble des équipes de développement et d’opérations finalise à Toulouse les derniers ajustements pour démarrer les activités de mise à poste et de recette en vol, les activités de positionnement des satellites sur leur orbite finale, de démarrage des équipements des satellites et de leurs instruments, puis de réglage des paramètres des traitements appliqués au sol.

The Conversation

Laurent Lebegue ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

16.07.2025 à 18:01

PFAS et dépollution de l’eau : les pistes actuelles pour traiter ces « polluants éternels »

Julie Mendret, Maître de conférences, HDR, Université de Montpellier

Mathieu Gautier, Professeur des Universités, INSA Lyon – Université de Lyon

Aujourd’hui, de nombreuses pistes sont en développement pour traiter ces polluants, c’est-à-dire d’abord les extraire de l’environnement, puis les détruire.
Texte intégral (2437 mots)

Les PFAS, ces substances per- et polyfluoroalkylées, souvent surnommées les « polluants éternels », représentent un défi environnemental majeur en raison de leur persistance et de leur toxicité.

Aujourd’hui, outre mieux réguler leur utilisation, il faut de meilleures pistes pour traiter ces polluants, c’est-à-dire d’abord les extraire de l’environnement, puis les détruire. Un véritable défi puisque ces molécules sont à la fois très variées et très résistantes – ce qui fait leur succès.


Des mesures d’encadrement et d’interdiction des émissions de PFAS, indispensables pour limiter leur diffusion dans l’environnement, sont d’ores et déjà en route. Selon une loi adoptée en février 2025, la France doit tendre vers l’arrêt total des rejets industriels de PFAS dans un délai de cinq ans.


À lire aussi : PFAS : comment les analyse-t-on aujourd’hui ? Pourra-t-on bientôt faire ces mesures hors du laboratoire ?


Récemment, une enquête menée par le Monde et 29 médias partenaires a révélé que la décontamination des sols et des eaux contaminées par ces substances pourrait coûter de 95 milliards à 2 000 milliards d’euros sur une période de vingt ans.

Comme pour d’autres contaminants organiques, on distingue deux grandes familles de procédés de traitement.

Certaines technologies consistent à séparer et parfois concentrer les PFAS du milieu pollué pour permettre le rejet d’un effluent épuré, mais elles génèrent par conséquent des sous-produits à gérer qui contiennent toujours les polluants. D’autres technologies consistent à dégrader les PFAS. Ces procédés impliquent la destruction de la liaison C-F (carbone-fluor) qui est très stable avec souvent des besoins énergétiques associés élevés.

Dans cet article, nous recensons une partie des nombreux procédés qui sont actuellement testés à différentes échelles (laboratoire, pilote, voire à l’échelle réelle), depuis des matériaux innovants, qui peuvent parfois simultanément séparer et détruire les PFAS, jusqu’à l’utilisation d’organismes vivants, comme des champignons ou des microbes.


À lire aussi : Le casse-tête de la surveillance des PFAS dans les eaux


Procédés de séparation et concentration des PFAS dans l’eau

Actuellement, les techniques mises en œuvre pour éliminer les PFAS dans l’eau sont essentiellement des procédés de séparation qui visent à extraire les PFAS de l’eau sans les décomposer, nécessitant une gestion ultérieure des solides saturés en PFAS ou des concentrâts (déchets concentrés en PFAS) liquides.

La technique la plus couramment mise en œuvre est l’« adsorption », qui repose sur l’affinité entre le solide et les molécules de PFAS qui se fixent sur la surface poreuse (il est plus favorable chimiquement pour le solide et le PFAS de s'accrocher l'un à l'autre que d'être séparés). L’adsorption est une technique de séparation efficace pour de nombreux contaminants incluant les PFAS. Elle est largement utilisée dans le traitement de l’eau, notamment en raison de son coût abordable et de sa facilité d’utilisation. La sélection de l’adsorbant est déterminée par sa capacité d’adsorption vis-à-vis du polluant ciblé. De nombreux matériaux adsorbants peuvent être utilisés (charbon actif, résine échangeuse d’ions, minéraux, résidus organiques, etc.).

Parmi eux, l’adsorption sur charbon actif est très efficace pour les PFAS à chaîne longue mais peu efficace pour ceux à chaîne moyenne ou courte. Après adsorption des PFAS, le charbon actif peut être réactivé par des procédés thermiques à haute température, ce qui entraîne un coût énergétique élevé et un transfert des PFAS en phase gazeuse à gérer.

Une première unité mobile de traitement des PFAS par charbon actif a récemment été déployée à Corbas, dans le Rhône, et permet de traiter 50 mètres cube d’eau à potabiliser par heure.


À lire aussi : Les sols, face cachée de la pollution par les PFAS. Et une piste pour les décontaminer


Comme autre procédé d’adsorption, les résines échangeuses d’ions sont constituées de billes chargées positivement (anions) ou négativement (cations). Les PFAS, qui sont souvent chargés négativement en raison de leurs groupes fonctionnels carboxyliques ou sulfoniques, sont attirés et peuvent se fixer sur des résines échangeuses d’anions chargées positivement. Des différences d’efficacité ont aussi été observées selon la longueur de la chaîne des PFAS. Une fois saturées, les résines échangeuses d’ions peuvent être régénérées par des procédés chimiques, produisant des flux de déchets concentrés en PFAS qui doivent être traités. Il est à noter que les résines échangeuses d’ions n’ont pas d’agrément en France pour être utilisées sur une filière de production d’eau potable.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La technique actuellement la plus efficace pour l’élimination d’une large gamme de PFAS – à chaînes courtes et longues – dans l’eau est la filtration par des membranes de nanofiltration ou d’osmose inverse à basse pression. Malheureusement, cette technique est énergivore et génère des sous-produits de séparation, appelés « concentrâts ». Ces derniers présentent des concentrations élevées en PFAS qui induisent des difficultés de gestion (les concentrâts sont parfois rejetés dans l’environnement alors qu’ils nécessiteraient un traitement supplémentaire).

Enfin, la flottation par fractionnement de mousse exploite les propriétés des PFAS (tête hydrophile et queue hydrophobe) qui se placent à l’interface air/liquide dans des bulles de mousse et sont récupérés en surface. Des taux d’extraction de 99 % sont ainsi obtenus pour des PFAS à chaîne longue. Comme les précédentes, cette technique produit un concentrât qu’il faut éliminer ultérieurement.

Vers des technologies qui dégradent les PFAS

D’autres procédés cherchent à dégrader les contaminants présents dans les eaux afin d’offrir une solution plus durable. Il existe diverses technologies de destruction des polluants dans l’eau : les procédés d’oxydoréduction avancée, la sonolyse, la technologie du plasma, etc. Ces procédés peuvent être déployés en complément ou en remplacement de certaines technologies de concentration.

La destruction d’un polluant est influencée par son potentiel de biodégradabilité et d’oxydation/réduction. La dégradation naturelle des PFAS est très difficile en raison de la stabilité de la liaison C-F qui présente un faible potentiel de biodégradation (c’est-à-dire qu’elle n’est pas facilement détruite par des processus à l’œuvre dans la nature, par exemple conduits par des bactéries ou enzymes).

Les procédés d’oxydation avancée sont des techniques qui utilisent des radicaux libres très réactifs et potentiellement efficaces pour briser les liaisons C–F. Elles incluent entre autres l’ozonation, les UV/peroxyde d’hydrogène ou encore les procédés électrochimiques.

Le traitement électrochimique des PFAS constitue une méthode innovante et efficace pour la dégradation de ces composés hautement persistants. Ce procédé repose sur l’application d’un courant électrique à travers des électrodes spécifiques, générant des radicaux oxydants puissants capables de rompre les liaisons carbone-fluor, parmi les plus stables en chimie organique.

Pour tous ces procédés d’oxydation avancée, un point de surveillance est indispensable : il faut éviter la production de PFAS à chaînes plus courtes que le produit initialement traité.

Récemment, une entreprise issue de l’École polytechnique fédérale de Zurich (Suisse) a développé une technologie innovante capable de détruire plus de 99 % des PFAS présents dans les eaux industrielles par catalyse piézoélectrique. Les PFAS sont d’abord séparés et concentrés par fractionnement de la mousse. Ensuite, la mousse concentrée est traitée dans deux modules de réacteurs où la technologie de catalyse piézoélectrique décompose et minéralise tous les PFAS à chaîne courte, moyenne et longue.

La dégradation sonochimique des PFAS est également une piste en cours d’étude. Lorsque des ondes ultrasonores à haute fréquence sont appliquées à un liquide, elles créent des bulles dites « de cavitation », à l’intérieur desquelles des réactions chimiques ont lieu. Ces bulles finissent par imploser, ce qui génère des températures et des pressions extrêmement élevées (plusieurs milliers de degrés et plusieurs centaines de bars), qui créent des espèces chimiques réactives. Le phénomène de cavitation est ainsi capable de rompre les liaisons carbone-fluor, permettant d’obtenir finalement des composants moins nocifs et plus facilement dégradables. Très prometteuse en laboratoire, elle reste difficile à appliquer à grande échelle, du fait de son coût énergétique et de sa complexité.

Ainsi, malgré ces récents progrès, plusieurs défis subsistent pour la commercialisation de ces technologies en raison notamment de leur coût élevé, de la génération de potentiels sous-produits toxiques qui nécessitent une gestion supplémentaire ou encore de la nécessité de la détermination des conditions opérationnelles optimales pour une application à grande échelle.

Quelles perspectives pour demain ?

Face aux limites des solutions actuelles, de nouvelles voies émergent.

Une première consiste à développer des traitements hybrides, c’est-à-dire combiner plusieurs technologies. Des chercheurs de l’Université de l’Illinois (États-Unis) ont par exemple développé un système innovant capable de capturer, concentrer et détruire des mélanges de PFAS, y compris les PFAS à chaîne ultra-courte, en un seul procédé. En couplant électrochimie et filtration membranaire, il est ainsi possible d’associer les performances des deux procédés en s’affranchissant du problème de la gestion des concentrâts.

Des matériaux innovants pour l’adsorption de PFAS sont également en cours d’étude. Des chercheurs travaillent sur l’impression 3D par stéréolithographie intégrée au processus de fabrication de matériaux adsorbants. Une résine liquide contenant des polymères et des macrocycles photosensibles est solidifiée couche par couche à l’aide d’une lumière UV pour former l’objet souhaité et optimiser les propriétés du matériau afin d’améliorer ses performances en termes d’adsorption. Ces matériaux adsorbants peuvent être couplés à de l’électroxydation.

Enfin, des recherches sont en cours sur le volet bioremédiation pour mobiliser des micro-organismes, notamment les bactéries et les champignons, capables de dégrader certains PFAS). Le principe consiste à utiliser les PFAS comme source de carbone pour permettre de défluorer ces composés, mais les temps de dégradation peuvent être longs. Ainsi ce type d’approche biologique, prometteuse, pourrait être couplée à d’autres techniques capables de rendre les molécules plus « accessibles » aux micro-organismes afin d’accélérer l’élimination des PFAS. Par exemple, une technologie développée par des chercheurs au Texas utilise un matériau à base de plantes qui adsorbe les PFAS, combiné à des champignons qui dégradent ces substances.

Néanmoins, malgré ces progrès techniques, il reste indispensable de mettre en place des réglementations et des mesures en amont de la pollution par les PFAS, pour limiter les dommages sur les écosystèmes et sur la santé humaine.

The Conversation

Julie Mendret a reçu des financements de l'Institut Universitaire de France (IUF).

Mathieu Gautier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

15.07.2025 à 17:52

Disneyland Paris, un parc d’attractions… inspiré de merveilles géologiques réelles

Elodie Pourret-Saillet, Enseignante-chercheuse en géologie structurale, UniLaSalle

Olivier Pourret, Enseignant-chercheur en géochimie et responsable intégrité scientifique et science ouverte, UniLaSalle

Entre montagnes rouges, grottes mystérieuses et cascades tropicales, Disneyland Paris regorge de paysages spectaculaires. Combien de visiteurs réalisent que ces décors s’inspirent directement de la géologie réelle&nbsp;?
Texte intégral (3628 mots)
Monument Valley Navajo Tribal Parks, site naturel à cheval sur l’Arizona et l’Utah, aux États-Unis. Domenico Convertini/Flickr, CC BY-SA

La prochaine fois que vous visiterez Disneyland Paris, regardez bien les roches autour de vous. Elles vous racontent une histoire, pas celle des contes de fées, mais celle de la Terre. Une aventure tout aussi fantastique… et bien réelle.


Derrière les artifices d’un parc à thème se cache une fascinante reconstitution de la planète Terre, version Disney. À quel point est-elle fidèle à la réalité ?

Nous vous proposons de nous pencher sur un aspect inattendu de Disneyland : sa dimension géologique. Non pas celle du sous-sol sur lequel le parc est construit, mais celle des paysages qu’il met en scène. Car les Imagineers (les concepteurs des attractions et décors du parc) se sont souvent inspirés de formations naturelles bien réelles pour créer les décors enchanteurs et parfois inquiétants que le public admire chaque jour.

Des montagnes à l’est de Paris

Prenez Big Thunder Mountain, sans doute la montagne la plus iconique du parc, dans la zone inspirée du Far West américain.

train sur montagne rouge
Une montagne russe inspirée du Grand Ouest américain. Eleanor Brooke/Unsplash, CC BY

Ses roches de couleur rouge due à la présence d’oxydes de fer et ses falaises abruptes sont directement inspirées des sites naturels emblématiques de l’Ouest américain tels que Monument Valley Tribal Park, Arches National Park ou encore le Goblin Valley State Park, entre l’Arizona et l’Utah.

Ces sites emblématiques sont constitués de grès vieux de 160 millions à 180 millions d’années, les grès Navajo et Entrada (ou Navajo and Entrada Sandstones). Ces grès de très fortes porosités sont utilisés depuis plusieurs décennies comme des « analogues de roches-réservoirs » par les géologues, c’est-à-dire comme l’équivalent en surface des réservoirs profonds afin de comprendre les écoulements de fluides.

Par ailleurs, outre leur aspect visuellement spectaculaire, c’est dans les Navajo Sandstones que les géologues ont pu élaborer les modèles actuels de croissance des failles. La présence de ces failles et fractures tectoniques est particulièrement bien représentée sur les décors de Big Thunder Mountain. En particulier, les créateurs ont respecté la relation entre l’épaisseur des couches géologiques et l’espacement des fractures, qui correspond à un modèle mathématique précis et respecté.

Cette reproduction n’a rien d’un hasard. Dès les années 1950, Walt Disney en personne a voulu intégrer des paysages naturels dans ses parcs pour leur pouvoir évocateur.

Ces montagnes sont devenues des icônes et se retrouvent dans les films Disney comme Indiana Jones et la dernière croisade (1989) au début duquel le jeune Indy mène son premier combat pour soustraire des reliques aux pilleurs de tombes dans l’Arches National Park. Pour les Imagineers, il s’agissait de recréer un Far West rêvé, mais en s’appuyant sur des repères géologiques bien identifiables, une manière d’ancrer la fiction dans un monde tangible.

arche de grès rouge
La Delicate Arch, dans le parc national d’Arches, dans l’Utah aux États-Unis. Élodie Pourret-Saillet., Fourni par l'auteur

Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La grotte du dragon : géologie souterraine et imaginaire

Un autre exemple frappant : la tanière du dragon, nichée sous le château de la Belle au bois dormant. Cette attraction unique à Disneyland Paris met en scène un dragon animatronique de 27 mètres de long, tapi dans une grotte sombre et humide.

Le décor rappelle les endokarsts, ces réseaux de grottes calcaires que l’on trouve notamment dans le sud de la France (comme l’Aven Armand) (Lozère), en Slovénie ou en Chine.

Les stalactites, l’eau ruisselante, les murs rugueux sont autant d’éléments qui évoquent des processus bien réels : dissolution du calcaire par l’eau acide, formation de concrétions, sédimentation…

stalactites et coussins calcaires de l’Aven Armand
Les formations calcaires de l’Aven Armand (Lozère), dans les Cévennes. Petr1888, Wikipédia, CC BY-SA

Seule entorse à cette reconstitution souterraine : le passage brutal d’un calcaire à un substrat granitique, sur lequel repose le château du parc. Or, ces roches ont des origines très différentes : les calcaires sont sédimentaires, les granites magmatiques, formés en profondeur par refroidissement du magma. Leur voisinage est rare, sauf dans certains contextes tectoniques, comme le long de grandes failles ou en zones de métamorphisme de contact, où le granite chauffe et transforme les sédiments voisins. Un exemple existe dans le Massif central, entre granites du Limousin et calcaires du Quercy. Cette configuration, bien que possible, reste peu fréquente et repose sur des structures complexes, difficilement représentables dans un parc. Elle simplifie donc à l’extrême une histoire géologique de centaines de millions d’années.

Mais, évidemment, rien ici n’est naturel. Tout est reconstitué en béton, fibre de verre ou résine. L’effet est cependant saisissant. Les visiteurs plongent dans un univers souterrain crédible, parce qu’il s’appuie sur une géologie fantasmée mais en grande partie réaliste.

La jungle cache des coulées volcaniques figées

Dans la partie du parc appelée Adventure Isle, le visiteur traverse une jungle luxuriante peuplée de galeries souterraines, de ponts suspendus et de cascades. Mais derrière cette végétation exotique se dissimulent aussi des formes géologiques typiques des régions tropicales ou volcaniques : blocs rocheux arrondis, chaos granitiques, pitons rocheux et même orgues basaltiques.

On peut notamment repérer sur le piton rocheux nommé Spyglass Hill, près de la cabane des Robinson et du pont suspendu, des formations en colonnes verticales. Celles-ci évoquent des orgues basaltiques, comme on peut en observer sur la Chaussée des géants en Irlande du Nord ou à Usson (Puy-de-Dôme) en Auvergne.

colonnes de granite de section hexagonale
Les orgues basaltiques d’Usson (Puy-de-Dôme), en Auvergne. Accrochoc, Wikipédia, CC BY-SA

Ces structures géométriques résultent du refroidissement lent de coulées de lave basaltique, qui se contractent en formant des prismes hexagonaux. Bien que les versions Disney soient artificielles, elles s’inspirent clairement de ces phénomènes naturels et ajoutent une touche volcanique au décor tropical.

entrée en grès derrière des racines de faux fromagers
Entrée du temple khmer Ta Phrom, érigé sur le site d’Angkor au Cambodge à la fin du XIIᵉ siècle. Diego Delso, Wikipédia, CC BY-SA

Le décor du temple de l’attraction Indiana Jones et le Temple du Péril, quant à lui, rappelle celui du site d’Angkor au Cambodge, qui est bâti sur des grès et des latérites (formations d’altération se formant sous des climats chauds et humides). Les pierres couvertes de mousse, les failles et les racines qui s’y infiltrent, simulent une interaction entre la roche et le vivant. Ce type de paysage évoque des processus bien réels : altération chimique, érosion en milieu tropical humide et fracturation des roches.

En mêlant ainsi géologie volcanique et paysages tropicaux, cette partie du parc devient une synthèse d’environnements géologiques variés. Cependant, la reconstitution d’un environnement naturel si varié sur une surface limitée impose ici ses limites. En effet, chaque type de roche présenté ici correspond à un environnement géodynamique précis, et l’ensemble peut difficilement cohabiter dans la nature.

Quand Blanche-Neige creusait déjà pour des gemmes : les minéraux à Disneyland

Bien avant les montagnes du Far West ou les grottes de dragons, la première évocation de la géologie dans l’univers Disney remonte à Blanche-Neige, en 1937. Souvenez-vous : les sept nains travaillent dans une mine de gemmes où s’entassent diamants, rubis et autres pierres précieuses étincelantes. Cette scène, réinterprétée dans les boutiques et attractions du parc, a contribué à forger une vision enchantée mais persistante des minéraux dans l’imaginaire collectif.

À Disneyland Paris, on retrouve cette symbolique dans les vitrines, sous le château de la Belle au bois dormant ou dans certaines attractions comme Blanche-Neige et les sept nains, et la grotte d’Aladdin, où les cristaux colorés scintillent dans les galeries minières.

Ces minéraux, bien que fantaisistes, sont souvent inspirés de véritables spécimens comme les diamants, quartz, améthystes ou topazes. Dans la réalité, ces cristaux résultent de processus géologiques lents, liés à la pression, la température et la composition chimique du sous-sol et ces minéraux ne sont pas présents dans les mêmes zones géographiques simultanément.

cristaux roses et blancs, vus de près
Cristaux d’améthyste. Sander van der Wel, Wikipédia, CC BY-SA

Une science cachée mais omniprésente

À première vue, Disneyland Paris semble à des années-lumière des sciences de la Terre. Et pourtant, chaque décor rocheux, chaque paysage artificiel repose sur des connaissances géologiques précises : types de roches, formes d’érosion, couleurs, textures…

Cette approche est d’ailleurs comparable à celle utilisée dans le cinéma, notamment dans les films Disney-Pixar comme Cars (2006), où les décors sont validés par des géologues et géographes.

Pourquoi ne pas profiter d’une visite au parc pour sensibiliser les visiteurs à ces aspects ? Comme cela est déjà le cas pour les arbres remarquables du parc, une description pédagogique des lieux d’intérêt géologique pourrait être proposée. Une sorte de « géologie de l’imaginaire », qui permettrait de relier science et pop culture. Après tout, si un enfant peut reconnaître une stalactite dans une grotte à Disneyland, il pourra peut-être la reconnaître aussi dans la nature.

The Conversation

Les visites géologiques des auteurs au parc DisneyLand Paris n'ont fait l'objet d'aucun financement de la part du parc DisneyLand Paris, ni d'avantages de quelque nature.

PDF

14.07.2025 à 18:38

Notre Soleil deviendra un jour une naine blanche, mais qu’est-ce que c’est exactement ?

Romain Codur, Professeur de Physique, Dynamique des fluides et Modélisation, École de Biologie Industrielle (EBI)

Les naines blanches sont un type particulier d’étoiles. Elles sont le destin d’environ 95 % des étoiles de notre galaxie, le Soleil compris. Que savons-nous de ces astres ?
Texte intégral (1761 mots)
Vue d'artiste d'une naine blanche, accrétant des débris rocheux laissés par le système planétaire. NASA, ESA, and G. Bacon (STScI), CC BY

Les naines blanches sont un type particulier d’étoiles. Elles sont le destin d’environ 95 % des étoiles de notre galaxie, le Soleil compris. Que savons-nous de ces astres ?


Les naines blanches sont des étoiles de très faible luminosité (environ mille fois moins que le Soleil). Elles sont extrêmement chaudes, les plus jeunes pouvant dépasser 100 000 °C (à comparer aux 5 000 °C à la surface du Soleil). Cependant, elles se refroidissent au cours de leur vie, ce qui fait qu’aujourd’hui la plupart des naines blanches connues ont une température comprise entre 4000 °C et 8000 °C. Cette gamme de températures correspond à une couleur apparente blanche, d’où le nom de « naine blanche ». En effet, en physique, on associe chaque couleur à une température (liée à la longueur d’onde et la fréquence de la lumière correspondante) : le blanc est le plus chaud, le bleu est plus chaud que le rouge, et le noir est le plus froid.

On pourrait penser qu’un astre plus chaud sera plus lumineux, mais ce n’est pas le cas pour les naines blanches. Pour les étoiles « standards » (comme le Soleil), les réactions nucléaires au sein de l’étoile sont responsables de leur émission de lumière. En revanche, il n’y a pas de réactions nucléaires dans une naine blanche, ce qui fait que la seule lumière qu’elle émet provient de son énergie thermique (comme un fil à incandescence dans une ampoule).

Les naines blanches sont d’une masse comparable à la masse du Soleil (2x1030 kg), mais d’un rayon comparable à celui de la Terre (6 400 km, contre 700 000 km pour le Soleil). En conséquence, les naines blanches sont des astres extrêmement denses (les plus denses après les trous noirs et les étoiles à neutrons) : la masse volumique de la matière y est de l’ordre de la tonne par cm3 (à comparer à quelques grammes par cm3 pour des matériaux « standards » sur Terre).

À de telles densités, la matière se comporte d’une manière très différente de ce dont on a l’habitude, et des effets quantiques apparaissent à l’échelle macroscopique : on parle de « matière dégénérée ». La densité y est tellement élevée que les noyaux atomiques sont plus proches des autres noyaux que la distance entre le noyau et les électrons. Par conséquent, les électrons de deux atomes proches devraient se retrouver au même endroit (sur la même « orbitale atomique »). Ceci est interdit par un principe de mécanique quantique appelé le principe d’exclusion de Pauli : de fait, les électrons se repoussent pour ne pas être sur la même orbitale, ce qui engendre une pression vers l’extérieur appelée « pression de dégénérescence ».


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Naine blanche : l’avenir du Soleil

Dans environ 5 milliards d’années, lorsque le Soleil commencera à manquer d’hydrogène pour ses réactions de fusion nucléaire, il grandira jusqu’à englober au moins Mercure, Vénus, et peut-être même la Terre, formant ainsi une géante rouge. Ensuite, il subira différentes phases de contraction et d’expansion, associées à différentes réactions de fusion de l’hydrogène et de l’hélium le composant. Cependant, il ne sera pas assez chaud pour effectuer les réactions de fusion d’atomes plus lourds (notamment celle du carbone). Par conséquent, la pression (vers l’extérieur du Soleil) ne sera plus suffisante pour compenser la gravité (vers l’intérieur), ce qui conduira à l’effondrement gravitationnel du cœur du Soleil pour former une naine blanche. Les couches périphériques du Soleil formeront quant à elles une nébuleuse planétaire, un nuage de gaz chaud et dense expulsé vers le milieu interplanétaire. Ce gaz formera peut-être plus tard une autre étoile et d’autres planètes…

Vue d’artiste montrant une comète tombant vers une naine blanche
Vue d’artiste montrant une comète tombant vers une naine blanche. NASA, ESA, and Z. Levy (STScI), CC BY

Il existe une masse maximale pour une naine blanche, qui s’appelle masse de Chandrasekhar, et qui vaut environ 1,4 fois la masse du Soleil. Au-delà, les forces de pression internes n’arrivent plus à compenser la gravité. Lorsqu’une naine blanche dépasse la masse de Chandrasekhar en accrétant de la matière, elle s’effondre sur elle-même, donnant alors naissance à une étoile à neutrons ou une supernova. Dans une étoile à neutrons, l’état de la matière est aussi dégénéré, encore plus dense que la naine blanche. Les protons et électrons de la matière composant la naine blanche ont fusionné pour former des neutrons. Une supernova est un objet différent : il s’agit de l’explosion d’une étoile. Ce phénomène est très bref (d’une durée inférieure à la seconde), mais reste visible pendant quelques mois. Les supernovæ sont extrêmement lumineuses, et certaines ont même pu être observées en plein jour.

Si elle ne dépasse pas la masse de Chandrasekhar, la durée de vie théorique d’une naine blanche est si élevée qu’on estime qu’aucune naine blanche dans l’univers n’est pour l’instant en fin de vie, compte tenu de l’âge de l’univers (environ 13,6 milliards d’années). En effet, les naines blanches émettent de la lumière à cause de leur température. Cette lumière est de l’énergie dissipée par la naine blanche, ce qui fait qu’elle perd en énergie au cours de sa vie, et donc elle se refroidit. Plusieurs hypothèses ont été avancées quant au devenir ultime d’une naine blanche, comme les naines noires, ayant une température si basse qu’elles n’émettent plus de lumière.

Comment observer des naines blanches ?

La première naine blanche a été détectée par Herschel (découvreur d’Uranus) en 1783, dans le système stellaire triple 40 Eridani. Ce système est composé de trois étoiles, mais seule la plus lumineuse, 40 Eridani A, a pu être observée directement à l’époque ; l’existence des deux autres, 40 Eridani B (la naine blanche en question) et C, a été déterminée par des calculs de mécanique céleste.

Du fait de leur faible luminosité et de leur petite taille, les naines blanches sont longtemps restées indétectables par nos télescopes. Ce n’est que depuis les progrès technologiques du début du XXe siècle qu’elles sont observables directement. En effet, 40 Eridani B a été identifiée en tant que naine blanche en 1914.

Aujourd’hui, le catalogue Gaia de l’ESA (Agence Spatiale Européenne) compte environ 100 000 naines blanches dans notre galaxie, sur plus d’un milliard de sources lumineuses identifiées.


L’auteur aimerait remercier particulièrement Dr Stéphane Marchandon (École de biologie industrielle) pour des discussions intéressantes et des corrections apportées au présent article.


The Conversation

Romain Codur ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.07.2025 à 09:57

Réchauffements climatiques il y a 56 millions d’années : la biodiversité du passé peut-elle nous aider à anticiper l’avenir ?

Rodolphe Tabuce, Chargé de recherche CNRS, Université de Montpellier

Face aux grands bouleversements climatiques actuels, une question se pose : comment les animaux, et en particulier les mammifères, vont-ils répondre aux futures hausses conséquentes de température ?
Texte intégral (2908 mots)
Paysage typique du massif des Corbières montrant le village d’Albas et ses couches géologiques du Paléocène/Éocène. Rodolphe Tabuce, Fourni par l'auteur

Face aux grands bouleversements climatiques actuels, une question essentielle se pose : comment les animaux, et en particulier les mammifères, vont-ils répondre aux futures hausses conséquentes de température ?


Pour donner des pistes de réflexion tout en se basant sur des faits observés, on peut se tourner vers le passé, il y a environ 56 millions d’années. À cette époque, deux courts mais très intenses réchauffements climatiques sont concomitants de changements fauniques sans précédent en Europe. Nous venons de publier nos travaux dans la revue PNAS, qui permettent de mieux comprendre cette étape charnière de l’histoire des mammifères.

Un réchauffement propice aux mammifères

Le premier pic de chaleur dont nous avons étudié et synthétisé les conséquences est nommé Maximum Thermique du Paléocène-Eocène (ou PETM). Il s’agit d’un événement hyperthermique, daté à 56 millions d’années, qui a vu les températures continentales augmenter de 5 à 8 °C en moins de 20 000 ans. Évidemment, cette durée est sans commune mesure avec la rapide augmentation des températures depuis deux siècles due aux activités humaines, mais le PETM est considéré par les paléoclimatologues comme le meilleur analogue géologique au réchauffement actuel par sa rapidité à l’échelle des temps géologiques, son amplitude et sa cause : un largage massif de méthane et de CO2 dans l’atmosphère, très probablement issu d’épanchements gigantesques de basaltes sur l’ensemble de l’actuel Atlantique Nord (Groenland, Islande, Norvège, Nord du Royaume-Uni et Danemark).

Ces puissants gaz à effet de serre, et l’augmentation des températures ainsi engendrée, ont causé des bouleversements fauniques et floristiques dans tous les écosystèmes marins et terrestres. En Europe, en Asie et en Amérique du Nord, le PETM a coïncidé avec l’apparition soudaine des premiers primates (représentés aujourd’hui par les singes, les lémuriens et les tarsiers), artiodactyles (représentés aujourd’hui par les ruminants, les chameaux, les cochons, les hippopotames et les cétacés) et périssodactyles (représentés aujourd’hui par les chevaux, les zèbres, les tapirs et les rhinocéros). Cet événement a donc joué un rôle majeur, en partie à l’origine de la biodiversité que nous connaissons aujourd’hui.

Mais tout juste avant ce grand bouleversement, un autre épisode hyperthermique plus court et moins intense, nommé Pre-Onset Event du PETM (ou POE), s’est produit environ 100 000 ans plus tôt, vers 56,1 millions d’années. On estime aujourd’hui que le POE a induit une augmentation des températures de 2 °C. Certains scientifiques pensent que ce premier « coup de chaud » aurait pu déclencher le PETM par effet cascade. Pour en revenir à l’évolution des paléo-biodiversités, autant l’impact du PETM sur les faunes de mammifères est relativement bien compris, autant l’impact du POE restait inconnu avant nos travaux.

Une recherche de terrain minutieuse en Occitanie

Pour répondre à cette problématique nous avons focalisé nos recherches dans le sud de la France, dans le Massif des Corbières (département de l’Aude, région Occitanie), où les couches géologiques de la transition entre le Paléocène et l’Éocène sont nombreuses et très épaisses, laissant l’espoir d’identifier le PETM, le POE et des gisements paléontologiques à mammifères datés d’avant et après les deux pics de chaleur. Autrement dit, nous avions comme objectif de décrire très clairement et objectivement les effets directs de ces réchauffements sur les faunes de mammifères.

Durant plusieurs années, nous avons donc engagé des études pluridisciplinaires, en combinant les expertises de paléontologues, géochimistes, climatologues et sédimentologues. De plus, via des actions de sciences participatives, nous avons impliqué dans nos recherches de terrain (prospections et fouilles paléontologiques) des amateurs en paléontologie, des naturalistes et autres passionnés du Massif des Corbières. Nos travaux ont abouti à la découverte d’une faune de mammifères sur le territoire de la commune d’Albas. Cette faune est parfaitement datée dans le très court intervalle de temps entre le POE et le PETM. Dater un site paléontologique vieux de plus de 56 millions d’années avec une précision de quelques milliers d’années est tout simplement remarquable. Les scénarios qui en découlent, en particulier ceux relatifs à l’histoire des mammifères (date d’apparition des espèces et leurs dispersions géographiques) sont ainsi très précis.

Étude des couches géologiques et échantillonnage de roches pour la datation du gisement d’Albas
Étude des couches géologiques et échantillonnage de roches pour la datation du gisement d’Albas. Rodolphe Tabuce, Fourni par l'auteur

La datation du gisement fossilifère découvert à Albas a été réalisée par analyse isotopique du carbone organique contenu dans les couches géologiques. Les roches sédimentaires (calcaires, marnes et grès) que l’on rencontre dans la nature actuelle proviennent de l’accumulation de sédiments (sables, limons, graviers, argiles) déposés en couches superposées, appelées strates. À Albas, les sédiments rencontrés sont surtout des marnes, entrecoupées de petits bancs de calcaires et de grès. Il faut imaginer ce « mille-feuille géologique » comme les pages d’un livre : elles nous racontent une histoire inscrite dans le temps. Ce temps peut être calculé de différentes manières. Alors que l’archéologue utilisera le carbone 14, le géologue, le paléoclimatologue et le paléontologue préféreront utiliser, par exemple, le rapport entre les isotopes stables du carbone (13C/12C). Cette méthode à un double intérêt : elle renseigne sur la présence d’évènements hyperthermiques lors du dépôt originel des sédiments (plus le ratio entre les isotopes 13C/12C est négatif et plus les températures inférées sont chaudes) et elle permet de donner un âge précis aux strates, puisque les événements hyperthermiques sont des épisodes brefs et bien datés. L’augmentation soudaine de 12C dans l’atmosphère durant les événements hyperthermiques est expliquée par la libération rapide d’anciens réservoirs de carbone organique, naturellement enrichis en 12C, notamment par le résultat de la photosynthèse passée des végétaux. En effet, aujourd’hui comme dans le passé, les plantes utilisent préférentiellement le 12C : plus léger que le 13C, il est plus rapidement mobilisable par l’organisme.

Ainsi, POE et PETM sont identifiés par des valeurs très fortement négatives du ratio 13C/12C. La puissance de cette méthode est telle que l’on peut l’appliquer à la fois dans les sédiments d’origine océanique que dans les sédiments d’origine continentale déposés dans les lacs et les rivières comme à Albas. On peut ainsi comparer les âges des gisements fossilifères de manière très précise à l’échelle du monde entier. La faune découverte à Albas a donc pu être comparée aux faunes contemporaines, notamment d’Amérique du Nord et d’Asie dans un contexte chronologique extrêmement précis.

Une faune surprenante à Albas

La faune d’Albas est riche de 15 espèces de mammifères documentées par plus de 160 fossiles, essentiellement des restes de dents et de mandibules. Elle documente des rongeurs (le plus riche ordre de mammifères actuels, avec plus de 2000 espèces, dont les souris, rats, écureuils, cochons d’Inde, hamsters), des marsupiaux (représentés aujourd’hui par les kangourous, koalas et sarigues), mais aussi des primates, insectivores et carnassiers que l’on qualifie « d’archaïques ». Cet adjectif fait référence au fait que les espèces fossiles identifiées n’ont aucun lien de parenté direct avec les espèces actuelles de primates, insectivores (tels les hérissons, musaraignes et taupes) et carnivores (félins, ours, chiens, loutres, etc.). Dans le registre fossile, de nombreux groupes de mammifères « archaïques » sont documentés ; beaucoup apparaissent en même temps que les derniers dinosaures du Crétacé et la plupart s’éteignent durant l’Éocène, certainement face à une compétition écologique avec les mammifères « modernes », c’est-à-dire les mammifères ayant un lien de parenté direct avec les espèces actuelles. Beaucoup de ces mammifères « modernes » apparaissent durant le PETM et se dispersent très rapidement en Asie, Europe et Amérique du Nord via des « ponts terrestres naturels » situés en haute latitude (actuel Nord Groenland, Scandinavie et Détroit de Béring en Sibérie). Ces voies de passage transcontinentales sont possibles car les paysages de l’actuel Arctique sont alors recouverts de forêts denses tropicales à para-tropicales, assurant le « gîte et le couvert » aux mammifères.

Fossiles de mammifères découverts à Albas conservés dans de petits tubes de verre. Il s’agit ici de dents minuscules d’un petit mammifère « archaïque » nommé Paschatherium. Rodolphe Tabuce, Fourni par l'auteur

Dans la foulée de ces premières dispersions géographiques, on assiste à une diversification du nombre d’espèces chez l’ensemble des mammifères « modernes » qui vont très rapidement occuper tous les milieux de vie disponibles. Ainsi, en plus des groupes déjà évoqués (tels les primates arboricoles), c’est à cette période qu’apparaissent les premiers chiroptères (ou chauves-souris) adaptés au vol et les premiers cétacés adaptés à la vie aquatique. C’est pour cette raison que l’on qualifie souvent la période post-PETM de période clef de l’histoire des mammifères car elle correspond à la phase innovante de leur « radiation adaptative », c’est-à-dire à leur évolution rapide, caractérisée par une grande diversité écologique et morphologique.

Une découverte qui change les scénarios

Mais revenons avant le PETM, plus de 100 000 ans plus tôt, juste avant le POE, durant la toute fin du Paléocène. À cette époque, nous pensions que les faunes européennes étaient composées d’espèces uniquement « archaïques » et essentiellement endémiques car cantonnées à l’Europe. Le continent est alors assez isolé des autres masses continentales limitrophes par des mers peu profondes.

La faune d’Albas a mis à mal ce scénario. En effet, elle voit cohabiter des espèces « archaïques » essentiellement endémiques avec, et c’est là la surprise, des espèces « modernes » cosmopolites ! Parmi celles-ci, les rongeurs et marsupiaux dont Albas documente les plus anciennes espèces européennes, les premières connues avec certitude dans le Paléocène. L’étude détaillée de la faune d’Albas révèle que les ancêtres directs de la plupart des espèces découvertes témoignent d’une origine nord-américaine, et en particulier au sein d’espèces connues dans l’état américain du Wyoming datées d’avant le POE. La conclusion est simple : ces mammifères n’ont pas migré depuis l’Amérique du Nord durant le PETM comme on le pensait auparavant, mais un peu plus tôt, très probablement durant le POE. Par opposition aux mammifères « archaïques » du Paléocène et « modernes » de l’Éocène, nous avons donc qualifié les mammifères d’Albas de « précurseurs ». Ces mammifères « précurseurs », comme leurs cousins « modernes » 100 000 ans plus tard au PETM, ont atteint l’Europe via les forêts chaudes et humides situées sur l’actuel Groenland et Scandinavie. Quelle surprise d’imaginer des marsupiaux américains arrivant en Europe via l’Arctique !

Nos prochaines études viseront à documenter les faunes européennes juste avant le POE afin de mieux comprendre les impacts qu’a pu avoir cet événement hyperthermique, moins connu que le PETM, mais tout aussi déterminant pour l’histoire de mammifères. Pour revenir à notre hypothèse de départ – l’idée d’une analogie entre la biodiversité passée et celle du futur – il faut retenir de nos recherches que le POE a permis une grande migration de mammifères américains vers l’Europe grâce à une hausse des températures d’environ 2 °C. Cela pourrait nous offrir des pistes de réflexion sur l’avenir de la biodiversité européenne dans le contexte actuel d’un réchauffement similaire.


Le projet EDENs est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.


The Conversation

Rodolphe Tabuce a reçu des financements de l'Agence nationale de la recherche (ANR).

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓