28.04.2025 à 16:54
Deransart Colin, Enseignant-chercheur en neurosciences, Grenoble Institut des Neurosciences (GIN), Université Grenoble Alpes (UGA)
Bertrand Favier, Dr Vétérinaire, Maitre de conférences à l'UFR de Chimie Biologie, Université Grenoble Alpes (UGA)
Boulet sabrina, Professeur des Universités- Neurosciences, Université Grenoble Alpes (UGA)
Véronique Coizet, CR Inserm en Neurosciences, Université Grenoble Alpes (UGA)
L’expérimentation animale fait débat. La recherche scientifique est-elle prête à se passer des animaux ? Les alternatives sont-elles suffisantes ? La discussion mérite en tout cas d’être menée de la manière la plus objective possible.
La maladie de Parkinson touche plus de 270 000 personnes en France. Lorsque le diagnostic est posé, la destruction des neurones producteurs de dopamine est trop avancée pour envisager des traitements curatifs. Pour obtenir des marqueurs précoces de la maladie, et permettre des traitements préventifs, l’équipe des chercheurs du Professeur Boulet du Grenoble Institut des Neurosciences a développé une recherche métabolomique par Résonance Magnétique Nucléaire.
A l’image de l’analyse des gaz d’échappement d’une voiture lors d’un contrôle technique dont la recherche des produits de combustion permet de déceler d’éventuelles anomalies de fonctionnement du moteur, la métabolomique par Résonance Magnétique Nucléaire permet l’identification de toutes les substances organiques de petites tailles (comme certains acides aminés) ou de leurs produits de dégradation issus des cascades des évènements moléculaires se produisant dans les cellules. L’identification de ces substances ou métabolites au sein d’un échantillon biologique, comme le sang ou d’autres tissus, permet donc de déceler d’éventuels marqueurs de la maladie (biomarqueurs). Cette approche se situe en aval de l’étude des gènes (génomique), de l’ensemble des ARN messagers (transcriptomique) et de l’ensemble des protéines (protéomique). Cette approche novatrice permet donc d’appréhender l’ensemble des facteurs (génétiques, environnementaux, nutritionnels…) dont la résultante est susceptible de conduire à une maladie.
Les chercheurs ont croisé les métabolites issus de trois modèles animaux complémentaires de la maladie de Parkinson et ont soumis aux mêmes analyses des échantillons de sang issus de patients nouvellement diagnostiqués mais non encore traités (patients de novo).
En 1959 les biologistes William Russel et Rex Burch ont proposé des recommandations éthiques en expérimentation animale connues sous le terme de « règle des 3 R » qui font encore aujourd’hui consensus à l’égard du traitement éthique des animaux de laboratoire. Ces recommandations visent à remplacer quand cela est possible l’utilisation d’animaux par des modèles alternatifs, réduire le nombre d’animaux requis et raffiner les expérimentations en minimisant les contraintes imposées aux animaux (douleur, souffrance, angoisse…).
Il semble contraire au critère de réduction de faire appel à une multiplicité de modèles animaux différents pour une même étude. Dans cette étude, utiliser trois modèles a permis de recouper entre elles les données, et d’en augmenter la portée « translationnelle » des résultats, c’est-à-dire ce qui permet de les transposer à l’humain. En effet, chaque modèle présentait des caractéristiques complémentaires de la maladie de Parkinson, chacun imitant différentes phases de la maladie, depuis la phase où seuls des déficits de motivation sont présents, jusqu’à celle avec des symptômes moteurs. De plus, les chercheurs ont développé une échelle de cotation de la progression de la maladie calquée sur ce qui existe en clinique humaine, évaluant les performances motivationnelles, motrices et l’étendue des lésions neurologiques. Cela a amélioré l’aspect translationnel de ces études et a participé aussi au raffinement des expérimentations.
Le premier modèle porte sur des rats traités par une neurotoxine ciblant les neurones dopaminergiques. Il est ainsi possible de constituer des lots d’animaux mimant de façon stable et sans évolution temporelle, un stade précis de la maladie ; ceci est une simplification de la maladie humaine où chaque patient est un cas particulier évolutif. En complément, les chercheurs ont sélectionné un second modèle reflétant la nature progressive de la pathologie dont le marqueur est lié à la production d’une protéine délétère. Bien que ce modèle permette chez un même animal de suivre la progression de la pathologie, il n’englobe pas tous les symptômes neuropsychiatriques caractéristiques du stade précoce de la maladie (tel que l’apathie).
Enfin, le troisième modèle, induit par injection d’une neurotoxine à des macaques, reproduit l’évolution des phases cliniques de la maladie et présente une plus grande homologie avec l’humain. L’homologie d’un modèle se réfère à sa capacité à mimer les mécanismes physiologiques sous-jacents à l’origine de la pathologie étudiée chez l’humain : on parle donc d’identité de causalité et de mécanismes mis en jeu.
Chez ces animaux, les dérégulations métaboliques ont amené à identifier six métabolites, potentiellement liés au processus neurodégénératif, dont les niveaux combinés constituent un biomarqueur métabolique composite. Ce biomarqueur permet de discriminer les animaux imitant la maladie de Parkinson des témoins, et ce, dès la phase précoce. Ce résultat n’aurait pas été atteint si une seule situation, un seul modèle animal, avait été étudié.
Les résultats obtenus chez les animaux ont ensuite été comparés avec les résultats de patients de novo (diagnostiqués mais non encore traités) provenant de deux banques différentes. Les mêmes six métabolites constituant le biomarqueur identifié chez les animaux ont permis de distinguer les patients de novo des patients sains avec un niveau élevé de sensibilité et de spécificité.
Les chercheurs ont également montré que la dérégulation de 3 des 6 métabolites composant le biomarqueur peut être partiellement corrigée par un médicament mimant les effets de la dopamine. Ce traitement permet de corriger le déficit de motivation des animaux à la phase précoce. Cette amélioration partielle a également été observée dans un sous-ensemble des patients de l’étude. Cela renforce l’intérêt du biomarqueur identifié et suggère que ce marqueur permettrait de surveiller l’évolution des traitements d’une manière moins contraignante que les méthodes d’imagerie médicale actuelles.
Outre les perspectives diagnostiques de cette étude, ces travaux ont également permis d’identifier un mécanisme de régulation du métabolisme cellulaire sur lequel on pourrait agir pour contrer les effets de la maladie, offrant ainsi des perspectives thérapeutiques. Ceci illustre notamment à quel point recherche fondamentale et recherche appliquée sont fortement indissociables l’une de l’autre. Nous venons de le voir au travers de cet exemple, mais de nombreuses recherches montrent l’intérêt de l’expérimentation animale, comme dans le cas des travaux de Pasteur sur la rage, les travaux grenoblois sur les approches par stimulations électriques intracérébrales profondes qui ont permis de révolutionner la prise en charge de nombreux patients parkinsoniens à travers le monde, ou encore, plus proche de nous, les travaux sur les ARN messagers ayant permis la mise au point de vaccins contre la Covid-19 et ont valu à leurs auteurs le prix Nobel de Médecine 2023.
Au-delà de ces avancées scientifiques, les détracteurs de l’expérimentation animale mettent en avant la faible transposabilité des résultats obtenus chez l’animal à l’homme, un de leurs argument étant que « 90 % des traitements testés avec succès sur les animaux se révèlent inefficaces ou dangereux pour les êtres humains ». Ceci leur permet notamment de justifier le recours à l’utilisation de modèles alternatifs à l’animal, tels que des modèles in vitro ou in silico.
Cette citation nous semble cependant partielle et partiale. Il n’a pas été démontré que la transposabilité des tests in vitro et/ou in silico soit meilleure en l’état actuel des techniques.
En réalité, ces tests sont les premiers cribles de l’ensemble des tests précliniques et la contribution des animaux est essentielle puisqu’en fin de phase pré-clinique, ils permettent d’exclure 40 % de candidats médicaments, notamment sur la base de risques potentiels chez l’humain.
Par ailleurs, les auteurs dutexte cité après avoir souligné cette faible transposabilité, proposent plutôt de mettre l’accent sur la robustesse des approches expérimentales, en assurant une recherche rigoureuse tant sur les animaux que chez les humains. Ils suggèrent ainsi « d’harmoniser la conception des protocoles expérimentaux menés chez l’humain (étude clinique) avec celle des études précliniques réalisées chez l’animal dont l’utilisation demeure indispensable, balayant la vision manichéenne qui voudrait que s’opposent une communauté pro-expérimentation animale et une autre, pro-méthodes alternatives. »
Le fait d’attribuer des capacités cognitives à l’autre – humain comme animal – nous confère un socle commun de droits moraux et apporte du sens à nos actions. Le domaine de l’expérimentation animale n’échappe pas à cette règle.
Il a été avancé que les chercheurs utilisant des animaux à des fins scientifiques auraient une moindre empathie vis-à-vis de la souffrance animale que le reste de la population.
Cette observation nous parait occulter un point important. De même qu’un chirurgien ne s’évanouit pas à la vue du sang au moment crucial de son intervention, en tant que chercheurs travaillant sur des modèles animaux, nous réfléchissons aux conséquences de nos actes. Leur aspect émotionnel est maîtrisé, mais non oblitéré : le chercheur n’a aucun intérêt à négliger la souffrance animale. Une expérience sur un modèle animal perd de sa puissance de déduction si certains animaux sont en panique, d’autres en stress, ou en prostration. Bien au contraire, la qualité de la science dans ce domaine va de pair avec le bien-être des animaux. La démarche de raffinement citée plus haut vise également à limiter les symptômes au strict minimum pour l’étude de la maladie, et elle est indissociable d’une empathie raisonnée avec les animaux utilisés.
Il est nécessaire également de rappeler que la qualité de nos avancées médicales comme de nos services de soins assume que le nombre moyen d’animaux que chaque Français « utilisera » au cours de sa vie entière est de 2,6 animaux. Ce nombre est à mettre lui-même en rapport avec les 1298 animaux, en moyenne, que pour toute sa vie un(e) Français(e) utilisera pour se nourrir. L’utilisation d’animaux en recherche expérimentale telle qu’elle est pratiquée de nos jours dans un cadre raisonné et contrôlé, et dans le respect du bien-être animal, reste, selon nous, une nécessité pour l’évolution de nos connaissances, même si son bannissement « à terme » tel qu’inscrit dans le marbre de la loi européenne doit nous inciter à en limiter le nombre et à développer des alternatives.
Enfin, en ce qui concerne le respect effectif des lois relatives à l’utilisation d’animaux en recherche, dont l’obligation d’appliquer les 3R, les inspecteurs vétérinaires départementaux ont à leur disposition des sanctions dissuasives qui peuvent être lourdes en cas de maltraitance.
En tant que chercheurs, nous savons que la recherche en expérimentation animale est sujette à des controverses : nos détracteurs adhèrent aux idées développées par les mouvements opposés à l’expérimentation animale en partie parce qu’il n’y a pas de manifestation de ceux qui sont en faveur de cette pratique. C’est précisément pour cela qu’il nous incombe de rendre compte à nos concitoyens de ce que nous faisons dans nos laboratoires.
Colin Deransart a reçu des financements de la Ligue Française Contre les Epilepsies, des Laboratoires GlaxoSmithKline, de la Fondation Electricité de France, de l'ANR et d'un Programme Hospitalier de Recherche Clinique.
Bertrand Favier est membre de l'AFSTAL. Sa recherche actuelle est financée par l'ANR et la Société Française de Rhumatologie en plus de son employeur.
Boulet sabrina a reçu des financements de l'ANR, la Fondation de France, la fondation pour la Rechercher sur le Cerveau, la fondation France Parkinson.
Véronique Coizet a reçu des financements de l'ANR, la fondation France Parkinson, la Fondation de France. Elle est présidente du comité d'éthique de l'Institut des Neurosciences de Grenoble et membre du comité Santé et bien-être des animaux.
26.04.2025 à 15:31
Quentin Bletery, Géophysicien, Directeur de Recherche IRD à l'Observatoire de la Côte d'Azur., Institut de recherche pour le développement (IRD)
Savoir prédire les séismes permettrait de sauver de nombreuses vies chaque année. La grande question est de savoir si, avant qu’un séisme se déclenche, il pourrait y avoir des signaux précurseurs mesurables. La communauté des géophysiciens n’a pas encore atteint de consensus sur cette problématique.
Les tremblements de terre et les tsunamis qu’ils génèrent ont causé la mort de près d’un million de personnes au cours des vingt-cinq dernières années. Des systèmes d’alerte existent, mais ils sont basés sur les premiers signaux émis par le séisme, et ne procurent donc que quelques secondes d’alerte avant les premières secousses, quelques dizaines de minutes avant le tsunami éventuel. Si des progrès importants sont réalisés pour améliorer ces systèmes, ceux-ci sont intrinsèquement limités en termes de temps d’alerte, car ils n’utilisent que des signaux émis par un séisme déjà initié.
Pour alerter plus de quelques secondes en avance, il faudra donc être capable de prédire les séismes avant que ceux-ci ne se déclenchent. Pourra-t-on un jour atteindre cet objectif ?
Les humains ont cherché à prédire les tremblements de terre depuis bien longtemps. Dans les années 1970, de nombreux scientifiques ont pensé que cet objectif était à portée de main. En Californie, un séisme semblait se produire tous les vingt-deux ans, ce qui a poussé les sismologues à prédire qu’un tremblement de terre se produirait, selon ce schéma de récurrence, en 1988. Mais le séisme annoncé n’eut lieu qu’en 2004, et devant l’échec de cette prédiction, la communauté scientifique devint, dans les années 1990, de plus en plus sceptique à l’idée de la prédictibilité des séismes. Cet évènement a rendu l’idée de prédire les séismes « taboue » durant de longues années, en particulier aux États-Unis, où toute mention du terme « prédiction » a été proscrite. Elle reste aujourd’hui considérée comme impossible par une grande partie de la communauté.
Néanmoins, les travaux expérimentaux et théoriques suggèrent l’existence d’une phase de préparation des séismes. Les données sismologiques (qui enregistrent les vibrations du sol) et géodésiques (qui enregistrent les déplacements du sol) sont en forte croissance et nous donnent des informations de plus en plus fines sur ce qu’il se passe en profondeur. Dans ces conditions, la prédiction des séismes restera-t-elle impossible pour toujours ?
Un séisme est un glissement rapide entre deux « blocs de Terre » le long de l’interface qui les sépare : une faille. Les plus grands « blocs de Terre » sont connus sous le nom de plaques tectoniques. Celles-ci se déplacent lentement (quelques millimètres par an) les unes par rapport aux autres, mais leur mouvement relatif est largement bloqué le long des failles qui les séparent. Les failles étant bloquées, et les plaques n’arrêtant pas de se déplacer, un « déficit de glissement » s’accumule. Ce déficit est compensé, en quelques secondes, lors d’évènements rares mais violents : les séismes.
Mais alors, se pourrait-il que le glissement rapide se produisant lors des séismes commence avec un glissement lent accélérant jusqu’à la rupture sismique ? C’est ce que montrent les expériences réalisées en laboratoire et ce que prédisent les modèles physiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les expériences et les modèles suggèrent l’existence d’une phase préparatoire des séismes pendant laquelle le glissement lent s’accélère et s’étend progressivement jusqu’à atteindre une taille critique à partir de laquelle un séisme se déclenche. Cette taille critique est très faible dans la plupart des expériences réalisées en laboratoire, car ces expériences sont réalisées sur des « failles » de très petites tailles parfaitement planes et homogènes.
Des travaux théoriques ont montré que cette taille critique peut être beaucoup plus grande et la durée de la phase préparatoire beaucoup plus longue (et donc potentiellement détectable) pour des failles hétérogènes qui sont beaucoup plus réalistes que les failles homogènes planes des expériences en laboratoire.
Si l’on observe bien des signaux pré-sismiques en laboratoire, cela est beaucoup plus difficile sur des failles naturelles. La raison est simple : les capteurs sont beaucoup plus loin. Les chercheurs utilisent essentiellement deux types de capteurs : les capteurs sismologiques et les capteurs géodésiques. Les capteurs sismologiques (les sismomètres) enregistrent les vibrations du sol, alors que les capteurs géodésiques (tels que les GPS) mesurent les déplacements du sol.
Pour rechercher des indices de glissement lent le long des failles, il semble ainsi naturel de regarder les données GPS. Malheureusement, lorsque l’on regarde les déplacements mesurés par GPS dans les heures, ou les jours, précédant les grands séismes, on voit essentiellement ce que l’on appelle du bruit, c’est-à-dire des signaux qui n’ont pas une origine tectonique, mais qui sont dus à des erreurs de correction dans le traitement de données GPS. Ce bruit masque tout potentiel signal pré-sismique qui serait nécessairement de faible amplitude. Comment pourrait-on ainsi extraire un signal de faible amplitude « noyé » dans des données bruitées ?
Nous avons proposé une approche, dans un article publié en 2023 dans le journal Science, pour augmenter le rapport signal sur bruit et faire ressortir de potentiels signaux de faible amplitude. L’approche ne vise pas à prédire les séismes, mais à explorer l’existence de signaux faibles en « stackant » (c’est-à-dire, simplement, en additionnant) toutes les données GPS enregistrées avant tous les grands séismes.
Bien sûr, additionner brutalement toutes les données n’aurait pas de sens, car selon le type de séisme et la configuration source-station les déplacements potentiellement générés par un hypothétique glissement précurseur ne seront pas tous dans la même direction. Nous avons donc calculé tous les déplacements attendus sur chaque station avant chaque grand séisme, puis nous avons calculé le produit scalaire entre les déplacements attendus et les déplacements observés.
Le produit scalaire est une mesure de la cohérence entre les déplacements attendus et observés. Si les déplacements observés sont plus ou moins dans la même direction que les déplacements attendus, leur produit scalaire sera positif. Dans le cas contraire, il sera négatif. Ainsi, si les mesures GPS ne contiennent que du bruit sans rapport avec un potentiel signal pré-sismique, les produits scalaires ont une probabilité égale d’être positif ou négatif, et sommer un grand nombre de ceux-ci devrait donner un résultat proche de 0. Au contraire, si les mesures GPS contiennent un signal pré-sismique faible, on s’attend, en sommant un grand nombre de produits scalaires, à obtenir des valeurs plutôt positives.
Ainsi, nous avons sommé les produits scalaires des déplacements attendus et observés toutes les cinq minutes pendant les 48 heures précédant tous les évènements de magnitude supérieure à 7. Cela représente un total de 3 026 séries temporelles GPS enregistrées avant 90 séismes (Figure 1).
Le résultat est une série temporelle décrivant la cohérence entre les déplacements attendus et les déplacements observés en fonction du temps avant les grands séismes (Figure 2).
Cette série temporelle montre une augmentation de la cohérence entre déplacements attendus et observés dans les deux heures précédant les séismes, qui pourrait être la trace d’une accélération du glissement lent pré-sismique aboutissant à la rupture sismique. Le signal est subtil, mais nous avons reproduit l’exercice sur des données enregistrées à 100 000 dates différentes (ne précédant pas des séismes) et obtenu un signal similaire dans seulement 0,3 % des cas, ce qui en fait un signal statistiquement très significatif.
Étant donné les implications potentielles, nous avons publié avec l’article tous nos codes et toutes nos données pour que la communauté scientifique puisse vérifier et travailler sur des approches alternatives, auxquelles nous n’aurions pas pensé.
Quatre jours après la publication de l’article, deux scientifiques américains, reconvertis dans la vulgarisation scientifique, ont publié, sur leur blog, un article faisant état de doutes concernant l’origine tectonique du signal. Cet article a eu un fort écho médiatique, en raison de l’activité de vulgarisateur des auteurs et de la force de l’argument principal avancé : après avoir corrigé les données GPS de ce que les auteurs considèrent comme du bruit (des fluctuations dans les données qu’ils considèrent non liées à l’activité tectonique), le signal disparaît du stack. La conclusion des auteurs de ce blog est que le signal est le résultat d’une coïncidence malchanceuse de facteurs improbables faisant apparaître du bruit GPS comme un signal tectonique.
Nous avons récemment publié un article dans le journal Seismica montrant que la probabilité d’une telle coïncidence est extrêmement faible, et avancé l’hypothèse que la correction de bruit proposée puisse altérer la détection d’un signal réel.
À ce jour, la communauté scientifique est partagée et le débat autour de cette question est plus vivant que jamais. Un débat en ligne a même été organisé entre les auteurs du blog et nous-mêmes devant un parterre de scientifiques (une première dans la communauté scientifique travaillant sur les séismes). Les termes du débat sont extrêmement techniques et l’issue est incertaine.
La multiplication des stations GPS (et des autres instruments géophysiques) apporte un nombre croissant d’observations à mesure que de nouveaux séismes se produisent et laisse augurer le fait que, si les experts ne parviennent pas à déterminer l’origine du signal, le temps le fera – le signal devenant de plus en plus, ou de moins en moins, clair à mesure que de nouvelles données seront ajoutées au stack.
Si le signal s’avère être le résultat d’une combinaison malencontreuse de bruit corrélé, alors la perspective de la prédiction s’éloignera encore un peu plus. Si le signal s’avère être la preuve d’une phase de glissement préparatoire des séismes, alors cette perspective se rapprochera un peu. Un peu seulement, car, même dans cette hypothèse, l’approche que nous avons proposée ne pourra malheureusement pas prédire les séismes.
En effet, celle-ci utilise toutes les données enregistrées avant tous les évènements passés en faisant l’hypothèse que l’épicentre et les mécanismes des séismes sont connus. Elle ne saurait ainsi avoir une quelconque ambition prédictive.
On considère généralement qu’un stack amplifie le rapport signal sur bruit d’un facteur égal à la racine carrée du nombre d’observations. Dans notre cas, cela voudrait dire que le signal identifié sur la figure 2 a été amplifié d’un facteur 55 grâce au stack. Il faudrait donc augmenter la sensibilité (ou réduire le bruit) des enregistrements GPS d’un facteur (au moins) 55 pour être capable d’identifier un signal sur une station unique.
De tels progrès représentent des avancées technologiques majeures et sont improbables dans les années à venir. Cependant, si l’existence d’une phase préparatoire (potentiellement observable) des séismes se confirme, cela motiverait certainement le développement de technologies nouvelles et le déploiement de réseaux de stations denses qui pourraient faire de la prédiction des séismes une perspective pas si lointaine.
Quentin Bletery a reçu des financements de l'European Research Council (ERC).
24.04.2025 à 17:44
Thuy Le Toan, Chercheuse principale de la mission BIOMASS, Centre national de la recherche scientifique (CNRS)
Alexandre Bouvet, Ingénieur de recherche en télédétection de la végétation, Institut de recherche pour le développement (IRD)
Le 29 avril, le satellite Biomass a été lancé avec succès depuis le port spatial européen de Kourou, en Guyane, par le lanceur européen Vega C. Son orbite à 666 kilomètres d’altitude lui permettra de mesurer avec une précision sans précédent la quantité de carbone stockée dans les forêts et son évolution dans le temps, afin de nous aider à mieux quantifier le cycle du carbone et, ainsi, de mieux définir des mesures d’atténuation du changement climatique.
Alors que les concentrations atmosphériques de dioxyde de carbone atteignent des niveaux sans précédent, l’accord de Paris (2015) encourage à mettre en place des mesures visant à réduire les émissions et à accroître les absorptions par les forêts, un des leviers majeurs pour atténuer les émissions de carbone dues aux activités humaines. Il est essentiel que la mise en œuvre de ces mesures s’appuie sur une meilleure quantification des variables forestières clés, notamment les pertes et les gains de biomasse forestière, afin de mieux comprendre les processus anthropiques et naturels qui contrôlent les émissions et les absorptions de CO2.
C’est la mission que doit relever Biomass, un satellite de l’Agence spatiale européenne (ESA, en anglais), conçu spécifiquement pour répondre à des questions scientifiques cruciales sur le système terrestre, essentielles à la recherche sur le climat et à la surveillance de notre environnement.
Biomass embarque un instrument jamais envoyé dans l’espace : un radar à synthèse d’ouverture (SAR) en bande P. Grâce à sa grande longueur d’onde (environ 70 cm), la plus grande disponible pour l’observation de la Terre, le signal radar peut pénétrer toute la strate forestière pour mesurer la biomasse, c’est-à-dire la masse des troncs, des branches et des tiges ligneuses, où les arbres stockent la majeure partie de leur carbone.
Ainsi, Biomass va fournir des estimations à l’échelle de l’hectare des stocks de carbone et de la dynamique des pertes dans des zones forestières largement sous-observées et vulnérables du monde entier, comme les forêts tropicales. Outre ses capacités d’observation, Biomass permettra donc d'améliorer notre compréhension de la dynamique forestière, conduisant ainsi à une meilleure représentation de la mortalité, des perturbations et de la croissance, améliorant ainsi le pronostic des trajectoires futures du cycle du carbone terrestre.
De plus, grâce à sa longueur d’onde inédite, la mission doit fournir des données d’observation sans précédent sur les calottes glaciaires, les déserts, l’ionosphère (couche supérieure de l’atmosphère), la topographie sous la forêt, ainsi que, nous l’espérons, d’autres découvertes à venir.
Les forêts jouent un rôle crucial dans le cycle du carbone et le climat. Elles agissent comme des puits de carbone, en absorbant, grâce à la photosynthèse, le dioxyde de carbone (CO2) de l’atmosphère et en le stockant dans la biomasse et le sol.
La capacité des forêts à séquestrer le carbone est immense, puisque celles-ci retiennent environ 70 % du carbone total des écosystèmes terrestres. Les forêts tropicales humides, en particulier, détiennent les plus importants stocks de carbone sur Terre (environ 50 % du carbone total de la végétation).
L’importance de ces forêts rend leur conservation et leur gestion durable essentielles pour atténuer le changement climatique.
Les forêts sont également d’importantes sources de carbone. Par le biais de perturbations naturelles telles que les incendies de forêt, les ravageurs ou la mortalité due à la sécheresse, mais surtout par les processus de déforestation et de dégradation dus aux activités humaines, elles libèrent dans l’atmosphère le carbone stocké dans les arbres. Ces émissions de CO2 connaissent de fortes variations d’une année à l’autre. Par exemple, les conditions de sécheresse liées aux épisodes climatiques El Niño, comme en 2015-2016 ou 2023-2024, exacerbent les émissions dues à la déforestation et aux incendies de forêt, tout en entraînant une réduction de la capacité d’absorption de carbone des forêts.
La quantification de la biomasse sur Terre, et de ses variations dans le temps, est essentielle pour réduire les incertitudes sur les émissions de CO2 par les forêts.
Dans le bilan carbone mondial publié chaque année par le Global Carbon Project, les plus grandes incertitudes concernent les flux de carbone des écosystèmes terrestres, dont les forêts mais aussi les savanes ou les prairies : il est difficile de savoir précisément combien de CO2 les forêts et les autres systèmes terrestres émettent et absorbent.
En effet, aujourd’hui, on connaît mal les émissions des écosystèmes terrestres liées aux changements d’usage des terres (par exemple, la déforestation) : on les estime à 1,1 ± 0,7 gigatonne de carbone par an soit une incertitude de 63 % ! Pour obtenir ces chiffres, l’approche utilisée pour l’instant consiste à multiplier la surface des zones de déforestation par des estimations régionales de la quantité de carbone stocké sous forme de biomasse (de manière empirique, le carbone représente la moitié de la biomasse).
À l’échelle mondiale, la répartition de la biomasse est encore assez mal connue. Pour les forêts tropicales, dont la plupart ne font pas l’objet d’inventaires forestiers, les mesures de biomasse issues de placettes de recherche écologique (des surfaces délimitées dans lesquelles des inventaires de végétation sont effectués) sont transposées à l’échelle régionale. Il est reconnu que les lacunes dans la connaissance actuelle du cycle du carbone terrestre résultent majoritairement d’un échantillonnage clairsemé et biaisé dans ces régions tropicales à flux et stockage élevés.
Quant aux puits de carbone terrestre (le fait que les écosystèmes terrestres, dont les forêts, absorbent du CO2), les estimations sont issues de la modélisation, et les incertitudes publiées reflètent seulement la dispersion des résultats d’une vingtaine de modèles.
Les méthodes traditionnelles de mesure de la biomasse, telles que les inventaires forestiers, ne permettent pas de cartographier à grande échelle. Les images des satellites existants ont été utilisées individuellement ou en combinaison pour produire des cartes de biomasse mondiale. Bien que ces produits soient actuellement utilisés, ils ne répondent pas à l’ensemble des besoins exprimés par la communauté scientifique : les cartes obtenues ne sont pas assez précises spatialement, et ils ne permettent pas de caractériser la structure des forêts denses et de mesurer leur biomasse.
Biomass va fournir des mesures radar basse fréquence pour la première fois depuis l’espace. Celles-ci répondent aux besoins scientifiques, à savoir une grande sensibilité à la biomasse des forêts tropicales denses ; des estimations à l’échelle de l’hectare, qui est l’échelle effective de la variabilité forestière ; une couverture spatiale continue des régions forestières tropicales et subtropicales avec des mesures répétées sur plusieurs années ; une précision de 20 % des produits de biomasse et de hauteur, comparable aux observations au sol, afin de garantir la fiabilité des résultats scientifiques et de contribuer à l’élaboration de mesures d’atténuation du changement climatique.
Outre l’utilisation du radar à grande longueur d’onde, Biomass offre des avancées majeures dans l’utilisation de trois technologies complémentaires pour fournir des informations sur les propriétés 3D des forêts :
la polarimétrie (exploitation de la polarisation des ondes électromagnétiques dans une image),
l’interférométrie polarimétrique (utilisation de la polarimétrie et de la différence de phase entre deux images)
et la tomographie (reconstruction 3D en utilisant plusieurs images prises depuis différents points de vue, comme dans les scanners médicaux).
Ces techniques permettent des mesures innovantes pour maximiser la sensibilité à la biomasse tout en minimisant les effets perturbateurs, par exemple la topographie, l’humidité du sol, ou les effets parasites issus de la traversée de certaines couches de l’atmosphère.
Par exemple, pendant la phase tomographique, l’orbite du système sera ajustée pour collecter plusieurs acquisitions sur les mêmes sites, avec un intervalle de répétition de trois jours. Ceci permettra une reconstruction de la structure verticale de la forêt.
En effet, les travaux effectués pendant la phase de préparation avec des radars aéroportés en bande P ont montré qu’à partir des signaux en provenance des strates forestières identifiées par tomographie, il était possible d’estimer la hauteur de la canopée, la topographie sous-jacente et la biomasse aérienne (partie de la biomasse située au-dessus du sol, par opposition à la biomasse souterraine des racines). La densité de biomasse a pu ainsi être cartographiée jusqu’à 500 tonnes de masse végétale par hectare, soit approximativement 250 tonnes de carbone par hectare. À titre d’exemple, la biomasse des parcelles de pins maritimes dans la forêt des Landes n’excède pas 150 tonnes par hectare, et celle d’une forêt boréale en Suède ne dépasse pas 250 tonnes par hectare.
Nous attendons maintenant avec impatience les premières données de Biomass, à la fin de 2025. Les scientifiques prévoient de les utiliser pour réduire les incertitudes liées aux estimations des stocks et des flux de carbone forestier, et pour améliorer les modèles de prévision de la capacité des forêts à absorber du carbone, sous l’effet du changement climatique et des pressions anthropiques.
Thuy Le Toan a reçu des financements de l'Agence Spatiale Européenne (ESA), du Centre National d'Etudes Spatiales (CNES) pour mener des recherches en tant que co-chercheuse principale de la mission BIOMASS
Alexandre Bouvet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.04.2025 à 16:33
Jérôme Visioli, Maître de Conférences STAPS, Université de Bretagne occidentale
Une carrière d’athlète de haut niveau est jalonnée de périodes de transition, de la découverte de sa discipline jusqu’à sa retraite. Pour faciliter ces évolutions, il semble indispensable de mieux analyser toutes les émotions ressenties.
Dans les carrières sportives, les émotions jouent un rôle central. Au-delà de la joie intense associée à la réussite et au dépassement de soi, certains récits d’athlètes illustrent la fragilité psychologique qui peut émerger sous la pression constante du haut niveau. Par exemple, le footballeur Thierry Henry a révélé avoir souffert de dépression pendant sa carrière. Il s’agit d’une confession encore rare parmi les sportifs, même si d’autres témoignages marquants ont émergé dans les médias, comme ceux de la gymnaste Simone Biles ou du nageur Michael Phelps.
Les émotions sont un élément fondamental de l’expérience du sport de haut niveau, à tel point qu’elles façonnent les trajectoires des athlètes. Elles jouent un rôle particulièrement visible lors des périodes de transition. En 2022, Roger Federer met fin à sa carrière. Une photo devenue iconique le montre en larmes, main dans la main avec Rafael Nadal, tous deux submergés par l’émotion. Cette image illustre la puissance émotionnelle de ces moments charnières, même pour les figures les plus emblématiques du sport.
Pourtant, jusqu’à présent, les émotions restent souvent peu prises en compte dans l’accompagnement des sportifs de haut niveau, ce qui révèle un paradoxe et souligne la nécessité d’un changement d’approche. Les enjeux sont d’importance, tant en termes de performance que de santé.
Nos recherches s’inscrivent dans cette perspective, en cherchant à décrire, comprendre et accompagner les émotions des athlètes lors des transitions dans les carrières sportives de haut niveau.
Les carrières sportives de haut niveau ne sont pas linéaires, mais jalonnées de transitions qui influencent l’expérience des athlètes, leur rapport à soi, aux autres, plus globalement encore leur relation au monde.
Dans son sens général, la transition correspond au passage d’un état à un autre, d’une situation à une autre. Elle se situe à proximité des termes de changements, de mutations, de crise(s) et d’épreuves. Il est classique d’envisager six grandes étapes transitionnelles dans la carrière des athlètes : le début de la spécialisation, le passage à un entraînement intensif, l’entrée dans le haut niveau, la professionnalisation, le déclin des performances et l’arrêt de carrière.
Ces transitions, qu’elles soient normatives (prévisibles) ou non normatives (imprévues), ne sont jamais dénuées de résonance émotionnelle. Par exemple, l’entrée dans le haut niveau peut générer de l’excitation, de la fierté, tandis qu’une blessure peut susciter frustration, peur ou découragement. L’expérience de ces transitions est singulière à chaque athlète : les significations qu’ils attribuent à ces moments clés façonnent leur potentiel à surmonter les obstacles et à maintenir leur engagement. Cela nécessite de l’individu la mise en œuvre de stratégies d’adaptation plus ou moins conscientes.
Dans nos recherches, nous menons des entretiens approfondis portant sur le « cours de vie » des sportifs de haut niveau. En prenant appui sur une frise chronologique représentant les moments marquants de leur carrière, nous les accompagnons progressivement dans la mise en évidence de périodes charnières, puis dans l’explicitation de leur expérience. L’objectif est de reconstruire la dynamique de leurs émotions tout au long de leur parcours sportif, afin de mieux comprendre comment ils vivent, interprètent et traversent ces transitions.
Nous avons réalisé une première étude avec un pongiste français de haut niveau, dont le témoignage met en lumière les émotions marquantes d’une carrière de plus de vingt ans. Après une progression rapide dans ce sport, l’intégration dans l’équipe de France constitue une source de grande fierté : « Je commence à avoir des rapports privilégiés avec le champion du monde », se souvient-il. Cette transition, de jeune espoir à membre reconnu de l’équipe suscite un optimisme débordant. Elle ouvre un large champ des possibles pour le pongiste, par exemple celui de pouvoir participer aux Jeux olympiques.
Toutefois, les transitions ne sont pas toujours vécues de manière positive. Après cette progression vers le haut niveau, le pongiste fait face à une blessure : « C’est une année pourrie à cause de ça », raconte-t-il. Plus tard dans sa carrière, après un départ à l’étranger, il vit une période de doute et de remise en question :
« Pendant trois mois, je ne gagne pas un set, et j’ai l’impression de ne plus savoir jouer. Tous les matins, je me lève pour aller m’entraîner et, dès qu’il y a un petit grain de sable, j’explose. Je ne suis plus sélectionné en équipe de France. Tu te dis, c’est fini. »
Avec l’aide d’un nouvel entraîneur, il reprend progressivement confiance, en acceptant d’abord de jouer à un niveau inférieur. Plus tard, conscient de l’élévation du niveau international, il réoriente ses ambitions :
« Je me dis que je vais essayer de vivre les belles choses qui restent à vivre, notamment des titres de champion de France. »
Le pongiste accepte de ne plus viser les compétitions internationales les plus prestigieuses, mais s’engage dans un projet plus personnel et accessible, nourrissant ainsi un épanouissement renouvelé jusqu’à la fin de sa carrière. Ces quelques extraits issus d’une étude de cas beaucoup plus large, illustrent au fur et à mesure des transitions successives l’émergence d’une passion, l’expérience du burn out, ou encore un fort potentiel de résilience.
Nous avons réalisé une deuxième étude (en cours de publication) portant sur le parcours d’une planchiste de haut niveau en planche à voile. Après une non-qualification aux Jeux olympiques de Sidney, malgré son statut de première au classement mondial, elle vit une expérience difficile : « Tout le monde me voyait aux Jeux », confie-t-elle. Cet échec, difficile à accepter, permet une prise de conscience cruciale : sa stratégie était trop centrée sur elle-même, sans tenir compte de ses adversaires. Cela devient un moteur de sa progression : « Là, je me dis, les prochains Jeux, j’y serai. »
Quatre ans plus tard, elle remporte l’or aux JO d’Athènes, fruit d’une préparation méticuleuse. Mais cette victoire, loin de marquer la fin de son parcours, génère des questionnements sur la suite de sa carrière. L’épuisement physique et la diversification des aspirations personnelles la poussent à envisager une reconversion : « Pourquoi continuer ? », se demande-t-elle. Le changement de matériel (une nouvelle planche) est également problématique pour cette sportive. Cette période débouche sur un échec aux JO de Pékin qu’elle vit douloureusement. Mais simultanément, « c’est une véritable libération », affirme-t-elle, se rendant compte qu’elle était prête à quitter la compétition de haut niveau.
Elle choisit alors de se réinventer en devenant cadre technique, transmettant son expérience aux jeunes athlètes :
« Je veux qu’on me voie autrement, pas comme une athlète, mais comme quelqu’un qui transmet. Je vais reprendre rapidement du plaisir à accompagner les jeunes. Je vais pouvoir transmettre mon expérience, je vibre à travers les athlètes. »
Cette transition met en lumière un fort potentiel de résilience et une capacité à se réinventer en dehors de la compétition, ouvrant ainsi une nouvelle voie à l’épanouissement personnel et professionnel. Ces quelques extraits illustrent l’ambivalence des défaites et des victoires, l’alternance d’émotions positives et négatives au fur et à mesure des transitions, et un fort potentiel de résilience.
Nos recherches actuelles sur les carrières sportives, principalement celles des athlètes ayant participé aux Jeux olympiques, visent à analyser les similitudes et différences en termes d’émotions dans l’expérience des transitions. Nous nous efforçons de multiplier les études de cas afin de mieux comprendre à la fois la singularité des trajectoires individuelles et les éléments de typicalité. Ces études permettent de mieux comprendre l’impact du contexte (social, culturel, institutionnel), des relations interpersonnelles (entraîneurs, coéquipiers, famille), des caractéristiques sportives (type de sport, exigences spécifiques), ainsi que des caractéristiques individuelles (sensibilité, culture) sur l’expérience des transitions.
Nos recherches offrent des points de repère précieux pour penser et ajuster l’accompagnement des athlètes. Il est intéressant de travailler en amont des transitions pour les anticiper, pendant cette période, mais aussi après. Des dispositifs reposant sur les entretiens approfondis, permettent aux sportifs de mettre en mots leurs émotions, de les partager, de donner sens à leur expérience des transitions, d’envisager des stratégies d’adaptation.
Également, lorsqu’un sportif écoute le récit d’un autre athlète, il peut identifier des situations similaires, des émotions partagées ou des stratégies communes, ce qui favorise la transférabilité de l’expérience et peut nourrit sa propre progression.
Enfin, sensibiliser les entraîneurs et les structures sportives à la dimension émotionnelle est essentiel pour favoriser l’épanouissement des athlètes à tous les stades de leur parcours. À ce titre, l’intégration de cette thématique dans les formations constitue un levier important.
D’ailleurs, cette réflexion gagnerait à être étendue à l’analyse des carrières des entraîneurs de haut niveau, eux aussi confrontés à de nombreuses transitions au cours de leur parcours. Mieux comprendre le rôle des émotions dans ces étapes charnières permettrait d’éclairer les enjeux spécifiques de leur trajectoire professionnelle, souvent marquée par l’instabilité, l’adaptation constante et des remises en question profondes.
Jérôme Visioli ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2025 à 08:11
François Hammer, Astronome, membre du laboratoire LIRA, labellisé Domaine d'Intérêt Majeur ACAV+ par la Région Ile-de-France, Observatoire de Paris
François Vannucci, Professeur émérite, chercheur en physique des particules, spécialiste des neutrinos, Université Paris Cité
Le satellite Gaia a mesuré les positions et les vitesses d’un grand nombre d’étoiles appartenant au disque de notre galaxie. Pour la première fois, on constate une décroissance des vitesses orbitales en fonction de la distance au centre galactique dans la région du halo sombre, ce qui implique une quantité de matière sombre (aussi appelée matière noire) beaucoup plus faible que ce qui était admis jusque-là.
Notre galaxie, classiquement appelée la Voie lactée, est formée d’une multitude d’étoiles, plus de cent milliards, que notre œil ne peut pas distinguer d’où son apparence « laiteuse ». C’est une grande galaxie spirale et la majorité des étoiles, en particulier notre Soleil, se répartissent dans un disque de près de 100 000 années-lumière de diamètre. Mais il y a beaucoup plus dans la galaxie.
Tout d’abord il existe des nuages de gaz où se formeront les nouvelles étoiles ainsi que des poussières. De plus, il faut aussi ajouter la très énigmatique masse manquante ou sombre qu’on retrouve à toutes les échelles de l’Univers.
L’observation du fond diffus cosmologique (en anglais Cosmic Microwave Background, CMB) apporte des contraintes physiques sur la présence de matière sombre dans l’Univers. La collaboration Planck fit une mesure précise de ce fond, qui a été comparé à un ensemble de données pour en faire un modèle très précis. La conclusion est que seulement 5 % du contenu de l’Univers est constitué de matière ordinaire, les 95 % inconnus se répartissant entre deux composantes invisibles : 25 % sous forme de matière sombre et 70 % d’énergie sombre encore plus mystérieuse.
La matière sombre est une composante insensible à toute interaction sauf la gravitation. Elle n’émet aucun rayonnement et n’interagit avec le reste de la matière que par les effets de sa masse.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Au niveau de la formation des galaxies, ce serait la masse sombre, qui n’étant affectée que par la gravitation, s’est structurée en premier dans ce qu’on appelle le halo sombre, plus ou moins sphérique, dont les dimensions dépassent de beaucoup celles de la masse visible. Cette dernière s’est accumulée par la suite dans ces halos de matière sombre.
Cette hypothèse a été confirmée, dans les années 1970, par l’astronome américaine Vera Rubin, et l’astronome franco-néerlandais Albert Bosma grâce à la mesure des courbes de rotation d’étoiles ou de gaz froid qui orbitent autour du centre. Ces courbes montrent la variation de la vitesse de rotation en fonction du rayon de l’orbite. Notons que, dans le disque, les orbites sont quasi circulaires. Un exemple typique est donné dans la figure ci-dessous.
On y voit que les étoiles visibles se répartissent dans une région concentrée et leur vitesse de rotation décroît rapidement dès 30 000 années-lumière, en accord avec la gravitation de Newton.
C’est une vérification de la deuxième loi de Kepler : les vitesses de rotation décroissent comme l’inverse de la racine carrée de la distance au centre d’attraction. Cette loi se vérifie déjà dans le cas des planètes qui tournent de moins en moins rapidement à mesure qu’elles sont plus éloignées du Soleil. Mais si l’on examine la galaxie dans son ensemble, la masse sombre donne une composante qui s’étend bien au-delà. Les courbes de rotation semblent plates, on ne constate pas de décroissance de la vitesse jusqu’à des distances approchant 100 000 années-lumière.
Les vitesses de rotation se mesurent par l’effet Doppler qui se traduit par un décalage du rayonnement des objets examinés vers les fréquences basses (le rouge pour le spectre visible). Pour la Voie lactée, notre Soleil est à l’intérieur du disque et c’est un grand défi d’analyser des mouvements d’étoiles pour lesquels les lignes de visée sont transverses et changeantes. C’est ce qu’a su résoudre Gaia, un satellite lancé fin 2013 par l’Agence spatiale européenne (acronyme anglais, ESA).
Gaia est un satellite astrométrique, c’est-à-dire qu’il mesure les mouvements dans le ciel de plus d’un milliard d’étoiles en les observant à diverses époques. Près de 33 millions d’étoiles ont été aussi observées en spectroscopie pour mesurer leurs vitesses radiales, c’est-à-dire leurs mouvements dans notre direction. Avec deux vitesses dans le plan du ciel et la vitesse radiale, cela donne en trois dimensions les vitesses et les positions de 1,8 million d’étoiles du disque galactique.
Connaître les mouvements dans toutes les directions apporte une mesure beaucoup plus précise de la courbe de rotation caractérisant notre galaxie.
Le résultat de Gaia est donné sur la figure ci-dessous. On y voit une décroissance qui suit la loi de Kepler, depuis le bord du disque visible à environ 50 000 années-lumière jusqu’à 80 000 années-lumière. C’est la première fois que l’on détecte un tel déclin képlérien pour une grande galaxie spirale.
Avec ce profil mesuré, on peut déduire une masse totale de la galaxie d’environ 200 milliards de masses solaires, avec une incertitude de 10 %. La masse de la Voie lactée était auparavant estimée à 1 000 milliards de masses solaires, cinq fois plus.
Avec une masse de matière ordinaire (étoiles et gaz) de près de 60 milliards de masses solaires, le rapport masse invisible/masse ordinaire est à peine supérieure à 2, très inférieur à ce qui est connu pour les autres galaxies spirales où on trouve un rapport entre 10 et 20. Ceci est à comparer avec le rapport 5, indiqué en préambule, mesuré pour l’Univers global à l’aide du fond cosmologique.
Pourquoi notre galaxie aurait-elle une dynamique différente des autres galaxies spirales ? Les galaxies spirales ont une histoire compliquée. On a d’abord pensé qu’elles se formaient lors d’un effondrement primordial aux premières époques de l’Univers. On sait depuis les années 2010 que les galaxies actuelles n’ont pas pour origine la première structuration de la matière, mais qu’elles découlent d’une série de collisions entre galaxies plus jeunes, capables de former les grands disques spiraux observés.
La dynamique d’aujourd’hui dépend donc de l’histoire de ces collisions. Or, notre galaxie a connu une histoire relativement calme avec une grande collision il y a 9 milliards à 10 milliards d’années. Ceci explique que le disque externe, dans lequel les étoiles suivent des orbites quasi circulaires, soit à l’équilibre. Pour la grande majorité des galaxies spirales, la dernière collision est advenue beaucoup plus tardivement, il y a seulement 6 milliards d’années.
Finalement, on peut dire que non seulement la galaxie n’a pas perdu les trois quarts de sa masse, mais la nouvelle évaluation de la matière sombre présente donne un résultat qui remet en question certaines certitudes cosmologiques. La quantité locale de masse sombre s’avère très inférieure à ce qu’on trouve à d’autres échelles de l’Univers, peut-être du fait de l’histoire spéciale de notre galaxie.
Cela résonne avec un épisode du règne de Louis XIV. Il demanda à ses astronomes une nouvelle cartographie du pays à partir de données astronomiques, suivant une recette imaginée par Galilée. La méthode était beaucoup plus précise que celle fournie par les arpenteurs, mais la carte ainsi obtenue se révéla très surprenante. Elle montra un rétrécissement notable du royaume sur le flanc de la côte ouest et le roi, irrité, aurait déclaré : « Mes astronomes ont fait perdre à la France plus de territoires que tout ce qu’avaient gagné mes militaires. »
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.04.2025 à 10:14
Guillaume Paris, Géochimiste, chargé de recherche CNRS au Centre de recherches pétrographiques et géochimiques de Nancy, Université de Lorraine
*La Lune serait née d’un immense cataclysme : la collision entre notre planète et une autre, aujourd’hui disparue, appelée Théia. *
La Lune est là, au-dessus de nous, toujours changeante, parfois absente et pourtant toujours présente. Saviez-vous qu’elle n’a pas toujours été là ? En effet, la Terre, à sa naissance, n’était pas accompagnée de son satellite. Comment s’est-elle formée ? Qui donc, en la regardant, pourrait imaginer le cataclysme qui est à son origine ?
Pour répondre à cela, il nous faut remonter loin, très loin dans le temps, peu de temps après la formation du système solaire, qui débuta voilà environ 4,567 milliards d’années. Des poussières, des gaz et des débris de glace tournent autour du Soleil, s’accrètent, s’agglutinent, commencent à former des petits corps qui grossissent peu à peu. Entre ces planétésimaux et autres embryons planétaires, c’est la guerre. Ils tournent autour du Soleil avec des trajectoires qui peuvent se croiser les unes les autres. Ils entrent en collision, explosent, fondent sous le choc, se reforment.
C’est dans ce contexte un peu chaotique que se stabilisent les futures Vénus, Mercure, Mars… proches du Soleil. Et, bien sûr, la future Terre, que les scientifiques imaginent dépourvue de Lune à sa naissance. Peu à peu, la Terre s’approche de sa taille actuelle.
Environ 60 millions d’années après la formation du système solaire, une autre planète, probablement de la taille de Mars, croise le chemin de la Terre et la percute brutalement. Ce corps céleste a été baptisé Théia, du nom du Titan mère de Séléné, déesse de la Lune dans la mythologie grecque. Sous le choc ce cet impact géant, Théia est pulvérisée, une partie de la Terre aussi.
Instantanément, la surface de la Terre fond, probablement sur des centaines de kilomètres de profondeur, générant ainsi un nouvel océan de magma dont le refroidissement et la réorganisation chimique auraient peu à peu donné naissance au manteau terrestre, ainsi qu’aux océans et à l’atmosphère. Suite à ce cataclysme, les débris de Théia et des morceaux de la Terre auraient refroidi en se mettant en rotation autour de la Terre. Peu à peu, une partie d’entre eux se serait accrétée pour donner naissance à la Lune.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Bien sûr, on ne peut pas être sûr, et il existe différentes théories. Des scientifiques ont suggéré que la Lune aurait pu se former indépendamment avant d’être « capturée » dans l’orbite de la Terre, ou bien s’accréter en même temps que la Terre. D’autres ont proposé que la Lune se serait « arrachée » d’une jeune Terre qui tournait trop vite sur elle-même. Mais ces deux hypothèses n’arrivent pas à expliquer un certain nombre d’aspects que nous connaissons des compositions de la Terre et de la Lune, comme le fait que cette dernière est plus pauvre en fer, ou encore l’orbite et les paramètres de rotation de la Terre et son satellite. À l’inverse, la théorie de l’impact géant permet d’expliquer la pauvreté en eau de la Lune par rapport à la Terre, même si elle est sans doute moins sèche que ce que les scientifiques ont longtemps pensé. Enfin, cette théorie permet aussi d’expliquer pourquoi la Lune s’éloigne peu à peu de la Terre de 3,8 centimètres par an.
Ainsi, initialement proposée en 1946, la théorie s’est imposée dans les années 1970, notamment suite au retour d’échantillons lunaires de la mission Apollo 11. Depuis, l’hypothèse de l’impact géant est celle qui fait le plus consensus, même si certaines observations résistent encore à cette théorie. Quel sera le mot de la fin ? Pour le moment, Lune ne le sait !
Guillaume Paris a reçu des financements de CNRS Terre et Univers et de l'ANR.