LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

29.04.2025 à 17:22

Blackout dans le sud de l’Europe : une instabilité rare du réseau électrique

Anne Blavette, Chargée de recherche CNRS en génie électrique, École normale supérieure de Rennes

En Espagne, au Portugal et dans le sud de la France, une coupure massive de courant a eu lieu lundi 28 avril. Alors que les causes sont encore inconnues, une spécialiste répond à nos questions sur les instabilités des réseaux.
Texte intégral (2438 mots)
À Grenade, en Andalousie, où le courant a été coupé de 12h33 le 28 avril à 5h30 du matin le 29 avril 2025. Dexter Benjamin, CC BY-SA

Lundi 28 avril, l’Espagne, le Portugal et une partie du Pays basque français ont été touchés par une coupure d’électricité majeure qui a perturbé l’ensemble de la région. Alors que la situation est presque rétablie moins de 24 heures plus tard, les causes de l’incident sont encore inconnues. Anne Blavette travaille sur l’optimisation de la gestion de l’énergie au sein des réseaux électriques avec un fort taux d’énergies renouvelables et répond à nos questions sur les instabilités des réseaux.


The Conversation : L’événement d’hier a surpris la population par son ampleur et ses conséquences sur le fonctionnement de pays entiers — des trains aux distributeurs de billets, en passant par l’accès à Internet perturbé jusqu’au Maroc — qui nous rappellent notre dépendance aux systèmes électriques. Quel est votre regard de spécialiste sur un tel événement ?

Anne Blavette : L’évènement qui s’est déclenché hier est assez incroyable, car un incident de cette ampleur géographique est très rare.

À l’heure actuelle, ses causes sont en cours d’investigation. Cependant, il est déjà impressionnant de voir que l’alimentation a presque entièrement été rétablie à 9h le lendemain matin, que ce soit au Portugal ou en Espagne, tandis que l’impact a été mineur en France (quelques minutes d’interruption).

On peut saluer l’efficacité des équipes des différents gestionnaires de réseau (espagnols, portugais et français) qui ont réalisé et réalisent encore un travail très important après les déconnexions et arrêts automatiques de liaisons électriques et centrales électriques, notamment avec des redémarrages zone par zone et le rétablissement progressif des connexions internationales. Ces opérations se font en parallèle des vérifications minutieuses de l’état du réseau. Cette procédure rigoureuse est nécessaire pour éviter que le réseau ne s’effondre à nouveau. Le travail ne sera pas encore achevé même lorsque l’ensemble de la population sera reconnecté, car les investigations sur l’origine de l’incident se poursuivront.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le Portugal et le Pays basque français ont aussi été touchés. Est-ce parce que les réseaux sont connectés localement ?

A. B. : Oui, le Portugal est connecté au réseau européen via l’Espagne, et des connexions existent entre l’Espagne et la France. Cela permet de mieux échanger de l’énergie et d’assurer en général une bien meilleure stabilité du réseau que des réseaux non interconnectés. D’ailleurs, la France participe à la réalimentation électrique de l’Espagne via les interconnexions.

Quelles sont les fragilités typiques d’un réseau électrique ?

A. B. : Un point important pour qu’un réseau électrique soit stable est que l’équilibre entre la consommation et la production d’électricité soit assuré à chaque instant (on parle d’équilibre production-consommation ou offre-demande).

Or, on a vu hier sur le réseau espagnol un brusque décrochage de la production/consommation de l’ordre d’une dizaine de gigawatts. Cela correspond à une perte d’environ 60 % de la consommation pour ce jour. Je cite le journal le Monde : « M.Sanchez a affirmé qu’il n’y avait “jamais” eu un tel “effondrement” du réseau électrique espagnol, précisant que “15 gigawatts” d’électricité avaient été “soudainement perdus"sur le réseau, le tout "en à peine cinq secondes” […] "Quinze gigawatts correspondent approximativement à 60 % de la demande" en électricité de l’Espagne à cette heure-là de la journée, a décrit le chef du gouvernement, qui a présidé une réunion de crise sur cette panne géante. »

La charge électrique en Espagne, telle qu’elle avait été prévue en orange, et celle, réelle, en violet. entsoe

Dans le cas d’un brusque décrochage de cet ordre, il y a une coupure électrique sur une grande région (qu’on qualifie de blackout), car le système devient instable. La raison du décrochage d’hier en Espagne semble encore inconnue et est en cours d’investigations par les gestionnaires de réseau et les autorités publiques.

Qu’est-ce qu’une instabilité du réseau électrique ? Qu’est-ce qui peut provoquer de telles instabilités ?

A. B. : Un réseau stable fonctionne dans des plages définies pour plusieurs grandeurs, notamment la fréquence et la tension électrique. En dehors de ces plages, le réseau peut être instable. Par exemple, si la tension en un point du réseau devient brusquement excessive, cela peut entraîner des déconnexions d’appareils qui se mettent en protection. Prenons, par exemple, le cas de panneaux photovoltaïques : s’ils se déconnectent, l’énergie qu’ils devaient produire peut manquer aux consommateurs, créant ainsi un déséquilibre entre la consommation et la production électrique. Sans opération de remédiation à ce problème, ce déséquilibre pourrait entraîner de graves conséquences pour le réseau électrique.

La seule opération à réaliser à ce stade est de délester très rapidement les consommateurs (c’est-à-dire réaliser une coupure électrique) afin de rétablir l’équilibre entre consommation et production, avant de pouvoir les réalimenter progressivement dans une configuration stable pour le réseau.

Si un incident peut provoquer un blackout, ce dernier peut aussi être provoqué par une succession d’éléments : on parle ainsi de « pannes en cascade ». Mais une panne, en cascade ou isolée, peut entraîner également une propagation à d’autres régions ou d’autres pays et accroître la sévérité de l’incident initial.

De nombreuses causes d’incident sont possibles : pannes de centrales électriques, phénomènes météorologiques extrêmes, etc.

Cependant, l’état du réseau électrique européen est contrôlé avec une grande vigilance par les gestionnaires de réseaux et bénéficie de systèmes automatisés permettant de réagir de façon de façon instantanée et adéquate dans l’urgence : cela a permis notamment de couper la propagation éventuelle vers la France en déconnectant la liaison de la France vers la Catalogne.

Cette carte présente le réseau de transport d’électricité existant (lignes de haute et très haute tension, pylônes électriques), ainsi que les ouvrages (lignes, postes électriques) en projet, ayant obtenus une déclaration d’utilité publique (DUP). RTE

Comme la consommation électrique de chacun varie tout le temps, la consommation à l’échelle d’un pays est variable. De même, certains moyens de production d’électricité utilisés (éolien, photovoltaïque…) présentent une production variable avec la météo. Les déséquilibres entre la production d’électricité et la consommation sont donc permanents, et une des tâches des gestionnaires de réseaux de transport d’électricité est d’équilibrer ce qui est produit et ce qui est consommé. Comment ces déséquilibres sont-ils gérés d’habitude ?

A. B. : Il y a tout d’abord un effet de foisonnement à l’échelle d’un pays qui permet de « lisser » les variations individuelles de chaque consommateur ou producteur : la consommation nationale est, par exemple, beaucoup plus lisse que les consommations individuelles. Cela la rend par ailleurs beaucoup plus prédictible, et l’équilibre offre-demande commence par un aspect de prédiction de la consommation, mais également des productions d’énergies renouvelables.

On vient ensuite compléter avec des moyens de production ou de stockage entièrement contrôlables (centrales thermiques, hydroélectricité…) qui permettront d’atteindre l’équilibre à chaque instant.

Bien entendu, certains déséquilibres imprévus peuvent exister et ils sont corrigés par de la réserve qui permet de maintenir la stabilité du réseau. Cette réserve est tirée par exemple d’une marge obligatoire de fonctionnement de centrales électriques (qui peuvent donc produire un peu plus ou un peu moins, selon les besoins). Or, dans le cas de l’Espagne, le déséquilibre était trop important pour réaliser cette compensation, étant plusieurs dizaines de fois supérieure aux réserves disponibles.

Mais il y a aussi d’autres moyens d’ajuster l’offre-demande en amont, notamment en déplaçant la consommation grâce à des tarifs incitatifs (par exemple des heures creuses lorsque la production photovoltaïque est à son maximum) ou par des informations citoyennes, comme ce qui est réalisé via EcoWatt. Dans ce dispositif géré par le gestionnaire de réseau de transport français RTE, les utilisateurs peuvent être alertés en cas de forte demande sur le réseau (généralement en hiver en France, à cause du chauffage électrique), afin de réduire leur consommation sur de courtes plages horaires qui peuvent être critiques pour le réseau ou nécessiter des moyens de production fortement émetteurs de CO2.

The Conversation

Anne Blavette a reçu des financements pour ses travaux de recherche de diverses agences et partenaires de financements, notamment l'ANR, l'ADEME, la région Bretagne, etc. et a collaboré/collabore avec divers partenaires publics et privés dont RTE, SRD, EDF, etc.

28.04.2025 à 16:54

L’expérimentation animale est-elle encore pertinente ? L’exemple de la maladie de Parkinson

Deransart Colin, Enseignant-chercheur en neurosciences, Grenoble Institut des Neurosciences (GIN), Université Grenoble Alpes (UGA)

Bertrand Favier, Dr Vétérinaire, Maitre de conférences à l'UFR de Chimie Biologie, Université Grenoble Alpes (UGA)

Boulet sabrina, Professeur des Universités- Neurosciences, Université Grenoble Alpes (UGA)

Véronique Coizet, CR Inserm en Neurosciences, Université Grenoble Alpes (UGA)

L'expérimentation animale fait débat. La recherche scientifique est-elle prête à se passer des animaux ? Les alternatives sont-elles suffisantes ?
Texte intégral (2324 mots)

L’expérimentation animale fait débat. La recherche scientifique est-elle prête à se passer des animaux ? Les alternatives sont-elles suffisantes ? La discussion mérite en tout cas d’être menée de la manière la plus objective possible.


La maladie de Parkinson touche plus de 270 000 personnes en France. Lorsque le diagnostic est posé, la destruction des neurones producteurs de dopamine est trop avancée pour envisager des traitements curatifs. Pour obtenir des marqueurs précoces de la maladie, et permettre des traitements préventifs, l’équipe des chercheurs du Professeur Boulet du Grenoble Institut des Neurosciences a développé une recherche métabolomique par Résonance Magnétique Nucléaire.

A l’image de l’analyse des gaz d’échappement d’une voiture lors d’un contrôle technique dont la recherche des produits de combustion permet de déceler d’éventuelles anomalies de fonctionnement du moteur, la métabolomique par Résonance Magnétique Nucléaire permet l’identification de toutes les substances organiques de petites tailles (comme certains acides aminés) ou de leurs produits de dégradation issus des cascades des évènements moléculaires se produisant dans les cellules. L’identification de ces substances ou métabolites au sein d’un échantillon biologique, comme le sang ou d’autres tissus, permet donc de déceler d’éventuels marqueurs de la maladie (biomarqueurs). Cette approche se situe en aval de l’étude des gènes (génomique), de l’ensemble des ARN messagers (transcriptomique) et de l’ensemble des protéines (protéomique). Cette approche novatrice permet donc d’appréhender l’ensemble des facteurs (génétiques, environnementaux, nutritionnels…) dont la résultante est susceptible de conduire à une maladie.

Les chercheurs ont croisé les métabolites issus de trois modèles animaux complémentaires de la maladie de Parkinson et ont soumis aux mêmes analyses des échantillons de sang issus de patients nouvellement diagnostiqués mais non encore traités (patients de novo).

Des modèles animaux complémentaires

En 1959 les biologistes William Russel et Rex Burch ont proposé des recommandations éthiques en expérimentation animale connues sous le terme de « règle des 3 R » qui font encore aujourd’hui consensus à l’égard du traitement éthique des animaux de laboratoire. Ces recommandations visent à remplacer quand cela est possible l’utilisation d’animaux par des modèles alternatifs, réduire le nombre d’animaux requis et raffiner les expérimentations en minimisant les contraintes imposées aux animaux (douleur, souffrance, angoisse…).

Il semble contraire au critère de réduction de faire appel à une multiplicité de modèles animaux différents pour une même étude. Dans cette étude, utiliser trois modèles a permis de recouper entre elles les données, et d’en augmenter la portée « translationnelle » des résultats, c’est-à-dire ce qui permet de les transposer à l’humain. En effet, chaque modèle présentait des caractéristiques complémentaires de la maladie de Parkinson, chacun imitant différentes phases de la maladie, depuis la phase où seuls des déficits de motivation sont présents, jusqu’à celle avec des symptômes moteurs. De plus, les chercheurs ont développé une échelle de cotation de la progression de la maladie calquée sur ce qui existe en clinique humaine, évaluant les performances motivationnelles, motrices et l’étendue des lésions neurologiques. Cela a amélioré l’aspect translationnel de ces études et a participé aussi au raffinement des expérimentations.

Le premier modèle porte sur des rats traités par une neurotoxine ciblant les neurones dopaminergiques. Il est ainsi possible de constituer des lots d’animaux mimant de façon stable et sans évolution temporelle, un stade précis de la maladie ; ceci est une simplification de la maladie humaine où chaque patient est un cas particulier évolutif. En complément, les chercheurs ont sélectionné un second modèle reflétant la nature progressive de la pathologie dont le marqueur est lié à la production d’une protéine délétère. Bien que ce modèle permette chez un même animal de suivre la progression de la pathologie, il n’englobe pas tous les symptômes neuropsychiatriques caractéristiques du stade précoce de la maladie (tel que l’apathie).

Enfin, le troisième modèle, induit par injection d’une neurotoxine à des macaques, reproduit l’évolution des phases cliniques de la maladie et présente une plus grande homologie avec l’humain. L’homologie d’un modèle se réfère à sa capacité à mimer les mécanismes physiologiques sous-jacents à l’origine de la pathologie étudiée chez l’humain : on parle donc d’identité de causalité et de mécanismes mis en jeu.

De l’animal à l’humain

Chez ces animaux, les dérégulations métaboliques ont amené à identifier six métabolites, potentiellement liés au processus neurodégénératif, dont les niveaux combinés constituent un biomarqueur métabolique composite. Ce biomarqueur permet de discriminer les animaux imitant la maladie de Parkinson des témoins, et ce, dès la phase précoce. Ce résultat n’aurait pas été atteint si une seule situation, un seul modèle animal, avait été étudié.

Les résultats obtenus chez les animaux ont ensuite été comparés avec les résultats de patients de novo (diagnostiqués mais non encore traités) provenant de deux banques différentes. Les mêmes six métabolites constituant le biomarqueur identifié chez les animaux ont permis de distinguer les patients de novo des patients sains avec un niveau élevé de sensibilité et de spécificité.

Les chercheurs ont également montré que la dérégulation de 3 des 6 métabolites composant le biomarqueur peut être partiellement corrigée par un médicament mimant les effets de la dopamine. Ce traitement permet de corriger le déficit de motivation des animaux à la phase précoce. Cette amélioration partielle a également été observée dans un sous-ensemble des patients de l’étude. Cela renforce l’intérêt du biomarqueur identifié et suggère que ce marqueur permettrait de surveiller l’évolution des traitements d’une manière moins contraignante que les méthodes d’imagerie médicale actuelles.

Outre les perspectives diagnostiques de cette étude, ces travaux ont également permis d’identifier un mécanisme de régulation du métabolisme cellulaire sur lequel on pourrait agir pour contrer les effets de la maladie, offrant ainsi des perspectives thérapeutiques. Ceci illustre notamment à quel point recherche fondamentale et recherche appliquée sont fortement indissociables l’une de l’autre. Nous venons de le voir au travers de cet exemple, mais de nombreuses recherches montrent l’intérêt de l’expérimentation animale, comme dans le cas des travaux de Pasteur sur la rage, les travaux grenoblois sur les approches par stimulations électriques intracérébrales profondes qui ont permis de révolutionner la prise en charge de nombreux patients parkinsoniens à travers le monde, ou encore, plus proche de nous, les travaux sur les ARN messagers ayant permis la mise au point de vaccins contre la Covid-19 et ont valu à leurs auteurs le prix Nobel de Médecine 2023.

Que penser de la transposabilité ?

Au-delà de ces avancées scientifiques, les détracteurs de l’expérimentation animale mettent en avant la faible transposabilité des résultats obtenus chez l’animal à l’homme, un de leurs argument étant que « 90 % des traitements testés avec succès sur les animaux se révèlent inefficaces ou dangereux pour les êtres humains ». Ceci leur permet notamment de justifier le recours à l’utilisation de modèles alternatifs à l’animal, tels que des modèles in vitro ou in silico.

Cette citation nous semble cependant partielle et partiale. Il n’a pas été démontré que la transposabilité des tests in vitro et/ou in silico soit meilleure en l’état actuel des techniques.

En réalité, ces tests sont les premiers cribles de l’ensemble des tests précliniques et la contribution des animaux est essentielle puisqu’en fin de phase pré-clinique, ils permettent d’exclure 40 % de candidats médicaments, notamment sur la base de risques potentiels chez l’humain.

Par ailleurs, les auteurs dutexte cité après avoir souligné cette faible transposabilité, proposent plutôt de mettre l’accent sur la robustesse des approches expérimentales, en assurant une recherche rigoureuse tant sur les animaux que chez les humains. Ils suggèrent ainsi « d’harmoniser la conception des protocoles expérimentaux menés chez l’humain (étude clinique) avec celle des études précliniques réalisées chez l’animal dont l’utilisation demeure indispensable, balayant la vision manichéenne qui voudrait que s’opposent une communauté pro-expérimentation animale et une autre, pro-méthodes alternatives. »

Le fait d’attribuer des capacités cognitives à l’autre – humain comme animal – nous confère un socle commun de droits moraux et apporte du sens à nos actions. Le domaine de l’expérimentation animale n’échappe pas à cette règle.

Il a été avancé que les chercheurs utilisant des animaux à des fins scientifiques auraient une moindre empathie vis-à-vis de la souffrance animale que le reste de la population.

Cette observation nous parait occulter un point important. De même qu’un chirurgien ne s’évanouit pas à la vue du sang au moment crucial de son intervention, en tant que chercheurs travaillant sur des modèles animaux, nous réfléchissons aux conséquences de nos actes. Leur aspect émotionnel est maîtrisé, mais non oblitéré : le chercheur n’a aucun intérêt à négliger la souffrance animale. Une expérience sur un modèle animal perd de sa puissance de déduction si certains animaux sont en panique, d’autres en stress, ou en prostration. Bien au contraire, la qualité de la science dans ce domaine va de pair avec le bien-être des animaux. La démarche de raffinement citée plus haut vise également à limiter les symptômes au strict minimum pour l’étude de la maladie, et elle est indissociable d’une empathie raisonnée avec les animaux utilisés.

Il est nécessaire également de rappeler que la qualité de nos avancées médicales comme de nos services de soins assume que le nombre moyen d’animaux que chaque Français « utilisera » au cours de sa vie entière est de 2,6 animaux. Ce nombre est à mettre lui-même en rapport avec les 1298 animaux, en moyenne, que pour toute sa vie un(e) Français(e) utilisera pour se nourrir. L’utilisation d’animaux en recherche expérimentale telle qu’elle est pratiquée de nos jours dans un cadre raisonné et contrôlé, et dans le respect du bien-être animal, reste, selon nous, une nécessité pour l’évolution de nos connaissances, même si son bannissement « à terme » tel qu’inscrit dans le marbre de la loi européenne doit nous inciter à en limiter le nombre et à développer des alternatives.

Enfin, en ce qui concerne le respect effectif des lois relatives à l’utilisation d’animaux en recherche, dont l’obligation d’appliquer les 3R, les inspecteurs vétérinaires départementaux ont à leur disposition des sanctions dissuasives qui peuvent être lourdes en cas de maltraitance.

En tant que chercheurs, nous savons que la recherche en expérimentation animale est sujette à des controverses : nos détracteurs adhèrent aux idées développées par les mouvements opposés à l’expérimentation animale en partie parce qu’il n’y a pas de manifestation de ceux qui sont en faveur de cette pratique. C’est précisément pour cela qu’il nous incombe de rendre compte à nos concitoyens de ce que nous faisons dans nos laboratoires.

The Conversation

Colin Deransart a reçu des financements de la Ligue Française Contre les Epilepsies, des Laboratoires GlaxoSmithKline, de la Fondation Electricité de France, de l'ANR et d'un Programme Hospitalier de Recherche Clinique.

Bertrand Favier est membre de l'AFSTAL. Sa recherche actuelle est financée par l'ANR et la Société Française de Rhumatologie en plus de son employeur.

Boulet sabrina a reçu des financements de l'ANR, la Fondation de France, la fondation pour la Rechercher sur le Cerveau, la fondation France Parkinson.

Véronique Coizet a reçu des financements de l'ANR, la fondation France Parkinson, la Fondation de France. Elle est présidente du comité d'éthique de l'Institut des Neurosciences de Grenoble et membre du comité Santé et bien-être des animaux.

26.04.2025 à 15:31

Pourra-t-on un jour prédire les séismes ? Le débat agite la communauté scientifique

Quentin Bletery, Géophysicien, Directeur de Recherche IRD à l'Observatoire de la Côte d'Azur., Institut de recherche pour le développement (IRD)

Avant qu’un séisme se déclenche, y a-t-il des signaux précurseurs mesurables ? La communauté des géologues n’a pas encore atteint de consensus sur cette problématique.
Texte intégral (2349 mots)

Savoir prédire les séismes permettrait de sauver de nombreuses vies chaque année. La grande question est de savoir si, avant qu’un séisme se déclenche, il pourrait y avoir des signaux précurseurs mesurables. La communauté des géophysiciens n’a pas encore atteint de consensus sur cette problématique.


Les tremblements de terre et les tsunamis qu’ils génèrent ont causé la mort de près d’un million de personnes au cours des vingt-cinq dernières années. Des systèmes d’alerte existent, mais ils sont basés sur les premiers signaux émis par le séisme, et ne procurent donc que quelques secondes d’alerte avant les premières secousses, quelques dizaines de minutes avant le tsunami éventuel. Si des progrès importants sont réalisés pour améliorer ces systèmes, ceux-ci sont intrinsèquement limités en termes de temps d’alerte, car ils n’utilisent que des signaux émis par un séisme déjà initié.

Pour alerter plus de quelques secondes en avance, il faudra donc être capable de prédire les séismes avant que ceux-ci ne se déclenchent. Pourra-t-on un jour atteindre cet objectif ?

Les humains ont cherché à prédire les tremblements de terre depuis bien longtemps. Dans les années 1970, de nombreux scientifiques ont pensé que cet objectif était à portée de main. En Californie, un séisme semblait se produire tous les vingt-deux ans, ce qui a poussé les sismologues à prédire qu’un tremblement de terre se produirait, selon ce schéma de récurrence, en 1988. Mais le séisme annoncé n’eut lieu qu’en 2004, et devant l’échec de cette prédiction, la communauté scientifique devint, dans les années 1990, de plus en plus sceptique à l’idée de la prédictibilité des séismes. Cet évènement a rendu l’idée de prédire les séismes « taboue » durant de longues années, en particulier aux États-Unis, où toute mention du terme « prédiction » a été proscrite. Elle reste aujourd’hui considérée comme impossible par une grande partie de la communauté.

Néanmoins, les travaux expérimentaux et théoriques suggèrent l’existence d’une phase de préparation des séismes. Les données sismologiques (qui enregistrent les vibrations du sol) et géodésiques (qui enregistrent les déplacements du sol) sont en forte croissance et nous donnent des informations de plus en plus fines sur ce qu’il se passe en profondeur. Dans ces conditions, la prédiction des séismes restera-t-elle impossible pour toujours ?

Qu’est-ce qu’un séisme ?

Un séisme est un glissement rapide entre deux « blocs de Terre » le long de l’interface qui les sépare : une faille. Les plus grands « blocs de Terre » sont connus sous le nom de plaques tectoniques. Celles-ci se déplacent lentement (quelques millimètres par an) les unes par rapport aux autres, mais leur mouvement relatif est largement bloqué le long des failles qui les séparent. Les failles étant bloquées, et les plaques n’arrêtant pas de se déplacer, un « déficit de glissement » s’accumule. Ce déficit est compensé, en quelques secondes, lors d’évènements rares mais violents : les séismes.

Mais alors, se pourrait-il que le glissement rapide se produisant lors des séismes commence avec un glissement lent accélérant jusqu’à la rupture sismique ? C’est ce que montrent les expériences réalisées en laboratoire et ce que prédisent les modèles physiques.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Les expériences et les modèles suggèrent l’existence d’une phase préparatoire des séismes pendant laquelle le glissement lent s’accélère et s’étend progressivement jusqu’à atteindre une taille critique à partir de laquelle un séisme se déclenche. Cette taille critique est très faible dans la plupart des expériences réalisées en laboratoire, car ces expériences sont réalisées sur des « failles » de très petites tailles parfaitement planes et homogènes.

Des travaux théoriques ont montré que cette taille critique peut être beaucoup plus grande et la durée de la phase préparatoire beaucoup plus longue (et donc potentiellement détectable) pour des failles hétérogènes qui sont beaucoup plus réalistes que les failles homogènes planes des expériences en laboratoire.

Observe-t-on des signaux avant les séismes ?

Si l’on observe bien des signaux pré-sismiques en laboratoire, cela est beaucoup plus difficile sur des failles naturelles. La raison est simple : les capteurs sont beaucoup plus loin. Les chercheurs utilisent essentiellement deux types de capteurs : les capteurs sismologiques et les capteurs géodésiques. Les capteurs sismologiques (les sismomètres) enregistrent les vibrations du sol, alors que les capteurs géodésiques (tels que les GPS) mesurent les déplacements du sol.

Pour rechercher des indices de glissement lent le long des failles, il semble ainsi naturel de regarder les données GPS. Malheureusement, lorsque l’on regarde les déplacements mesurés par GPS dans les heures, ou les jours, précédant les grands séismes, on voit essentiellement ce que l’on appelle du bruit, c’est-à-dire des signaux qui n’ont pas une origine tectonique, mais qui sont dus à des erreurs de correction dans le traitement de données GPS. Ce bruit masque tout potentiel signal pré-sismique qui serait nécessairement de faible amplitude. Comment pourrait-on ainsi extraire un signal de faible amplitude « noyé » dans des données bruitées ?

Nous avons proposé une approche, dans un article publié en 2023 dans le journal Science, pour augmenter le rapport signal sur bruit et faire ressortir de potentiels signaux de faible amplitude. L’approche ne vise pas à prédire les séismes, mais à explorer l’existence de signaux faibles en « stackant » (c’est-à-dire, simplement, en additionnant) toutes les données GPS enregistrées avant tous les grands séismes.

Bien sûr, additionner brutalement toutes les données n’aurait pas de sens, car selon le type de séisme et la configuration source-station les déplacements potentiellement générés par un hypothétique glissement précurseur ne seront pas tous dans la même direction. Nous avons donc calculé tous les déplacements attendus sur chaque station avant chaque grand séisme, puis nous avons calculé le produit scalaire entre les déplacements attendus et les déplacements observés.

Le produit scalaire est une mesure de la cohérence entre les déplacements attendus et observés. Si les déplacements observés sont plus ou moins dans la même direction que les déplacements attendus, leur produit scalaire sera positif. Dans le cas contraire, il sera négatif. Ainsi, si les mesures GPS ne contiennent que du bruit sans rapport avec un potentiel signal pré-sismique, les produits scalaires ont une probabilité égale d’être positif ou négatif, et sommer un grand nombre de ceux-ci devrait donner un résultat proche de 0. Au contraire, si les mesures GPS contiennent un signal pré-sismique faible, on s’attend, en sommant un grand nombre de produits scalaires, à obtenir des valeurs plutôt positives.

Ainsi, nous avons sommé les produits scalaires des déplacements attendus et observés toutes les cinq minutes pendant les 48 heures précédant tous les évènements de magnitude supérieure à 7. Cela représente un total de 3 026 séries temporelles GPS enregistrées avant 90 séismes (Figure 1).

Le résultat est une série temporelle décrivant la cohérence entre les déplacements attendus et les déplacements observés en fonction du temps avant les grands séismes (Figure 2).

Cette série temporelle montre une augmentation de la cohérence entre déplacements attendus et observés dans les deux heures précédant les séismes, qui pourrait être la trace d’une accélération du glissement lent pré-sismique aboutissant à la rupture sismique. Le signal est subtil, mais nous avons reproduit l’exercice sur des données enregistrées à 100 000 dates différentes (ne précédant pas des séismes) et obtenu un signal similaire dans seulement 0,3 % des cas, ce qui en fait un signal statistiquement très significatif.

Signal pré-sismique ou bruit ?

Étant donné les implications potentielles, nous avons publié avec l’article tous nos codes et toutes nos données pour que la communauté scientifique puisse vérifier et travailler sur des approches alternatives, auxquelles nous n’aurions pas pensé.

Quatre jours après la publication de l’article, deux scientifiques américains, reconvertis dans la vulgarisation scientifique, ont publié, sur leur blog, un article faisant état de doutes concernant l’origine tectonique du signal. Cet article a eu un fort écho médiatique, en raison de l’activité de vulgarisateur des auteurs et de la force de l’argument principal avancé : après avoir corrigé les données GPS de ce que les auteurs considèrent comme du bruit (des fluctuations dans les données qu’ils considèrent non liées à l’activité tectonique), le signal disparaît du stack. La conclusion des auteurs de ce blog est que le signal est le résultat d’une coïncidence malchanceuse de facteurs improbables faisant apparaître du bruit GPS comme un signal tectonique.

Nous avons récemment publié un article dans le journal Seismica montrant que la probabilité d’une telle coïncidence est extrêmement faible, et avancé l’hypothèse que la correction de bruit proposée puisse altérer la détection d’un signal réel.

À ce jour, la communauté scientifique est partagée et le débat autour de cette question est plus vivant que jamais. Un débat en ligne a même été organisé entre les auteurs du blog et nous-mêmes devant un parterre de scientifiques (une première dans la communauté scientifique travaillant sur les séismes). Les termes du débat sont extrêmement techniques et l’issue est incertaine.

La multiplication des stations GPS (et des autres instruments géophysiques) apporte un nombre croissant d’observations à mesure que de nouveaux séismes se produisent et laisse augurer le fait que, si les experts ne parviennent pas à déterminer l’origine du signal, le temps le fera – le signal devenant de plus en plus, ou de moins en moins, clair à mesure que de nouvelles données seront ajoutées au stack.

À quand la prédiction ?

Si le signal s’avère être le résultat d’une combinaison malencontreuse de bruit corrélé, alors la perspective de la prédiction s’éloignera encore un peu plus. Si le signal s’avère être la preuve d’une phase de glissement préparatoire des séismes, alors cette perspective se rapprochera un peu. Un peu seulement, car, même dans cette hypothèse, l’approche que nous avons proposée ne pourra malheureusement pas prédire les séismes.

En effet, celle-ci utilise toutes les données enregistrées avant tous les évènements passés en faisant l’hypothèse que l’épicentre et les mécanismes des séismes sont connus. Elle ne saurait ainsi avoir une quelconque ambition prédictive.

On considère généralement qu’un stack amplifie le rapport signal sur bruit d’un facteur égal à la racine carrée du nombre d’observations. Dans notre cas, cela voudrait dire que le signal identifié sur la figure 2 a été amplifié d’un facteur 55 grâce au stack. Il faudrait donc augmenter la sensibilité (ou réduire le bruit) des enregistrements GPS d’un facteur (au moins) 55 pour être capable d’identifier un signal sur une station unique.

De tels progrès représentent des avancées technologiques majeures et sont improbables dans les années à venir. Cependant, si l’existence d’une phase préparatoire (potentiellement observable) des séismes se confirme, cela motiverait certainement le développement de technologies nouvelles et le déploiement de réseaux de stations denses qui pourraient faire de la prédiction des séismes une perspective pas si lointaine.

The Conversation

Quentin Bletery a reçu des financements de l'European Research Council (ERC).

24.04.2025 à 17:44

La mission Biomass, un satellite pour mieux comprendre comment les forêts stockent (et émettent) du carbone

Thuy Le Toan, Chercheuse principale de la mission BIOMASS, Centre national de la recherche scientifique (CNRS)

Alexandre Bouvet, Ingénieur de recherche en télédétection de la végétation, Institut de recherche pour le développement (IRD)

La mission Biomass a décollé de Kourou (Guyane), le 29 avril. Elle permettra de cartographier la végétation à la surface de la Terre, notamment pour affiner les bilans carbone liés à la déforestation.
Texte intégral (2065 mots)
Le satellite Biomass a été lancé dans l’espace, le 29 avril 2025. Il pèse 1 250kg et son antenne possède un diamètre de 12 mètres. ESA/ATG medialab , CC BY-SA

Le 29 avril, le satellite Biomass a été lancé avec succès depuis le port spatial européen de Kourou, en Guyane, par le lanceur européen Vega C. Son orbite à 666 kilomètres d’altitude lui permettra de mesurer avec une précision sans précédent la quantité de carbone stockée dans les forêts et son évolution dans le temps, afin de nous aider à mieux quantifier le cycle du carbone et, ainsi, de mieux définir des mesures d’atténuation du changement climatique.


Alors que les concentrations atmosphériques de dioxyde de carbone atteignent des niveaux sans précédent, l’accord de Paris (2015) encourage à mettre en place des mesures visant à réduire les émissions et à accroître les absorptions par les forêts, un des leviers majeurs pour atténuer les émissions de carbone dues aux activités humaines. Il est essentiel que la mise en œuvre de ces mesures s’appuie sur une meilleure quantification des variables forestières clés, notamment les pertes et les gains de biomasse forestière, afin de mieux comprendre les processus anthropiques et naturels qui contrôlent les émissions et les absorptions de CO2.

C’est la mission que doit relever Biomass, un satellite de l’Agence spatiale européenne (ESA, en anglais), conçu spécifiquement pour répondre à des questions scientifiques cruciales sur le système terrestre, essentielles à la recherche sur le climat et à la surveillance de notre environnement.

Biomass embarque un instrument jamais envoyé dans l’espace : un radar à synthèse d’ouverture (SAR) en bande P. Grâce à sa grande longueur d’onde (environ 70 cm), la plus grande disponible pour l’observation de la Terre, le signal radar peut pénétrer toute la strate forestière pour mesurer la biomasse, c’est-à-dire la masse des troncs, des branches et des tiges ligneuses, où les arbres stockent la majeure partie de leur carbone.

Ainsi, Biomass va fournir des estimations à l’échelle de l’hectare des stocks de carbone et de la dynamique des pertes dans des zones forestières largement sous-observées et vulnérables du monde entier, comme les forêts tropicales. Outre ses capacités d’observation, Biomass permettra donc d'améliorer notre compréhension de la dynamique forestière, conduisant ainsi à une meilleure représentation de la mortalité, des perturbations et de la croissance, améliorant ainsi le pronostic des trajectoires futures du cycle du carbone terrestre.

De plus, grâce à sa longueur d’onde inédite, la mission doit fournir des données d’observation sans précédent sur les calottes glaciaires, les déserts, l’ionosphère (couche supérieure de l’atmosphère), la topographie sous la forêt, ainsi que, nous l’espérons, d’autres découvertes à venir.

Les forêts jouent un rôle crucial dans le cycle mondial du carbone

Les forêts jouent un rôle crucial dans le cycle du carbone et le climat. Elles agissent comme des puits de carbone, en absorbant, grâce à la photosynthèse, le dioxyde de carbone (CO2) de l’atmosphère et en le stockant dans la biomasse et le sol.

La capacité des forêts à séquestrer le carbone est immense, puisque celles-ci retiennent environ 70 % du carbone total des écosystèmes terrestres. Les forêts tropicales humides, en particulier, détiennent les plus importants stocks de carbone sur Terre (environ 50 % du carbone total de la végétation).

L’importance de ces forêts rend leur conservation et leur gestion durable essentielles pour atténuer le changement climatique.

Les forêts sont également d’importantes sources de carbone. Par le biais de perturbations naturelles telles que les incendies de forêt, les ravageurs ou la mortalité due à la sécheresse, mais surtout par les processus de déforestation et de dégradation dus aux activités humaines, elles libèrent dans l’atmosphère le carbone stocké dans les arbres. Ces émissions de CO2 connaissent de fortes variations d’une année à l’autre. Par exemple, les conditions de sécheresse liées aux épisodes climatiques El Niño, comme en 2015-2016 ou 2023-2024, exacerbent les émissions dues à la déforestation et aux incendies de forêt, tout en entraînant une réduction de la capacité d’absorption de carbone des forêts.

La quantification de la biomasse sur Terre, et de ses variations dans le temps, est essentielle pour réduire les incertitudes sur les émissions de CO2 par les forêts.

Une contribution de la forêt au cycle du carbone encore mal quantifiée

Dans le bilan carbone mondial publié chaque année par le Global Carbon Project, les plus grandes incertitudes concernent les flux de carbone des écosystèmes terrestres, dont les forêts mais aussi les savanes ou les prairies : il est difficile de savoir précisément combien de CO2 les forêts et les autres systèmes terrestres émettent et absorbent.

En effet, aujourd’hui, on connaît mal les émissions des écosystèmes terrestres liées aux changements d’usage des terres (par exemple, la déforestation) : on les estime à 1,1 ± 0,7 gigatonne de carbone par an soit une incertitude de 63 % ! Pour obtenir ces chiffres, l’approche utilisée pour l’instant consiste à multiplier la surface des zones de déforestation par des estimations régionales de la quantité de carbone stocké sous forme de biomasse (de manière empirique, le carbone représente la moitié de la biomasse).

À l’échelle mondiale, la répartition de la biomasse est encore assez mal connue. Pour les forêts tropicales, dont la plupart ne font pas l’objet d’inventaires forestiers, les mesures de biomasse issues de placettes de recherche écologique (des surfaces délimitées dans lesquelles des inventaires de végétation sont effectués) sont transposées à l’échelle régionale. Il est reconnu que les lacunes dans la connaissance actuelle du cycle du carbone terrestre résultent majoritairement d’un échantillonnage clairsemé et biaisé dans ces régions tropicales à flux et stockage élevés.

Quant aux puits de carbone terrestre (le fait que les écosystèmes terrestres, dont les forêts, absorbent du CO2), les estimations sont issues de la modélisation, et les incertitudes publiées reflètent seulement la dispersion des résultats d’une vingtaine de modèles.

Biomass relève le défi de la mesure de biomasse des forêts tropicales

Les méthodes traditionnelles de mesure de la biomasse, telles que les inventaires forestiers, ne permettent pas de cartographier à grande échelle. Les images des satellites existants ont été utilisées individuellement ou en combinaison pour produire des cartes de biomasse mondiale. Bien que ces produits soient actuellement utilisés, ils ne répondent pas à l’ensemble des besoins exprimés par la communauté scientifique : les cartes obtenues ne sont pas assez précises spatialement, et ils ne permettent pas de caractériser la structure des forêts denses et de mesurer leur biomasse.

Biomass va fournir des mesures radar basse fréquence pour la première fois depuis l’espace. Celles-ci répondent aux besoins scientifiques, à savoir une grande sensibilité à la biomasse des forêts tropicales denses ; des estimations à l’échelle de l’hectare, qui est l’échelle effective de la variabilité forestière ; une couverture spatiale continue des régions forestières tropicales et subtropicales avec des mesures répétées sur plusieurs années ; une précision de 20 % des produits de biomasse et de hauteur, comparable aux observations au sol, afin de garantir la fiabilité des résultats scientifiques et de contribuer à l’élaboration de mesures d’atténuation du changement climatique.

Outre l’utilisation du radar à grande longueur d’onde, Biomass offre des avancées majeures dans l’utilisation de trois technologies complémentaires pour fournir des informations sur les propriétés 3D des forêts :

  • la polarimétrie (exploitation de la polarisation des ondes électromagnétiques dans une image),

  • l’interférométrie polarimétrique (utilisation de la polarimétrie et de la différence de phase entre deux images)

  • et la tomographie (reconstruction 3D en utilisant plusieurs images prises depuis différents points de vue, comme dans les scanners médicaux).

Ces techniques permettent des mesures innovantes pour maximiser la sensibilité à la biomasse tout en minimisant les effets perturbateurs, par exemple la topographie, l’humidité du sol, ou les effets parasites issus de la traversée de certaines couches de l’atmosphère.

Par exemple, pendant la phase tomographique, l’orbite du système sera ajustée pour collecter plusieurs acquisitions sur les mêmes sites, avec un intervalle de répétition de trois jours. Ceci permettra une reconstruction de la structure verticale de la forêt.

En effet, les travaux effectués pendant la phase de préparation avec des radars aéroportés en bande P ont montré qu’à partir des signaux en provenance des strates forestières identifiées par tomographie, il était possible d’estimer la hauteur de la canopée, la topographie sous-jacente et la biomasse aérienne (partie de la biomasse située au-dessus du sol, par opposition à la biomasse souterraine des racines). La densité de biomasse a pu ainsi être cartographiée jusqu’à 500 tonnes de masse végétale par hectare, soit approximativement 250 tonnes de carbone par hectare. À titre d’exemple, la biomasse des parcelles de pins maritimes dans la forêt des Landes n’excède pas 150 tonnes par hectare, et celle d’une forêt boréale en Suède ne dépasse pas 250 tonnes par hectare.

Nous attendons maintenant avec impatience les premières données de Biomass, à la fin de 2025. Les scientifiques prévoient de les utiliser pour réduire les incertitudes liées aux estimations des stocks et des flux de carbone forestier, et pour améliorer les modèles de prévision de la capacité des forêts à absorber du carbone, sous l’effet du changement climatique et des pressions anthropiques.

The Conversation

Thuy Le Toan a reçu des financements de l'Agence Spatiale Européenne (ESA), du Centre National d'Etudes Spatiales (CNES) pour mener des recherches en tant que co-chercheuse principale de la mission BIOMASS

Alexandre Bouvet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.04.2025 à 16:33

Athlètes de haut niveau : prendre en compte leurs émotions pour gérer au mieux les périodes de transition

Jérôme Visioli, Maître de Conférences STAPS, Université de Bretagne occidentale

Une carrière d’athlète de haut niveau est jalonnée de périodes de transition, de la découverte de sa discipline jusqu’à sa retraite. Des évolutions qui peuvent produire des émotions complexes à gérer.
Texte intégral (2029 mots)

Une carrière d’athlète de haut niveau est jalonnée de périodes de transition, de la découverte de sa discipline jusqu’à sa retraite. Pour faciliter ces évolutions, il semble indispensable de mieux analyser toutes les émotions ressenties.


Dans les carrières sportives, les émotions jouent un rôle central. Au-delà de la joie intense associée à la réussite et au dépassement de soi, certains récits d’athlètes illustrent la fragilité psychologique qui peut émerger sous la pression constante du haut niveau. Par exemple, le footballeur Thierry Henry a révélé avoir souffert de dépression pendant sa carrière. Il s’agit d’une confession encore rare parmi les sportifs, même si d’autres témoignages marquants ont émergé dans les médias, comme ceux de la gymnaste Simone Biles ou du nageur Michael Phelps.

Les émotions sont un élément fondamental de l’expérience du sport de haut niveau, à tel point qu’elles façonnent les trajectoires des athlètes. Elles jouent un rôle particulièrement visible lors des périodes de transition. En 2022, Roger Federer met fin à sa carrière. Une photo devenue iconique le montre en larmes, main dans la main avec Rafael Nadal, tous deux submergés par l’émotion. Cette image illustre la puissance émotionnelle de ces moments charnières, même pour les figures les plus emblématiques du sport.

Pourtant, jusqu’à présent, les émotions restent souvent peu prises en compte dans l’accompagnement des sportifs de haut niveau, ce qui révèle un paradoxe et souligne la nécessité d’un changement d’approche. Les enjeux sont d’importance, tant en termes de performance que de santé.

Nos recherches s’inscrivent dans cette perspective, en cherchant à décrire, comprendre et accompagner les émotions des athlètes lors des transitions dans les carrières sportives de haut niveau.

Les émotions associées aux transitions dans les carrières sportives

Les carrières sportives de haut niveau ne sont pas linéaires, mais jalonnées de transitions qui influencent l’expérience des athlètes, leur rapport à soi, aux autres, plus globalement encore leur relation au monde.

Dans son sens général, la transition correspond au passage d’un état à un autre, d’une situation à une autre. Elle se situe à proximité des termes de changements, de mutations, de crise(s) et d’épreuves. Il est classique d’envisager six grandes étapes transitionnelles dans la carrière des athlètes : le début de la spécialisation, le passage à un entraînement intensif, l’entrée dans le haut niveau, la professionnalisation, le déclin des performances et l’arrêt de carrière.

Ces transitions, qu’elles soient normatives (prévisibles) ou non normatives (imprévues), ne sont jamais dénuées de résonance émotionnelle. Par exemple, l’entrée dans le haut niveau peut générer de l’excitation, de la fierté, tandis qu’une blessure peut susciter frustration, peur ou découragement. L’expérience de ces transitions est singulière à chaque athlète : les significations qu’ils attribuent à ces moments clés façonnent leur potentiel à surmonter les obstacles et à maintenir leur engagement. Cela nécessite de l’individu la mise en œuvre de stratégies d’adaptation plus ou moins conscientes.

Dans nos recherches, nous menons des entretiens approfondis portant sur le « cours de vie » des sportifs de haut niveau. En prenant appui sur une frise chronologique représentant les moments marquants de leur carrière, nous les accompagnons progressivement dans la mise en évidence de périodes charnières, puis dans l’explicitation de leur expérience. L’objectif est de reconstruire la dynamique de leurs émotions tout au long de leur parcours sportif, afin de mieux comprendre comment ils vivent, interprètent et traversent ces transitions.

Les émotions dans la carrière d’un pongiste de haut niveau

Nous avons réalisé une première étude avec un pongiste français de haut niveau, dont le témoignage met en lumière les émotions marquantes d’une carrière de plus de vingt ans. Après une progression rapide dans ce sport, l’intégration dans l’équipe de France constitue une source de grande fierté : « Je commence à avoir des rapports privilégiés avec le champion du monde », se souvient-il. Cette transition, de jeune espoir à membre reconnu de l’équipe suscite un optimisme débordant. Elle ouvre un large champ des possibles pour le pongiste, par exemple celui de pouvoir participer aux Jeux olympiques.

Toutefois, les transitions ne sont pas toujours vécues de manière positive. Après cette progression vers le haut niveau, le pongiste fait face à une blessure : « C’est une année pourrie à cause de ça », raconte-t-il. Plus tard dans sa carrière, après un départ à l’étranger, il vit une période de doute et de remise en question :

« Pendant trois mois, je ne gagne pas un set, et j’ai l’impression de ne plus savoir jouer. Tous les matins, je me lève pour aller m’entraîner et, dès qu’il y a un petit grain de sable, j’explose. Je ne suis plus sélectionné en équipe de France. Tu te dis, c’est fini. »

Avec l’aide d’un nouvel entraîneur, il reprend progressivement confiance, en acceptant d’abord de jouer à un niveau inférieur. Plus tard, conscient de l’élévation du niveau international, il réoriente ses ambitions :

« Je me dis que je vais essayer de vivre les belles choses qui restent à vivre, notamment des titres de champion de France. »

Le pongiste accepte de ne plus viser les compétitions internationales les plus prestigieuses, mais s’engage dans un projet plus personnel et accessible, nourrissant ainsi un épanouissement renouvelé jusqu’à la fin de sa carrière. Ces quelques extraits issus d’une étude de cas beaucoup plus large, illustrent au fur et à mesure des transitions successives l’émergence d’une passion, l’expérience du burn out, ou encore un fort potentiel de résilience.

Les émotions dans la carrière d’une planchiste de haut niveau

Nous avons réalisé une deuxième étude (en cours de publication) portant sur le parcours d’une planchiste de haut niveau en planche à voile. Après une non-qualification aux Jeux olympiques de Sidney, malgré son statut de première au classement mondial, elle vit une expérience difficile : « Tout le monde me voyait aux Jeux », confie-t-elle. Cet échec, difficile à accepter, permet une prise de conscience cruciale : sa stratégie était trop centrée sur elle-même, sans tenir compte de ses adversaires. Cela devient un moteur de sa progression : « Là, je me dis, les prochains Jeux, j’y serai. »

Quatre ans plus tard, elle remporte l’or aux JO d’Athènes, fruit d’une préparation méticuleuse. Mais cette victoire, loin de marquer la fin de son parcours, génère des questionnements sur la suite de sa carrière. L’épuisement physique et la diversification des aspirations personnelles la poussent à envisager une reconversion : « Pourquoi continuer ? », se demande-t-elle. Le changement de matériel (une nouvelle planche) est également problématique pour cette sportive. Cette période débouche sur un échec aux JO de Pékin qu’elle vit douloureusement. Mais simultanément, « c’est une véritable libération », affirme-t-elle, se rendant compte qu’elle était prête à quitter la compétition de haut niveau.

Elle choisit alors de se réinventer en devenant cadre technique, transmettant son expérience aux jeunes athlètes :

« Je veux qu’on me voie autrement, pas comme une athlète, mais comme quelqu’un qui transmet. Je vais reprendre rapidement du plaisir à accompagner les jeunes. Je vais pouvoir transmettre mon expérience, je vibre à travers les athlètes. »

Cette transition met en lumière un fort potentiel de résilience et une capacité à se réinventer en dehors de la compétition, ouvrant ainsi une nouvelle voie à l’épanouissement personnel et professionnel. Ces quelques extraits illustrent l’ambivalence des défaites et des victoires, l’alternance d’émotions positives et négatives au fur et à mesure des transitions, et un fort potentiel de résilience.

Prendre en compte les émotions pour accompagner les sportifs dans leurs transitions

Nos recherches actuelles sur les carrières sportives, principalement celles des athlètes ayant participé aux Jeux olympiques, visent à analyser les similitudes et différences en termes d’émotions dans l’expérience des transitions. Nous nous efforçons de multiplier les études de cas afin de mieux comprendre à la fois la singularité des trajectoires individuelles et les éléments de typicalité. Ces études permettent de mieux comprendre l’impact du contexte (social, culturel, institutionnel), des relations interpersonnelles (entraîneurs, coéquipiers, famille), des caractéristiques sportives (type de sport, exigences spécifiques), ainsi que des caractéristiques individuelles (sensibilité, culture) sur l’expérience des transitions.

Nos recherches offrent des points de repère précieux pour penser et ajuster l’accompagnement des athlètes. Il est intéressant de travailler en amont des transitions pour les anticiper, pendant cette période, mais aussi après. Des dispositifs reposant sur les entretiens approfondis, permettent aux sportifs de mettre en mots leurs émotions, de les partager, de donner sens à leur expérience des transitions, d’envisager des stratégies d’adaptation.

Également, lorsqu’un sportif écoute le récit d’un autre athlète, il peut identifier des situations similaires, des émotions partagées ou des stratégies communes, ce qui favorise la transférabilité de l’expérience et peut nourrit sa propre progression.

Enfin, sensibiliser les entraîneurs et les structures sportives à la dimension émotionnelle est essentiel pour favoriser l’épanouissement des athlètes à tous les stades de leur parcours. À ce titre, l’intégration de cette thématique dans les formations constitue un levier important.

D’ailleurs, cette réflexion gagnerait à être étendue à l’analyse des carrières des entraîneurs de haut niveau, eux aussi confrontés à de nombreuses transitions au cours de leur parcours. Mieux comprendre le rôle des émotions dans ces étapes charnières permettrait d’éclairer les enjeux spécifiques de leur trajectoire professionnelle, souvent marquée par l’instabilité, l’adaptation constante et des remises en question profondes.

The Conversation

Jérôme Visioli ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.04.2025 à 08:11

La Voie lactée a-t-elle perdu les trois quarts de sa masse ?

François Hammer, Astronome, membre du laboratoire LIRA, labellisé Domaine d'Intérêt Majeur ACAV+ par la Région Ile-de-France, Observatoire de Paris

François Vannucci, Professeur émérite, chercheur en physique des particules, spécialiste des neutrinos, Université Paris Cité

Pour la première fois, on constate une décroissance des vitesses orbitales en fonction de la distance au centre galactique, ce qui implique une quantité de matière sombre beaucoup plus faible.
Texte intégral (2184 mots)
De nouvelles observations éclairent notre vision de la Voie lactée. Nathan Jennings/Unsplash, CC BY

Le satellite Gaia a mesuré les positions et les vitesses d’un grand nombre d’étoiles appartenant au disque de notre galaxie. Pour la première fois, on constate une décroissance des vitesses orbitales en fonction de la distance au centre galactique dans la région du halo sombre, ce qui implique une quantité de matière sombre (aussi appelée matière noire) beaucoup plus faible que ce qui était admis jusque-là.


Notre galaxie, classiquement appelée la Voie lactée, est formée d’une multitude d’étoiles, plus de cent milliards, que notre œil ne peut pas distinguer d’où son apparence « laiteuse ». C’est une grande galaxie spirale et la majorité des étoiles, en particulier notre Soleil, se répartissent dans un disque de près de 100 000 années-lumière de diamètre. Mais il y a beaucoup plus dans la galaxie.

Tout d’abord il existe des nuages de gaz où se formeront les nouvelles étoiles ainsi que des poussières. De plus, il faut aussi ajouter la très énigmatique masse manquante ou sombre qu’on retrouve à toutes les échelles de l’Univers.

L’observation du fond diffus cosmologique (en anglais Cosmic Microwave Background, CMB) apporte des contraintes physiques sur la présence de matière sombre dans l’Univers. La collaboration Planck fit une mesure précise de ce fond, qui a été comparé à un ensemble de données pour en faire un modèle très précis. La conclusion est que seulement 5 % du contenu de l’Univers est constitué de matière ordinaire, les 95 % inconnus se répartissant entre deux composantes invisibles : 25 % sous forme de matière sombre et 70 % d’énergie sombre encore plus mystérieuse.

La matière sombre est une composante insensible à toute interaction sauf la gravitation. Elle n’émet aucun rayonnement et n’interagit avec le reste de la matière que par les effets de sa masse.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Les courbes astronomiques de rotation

Au niveau de la formation des galaxies, ce serait la masse sombre, qui n’étant affectée que par la gravitation, s’est structurée en premier dans ce qu’on appelle le halo sombre, plus ou moins sphérique, dont les dimensions dépassent de beaucoup celles de la masse visible. Cette dernière s’est accumulée par la suite dans ces halos de matière sombre.

Cette hypothèse a été confirmée, dans les années 1970, par l’astronome américaine Vera Rubin, et l’astronome franco-néerlandais Albert Bosma grâce à la mesure des courbes de rotation d’étoiles ou de gaz froid qui orbitent autour du centre. Ces courbes montrent la variation de la vitesse de rotation en fonction du rayon de l’orbite. Notons que, dans le disque, les orbites sont quasi circulaires. Un exemple typique est donné dans la figure ci-dessous.

La vitesse de rotation observée n’est pas en accord avec celle calculée en prenant en compte uniquement la matière ordinaire. Fourni par l'auteur

On y voit que les étoiles visibles se répartissent dans une région concentrée et leur vitesse de rotation décroît rapidement dès 30 000 années-lumière, en accord avec la gravitation de Newton.

C’est une vérification de la deuxième loi de Kepler : les vitesses de rotation décroissent comme l’inverse de la racine carrée de la distance au centre d’attraction. Cette loi se vérifie déjà dans le cas des planètes qui tournent de moins en moins rapidement à mesure qu’elles sont plus éloignées du Soleil. Mais si l’on examine la galaxie dans son ensemble, la masse sombre donne une composante qui s’étend bien au-delà. Les courbes de rotation semblent plates, on ne constate pas de décroissance de la vitesse jusqu’à des distances approchant 100 000 années-lumière.

Les vitesses de rotation se mesurent par l’effet Doppler qui se traduit par un décalage du rayonnement des objets examinés vers les fréquences basses (le rouge pour le spectre visible). Pour la Voie lactée, notre Soleil est à l’intérieur du disque et c’est un grand défi d’analyser des mouvements d’étoiles pour lesquels les lignes de visée sont transverses et changeantes. C’est ce qu’a su résoudre Gaia, un satellite lancé fin 2013 par l’Agence spatiale européenne (acronyme anglais, ESA).

Les données de Gaia

Gaia est un satellite astrométrique, c’est-à-dire qu’il mesure les mouvements dans le ciel de plus d’un milliard d’étoiles en les observant à diverses époques. Près de 33 millions d’étoiles ont été aussi observées en spectroscopie pour mesurer leurs vitesses radiales, c’est-à-dire leurs mouvements dans notre direction. Avec deux vitesses dans le plan du ciel et la vitesse radiale, cela donne en trois dimensions les vitesses et les positions de 1,8 million d’étoiles du disque galactique.

Connaître les mouvements dans toutes les directions apporte une mesure beaucoup plus précise de la courbe de rotation caractérisant notre galaxie.

Le résultat de Gaia est donné sur la figure ci-dessous. On y voit une décroissance qui suit la loi de Kepler, depuis le bord du disque visible à environ 50 000 années-lumière jusqu’à 80 000 années-lumière. C’est la première fois que l’on détecte un tel déclin képlérien pour une grande galaxie spirale.

Résultats obtenus par Gaia. Fourni par l'auteur

Avec ce profil mesuré, on peut déduire une masse totale de la galaxie d’environ 200 milliards de masses solaires, avec une incertitude de 10 %. La masse de la Voie lactée était auparavant estimée à 1 000 milliards de masses solaires, cinq fois plus.

Avec une masse de matière ordinaire (étoiles et gaz) de près de 60 milliards de masses solaires, le rapport masse invisible/masse ordinaire est à peine supérieure à 2, très inférieur à ce qui est connu pour les autres galaxies spirales où on trouve un rapport entre 10 et 20. Ceci est à comparer avec le rapport 5, indiqué en préambule, mesuré pour l’Univers global à l’aide du fond cosmologique.

Pourquoi notre galaxie aurait-elle une dynamique différente des autres galaxies spirales ? Les galaxies spirales ont une histoire compliquée. On a d’abord pensé qu’elles se formaient lors d’un effondrement primordial aux premières époques de l’Univers. On sait depuis les années 2010 que les galaxies actuelles n’ont pas pour origine la première structuration de la matière, mais qu’elles découlent d’une série de collisions entre galaxies plus jeunes, capables de former les grands disques spiraux observés.

La dynamique d’aujourd’hui dépend donc de l’histoire de ces collisions. Or, notre galaxie a connu une histoire relativement calme avec une grande collision il y a 9 milliards à 10 milliards d’années. Ceci explique que le disque externe, dans lequel les étoiles suivent des orbites quasi circulaires, soit à l’équilibre. Pour la grande majorité des galaxies spirales, la dernière collision est advenue beaucoup plus tardivement, il y a seulement 6 milliards d’années.

Finalement, on peut dire que non seulement la galaxie n’a pas perdu les trois quarts de sa masse, mais la nouvelle évaluation de la matière sombre présente donne un résultat qui remet en question certaines certitudes cosmologiques. La quantité locale de masse sombre s’avère très inférieure à ce qu’on trouve à d’autres échelles de l’Univers, peut-être du fait de l’histoire spéciale de notre galaxie.

Cela résonne avec un épisode du règne de Louis XIV. Il demanda à ses astronomes une nouvelle cartographie du pays à partir de données astronomiques, suivant une recette imaginée par Galilée. La méthode était beaucoup plus précise que celle fournie par les arpenteurs, mais la carte ainsi obtenue se révéla très surprenante. Elle montra un rétrécissement notable du royaume sur le flanc de la côte ouest et le roi, irrité, aurait déclaré : « Mes astronomes ont fait perdre à la France plus de territoires que tout ce qu’avaient gagné mes militaires. »

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

11 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   Fiabilité faible
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓