16.04.2025 à 10:14
Guillaume Paris, Géochimiste, chargé de recherche CNRS au Centre de recherches pétrographiques et géochimiques de Nancy, Université de Lorraine
*La Lune serait née d’un immense cataclysme : la collision entre notre planète et une autre, aujourd’hui disparue, appelée Théia. *
La Lune est là, au-dessus de nous, toujours changeante, parfois absente et pourtant toujours présente. Saviez-vous qu’elle n’a pas toujours été là ? En effet, la Terre, à sa naissance, n’était pas accompagnée de son satellite. Comment s’est-elle formée ? Qui donc, en la regardant, pourrait imaginer le cataclysme qui est à son origine ?
Pour répondre à cela, il nous faut remonter loin, très loin dans le temps, peu de temps après la formation du système solaire, qui débuta voilà environ 4,567 milliards d’années. Des poussières, des gaz et des débris de glace tournent autour du Soleil, s’accrètent, s’agglutinent, commencent à former des petits corps qui grossissent peu à peu. Entre ces planétésimaux et autres embryons planétaires, c’est la guerre. Ils tournent autour du Soleil avec des trajectoires qui peuvent se croiser les unes les autres. Ils entrent en collision, explosent, fondent sous le choc, se reforment.
C’est dans ce contexte un peu chaotique que se stabilisent les futures Vénus, Mercure, Mars… proches du Soleil. Et, bien sûr, la future Terre, que les scientifiques imaginent dépourvue de Lune à sa naissance. Peu à peu, la Terre s’approche de sa taille actuelle.
Environ 60 millions d’années après la formation du système solaire, une autre planète, probablement de la taille de Mars, croise le chemin de la Terre et la percute brutalement. Ce corps céleste a été baptisé Théia, du nom du Titan mère de Séléné, déesse de la Lune dans la mythologie grecque. Sous le choc ce cet impact géant, Théia est pulvérisée, une partie de la Terre aussi.
Instantanément, la surface de la Terre fond, probablement sur des centaines de kilomètres de profondeur, générant ainsi un nouvel océan de magma dont le refroidissement et la réorganisation chimique auraient peu à peu donné naissance au manteau terrestre, ainsi qu’aux océans et à l’atmosphère. Suite à ce cataclysme, les débris de Théia et des morceaux de la Terre auraient refroidi en se mettant en rotation autour de la Terre. Peu à peu, une partie d’entre eux se serait accrétée pour donner naissance à la Lune.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Bien sûr, on ne peut pas être sûr, et il existe différentes théories. Des scientifiques ont suggéré que la Lune aurait pu se former indépendamment avant d’être « capturée » dans l’orbite de la Terre, ou bien s’accréter en même temps que la Terre. D’autres ont proposé que la Lune se serait « arrachée » d’une jeune Terre qui tournait trop vite sur elle-même. Mais ces deux hypothèses n’arrivent pas à expliquer un certain nombre d’aspects que nous connaissons des compositions de la Terre et de la Lune, comme le fait que cette dernière est plus pauvre en fer, ou encore l’orbite et les paramètres de rotation de la Terre et son satellite. À l’inverse, la théorie de l’impact géant permet d’expliquer la pauvreté en eau de la Lune par rapport à la Terre, même si elle est sans doute moins sèche que ce que les scientifiques ont longtemps pensé. Enfin, cette théorie permet aussi d’expliquer pourquoi la Lune s’éloigne peu à peu de la Terre de 3,8 centimètres par an.
Ainsi, initialement proposée en 1946, la théorie s’est imposée dans les années 1970, notamment suite au retour d’échantillons lunaires de la mission Apollo 11. Depuis, l’hypothèse de l’impact géant est celle qui fait le plus consensus, même si certaines observations résistent encore à cette théorie. Quel sera le mot de la fin ? Pour le moment, Lune ne le sait !
Guillaume Paris a reçu des financements de CNRS Terre et Univers et de l'ANR.
16.04.2025 à 10:13
Didier Massonnet, Chef de projet Pharao, Centre national d’études spatiales (CNES)
Martin Boutelier, Centre national d’études spatiales (CNES)
Soixante-dix ans après la mort d’Albert Einstein, les scientifiques travaillent toujours activement à vérifier les prédictions de la relativité générale, toujours aussi puissante, et toujours en conflit avec la mécanique quantique.
La mission spatiale Pharao, qui doit décoller le 21 avril 2025, fait partie de ces efforts. Son horloge atomique va mesurer le temps très précisément, pour comparer comment il s’écoule à la surface de la Terre et à l’altitude de la station spatial internationale.
Soixante-dix ans après la disparition d’Albert Einstein, sa théorie de la relativité générale est l’un des deux piliers fondamentaux sur lequel s’appuie la science pour expliquer l’Univers. Les succès de cette théorie sont nombreux et elle a été largement vérifiée, en particulier appliquée à l’infiniment grand.
Son grand défaut ? Elle n’est pas compatible en l’état avec l’autre pilier fondamental sur lequel s’appuie la physique, la théorie quantique des champs, autrement appelée mécanique quantique. Alors, comment réconcilier ces deux théories ? Quelles modifications faut-il faire pour les rendre compatibles ? Y a-t-il une nouvelle physique encore inconnue qui pourrait surgir de cette incompatibilité ?
Pour progresser sur ces questions, il est essentiel de vérifier les deux théories actuelles à des niveaux toujours plus précis, afin d’identifier d’éventuelles déviations qui pourraient conduire à les retoucher à la marge, avec l’espoir que ces retouches ouvrent la voie vers une compatibilité entre elles, voire vers une théorie englobant les deux.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Une telle expérience de vérification sera lancée vers la station spatiale internationale (ISS) le 21 avril prochain. Cette expérience, appelée ACES (Atomic Clock Ensemble in Space), est conduite sous l’égide de l’ESA, l’agence spatiale européenne. L’élément principal est une horloge atomique d’une précision exceptionnelle, appelée Pharao et développée par l’agence spatiale française, le CNES.
L’objectif est de mesurer avec une précision inégalée une prédiction étrange de la relativité générale : la masse d’un objet modifie l’écoulement du temps dans son entourage. Plus vous êtes proche de cette masse ou plus la masse est grande, plus le temps s’écoule lentement. Cette prédiction atteint son paroxysme à la limite des trous noirs, où le temps… s’arrête !
Pour notre petite Terre, cet effet est moins spectaculaire : à 400 kilomètres d’altitude, soit l’altitude de l’ISS, un astronaute vieillit plus vite que son jumeau resté sur Terre d’une seconde tous les 300 ans. À l’altitude des systèmes de positionnement par satellite (Galileo, GPS, Beidou et Glonass volent à plus de 20 000 kilomètres d’altitude), cet effet est plus important. S’il n’était pas corrigé, la précision de positionnement de ces systèmes serait dégradée.
L’objectif de Pharao est de mesurer ce ralentissement très faible avec une précision inégalée. Pour ce faire, il faut que notre horloge ne se trompe pas de plus d’une seconde en 300 millions d’années, soit une dérive de deux dixièmes de seconde depuis la disparition des dinosaures ; ou de façon équivalente, de moins d’une minute depuis le Big Bang, le début du temps ! Traduit en termes de distances, cela reviendrait à mesurer une année-lumière au mètre près…
Pour pouvoir vérifier que Pharao bat le temps moins vite dans l’espace que sur Terre, il faut pouvoir la comparer de façon très précise à des horloges restées au sol. Pour cela, elle est accompagnée de deux systèmes chargés de cette comparaison : un lien microonde qui permet de communiquer le temps au sol lorsque l’ISS survole un laboratoire métrologique abritant une horloge atomique, ainsi qu’un lien laser permettant de définir des « tops » de synchronisation entre le sol et l’espace.
L’horloge Pharao est une horloge très exacte mais également très complexe et qui a besoin de temps pour obtenir sa précision ultime. Pour remplir cette mission, elle est épaulée par deux autres horloges, moins exactes mais permettant d’initier et de garder le temps. D’une part, un oscillateur à quartz ultra stable est intégré à Pharao et permet d’initialiser grossièrement son heure, lui permettant d’interroger les atomes avec une fréquence déjà proche de leur fréquence de référence.
D’autre part, un maser utilisant l’atome d’hydrogène (une horloge atomique d’un autre type), maintient la référence de temps pendant les phases de réglage. L’effet de ces réglages peut alors être mesuré par rapport à cette référence.
Pharao volera accrochée à l’extérieur de l’ISS, sur un balcon du module européen Colombus. Même si les années de l’ISS sont désormais comptées avec une mise hors service suivie d’une désorbitation envisagées pour 2030, Pharao aura largement le temps de remplir ses objectifs.
Installer cette horloge à bord de l’ISS présente des avantages et des inconvénients : parmi les avantages, on trouve des occasions de transports fréquents, des niveaux de radiation modérés, des services de commandes et de communication éprouvés ainsi que des moyens de positionnement, d’attitude, de chauffage/refroidissement et d’alimentation électrique.
Parmi les inconvénients, on trouve le fait que l’ISS vole au final assez bas… si Aces avait été placée sur une orbite géostationnaire (à 36 000 kilomètres de la surface de la Terre), l’effet de relativité générale serait douze fois plus marqué, améliorant d’autant la précision obtenue avec la même horloge. Par ailleurs, la proximité des astronautes peut perturber l’expérience, en particulier à cause des vibrations de leurs machines d’entraînement musculaire.
Depuis leur invention dans les années 1950, les horloges atomiques ont connu un rythme d’amélioration comparable à celui des systèmes électroniques (la fameuse « loi de Moore »).
Leur principe est de se caler sur une des nombreuses fréquences propres à un atome et qui reflètent son état d’excitation, un signal universel. Selon l’énergie de la vibration choisie, l’horloge peut être dans le domaine radio (10 giga Hertz), optique (visible et infrarouge), voire « nucléaire » (ultra-violet lointain).
Les fréquences plus basses des horloges radio sont les plus faciles à maîtriser et la définition officielle de la seconde (1967) est basée sur une vibration des électrons de l’atome de césium dans le domaine radio. Depuis quelques années, des horloges dans le domaine optique, plus performantes, sont apparues et sont disponibles au sol. Leur complexité les rend encore difficiles à envoyer dans l’espace. Enfin, des résultats prometteurs ont été obtenus en interrogeant des vibrations du noyau d’un atome, préfigurant peut-être des « horloges nucléaires » encore plus performantes.
L’horloge Pharao est quant à elle basée sur une amélioration décisive des horloges radio, obtenue par l’utilisation d’atomes refroidis par laser. Cette technique de refroidissement par laser a notamment valu le prix Nobel au physicien français Claude Cohen-Tannoudji en 1997. Les atomes ainsi refroidis à un millionième de degré absolu ont des vitesses résiduelles très faibles. Couplé à un environnement de microgravité, on obtient des durées d’auscultation importantes, paramètre clé de la performance des horloges. Les horloges au sol qui mettent en œuvre ce principe sont appelées « fontaines atomiques ».
Afin de préserver les atomes froids de toute interaction avec d’autres atomes, un vide très poussé, dit « ultravide » doit régner au centre de l’horloge Pharao. Ce vide est 1000 fois meilleur que l’environnement spatial autour de l’ISS. Seuls des métaux ou des verres peuvent être utilisés pour les éléments de la cavité et les joints qui les lient entre eux, tout autre matériau comme du caoutchouc ou des plastiques s’évapore dans le vide (phénomène de dégazage) rendant impossible l’obtention d’un ultravide. La conception de la cavité ultravide a donc été particulièrement complexe, notamment à cause des joints entre hublots de silice et pièces en titane (deux matériaux dont le contact étanche est difficile) ou encore la tenue à l’étanchéité des joints en acier.
En mesurant l’effet de la gravitation sur l’écoulement du temps, Pharao est capable de détecter d’infimes variations du potentiel gravitationnel équivalent à un changement d’altitude de 1 mètre. Les dernières horloges optiques au sol, encore plus précises, peuvent détecter un changement dans le potentiel gravitationnel équivalent à une variation d’un centimètre.
À ce niveau de précision, de tels changements peuvent être liés non seulement à des variations d’altitude de l’horloge, mais aussi à des variations dans la répartition des masses à la surface et à l’intérieur de la Terre : mouvement des nappes phréatiques, mouvements internes de la Terre, mouvement des masses d’air… C’est le domaine de la « géodésie chronométrique ».
Gageons que, dans un avenir pas si lointain, des horloges encore plus performantes que Pharao, connectées et comparées à une horloge de référence placée dans l’espace, pourraient bien mesurer à peu près tout… sauf le temps !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.04.2025 à 10:13
Antonio Monari, Professeur en Chimie Théorique, Université Paris Cité
Florent Barbault, Maitre de conférences en modélisation moléculaire, Université Paris Cité
Isabelle Broutin, Directrice de recherche CNRS, Université Paris Cité
Les antibiotiques sauvent de nombreuses vies mais les bactéries qu’ils combattent deviennent résistantes. Cette antibiorésistance provoque de nombreux décès prématurés, et le problème devrait s’aggraver dans les prochaines années et décennies.
Pour mieux le contrer, biochimistes et pharmaciens décryptent les mécanismes qui mènent à l’antibiorésistance. Comment les bactéries repoussent-elles les antibiotiques, évitent leurs effets, ou les détruisent ? Cette compréhension doit permettre de mettre au point des thérapies combinant antibiotiques et autres médicaments qui limiteraient la capacité des bactéries à contrer l’effet des antibiotiques.
Les bactéries sont des organismes constitués d’une unique cellule largement présents dans des habitats variés et parfois extrêmes. Elles sont présentes, sous le nom de microbiotes, sur notre corps ou à l’intérieur, et favorisent des phénomènes essentiels tels que la digestion. Mais les bactéries sont aussi des agents pathogènes à l’origine d’épidémies majeures comme la peste provoquée par la bactérie Yersinia pestis, et le choléra dû à l’espèce Vibrio choleræ.
De ce fait, la découverte des antibiotiques — des molécules qui tuent les bactéries ou bloquent leur croissance — a marqué un tournant décisif dans l’histoire de la médecine, à commencer par la découverte de la pénicilline en 1929. En effet, l’utilisation de ces molécules a permis d’éradiquer de nombreuses maladies infectieuses et d’améliorer grandement l’espérance de vie ainsi que les conditions de santé dans nos sociétés modernes.
Cependant, les antibiotiques, longtemps considérés comme des remèdes miracles et souvent utilisés abusivement en clinique et dans le secteur agroalimentaire, voient aujourd’hui leur efficacité compromise par le développement de souches bactériennes qui leur sont résistantes.
En effet, l’utilisation d’antibiotiques induit une « pression évolutive » sur les bactéries : les bactéries présentant des mutations génétiques leur permettant de résister aux antibiotiques survivent et se reproduisent davantage que les bactéries non résistantes.
À terme, cela favorise les populations bactériennes résistantes aux antibiotiques. L’émergence de souches présentant une résistance multiple aux antibiotiques, c’est-à-dire qui sont résistantes à plusieurs types d’antibiotiques à la fois, par exemple à la pénicilline et à l’amoxicilline, est un problème majeur selon l’Organisation mondiale de la santé. Ainsi certaines estimations considèrent que la résistance aux antibiotiques pourrait causer près de 40 millions de décès d’ici 2050.
On ne peut guère s’attendre à de nouveaux antibiotiques, le dernier ayant été introduit sur le marché il y a environ quanrante ans (la ciprofloxacine, en 1987).
En revanche, aujourd’hui, pour mettre au point de nouvelles stratégies thérapeutiques, il est essentiel d’élucider les processus cellulaires et moléculaires qui permettent aux bactéries de développer leur résistance aux antibiotiques.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Différentes stratégies de résistance aux antibiotiques existent — elles font intervenir différents niveaux de régulation.
Parmi ces mécanismes, on trouve la « dormance », un état dans lequel l’ensemble des bactéries réduisent leur activité cellulaire pour survivre à des conditions défavorables, comme la présence d’antibiotiques. Une fois l’administration d’antibiotiques terminée, les conditions environnementales redeviennent favorables, permettant aux bactéries de reprendre leur activité normale et notamment leur croissance et multiplication. Ce mécanisme de résistance complique en particulier le traitement des infections chroniques, car des bactéries peuvent se réactiver après la suspension de la thérapie antibiotique, entraînant des rechutes.
Un autre mécanisme de résistance lié aux populations bactériennes est la formation de « biofilms ». En effet, si les bactéries semblent être des organismes simples, elles sont capables de former des colonies pour maximiser leurs chances de survie. Ainsi, en présence d’une surface qui agit comme support, par exemple un cathéter ou une prothèse, les bactéries s’attachent les unes aux autres pour former une communauté organisée : le film de bactéries crée une barrière physique qui réduit l’efficacité des antibiotiques, car ces derniers ne peuvent pas pénétrer à l’intérieur du film et donc dans les bactéries, rendant le traitement plus complexe.
Ce phénomène est particulièrement fréquent dans le cas des infections nosocomiales, qui concernent désormais environ 6 % des personnes séjournant à l’hôpital et qui représentent une menace grave pour les personnes dont le système immunitaire est affaibli. Pour contrer la formation de biofilms, des thérapies combinées, des doses élevées, voire le retrait des dispositifs infectés, sont nécessaires.
À lire aussi : Résistances aux antibiotiques : comment nous pouvons tous agir
À lire aussi : Antibiotiques et antibiorésistance : une situation qui varie selon l’endroit où l’on est
Au niveau d’une bactérie isolée, les mécanismes de mise en place de l’antibiorésistance ont lieu quand des mutations génétiques apparaissant par hasard au cours de la vie d’une bactérie lui permettent de résister à l’action d’un antibiotique. La bactérie résistante peut transmettre la mutation à sa descendance ; et ce phénomène est amplifié dans les biofilms bactériens, car ceux-ci favorisent l’échange de matériel génétique entre les cellules.
Des mutations génétiques ponctuelles peuvent par exemple altérer la structure et le fonctionnement des protéines ciblées par les antibiotiques, rendant ces derniers inefficaces. À l’inverse, la bactérie peut utiliser la stratégie dite d’« évitement métabolique » en utilisant d’autres protéines, ou des voies métaboliques alternatives, pour contourner l’effet d’un antibiotique. On peut comparer cela à une autoroute bloquée (c’est l’antibiotique qui tente d’empêcher la bactérie de vivre sa vie), où l’évitement métabolique reviendrait à emprunter une déviation pour atteindre sa destination malgré le blocage.
Par ailleurs, certaines bactéries, suite à une mutation génétique, produisent des protéines spécifiques capables de dégrader ou d’inactiver les antibiotiques, les rendant donc inefficaces. C’est le cas par exemple des bêta-lactamases, qui détruisent les antibiotiques de la famille des pénicillines.
Les autres mécanismes de résistance aux antibiotiques se situent au niveau de la membrane qui entoure la cellule bactérienne. Cette membrane, constituée d’une double couche de lipides imperméables, protège la cellule.
Les membranes des bactéries sont parsemées de nombreuses protéines qui exercent des rôles différents : elles peuvent favoriser l’adhésion des bactéries aux surfaces ou aux autres cellules, elles peuvent permettre de décoder des signaux, et pour finir elles peuvent favoriser les passages des différentes molécules, par exemple des nutriments.
La résistance aux antibiotiques au niveau de la membrane est donc particulièrement efficace car elle permet de contrer la thérapie antibiotique dès son point d’entrée.
Ainsi, certaines bactéries limitent l’entrée des antibiotiques en réduisant la production des porines, c’est-à-dire des protéines qui forment des canaux traversant la membrane cellulaire et, donc, permettant le passage des molécules externes, dont les antibiotiques.
Un autre mécanisme fascinant de résistance bactérienne consiste en l’utilisation de protéines complexes appelées « pompes à efflux ». Ces structures sont constituées de plusieurs protéines et se situent dans les membranes bactériennes. Elles expulsent activement les antibiotiques qui auraient pénétré la cellule, empêchant ainsi leur accumulation.
Les pompes à efflux sont une machinerie complexe oscillant entre une structure ouverte et une structure fermée, pour éviter d’introduire des canaux de communication permanents entre la bactérie et l’extérieur. Elles doivent également être sélectives, pour éviter l’éjection de composés nécessaires à la survie de la bactérie.
Dans le cas de bactéries dites « Gram négatives », qui possèdent deux membranes séparées par un sas appelé « périplasme », les pompes à efflux doivent traverser les deux membranes et le périplasme pour permettre l’éjection complète des antibiotiques.
Déterminer la structure des pompes à efflux et comprendre leurs mécanismes de fonctionnement est fondamental pour permettre de développer des médicaments capables de les bloquer, et ainsi de restaurer une sensibilité aux antibiotiques dans les souches bactériennes résistantes.
Des techniques de biophysique et de chimie physique, notamment la cryomicroscopie électronique et la modélisation moléculaire, permettent d’accomplir cette tâche et d’accéder à la structure des pompes à efflux avec une résolution à l’échelle des atomes.
Plusieurs structures de pompes à efflux issues de différentes bactéries Gram négatives ont pu être résolues grâce à cette technique, telles que le complexe AcrAB-TolC d’Escherichia coli, ou MexAB-OprM de Pseudomonas aeruginosa, deux bactéries classées comme préoccupantes par l’Organisation mondiale de la santé.
Nous avons étudié davantage la pompe à efflux MexAB-OprM, afin de mettre en évidence le mécanisme d’expulsion sélective des antibiotiques.
Cette pompe est formée de trois protéines : l’une, composée de trois unités, joue le rôle de moteur de la pompe, la seconde de conduit étanche, tandis que la troisième fait un trou dans la membrane externe pour l’éjection finale des molécules à expulser, selon un mécanisme sophistiqué.
La première unité du moteur présente une cavité dans laquelle l’antibiotique peut entrer. Dans la seconde unité, cette cavité commence à se refermer pour pousser l’antibiotique vers l’intérieur de la pompe, dans une deuxième cavité. Enfin, les deux cavités se referment et un canal s’ouvre au niveau de la troisième unité, permettant l’acheminement dans le tunnel formé par les deux autres protéines, vers l’extérieur de la cellule. Cette pompe n’est donc pas qu’un simple « gros tuyau » : elle réalise un transport actif de l’antibiotique et est capable d’effectuer une sélection des molécules à expulser.
Grâce à ce type d’études, notre but est de comprendre finement les mécanismes de fonctionnement de cette pompe à efflux et de proposer des molécules qui seraient capables d’interagir avec les protéines pour bloquer son action. Par exemple, nous étudions la possibilité de développer des molécules qui pourraient interagir avec les cavités plus favorablement que les antibiotiques, pour bloquer au moins une des trois unités, et donc immobiliser la pompe. Une autre possibilité serait d’empêcher la formation du canal étanche liant les deux protéines insérées dans les membranes en enjambant le périplasme. Ces avancés pourraient permettre de développer une thérapie combinée qui pourrait rendre les bactéries Gram négatives à nouveau sensibles aux antibiotiques et donc contrer efficacement les infections nosocomiales.
Nous croyons que la lutte contre la résistance bactérienne, qui sera un enjeu fondamental de santé publique dans les années à venir, passe par l’utilisation intelligente des méthodes de chimie physique et de biologie structurale pour permettre de comprendre des mécanismes biologiques complexes, tels que la résistance aux antibiotiques ou l’échappement immunitaire, et d’y répondre efficacement.
Entre-temps, il est aussi primordial de favoriser une utilisation propre et contrôlée des antibiotiques, notamment en évitant leur surutilisation ou l’automédication, pour limiter l’émergence de souches résistantes qui pourraient être à l’origine d’épisodes épidémiques difficiles à contrer.
Antonio Monari a reçu des financements d'organisation publiques ANR, MESR etc..
Florent Barbault a reçu des financements de diverses organisations publiques (ANR, idex...)
Isabelle Broutin est membre de la société Française de Microbiologie (SFM), de la Société Française de Biophysique (SFB), et de la Société Française de Biochimie et biologie Moléculaires (SFBBM). Elle a reçu des financements de diverses organisations publiques (ANR, Idex-UPC, Vaincre la mucoviscidose...).
16.04.2025 à 10:11
Françoise Combes, Astrophysicienne à l'Observatoire de Paris - PSL, Sorbonne Université
Françoise Combes est astrophysicienne à l’Observatoire de Paris, professeure au Collège de France et présidente de l’Académie des sciences. En 2020, elle reçoit la médaille d’or du CNRS pour récompenser une carrière consacrée à l’étude de la dynamique des galaxies.
Avec Benoît Tonson et Elsa Couderc, chefs de rubrique Science à The Conversation France, la chercheuse lève le voile sur l’un des grands mystères de l’Univers : la matière noire. De la découverte d’une « masse manquante », en passant par l’hypothèse de la gravité modifiée, jusqu’aux grands projets internationaux de télescopes qui pourraient aider les scientifiques à caractériser cette matière imperceptible. Elle analyse également la situation actuelle des sciences aux États-Unis et dans le monde après l’électrochoc de l’élection de Donald Trump.
The Conversation : Vous vous intéressez à la matière noire, qu’est-ce que c’est ?
Françoise Combes : La matière noire, c’est de la matière invisible, parce qu’elle n’interagit pas avec la lumière : elle n’absorbe pas et n’émet pas de lumière, c’est pour cela qu’elle est appelée « noire ». Mais dans la pièce où nous sommes, il y en a peut-être et on ne la voit pas. En réalité, cette matière n’est pas noire, mais transparente. Ce problème nous questionne depuis des dizaines d’années.
D’où vient le concept de matière noire ? Les astrophysiciens ont observé un manque de masse pour pouvoir expliquer la dynamique des objets astronomiques, comme les galaxies, dont les étoiles et le gaz tournent autour de leur centre. Cette vitesse de rotation est très grande et la force centrifuge devrait faire éclater ces objets, s’il n’y avait pas de la masse pour les retenir. C’est aussi vrai pour les amas de galaxies. La conclusion inévitable est qu’il manque beaucoup de masse. Cette « masse manquante » est nécessaire pour faire coller la théorie et les calculs avec les observations.
À l’origine, les chercheurs pensaient que c’était de la masse ordinaire : c’est-à-dire des protons et des neutrons – la matière dont nous sommes faits, en somme. Mais ils se sont aperçus en 1985 que cette masse manquante ne pouvait pas être faite de matière ordinaire.
Prenons la nucléosynthèse primordiale, qui se déroule dans le premier quart d’heure de l’histoire de l’Univers où l’hélium et le deutérium se forment. S’il y avait suffisamment de matière ordinaire pour expliquer les observations sur la vitesse de rotation des galaxies, on ne mesurerait pas du tout la quantité d’hélium que l’on observe actuellement dans le Soleil, par exemple. On mesurerait beaucoup plus d’hélium et de lithium. Il a donc été établi, dans les années 1990, que seulement 5 % du contenu de l’Univers est fait de matière ordinaire !
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
T. C. : Donc, si cette « masse manquante » est invisible, elle doit être faite d’autre chose…
F. C. : Oui, et une confirmation de ce fait est venue avec la détection des fluctuations primordiales du fond diffus cosmologique, vestige du Big Bang. Ces fluctuations sont détectées au tout début de l’histoire de l’Univers, environ 380 000 ans après le Big Bang. Il s’agit de toutes petites fluctuations de la lumière dans le domaine des microondes. À cette époque, la matière ordinaire interagit avec la lumière et cette interaction, par la pression de radiation, empêche la condensation en structures, celles qui vont former les galaxies notamment. S’il n’y avait eu, à cette époque, que de la matière ordinaire, il n’y aurait pas aujourd’hui de galaxies, ni même une seule étoile.
Les chercheurs ont donc compris, entre 1985 et 1990, qu’il fallait supposer l’existence d’une matière qui n’interagisse pas avec la lumière : ainsi, elle ne subit pas la pression de radiation et peut alors s’effondrer sous l’effet de sa propre gravité. C’est la « matière noire » qui va permettre de créer des « galaxies noires », sans matière visible à ce moment-là. Ensuite, 380 000 ans après le Big Bang, la matière va se refroidir en dessous de 3 000 °K. À cette température, les protons et les électrons se recombinent et forment l’hydrogène qui interagit beaucoup moins avec la lumière que les particules chargées. À ce moment, la matière ordinaire peut, si je puis dire, tomber dans les galaxies noires déjà établies et former des étoiles et les galaxies visibles.
T. C. : Cette terminologie de « matière noire » ne semble pas vous convenir…
F. C. : En effet, cela donne l’impression qu’il y aurait quelque chose de noir qui nous empêcherait de voir derrière. Mais ce n’est pas noir, c’est transparent. On devrait plutôt parler de « masse manquante », mais bon, tout le monde utilise ce terme, il faut faire avec !
T. C. : Au fur et à mesure des études sur la matière noire, des candidats ont été imaginés par les physiciens, puis beaucoup ont été écartés…
F. C. : Oui, depuis 1985, beaucoup de pistes ont été éliminées. Il faut en éliminer, sinon il n’est pas possible d’approfondir les bonnes pistes. C’est un peu comme un enquêteur qui a une dizaine de pistes, il ne peut pas toutes les étudier : ça le ralentirait énormément.
Prenons, d’abord, les Wimp parce qu’ils ont été un candidat privilégié pendant de nombreuses années. Wimp signifie Weakly Interacting Massive Particles (en français, particules massives interagissant faiblement). Il existe quatre interactions en physique : l’électromagnétisme, la gravité, puis les deux forces nucléaires forte et faible. L’idée est que s’il existe une interaction entre les particules de matière noire, cela ne peut être qu’une interaction faible. Le Wimp est une particule sans charge, et elle est sa propre antiparticule. Ces particules vont s’annihiler progressivement, par cette interaction faible, jusqu’au moment où l’expansion de l’Univers aura tellement diminué leur densité qu’elles ne pourront plus se rencontrer. Leur abondance sera alors gelée à une valeur « relique ».
Il faut savoir que la matière noire constitue 25 % de notre Univers. Pour que la densité « relique » réponde à cette proportion, il a été calculé que la masse d’un Wimp devait être d’à peu près 100 fois la masse du proton. Ces particules ont été recherchées, et cette recherche de détection directe continue aujourd’hui par des expériences dans le tunnel du Gran Sasso en Italie, par exemple : les particules de matière noire incidentes pourraient entrer en collision avec les noyaux du détecteur, et les faire reculer. Mais aucune collision n’a été détectée !
Une autre approche pourrait être de créer ce Wimp dans un accélérateur de particules, comme au Cern (Large Hadron Collider, LHC). La collision entre deux protons, lancés à des vitesses proches de celle de la lumière, libère énormément d’énergie. Cela crée les conditions d’un mini Big Bang. Avec ce type d’énergie, il est possible de créer une particule de 100 fois la masse du proton. Mais aucune particule exotique n’a été détectée… C’est ce qui a fait tomber ce candidat qui était privilégié depuis trente ans. Ceci a été réalisé vers 2015.
T. C. : C’était donc la fin de l’aventure du Wimp, quelles pistes sont encore ouvertes ?
F. C. : La communauté a également beaucoup travaillé sur la piste du neutrino stérile. C’est une particule inventée de toute pièce. Il faut savoir qu’il existe trois types de neutrinos, qui sont de chiralité gauche, et les physiciens ont imaginé trois neutrinos miroirs, qui ont une chiralité droite (une particule chirale est non superposable à son image dans un miroir, elle a une « latéralité », comme une chaussure droite vis-à-vis de la gauche). Cette théorie rencontre des problèmes : d’une part, des contraintes astrophysiques sur la formation des structures, qui leur affectent une masse trop grande. D’autre part, si le nombre de neutrinos est plus grand que trois, cela devrait accélérer l’expansion au début de l’Univers, au-delà de ce qui est observé dans le fond cosmologique par le satellite Planck. Enfin, des expériences de détection des neutrinos stériles au Fermilab (États-Unis) n’ont donné aucun résultat.
Actuellement, le candidat qui monte est l’axion. Beaucoup de simulations cosmologiques ont été effectuées avec cette particule pour tester ses capacités à reproduire les observations. Là aussi, il s’agit d’une particule hypothétique qui aurait une masse extrêmement faible. Avec un champ magnétique très fort, elle pourrait se changer en photon, mais, là encore, rien n’a été détecté. Même près des étoiles à neutrons, qui bénéficient de champs magnétiques extrêmes.
T. C. : Mais si on n’arrive pas à détecter cette matière noire, peut-être faut-il en conclure qu’elle n’existe pas ?
F. C. : C’est possible, cette idée a déjà été proposée en 1983, mais, dans ce cas de figure, il faut alors valider l’idée qu’il existe une gravité modifiée. C’est-à-dire changer la loi de gravité en champ faible.
Dans le système solaire, le champ est très fort : la gravité de notre étoile, le Soleil, suffit à maintenir tout le système en régime de champ fort. La force de gravité décroît comme le carré de la distance. Il faut s’éloigner très loin du Soleil pour que son champ de gravité devienne assez faible, au-delà du nuage d’Oort, qui est un ensemble de petits corps, d’où viennent les comètes, entre 20 000 et 30 000 unités astronomiques (cette unité est la distance Terre-Soleil, soit environ 150 millions de kilomètres). De même, dans notre galaxie, la Voie lactée, l’ensemble des étoiles au centre a une densité telle, que le champ de gravité combiné est très fort. Il n’y a pas de masse manquante, il n’est pas nécessaire de supposer l’existence de matière noire ou de gravité modifiée ; la physique newtonienne classique permet d’expliquer l’équilibre au centre, mais pas au bord. C’est sur les bords de notre galaxie qu’il manque de la masse.
Notre équipe a effectué des simulations avec cette gravité modifiée, pour la confronter aux observations. Avec Olivier Tiret, nous avons pu reproduire les premières interactions entre galaxies avec le champ de gravité modifiée et nous avons montré que le scénario marchait très bien.
Pour résumer, soit la loi de la gravité est supposée être toujours la même en champ faible, et il faut alors ajouter de la matière noire, soit il n’y a pas de matière noire et il faut supposer que la loi de la gravité est modifiée en champ faible. Car le problème de la masse manquante ne survient que dans les cas de champ faible. En champ fort, il n’y a jamais de problème de matière noire.
T. C. : Et parmi toutes ces hypothèses, quelle est celle qui a le plus de valeur à vos yeux ?
F. C. : Eh bien ! Je n’en sais rien du tout ! Parce que cette gravité modifiée, qui est étudiée par certains astronomes depuis quarante ans, est encore assez empirique. Il n’y a pas de théorie encore bien établie. De plus, si elle explique très bien la dynamique de toutes les galaxies, elle ne reproduit pas bien les amas de galaxies.
La solution est de rajouter soit un petit peu de neutrinos, soit même de la matière ordinaire qui manque. Parce qu’en fait, ce que l’on oublie généralement de dire, c’est que toute la matière ordinaire de l’Univers n’a pas été identifiée. La matière qui correspond aux galaxies, aux étoiles au gaz chaud dans les amas de galaxies, ne correspond qu’à 10 % de la matière ordinaire. On peut déduire des absorptions de l’hydrogène dans les filaments cosmiques qu’il pourrait y en avoir une quantité importante, mais au moins la moitié de la matière ordinaire n’est toujours pas localisée.
Donc, il y a beaucoup de protons et de neutrons manquants. Il suffirait d’en mettre une petite pincée dans les amas de galaxies pour résoudre notre problème de gravité modifiée. En résumé, la matière ordinaire manquante n’est pas encore localisée. Elle ne peut pas être toute dans les galaxies, il y en a peut-être dans les amas de galaxies, mais surtout dans les filaments cosmiques.
En 2015, quand l’hypothèse du Wimp est tombée, ce fut un choc pour la communauté. Et il ne faut pas penser que celle-ci est homogène, certains ont été convaincus tout de suite, mais, chez d’autres, cela a pris plus de temps et certains ne sont toujours pas convaincus. Notamment ceux qui ont travaillé sur le Wimp pendant toute leur carrière. Mais, à chaque fois, le scénario est identique lorsqu’il y a une découverte qui bouscule tout. Il y avait par exemple des astronomes détracteurs de l’existence du Big Bang. L’opposition s’est éteinte lorsqu’ils sont partis en retraite.
En ce qui concerne la gravité modifiée, les progrès sont indéniables. Le problème du début de l’Univers, des galaxies primordiales et des fluctuations est en passe d’être résolu. Par contre, dans les amas, ce n’est toujours pas le cas. La recherche est toujours en cours. Aussi bien dans la théorie de la matière noire que dans celle de la gravité modifiée, il y a des problèmes des deux côtés. Lorsque tous les problèmes seront résolus, une piste ressortira. Mais, pour l’instant, il faut rester attentif et agnostique, en travaillant sur les deux en attendant de savoir de quoi le futur sera fait.
T. C. : Justement, parlons du futur, il y a de nouveaux projets de télescopes, est-ce que cela pourrait vous aider ?
F. C. : Oui, je peux d’abord vous parler du télescope spatial Euclid, qui va décupler les détections de lentilles gravitationnelles, permettant de dresser des cartographies de matière noire. Le télescope va observer presque tout le ciel, et notamment les galaxies de fond, lointaines. Leurs rayons lumineux sont déviés par la matière qu’il y a entre elles et nous. Ce sont ces déformations qui nous renseignent sur la quantité de matière noire. Les images des galaxies de fond sont déformées de manière faible. Cela ressemble à un cisaillement qui permet de déduire statistiquement les cartes de la matière invisible.
Comme chaque galaxie a sa propre forme, il faut observer un très grand nombre de galaxies, ce qui sera possible avec Euclid. On aura 12 milliards d’objets à des profondeurs différentes.
Par ailleurs, et toujours avec ce télescope, il sera possible d’observer les oscillations acoustiques baryoniques, des ondes sonores qui se sont propagées au tout début de l’Univers et qui ont laissé des empreintes dans les structures à grande échelle. Ces structures ont une taille caractéristique, correspondant au chemin parcouru par le son depuis le Big Bang. Lorsque la matière est devenue neutre et s’est découplée de la lumière, 380 000 ans après le Big Bang, la taille de ces structures est restée gelée, et n’augmente qu’avec l’expansion de l’Univers. Il suffit de mesurer cette taille caractéristique à diverses époques pour en déduire la loi de l’expansion de l’Univers. Celle-ci est en accélération aujourd’hui, mais sa loi d’évolution dans le passé n’est pas encore connue. Tous ces résultats seront obtenus vers 2030.
T. C. : Et le télescope James-Webb ?
F. C. : Le JWST nous a montré qu’il y avait beaucoup de galaxies primordiales massives. Il peut observer dans l’infrarouge et donc peut détecter de la lumière provenant de très loin. Ces galaxies se sont formées bien plus tôt que ce que l’on pensait. En plus, en leur centre se trouvent des trous noirs très massifs. Ceci est une surprise, car le scénario de formation attendu était un scénario très progressif. De petits trous noirs se formaient aux premières époques, qui fusionnaient pour former des trous noirs très massifs aujourd’hui ; le scénario est à revoir !
T. C. : Il y a également le projet SKA…
F. C. : Oui, ici l’observation va capter des ondes radio. SKA signifie Square Kilometre Array (un kilomètre carré de surface, en français) ; il est fait d’une multitude d’antennes en Afrique du Sud et en Australie. Ce sont les moyennes fréquences en Afrique du Sud et les basses fréquences en Australie. Comme Euclid, SKA va regarder tout le ciel, mais, puisque ce sont des longueurs d’onde très différentes, ce sont d’autres populations de galaxies qui seront observées. Il sera possible également de cartographier la matière noire. SKA est donc complémentaire à Euclid.
T. C. : Vous avez travaillé dans de nombreux pays, fait-on la même science partout ?
F. C. : Nous, les astrophysiciens, faisons la même science partout. L’astrophysique est une science mondialisée depuis très longtemps. L’observation du ciel a besoin de gros instruments, qui sont relativement très coûteux. Prenons l’exemple de l’ESO, qui a été fondé, vers 1960, avec l’objectif de construire un télescope dans l’hémisphère Sud. Auparavant, chaque pays avait son télescope localement, mais, pour construire de grands télescopes au Chili, il fallait unir ses forces. Ce qui a conduit à l’Observatoire européen austral ESO : un vrai projet européen. Et maintenant, avec SKA, il s’agit même d’un seul instrument pour le monde entier, y compris la Chine. Il n’y a plus la compétition entre pays. Avec le James-Webb et Euclid, on a également des collaborations entre États-Unis et Europe.
T. C. : Votre communauté a donc réussi la prouesse de collaborer mondialement, comment voyez-vous la suite avec l’arrivée de Donald Trump au pouvoir ?
F. C. : La politique de l’administration Trump est en train de faire des coupes drastiques dans les budgets scientifiques et de licencier jusqu’à 20 % des postes. Notre communauté n’est pas la plus affectée. À l’Académie des sciences, nous avons publié un communiqué de presse pour exprimer notre solidarité avec nos collègues, et, surtout, avec plusieurs secteurs en danger : la biologie et la santé, notamment, les recherches sur le changement climatique, l’environnement, la diversité, l’équité et l’inclusion. Des doctorants et postdoctorants ont été renvoyés du jour au lendemain et interdits d’accès à leurs ordinateurs. Il existe des mots interdits, dans la recherche et dans les publications.
Du côté de la NASA, les programmes supprimés sont ceux de la surveillance de la Terre, ce qui impacte fortement la capacité de prédire les événements climatiques, comme les ouragans et les cyclones, ou ceux qui étudient les pollutions. En ce qui concerne les programmes spatiaux, les craintes sont que tous les budgets soient focalisés sur l’envoi d’humains sur Mars, aux dépens de missions plus scientifiques.
Il faut également rappeler les difficultés du lancement du satellite Euclid, qui avait été prévu avec un lanceur Soyouz en Guyane. Après la guerre lancée par les Russes en Ukraine, tout a changé. Ariane n’ayant aucun créneau de libre avant des années, il a fallu se tourner vers SpaceX pour le lancement.
T. C. : Les grandes coopérations spatiales ne sont donc pas encore menacées, mais vous n’êtes pas rassurée pour autant pour la science en général ?
F. C. : Oui, lors du premier mandat de Donald Trump, les réactions des antisciences s’étaient déjà manifestées avec, notamment, la sortie de l’accord de Paris sur le climat. Maintenant, tout se passe encore plus vite, avec la menace de sortir de l’OMS, de supprimer l’Usaid, de démanteler des programmes entiers. Certains juges réagissent, car souvent ces actions ne sont pas légales, et tout peut être remis en question.
Nous sommes aussi très inquiets pour les NIH (National Institutes of Health), dont de nombreux scientifiques ont été licenciés ou encouragés à prendre leur retraite. En janvier, les chercheurs du NIH étaient interdits de publier et de voyager ! Des collègues biologistes nous ont expliqué avoir vu de jeunes chercheurs en postdoctorat se faire licencier du jour au lendemain par mail. Des personnes en train de travailler sur l’écriture d’un article scientifique et qui, d’un coup, n’avaient plus accès à leur ordinateur pour le terminer.
Il est possible que les chercheurs licenciés essaient de trouver des pays plus accueillants. La France fait des efforts, au niveau gouvernemental, pour offrir des postes à ces « réfugiés scientifiques », mais aussi universitaires. Une pétition a circulé pour demander à la Commission européenne de débloquer des fonds pour cet accueil.
T. C. : Avez-vous vu une réplique de vos homologues américains ?
F. C. : Il n’y a pas vraiment eu de levée de boucliers très forte encore, non. Peut-être que l’Académie américaine est très dépendante du gouvernement fédéral et ne peut pas réagir. Il y a aussi une certaine sidération, et de l’expectative en attendant de savoir si toutes ces menaces vont être mises à exécution. Il y a aussi une grande part de peur de représailles et de coupures ou de licenciements encore plus graves. Le 7 mars, les scientifiques se sont réunis pour une manifestation Stand Up for Science aux États-Unis, qui a été accompagnée en Europe dans beaucoup de pays.
Françoise Combes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.04.2025 à 17:30
Patrice Cailleba, Professeur de Management, PSB Paris School of Business
Nicolas Dufour, Professeur affilié, PSB Paris School of Business
Les hackers éthiques se font embaucher par des entreprises ou des collectivités pour tester la résistance aux cyberattaques de leurs systèmes informatiques. Leur guerre silencieuse protège ceux et celles qui doivent protéger nos données.
Experts dans la lutte contre la cybercriminalité, les hackers éthiques travaillent à protéger et renforcer la sécurité informatique des entreprises et des États qui font appel à eux. Selon le site communautaire HackerOne, qui regroupe plus de 600 000 hackers éthiques à travers le monde, le premier dispositif qui a consisté à récompenser des hackers pour identifier les problèmes d’un programme informatique ou d’un système d’exploitation remonte à 1983 : on parle alors de bug bounty programme, ou « programme de prime aux bogues » en français.
Depuis lors, ces bug bounty programmes se sont multipliés. En 2020, les hackers éthiques de la plate-forme hackerone auraient résolu plus de 300 000 défaillances et vulnérabilités informatiques en échange de plus de 200 millions de dollars de primes, ou bounties.
En matière de sécurité et de défense, l’emploi de ruses, quelles qu’elles soient, ne se fait ni au grand jour ni avec grand bruit. Dans une étude pionnière sur ce thème, nous avons examiné ce qui constitue l’éthique silencieuse des hackers éthiques dans la guerre qu’ils et elles mènent aux cybercriminels.
De manière générale, les hackers éthiques se spécialisent dans les tests d’intrusion informatique auprès d’entreprises consentantes, afin d’en explorer les vulnérabilités et de proposer des actions correctrices le cas échéant.
Leur silence assure tout à la fois la transmission des connaissances (par imitation, seul devant l’écran), la formation et l’acquisition des compétences, mais aussi la socialisation au sein d’une communauté et d’un métier ainsi que la promotion de leur expérience et de leur réputation. Toutes ces dimensions sont concrètement liées et se répartissent en fait autour de trois moments : avant, pendant et après la mission de hacking éthique.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Tout d’abord, les hackers éthiques doivent acquérir et développer les compétences techniques nécessaires pour devenir de véritables testeurs capables de détecter des vulnérabilités, plus globalement des failles de sécurité, à savoir des professionnels diplômés et légitimes. Or, leur formation commence souvent dès l’adolescence, de manière isolée, bien avant d’entrer dans l’enseignement supérieur. Par la suite, l’accès à une formation de hacker éthique est longtemps resté difficile en raison du faible nombre de l’offre en tant que telle. Cependant, ces formations ont considérablement crû récemment et gagné en visibilité en France et surtout aux États-Unis.
Lorsqu’une entreprise fait appel à des hackers éthiques, elle le fait sans trop de publicité. Les appels d’offres sont rares. Des plates-formes spécialisées américaines comme HackerOne mettent en relation des entreprises demandeuses et des hackers volontaires. Toutefois, les contrats ne sont pas rendus publics : ni sur les missions, ni sur le montant de la prime, ni sur les résultats…
Les termes du contrat relèvent par définition du secret professionnel : avant de procéder à un test d’intrusion, il est important d’obtenir le consentement des propriétaires du système sur ce qu’il est possible de faire ou de ne pas faire.
Lors des tests d’intrusion, les hackers éthiques ont accès à des informations sensibles ou confidentielles sur l’organisation (données informatiques mais aussi financières, logistiques… sans oublier les brevets) et sur ses employés (données fiscales, administratives, etc.). Le secret professionnel autour des informations collectées directement ou indirectement est essentiel.
De même, les vulnérabilités et les failles découvertes pendant la mission doivent toutes être signalées uniquement au commanditaire, sans les rendre publiques ou s’en servir par la suite.
Le hacking éthique n’a pas le même cadre juridique de pays à pays : les lois et les réglementations locales correspondent rarement, que ce soit en Europe ou au sein d’États fédéraux, par exemple en Inde ou aux États-Unis. Le cadre légal changeant oblige ainsi les hackers à la plus grande discrétion, à la demande et pour le bien de leur employeur.
À la fin d’une mission, les obligations des hackers éthiques ne s’arrêtent pas pour autant. Contractuellement, ils n’ont plus le droit de s’introduire dans le système de l’organisation cliente. En même temps, ils doivent effacer toute trace de leur passage et de leur activité et cesser toute forme de tests.
En outre, les hackers éthiques ne doivent divulguer ni ce qui a été vu (informations stratégiques, données privées, défaillances et vulnérabilités identifiées, etc.), ni ce qui a été fait, ni stocker les données collectées. Ils ne doivent pas non plus vendre ces données collectées. Le secret professionnel est de rigueur, autant que le maintien des relations avec chaque client est rendu nécessaire pour assurer le bon suivi des opérations réalisées.
La difficulté pour les hackers éthiques tient au fait de se prévaloir de leur expérience pour des missions à venir auprès de potentiels clients. Ceci doit être fait de manière modérée, à savoir en respectant les règles de confidentialité et sans être identifié à leur tour comme une cible par des concurrents potentiels, voire, surtout, par des hackers criminels.
On retrouve à chaque étape de la mission les règles de confidentialité ayant trait au secret professionnel. Concrètement, les hackers éthiques peuvent être soumis au secret professionnel par mission (en tant que prestataire pour un organisme public de santé par exemple) ou par fonction (en tant que fonctionnaire). Toutefois, pour le moment, ils ne sont pas soumis au secret professionnel en tant que profession.
À mesure de la numérisation grandissante des activités humaines et professionnelles, la cybersécurité phagocyte une grande partie des problématiques sécuritaires, qu’elles soient intérieures et extérieures, publiques et privées. Il ne s’agit plus de travailler à une synergie opérationnelle entre services au sein des organisations, mais plutôt à intégrer de manière systémique la menace cyber et sa prise en charge pour l’ensemble de l’organisation et ses parties prenantes (employés, clients, fournisseurs et société civile en général).
Le silence est l’élément fondamental de la formation (avant la mission), la socialisation (avant et pendant la mission) et la réputation (après la mission) des hackers éthiques. Ce silence transmet et enjoint, socialise et promeut, mais aussi protège ceux qui doivent protéger les données de tout un chacun.
Être hacker éthique constitue au final un engagement opérationnel mais aussi civique, voire politique, qui oblige les organisations publiques et privées à aligner davantage stratégie et éthique, au risque de se mettre en danger.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
14.04.2025 à 17:34
Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d'informatique en image et systèmes d'information, INSA Lyon – Université de Lyon
Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.
Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.
Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.
Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.
La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.
Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.
Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.
Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.
À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille
Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.
Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.
Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.
Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.
Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.
Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.
Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.
Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.
Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.
L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.
Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.
Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.
12.04.2025 à 16:55
Winston Maxwell, Directeur d'Etudes, droit et numérique, Télécom Paris – Institut Mines-Télécom
Nicolas Curien, Professeur émérite honoraire du CNAM, Académie des technologies
Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».
De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.
La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.
À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.
Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.
Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.
Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.
Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.
Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.
Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Trois principales raisons sont invoquées.
Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.
Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que
« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».
Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.
Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.
Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.
À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.
Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.
Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.
Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.
Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.
Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.
Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.
Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.
Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).
Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.
10.04.2025 à 17:08
Thomas Guillemette, Professeur de Microbiologie, Université d'Angers
La saison 2 de la série américaine post-apocalyptique « The Last of Us » a commencé le 14 avril. Elle jette la lumière sur des champignons du genre Ophiocordyceps, connus par les scientifiques comme des parasites d’insectes et d’autres arthropodes capables de manipuler le comportement de leur hôte. Dans la série, suite à des mutations, ils deviennent responsables d’une pandémie mettant à mal la civilisation humaine. Si, dans le monde réel, ce scénario est heureusement plus qu’improbable, il n’en demeure pas moins que ces dernières années de nombreux scientifiques ont alerté sur les nouvelles menaces que font porter les champignons sur l’humain dans un contexte de dérèglement climatique.
L’attente a été longue pour les fans mais elle touche à sa fin : la sortie de la saison 2 de la série américaine post-apocalyptique « The Last of Us » est prévue pour ce 14 avril 2025. Cette série a été acclamée par le public comme par les critiques et a reçu plusieurs prix. Elle est l’adaptation d’un jeu vidéo homonyme sorti en 2013 qui s’est lui-même vendu à plusieurs dizaines de millions d’exemplaires. Le synopsis est efficace et particulièrement original : depuis 2003, l’humanité est en proie à une pandémie provoquée par un champignon appelé cordyceps. Ce dernier est capable de transformer des « infectés » en zombies agressifs et a entraîné l’effondrement de la civilisation. Les rescapés s’organisent tant bien que mal dans un environnement violent dans des zones de quarantaine contrôlées par une organisation militaire, la FEDRA. Des groupes rebelles comme les « Lucioles » luttent contre ce régime autoritaire.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Les développeurs Neil Druckmann et Bruce Staley racontent que l’idée du jeu vidéo est née suite au visionnage d’un épisode de la série documentaire Planète Terre diffusée sur la chaîne BBC.
Cet épisode très impressionnant montre comment le champignon Ophiocordyceps unilateralis qui a infecté une fourmi prend le contrôle sur son hôte en agissant sur le contrôle des muscles pour l’amener à un endroit en hauteur particulièrement propice à la dissémination du mycète vers d’autres fourmis.
Certains parlent de fourmis zombies et d’un champignon qui joue le rôle de marionnettiste. Une fois en hauteur, la fourmi plante ses mandibules dans une tige ou une feuille et attend la mort.
De manière surprenante, les fourmis saines sont capables de reconnaître une infection et s’empressent de transporter le congénère infecté le plus loin possible de la colonie. En voici la raison : le champignon présent à l’intérieur de l’insecte va percer sa cuticule et former une fructification (un sporophore) permettant la dissémination des spores (l’équivalent de semences) à l’extérieur. Ces spores produites en grandes quantités sont à l’origine de nouvelles infections lorsqu’elles rencontrent un nouvel hôte.
Bien que spectaculaire, ce n’est pas la seule « manipulation comportementale » connue d’un hôte par un champignon. On peut citer des cas de contrôle du vol de mouches ou de cigales, si bien que l’insecte devient un vecteur mobile pour disséminer largement et efficacement les spores fongiques dans l’environnement. Les mécanismes moléculaires qui supportent le contrôle du comportement des fourmis commencent seulement à être percés, ils sont complexes et semblent faire intervenir un cocktail de toxines et d’enzymes.
La bonne nouvelle est que le scénario d’un saut d’hôte de l’insecte à l’homme est peu crédible, même si ce phénomène est assez fréquent chez les champignons. C’est le cas avec des organismes fongiques initialement parasites d’arthropodes qui se sont finalement spécialisés comme parasites d’autres champignons.
La principale raison est que l’expansion à un nouvel hôte concerne préférentiellement un organisme proche de l’hôte primaire. Il est clair dans notre cas que l’humain et l’insecte ne constituent pas des taxons phylogénétiques rapprochés. Il existe aussi des différences physiologiques majeures, ne serait-ce que la complexité du système immunitaire ou la température du corps, qui constituent un obstacle sans doute infranchissable pour une adaptation du champignon Ophiocordyceps. Un autre facteur favorisant des sauts d’hôte réussis concerne une zone de coexistence par des préférences d’habitat qui se chevauchent au moins partiellement. Là encore on peut estimer que les insectes et les humains ne partagent pas de façon répétée et rapprochée les mêmes micro-niches écologiques, ce qui écarte l’hypothèse d’un saut d’Ophiocordyceps à l’Homme.
Une fois écartée la menace imminente de la zombification massive, il n’en demeure pas moins que les infections fongiques ont été identifiées par les scientifiques comme un danger de plus en plus préoccupant. Lors des dernières décennies, un nombre croissant de maladies infectieuses d’origine fongique a été recensé que ce soit chez les animaux ou chez les plantes cultivées et sauvages.
L’inquiétude est telle que Sarah Gurr, pathologiste végétal à l’Université d’Oxford, a co-signé un commentaire dans la revue Nature en 2023 qui fait figure d’avertissement. Elle met en garde contre l’impact « dévastateur » que les maladies fongiques des cultures auront sur l’approvisionnement alimentaire mondial si les agences du monde entier ne s’unissent pas pour trouver de nouveaux moyens de combattre l’infection. À l’échelle de la planète, les pertes provoquées par des infections fongiques sont estimées chaque année entre 10 et 23 % des récoltes, malgré l’utilisation généralisée d’antifongiques. Pour cinq cultures fournissant des apports caloriques conséquents, à savoir le riz, le blé, le maïs, le soja et les pommes de terre, les infections provoquent des pertes qui équivalent à une quantité de nourriture suffisante pour fournir 2 000 calories par jour de quelque 600 millions à 4 milliards de personnes pendant un an. La sécurité alimentaire s’apprête donc à faire face à des défis sans précédent car l’augmentation de la population se traduit par une hausse de la demande.
L’impact dévastateur des maladies fongiques sur les cultures devrait de plus s’aggraver dans les années à venir en raison d’une combinaison de facteurs. Tout d’abord, le changement climatique s’accompagne d’une migration régulière des infections fongiques vers les pôles, ce qui signifie que davantage de pays sont susceptibles de connaître une prévalence plus élevée d’infections fongiques endommageant les récoltes.
Ce phénomène pourrait être par exemple à l’origine de l’identification de symptômes de rouille noire du blé en Irlande en 2020. Cette maladie touche exclusivement les parties aériennes de la plante, produisant des pustules externes et perturbant en particulier la nutrition. Elle est à l’origine de pertes de rendements conséquentes, pouvant aller jusqu’à 100 % dans des cas d’infection par des isolats particulièrement virulents.
Ensuite, la généralisation en agriculture des pratiques de monoculture, qui impliquent de vastes zones de cultures génétiquement uniformes, constitue des terrains de reproduction idéaux pour l’émergence rapide de nouveaux variants fongiques. N’oublions pas que les champignons sont des organismes qui évoluent rapidement et qui sont extrêmement adaptables. À cela s’ajoute que les champignons sont incroyablement résistants, restant viables dans le sol pendant plusieurs années, que les spores peuvent voyager dans le monde entier, notamment grâce à des échanges commerciaux de plus en plus intenses. Un dernier point loin d’être négligeable est que les champignons pathogènes continuent à développer une résistance aux fongicides conventionnels.
L’impact des champignons sur la santé humaine a aussi tendance à être sous-estimé, bien que ces pathogènes infectent des milliards de personnes dans le monde et en tuent plus de 1,5 million par an.
Certains évènements récents préoccupent particulièrement les scientifiques. C’est le cas de Candida auris qui serait le premier pathogène fongique humain à émerger en raison de l’adaptation thermique en réponse au changement climatique. Cette levure constitue une nouvelle menace majeure pour la santé humaine en raison de sa capacité à persister, notamment, dans les hôpitaux et de son taux élevé de résistance aux antifongiques. Depuis le premier cas rapporté en 2009 au Japon, des infections à C. auris ont été signalées dans plus de 40 pays, avec des taux de mortalité compris entre 30 et 60 %. La majorité de ces infections survient chez des patients gravement malades dans des unités de soins intensifs.
L’augmentation alarmante du nombre de pathogènes résistants aux azoles est d’ailleurs une autre source d’inquiétude. Les azoles sont largement utilisés en agriculture comme fongicides, mais ils sont également utilisés en thérapeutique pour traiter les infections fongiques chez les humains et les animaux. Leur double utilisation en agriculture et en clinique a conduit à l’émergence mondiale d’une résistance aux azoles notamment chez C. auris mais aussi chez les champignons du genre Aspergillus. Ceux-ci sont depuis longtemps considérés comme des pathogènes humains majeurs, avec plus de 300 000 patients développant cette infection chaque année.
Les nombreuses émergences et l’identification de la résistance aux antifongiques chez de multiples champignons pathogènes apportent des éléments de poids aux défenseurs du concept « One Health », qui préconisent que les santés humaine, végétale et animale soient considérées comme étroitement interconnectées. Ces chercheurs issus d’universités prestigieuses proposent des recommandations actualisées pour relever les défis scientifiques et de santé publique dans cet environnement changeant.
Thomas Guillemette a reçu des financements de l'ANR et de la Région Pays de La Loire.
09.04.2025 à 16:52
Mathilde Plard, Chercheuse CNRS - UMR ESO, Université d'Angers
Benoît Mauvieux, Maître de Conférences en STAPS - Physiologie des Environnements Extrêmes, Université de Caen Normandie
Pour la toute première fois, un ultra-trail scientifique a été organisé pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs sur un parcours de 156 kilomètres. De quoi déconstruire quelques mythes et d’accumuler de nouvelles connaissances sur cette pratique extrême.
Des cimes pyrénéennes aux sentiers escarpés de la Réunion, l’ultra-trail est devenu un phénomène global. Selon l’International Trail Running Association (ITRA), plus de 1,7 million de coureurs sont enregistrés dans leur base de données, et pas moins de 25 000 courses sont organisées chaque année dans le monde.
On distingue plusieurs formats de course à pied en nature : du trail découverte (distance inférieure à 21 km) à l’ultra-trail (distance supérieure ou égale à 80 km). Dans cette dernière classification, la distance 100 Miles (165 km) est la distance reine, même si, aujourd’hui il existe des ultra-trails de 330km (Tor des Geants) ou la Double Suisse-Pick (700 km).
Pourquoi un tel engouement ? La discipline séduit par son aspect immersif en pleine nature, sa capacité à procurer un sentiment d’évasion et de connexion profonde avec l’environnement. Cet attrait va au-delà du sport : il s’inscrit dans une philosophie de vie, une quête de dépassement personnel et d’expérience du présent.
Dans l’ouvrage collectif « Les Sentiers de la Science », nous explorons ces multiples dimensions du trail. Cet ouvrage réunit les contributions de plus de 40 chercheurs issus de disciplines variées et vise à éclairer scientifiquement cette discipline en pleine expansion. Il valorise notamment les résultats obtenus lors du protocole expérimental que nous avons mis en place pour l’ultra-trail de Clécy, en rendant accessibles au grand public les connaissances issues de cette expérience grandeur nature. L’ouvrage nourrit ainsi le débat sur la performance, l’expérience corporelle et la relation à la nature dans le trail.
L’ultra-trail est souvent entouré de mythes par les pratiquants. Cette jeune discipline, pourtant de plus en plus documentée sur le plan scientifique, manque encore d’encadrement et de supports d’entraînement.
La littérature scientifique montre que la performance en ultra-trail est le fruit de compétences multiples : capacités respiratoires, force et endurance musculaire, gestion des allures de course, motivation et endurance mentale, capacité à s’alimenter et maintien de la glycémie, technique ou encore la gestion de la privation de sommeil.
Ces études de la performance montrent que des athlètes aux qualités différentes peuvent engager différemment certaines de leurs aptitudes pour une même performance finale. Elles démontrent pourquoi les femmes rivalisent largement avec les hommes sur ces distances. Il faut savoir que plus la distance augmente plus l’écart de performance diminue. On observe cela en cyclisme d’ultra longue distance également.
Étudier les contributions respectives de ces paramètres in-situ de la performance n’est pour autant pas facile pour les scientifiques. Généralement un de ces paramètres va être isolé et une équipe va étudier par exemple, la fatigue musculaire avant et après la course (sans finalement avoir une idée de l’évolution de cette fatigue pendant l’effort), parfois quelques mesures pendant la course sont réalisées et apportent davantage de connaissances. Mais cette approche isole tous les autres facteurs. Il est donc difficile de comprendre les interactions avec les autres fonctions : la diminution de la force est-elle corrélée à la glycémie ou à la privation de sommeil par exemple ?
L’ultra-trail de Clécy (156 kilomètres), organisé au cœur de la Suisse-Normande au sud de Caen, conçu comme une expérience scientifique grandeur nature, a permis de confronter ces croyances aux données factuelles.
Cette course a été pensée comme un laboratoire à ciel ouvert pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs représentant la diversité de la population présente sur un trail de niveau national : des coureurs de haut niveau et des amateurs, 75 % d’hommes et 25 % de femmes, avec des analyses détaillées de leur glycémie, des biomarqueurs sanguins inflammatoires, le sommeil, l’hydratation, les paramètres dynamiques tendineux, cardiaques et les adaptations musculaires,la température centrale, les paramètres biomécaniques de la foulée, etc.
Ce protocole a aussi été un défi sur le plan technologique et organisationnel. Certaines mesures étaient enregistrées en continu comme la température centrale du corps à l’aide d’une gélule gastro-intestinale qui envoyait toutes les minutes une donnée sur un moniteur, ou des capteurs implantés dans le triceps des coureurs mesurant en continu la glycémie. D’autres capteurs positionnés sur les chaussures mesuraient les paramètres biomécaniques de la foulée (temps de contact au sol, longueur de la foulée, puissance, cadence) et un gilet connecté permettait de suivre la fréquence cardiaque et respiratoire.
Les coureurs passaient différents tests, des échographies cardiaques pour comprendre comment les paramètres cardiaques évoluaient au cours de la course, des tests devant écran pour mesurer leur état de vigilance, des tests en réalité virtuelle pour perturber leur équilibre et comprendre comment leur système vestibulaire pouvait compenser le conflit sensoriel visuel, des tests de détente verticale pour mesurer la puissance musculaire.
D’autres études menées avec nos collègues proposent d’étudier la discipline de l’Ultra Trail par une approche davantage sociale portant sur trois grands axes d’étude qui structurent les travaux de recherche : engagement et profils des coureurs, facteurs mentaux et expérience corporelle, rôle des territoires et des événements dans le développement du trail.
Au-delà de la simple performance sportive, le trail représente aussi une véritable aventure intérieure. Les coureurs témoignent souvent d’un profond dépassement personnel, lié non seulement à l’effort physique mais aussi à une exploration plus intime de leurs sensations et émotions. Dans notre ouvrage, cette dimension existentielle est particulièrement soulignée : les participants racontent comment courir en pleine nature leur permet d’être pleinement attentifs à leurs sensations corporelles (comme le froid nocturne, les battements de leur cœur ou la tension musculaire). Ces expériences sensorielles intenses provoquent souvent une véritable gratitude envers leur environnement, particulièrement face aux paysages jugés spectaculaires ou « à couper le souffle ».
Concrètement, nous avons pu mesurer précisément comment les coureurs perçoivent ces sensations à l’aide d’un outil appelé State Mindfulness Scale, une échelle qui permet d’évaluer à quel point les coureurs sont conscients et présents dans leur corps pendant la course. Les résultats indiquent clairement que cette pratique améliore notablement la capacité des coureurs à ressentir intensément leur corps et à mieux identifier leurs limites physiques, favorisant ainsi une expérience enrichie et profonde du trail.
Dans une perspective philosophique, cela rejoint l’un de nos précédents articles publié dans The Conversation montrant comment cette discipline interroge notre rapport au monde.
Les résultats de l’étude du trail de Clécy et les contributions académiques permettent d’identifier plusieurs recommandations :
Individualiser l’entraînement : il n’existe pas de recette universelle, chaque coureur doit écouter son corps.
Optimiser la récupération : la gestion du sommeil est un levier essentiel de performance et de bien-être.
Accepter l’incertitude : la préparation mentale est une clé pour affronter l’inconnu et la fatigue extrême.
Ne pas minimiser la période de récupération : on observe une forte élévation des marqueurs inflammatoire, une hyperglycémie et un sommeil de mauvaise qualité sur les nuits suivantes.
Rester vigilant à l’automédicamentation : ne jamais courir sous anti-inflammatoire.
Rester vigilant sur les troubles du comportement alimentaire et l’addiction à l’activité.
L’ultra-trail apparaît ainsi comme une école du vivant, entre prouesse athlétique et exploration humaine. La science permet aujourd’hui de mieux comprendre ce phénomène, tout en laissant place à la magie de l’expérience personnelle.
Mathilde Plard a reçu des financements de l'Université d'Angers pour la mise en place du protocole scientifique sur les dimensions psychosociales de l'Ultra Trail Scientifique de Clécy.
Benoît Mauvieux a reçu des financements des Fonds Européens (FEDER) et de la Région Normandie pour le financement de l'Ultra Trail Scientifique de Clécy (RIN APEEX : Adaptations physiologiques en environnements extrêmes)
03.04.2025 à 20:03
Mélissa Berthet, Docteur en biologie spécialisée en comportement animal, University of Zurich
Les bonobos – nos plus proches parents vivants – créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain. Nos résultats, publiés aujourd’hui dans la revue Science, remettent en question de vieilles croyances sur ce qui rend la communication humaine unique et suggèrent que certains aspects clés du langage ont une origine évolutive ancienne.
Les humains combinent sans effort les mots en phrases, ce qui nous permet de parler d’une infinité de sujets. Cette capacité repose sur la syntaxe compositionnelle (ou « syntaxe » dans la suite de ce texte) – la capacité de créer des combinaisons d’unités porteuses de sens dont le sens global est dérivé du sens des unités et de la façon dont elles sont agencées. Par exemple, l’expression « robe bleue » a un sens dérivé de « robe » et « bleue », elle est compositionnelle – au contraire de « tourner autour du pot », dont le sens n’a rien à voir avec « tourner » et « pot ».
La syntaxe nous permet par exemple de combiner les mots en phrases, elle est omniprésente dans notre communication. Au contraire, quelques rares exemples isolés de syntaxe ont été observés chez d’autres espèces, comme les mésanges japonaises et les chimpanzés. Les scientifiques ont donc longtemps pensé que l’omniprésence de la syntaxe était propre au langage humain et que les combinaisons vocales chez les animaux n’étaient surtout qu’une simple juxtaposition aléatoire de cris. Pour vérifier cela, nous avons mené une étude approfondie de la communication vocale des bonobos dans leur habitat naturel, la réserve communautaire de Kokolopori (République démocratique du Congo). Nos résultats révèlent que, tout comme le langage humain, la communication vocale des bonobos repose également largement sur la syntaxe.
Étudier la syntaxe chez les animaux nécessite d’abord une compréhension approfondie du sens des cris, isolés et combinés. Cela a longtemps représenté un défi majeur, car il est difficile d’infiltrer l’esprit des animaux et décoder le sens de leurs cris. Avec mes collègues biologistes de l’Université de Zürich et de Harvard, nous avons donc développé une nouvelle méthode pour déterminer avec précision la signification des vocalisations animales et l’avons appliquée à l’ensemble des cris de bonobos, aussi bien les cris isolés que les combinaisons.
Nous sommes partis du principe qu’un cri pouvait donner un ordre (par exemple, « Viens »), annoncer une action future (« Je vais me déplacer »), exprimer un état interne (« J’ai peur ») ou faire référence à un événement externe (« Il y a un prédateur »). Pour comprendre de manière fiable le sens de chaque vocalisation tout en évitant les biais humains, nous avons décrit en détail le contexte dans lequel chaque cri était émis, en utilisant plus de 300 paramètres contextuels.
Par exemple, nous avons décrit la présence d’événements externes (y avait-il un autre groupe de bonobos à proximité ? Est-ce qu’il pleuvait ?) ainsi que le comportement du bonobo qui criait (était-il en train de se nourrir, de se déplacer, de se reposer ?). Nous avons également analysé ce que l’individu qui criait et son audience faisaient dans les deux minutes suivant l’émission du cri, c’est-à-dire tout ce qu’ils commençaient à faire, continuaient à faire ou arrêtaient de faire. Grâce à cette description très détaillée du contexte, nous avons pu attribuer un sens à chaque cri, en associant chaque vocalisation aux éléments contextuels qui lui étaient fortement corrélés. Par exemple, si un bonobo commençait toujours à se déplacer après l’émission d’un certain cri, alors il était probable que ce cri signifie « Je vais me déplacer ».
Grâce à cette approche, nous avons pu créer une sorte de dictionnaire bonobo – une liste complète des cris et de leur sens. Ce dictionnaire constitue une avancée majeure dans notre compréhension de la communication animale, car c’est la première fois que des chercheurs déterminent le sens de l’ensemble des vocalisations d’un animal.
Dans la seconde partie de notre étude, nous avons développé une méthode pour déterminer si les combinaisons de cris des animaux étaient compositionnelles, c’est-à-dire, déterminer si les bonobos pouvaient combiner leurs cris en sortes de phrases. Nous avons identifié plusieurs combinaisons qui présentaient les éléments clés de la syntaxe compositionnelle. De plus, certaines de ces combinaisons présentaient une ressemblance frappante avec la syntaxe plus complexe qu’on retrouve dans le langage humain.
Dans le langage humain, la syntaxe peut prendre deux formes. Dans sa version simple (ou « triviale »), chaque élément d’une combinaison contribue de manière indépendante au sens global, et le sens de la combinaison est la somme du sens de chaque élément. Par exemple, l’expression « danseur blond » désigne une personne à la fois blonde et faisant de la danse ; si cette personne est aussi médecin, on peut également en déduire qu’elle est un « médecin blond ». À l’inverse, la syntaxe peut être plus complexe (ou « non triviale ») : les unités d’une combinaison n’ont pas un sens indépendant, mais interagissent de manière à ce qu’un élément modifie l’autre. Par exemple, « mauvais danseur » ne signifie pas qu’il s’agit d’une mauvaise personne qui est aussi danseuse. En effet, si cette personne est aussi médecin, on ne peut pas en conclure qu’elle est un « mauvais médecin ». Ici, « mauvais » ne possède pas un sens indépendant de « danseur », mais vient en modifier le sens.
Des études antérieures sur les oiseaux et les primates ont démontré que les animaux peuvent former des structures compositionnelles simples. Cependant, aucune preuve claire de syntaxe plus complexe (ou non triviale) n’avait encore été trouvée, renforçant l’idée que cette capacité était propre aux humains.
En utilisant une méthode inspirée de la linguistique, nous avons cherché à savoir si les combinaisons de cris des bonobos étaient compositionnelles. Trois critères doivent être remplis pour qu’une combinaison soit considérée comme telle : d’abord, les éléments qui la composent doivent avoir des sens différents ; ensuite, la combinaison elle-même doit avoir un sens distinct de celle de ses éléments pris séparément ; enfin, le sens de la combinaison doit être dérivé du sens de ses éléments. Nous avons également évalué si cette compositionnalité est non triviale, en déterminant si le sens de la combinaison est plus qu’une addition du sens des éléments.
Pour cela, nous avons construit un « espace sémantique » – une représentation en plusieurs dimensions du sens des cris des bonobos – nous permettant de mesurer les similarités entre le sens des cris individuels et des combinaisons. Nous avons utilisé une approche de sémantique distributionnelle qui cartographie les mots humains selon leur sens, en considérant que les mots avec un sens proche apparaissent dans des contextes similaires. Par exemple, les mots « singe » et « animal » sont souvent utilisés avec des termes similaires, tels que « poilu » et « forêt », ce qui suggère qu’ils ont un sens proche. À l’inverse, « animal » et « train » apparaissent dans des contextes différents et ont donc des sens moins proches.
Avec cette approche linguistique, nous avons pu créer un espace sémantique propre aux bonobos, où l’on a pu cartographier chaque cri et chaque combinaison de cris selon s’ils étaient émis dans des contextes similaires ou non (donc, s’ils avaient un sens proche ou non). Cela nous a permis de mesurer les liens entre le sens des cris et de leurs combinaisons. Cette approche nous a ainsi permis d’identifier quelles combinaisons répondaient aux trois critères de compositionnalité, et leur niveau de complexité (triviale vs non triviale).
Nous avons identifié quatre combinaisons de cris dont le sens global est dérivé du sens de leurs éléments, un critère clé de la compositionnalité. Fait important, chaque type de cri apparaît dans au moins une combinaison compositionnelle, tout comme chaque mot peut être utilisé dans une phrase chez les humains. Cela suggère que, comme dans le langage humain, la syntaxe est une caractéristique fondamentale de la communication des bonobos.
De plus, trois de ces combinaisons de cris présentent une ressemblance frappante avec les structures compositionnelles non triviales du langage humain. Cela suggère que la capacité à combiner des cris de manière complexe n’est pas unique aux humains comme on le pensait, et que cette faculté pourrait avoir des racines évolutives bien plus anciennes qu’on ne le pensait.
Un bonobo émet un subtil « peep » (« Je voudrais… ») suivi d’un « whistle » (« Restons ensemble »). Ce cri est émis dans des situations sociales tendues, il a un sens proche de « Essayons de trouver un arrangement » ou « Essayons de faire la paix ».
Une implication majeure de cette recherche est l’éclairage qu’elle apporte sur l’évolution de la syntaxe dans le langage. Si nos cousins bonobos utilisent de façon extensive la syntaxe compositionnelle, tout comme nous, alors notre dernier ancêtre commun le faisait probablement aussi. Cela suggère que la capacité à construire des sens complexes à partir de plus petites unités vocales était déjà présente chez nos ancêtres il y a au moins 7 millions d’années, voire plus tôt. Ces nouvelles découvertes indiquent que la syntaxe n’est pas propre au langage humain, mais qu’elle existait probablement bien avant que le langage n’émerge.
Mélissa Berthet a reçu des financements du Fond National Suisse (SNF).
03.04.2025 à 17:52
Christophe Vigny, chercheur en géophysique, École normale supérieure (ENS) – PSL
Un séisme a touché l’Asie du Sud-Est le 28 mars 2025. D’une magnitude de 7,7, son épicentre est localisé au Myanmar, un pays déjà très fragilisé par des années de guerre civile. Les secousses sismiques y ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans la plaine sédimentaire de la rivière Irrawady.
Le séisme du 28 mars qui s’est produit au Myanmar (Birmanie) est une catastrophe de très grande ampleur. Il s’agit d’un très gros séisme – la magnitude 7,7 est rarement atteinte par un séisme continental – de l’ordre des séismes de Turquie de février 2023, de Nouvelle-Zélande en novembre 2016, du Sichuan en mai 2008 ou encore d’Alaska en novembre 2002. Le choc principal a été suivi douze minutes plus tard par une première réplique.
Le bilan est très probablement très sous-estimé pour toutes sortes de raisons : difficultés d’accès, pays en guerre… et pourrait, selon mon expérience et l’institut américain de géologie, largement atteindre plusieurs dizaines de milliers de victimes.
Les raisons d’un tel bilan sont multiples : le séisme lui-même est très violent car d’une magnitude élevée, sur une faille très longue et avec une rupture peut-être très rapide. De plus, la faille court dans une vallée sédimentaire, celle de la rivière Irrawady, où les sols sont peu consolidés, ce qui donne lieu à des phénomènes de « liquéfaction », fatals aux constructions, pendant lesquels le sol se dérobe complètement sous les fondations des immeubles. Les constructions elles-mêmes sont d’assez faible qualité (bétons peu armés, avec peu de ciment, mal chaînés, etc.). Enfin, les secours sont peu organisés et lents, alors que de nombreux blessés ont besoin de soins rapides.
À lire aussi : Séisme au Myanmar ressenti en Asie du Sud-Est : les satellites peuvent aider les secours à réagir au plus vite
Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Cette faille résulte de la tectonique des plaques dans la région : la plaque indienne « monte » vers le nord à près de 4 centimètres par an. Devant elle, l’Himalaya. Sur les deux côtés, à l’ouest et à l’est, deux systèmes de failles accommodent le glissement entre la plaque indienne et la plaque eurasienne. À l’est, c’est la faille de Sagaing, du nom d’une grande ville du pays.
Des mesures GPS réalisées au Myanmar à la fin des années 1990 par notre équipe ont produit beaucoup de résultats : nous avons tout d’abord observé que la faille était bien bloquée. Ceci implique que le déplacement continu des plaques tectoniques indienne et eurasienne provoque bien de l’« accumulation de déformation élastique » dans les plaques, et que cette déformation devra être relâchée tout ou tard sous forme de séisme, quand l’accumulation dépassera le seuil de résistance de la friction sur le plan de faille.
Mais nous avions fait également une découverte un peu déconcertante : la faille de Sagaing n’accommodait qu’un peu moins de 2 centimètres par an de déformation (exactement 1.8), le reste des 4 centimètres par an imposé par le mouvement des plaques indiennes et eurasiennes devant être accommodé ailleurs… Mais où ? Mystère.
Les études suivantes suggérèrent que cette déformation manquante se produit plus à l’ouest, sur la subduction dite « Rakhine-Bangladesh ».
Il y a eu beaucoup de séismes le long de l’histoire au Myanmar. Les études archéologiques menées au début des années 2000 sur la cité impériale de Pegu, dans le sud du Myanmar, ont révélé que les murs de celle-ci avaient été fréquemment rompus par des séismes (sept depuis la fin du XVIe siècle), mais aussi décalés, car la cité était construite exactement sur la faille. La mesure du décalage total entre deux morceaux de murs (6 mètres en 450 ans) donne une vitesse moyenne sur cette période de 1,4 centimètre par an.
Plus au Nord, la cité impériale de la ville de Mandalay est aussi marquée par les séismes : des statues massives ont été cisaillées par les ondes sismiques des tremblements de terre passés.
Grâce à ces études, nous avons aujourd’hui une meilleure vision de la situation tectonique à Myanmar.
La faille est tronçonnée en segment plus ou moins long, de 50 à 250 kilomètres de longueur. Chacun de ces segments casse plus ou moins irrégulièrement, tous les 50-200 ans, produisant des séismes de magnitude allant de 6 à presque 8.
Le plus long segment est celui dit de Meiktila. Il fait environ 250 kilomètres entre Mandalay et Naypyidaw. Il a rompu pour la dernière fois en 1839, avec un séisme de magnitude estimée entre 7,6 et 8,1. Le calcul est donc finalement assez simple : ici, la déformation s’accumule autour de la faille au rythme de 1,8 centimètre par an et le dernier séisme s’est produit il y a 184 ans : le prochain séisme devra donc relâcher 3,3 mètres, avant que l’accumulation ne reprenne.
Or, un déplacement de 3,3 mètres sur une faille de 250 kilomètres de long et environ 15 kilomètres de profondeur correspond bien à un séisme de magnitude 7,7 – comme celui qui vient de frapper.
Enfin, les toutes premières analyses par imagerie satellitaire semblent indiquer que la rupture se serait propagée largement au sud de la nouvelle capitale Naypyidaw, sur presque 500 kilomètres de long au total. Elle aurait donc rompu, simultanément ou successivement plusieurs segments de la faille.
Sur la base des considérations précédentes (faille bloquée, vitesse d’accumulation de déformation et temps écoulé depuis le dernier séisme), il est assez facile d’établir une prévision : un séisme est inévitable puisque la faille est bloquée alors que les plaques, elles, se déplacent bien. La magnitude que ce prochain séisme peut atteindre est estimable et correspond à la taille de la zone bloquée multipliée par la déformation accumulée (en admettant que le séisme précédent a bien « nettoyé » la faille de toutes les contraintes accumulées).
La difficulté reste de définir avec précision la date à laquelle ce séisme va se produire : plus tôt il sera plus petit, plus tard il sera plus grand. C’est donc la résistance de la friction sur la faille qui va contrôler le jour du déclenchement du séisme. Mais celle-ci peut varier en fonction du temps en raison de paramètres extérieurs. Par exemple, on peut imaginer qu’une faille qui n’a pas rompu depuis longtemps est bien « collée » et présente une résistance plus grande, à l’inverse d’une faille qui a rompu récemment et qui est fragilisée.
Ainsi, plutôt que des séismes similaires se produisant à des intervalles de temps réguliers, on peut aussi avoir des séismes de tailles différentes se produisant à intervalles de temps plus variables. Pour autant, la résistance de la faille ne peut dépasser une certaine limite et au bout d’un certain temps, le séisme devient inévitable. Il est donc logique de pouvoir évoquer la forte probabilité d’un séisme imminent sur un segment de faille donné, et d’une magnitude correspondant à la déformation accumulée disponible. La magnitude de 7,7 dans le cas du récent séisme sur la faille de Sagaing correspond exactement aux calculs de cycle sismique.
Par contre, la détermination de la date du déclenchement du séisme au jour près reste impossible. En effet, si la déformation augmente de quelques centimètres par an, elle n’augmente que de quelques centièmes de millimètres chaque jour, une très petite quantité en termes de contraintes.
Il y a toujours des répliques après un grand séisme, mais elles sont plus petites.
Il y a aujourd’hui au Myanmar assez peu de stations sismologiques, et les plus petites répliques (jusqu’à la magnitude 3) ne sont donc pas enregistrées. Les répliques de magnitude entre 3 et 4,5 sont en général perçues par le réseau thaïlandais, mais seules les répliques de magnitude supérieure à 4,5 sont enregistrées et localisées par le réseau mondial.
Il semble néanmoins qu’il y ait assez peu de répliques dans la partie centrale de la rupture, ce qui pourrait être une indication d’une rupture « super-shear » car celles-ci auraient tendance à laisser derrière elles une faille très bien cassée et très « propre ».
Christophe Vigny a reçu des financements de UE, ANR, MAE, CNRS, ENS, Total.
02.04.2025 à 12:23
Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education
Dans un monde où l’information est devenue à la fois omniprésente et suspecte, la destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance partagée, le progrès scientifique global et, plus fondamentalement, la richesse des nations.
Depuis le 20 janvier 2025, l’administration aux commandes de la première puissance mondiale mène une campagne méthodique contre les données, particulièrement celles à caractère scientifique. Plus de 3 400 jeux de données, dont 2 000 à vocation scientifique, ont été supprimés des sites gouvernementaux américains. Cette offensive cible prioritairement les informations relatives au changement climatique, à la santé publique et à l’équité sociale. L’armée américaine a ainsi reçu l’ordre de supprimer tout contenu mettant en valeur ses efforts de diversité, y compris les images historiques des premières femmes ayant réussi l’entraînement pour intégrer l’infanterie du corps des Marines !
Des données cruciales de santé publique concernant l’obésité, les taux de suicide, le tabagisme chez les adolescents et les comportements sexuels ont également disparu des sites web du Center for Disease Control (CDC), l’équivalent états-unien de notre direction de maladies infectueuses (DMI) dont le rôle est de surveiller notamment les pandémies. Malgré une injonction judiciaire ordonnant la restauration de ces informations, des questions persistent quant à l’intégrité des données reconstituées.
Par ailleurs, des préoccupations émergent concernant la manipulation potentielle des statistiques économiques. Cette purge numérique s’accompagne d’interruptions de projets de recherche, de réductions drastiques des moyens et de licenciements de scientifiques de premier plan, notamment Kate Calvin, scientifique en chef de la Nasa.
L’administration a également ordonné la fin des échanges scientifiques internationaux, notamment entre la National Oceanic and Atmospheric Administration (NOAA) et l’Institut français de recherche pour l’exploitation de la mer (Ifremer). Cela fait craindre pour la précision des alertes sur les évènements majeurs, comme on avait pu le voir lors du Sharpiegate, où l’actuel président et les équipes le soutenant (dont l’actuel administrateur du NOAA déjà en poste à l’époque) avaient falsifié des cartes météo pour donner raison au président quant à la direction du cyclone « Dorian », et ce, contre l’évidence scientifique. Or, la précision de ces alertes est fondamentale pour sauver des vies.
Face à cette situation alarmante, certes, une résistance s’organise : des chercheurs tentent désespérément de préserver les données avant leur destruction. Malheureusement, la vitesse des coups portés à la preuve scientifique rend ces réponses bien dérisoires.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce phénomène où des ensembles de données scientifiques, fruits de décennies de recherche minutieuse, sont anéantis sans considération pour leur valeur intrinsèque, ou verrouillés par des entités privées échappant largement au contrôle démocratique, interroge d’autant plus que ces mêmes acteurs ont souvent tiré profit des avancées permises par le libre partage des connaissances, par exemple les recherches introduisant l’architecture dite Transformer, publiées dans l’article « Attention Is All You Need » ont directement permis le développement du modèle commercial de Meta : LLaMA.
Dans ce contexte, la destruction de ces données représente non seulement une perte intellectuelle massive, mais aussi un non-sens économique flagrant. Comment justifier l’anéantissement d’actifs dont la valeur, bien que difficile à quantifier avec précision, est manifestement considérable ?
La valeur des données en tant qu’actif économique pour les nations et les entreprises est désormais un fait établi, documenté et largement accepté dans la littérature académique. Plusieurs méthodologies permettent d’évaluer cette valeur : le coût historique, les bénéfices futurs actualisés et la valeur de remplacement. Les coûts pour l’économie états-unienne sont donc aujourd’hui immédiatement quantifiables et dantesques.
L’approche par le coût historique consiste à calculer l’investissement total nécessaire à la production des données, incluant le financement de recherche, le temps de travail des chercheurs et l’infrastructure mobilisée. Mais certains soulignent que cette méthode comptable traditionnelle enregistre la valeur d’un actif à son coût d’acquisition initial, sans tenir compte des variations ultérieures de sa valeur. Aussi, la méthode des bénéfices futurs actualisés estime les avancées scientifiques et innovations potentielles découlant de l’exploitation des données sur plusieurs décennies. Elle permet de ramener les coûts et bénéfices futurs à leur valeur présente, ce qui est particulièrement pertinent pour les données scientifiques dont la valeur se déploie souvent sur le long terme.
Quant à la méthode de la valeur de remplacement, elle évalue le coût qu’impliquerait la reconstitution complète des bases de données si elles venaient à disparaître. L’OCDE recommande cette approche pour estimer la valeur des actifs de données, particulièrement lorsque les données sont uniques ou difficilement reproductibles, ce qui est clairement le cas des données de recherche. Aussi, la reconnaissance des données comme actif économique majeur est désormais bien établie, au même titre que tous autres actifs immatériels, désormais centraux dans l’économie moderne. Les données sont de la sorte devenues un facteur de production distinct, au même titre que le capital et le travail.
Une estimation conservatrice basée sur ces approches révèle que chaque jeu de données scientifiques majeur représente potentiellement des milliards d’euros de valeur. À titre d’exemple, le génome humain, dont le séquençage initial a coûté environ 2,7 milliards de dollars en quinze ans, a généré une valeur économique estimée à plus de 1 000 milliards de dollars US à travers diverses applications médicales et biotechnologiques, sans compter les recettes fiscales associées.
Dans le contexte actuel, où l’intelligence artificielle (IA) se développe à un rythme fulgurant, le volume et la qualité des données deviennent des enjeux cruciaux. Le principe bien connu en informatique de « garbage in, garbage out » (ou GIGO, des données de mauvaise qualité produiront des résultats médiocres) s’applique plus que jamais aux systèmes d’IA qui sont dépendants de données de qualité pour assurer un entraînement des algorithmes efficients.
Ainsi, la destruction et la reconstruction erratique de sets de données à laquelle nous assistons aujourd’hui (on ne peut établir à ce stade que les données détruites ont été ou seront reconstituées avec sérieux et un niveau suffisant de qualité) génèrent une contamination délibérée ou négligente de l’écosystème informationnel par des données incorrectes, peut-être falsifiées ou biaisées.
Il y a là une double destruction de valeur : d’une part, par la compromission de l’intégrité des bases de données existantes, fruit d’investissements considérables ; d’autre part, en affectant la qualité des modèles d’IA entraînés sur ces données, perpétuant ainsi les biais et les erreurs dans des technologies appelées à jouer un rôle croissant dans nos sociétés. Sans données fiables et représentatives, comment espérer développer des systèmes d’IA sans biais et dignes de confiance ?
Face à ces défis, l’Union européenne dispose d’atouts considérables pour s’imposer comme le gardien d’une science ouverte mais rigoureuse et le berceau d’une IA responsable. Son cadre réglementaire pionnier, illustré par le RGPD et l’AI Act, démontre sa capacité à établir des normes qualitatives élevées. Le cadre du RGPD permet de « concilier la protection des droits fondamentaux et la conduite des activités de recherche ». L’AI Act, entré en vigueur le 1er août 2024, entend « favoriser le développement et le déploiement responsables de l’intelligence artificielle dans l’UE », notamment dans des domaines sensibles comme la santé. L’Europe régule non pas pour porter atteinte à la liberté d’expression, mais, au contraire, pour proposer un environnement d’affaires sûr, de confiance et pacifié.
L’Union européenne pourrait donc créer un véritable « sanctuaire numérique » pour les données scientifiques mondiales, garantissant leur préservation, leur accessibilité et leur utilisation éthique. Ce sanctuaire reposerait sur trois piliers complémentaires dont l’essentiel est déjà en place du fait de la stratégie digitale :
un système d’archivage pérenne et sécurisé des données de recherche assurant leur préservation ;
des protocoles de partage ouverts mais encadrés, favorisant la collaboration internationale tout en protégeant l’intégrité des données ;
et un cadre d’utilisation garantissant que l’exploitation des données, notamment pour l’entraînement d’IA, respecte des principes éthiques clairs.
Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de sa participation aux projets de recherche DEFORM et ProRes.
02.04.2025 à 12:23
Julien Serres, Professeur des Universités en biorobotique, Aix-Marseille Université (AMU)
Nul besoin de connexion satellite pour que les abeilles et les fourmis retrouvent le chemin de leurs foyers. Leurs stratégies reposent sur des perceptions de l’environnement bien différentes de la nôtre, que décortiquent certains roboticiens… pour mieux les imiter.
Les insectes navigateurs possèdent de minuscules cervelles, de seulement un millimètre cube et pourtant… n’y aurait-il pas plus d’intelligence chez eux que ce que l’on imagine ?
Dans une certaine mesure, ces petits animaux sont plus performants en matière d’orientation spatiale que votre application mobile de navigation favorite et que les robots taxis américains… Ils n’ont pas besoin de se connecter à Internet pour retrouver leur foyer et consomment une quantité d’énergie absolument minuscule par rapport au supercalculateur dédié à la conduite autonome de Tesla.
Le biomimétisme consiste à puiser dans les multiples sources d’inspiration que nous offre la nature, qu’il s’agisse des formes — comme le design du nez du train Shinkansen 500, inspiré du bec du martin-pêcheur ; des matériaux — comme les écrans solaires anti-UV basés sur les algues rouges ; ou bien encore des synergies et des écosystèmes durables — comme la myrmécochorie qui utilise les fourmis pour accélérer la dispersion des graines et réparer plus vite les écosystèmes.
En effet, les solutions sélectionnées dans la nature se sont perfectionnées au long de l’évolution. Les yeux des insectes et leur traitement des images en sont un exemple frappant. Leur étude a donné naissance à de nouvelles caméras bio-inspirées dites « événementielles » ultrarapides. Les pixels de ses caméras sont lus et traités uniquement lorsqu’un changement de luminosité est détecté par un pixel et l’information est codée par des impulsions de très courte durée réduisant de facto la consommation énergétique et les temps de calcul. Ces petits animaux représentent alors une véritable banque de solutions pour les roboticiens, pour résoudre certains problèmes auxquels nous sommes confrontés.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La biorobotique a ainsi pour finalité de comprendre le comportement animal au moyen de robots mobiles imitant soit leur système perceptif, soit leur mode de locomotion, ou bien encore le couplage entre ces deux systèmes.
Les résultats obtenus sont parfois contre-intuitifs pour les roboticiens et les roboticiennes. La biorobotique propose d’explorer la navigation autonome « déconnectée » ou « en mode avion », exploitant uniquement la lumière réfléchie par l’environnent ou diffusée par le ciel comme le font les insectes navigateurs pour trouver leur cap de manière optique ou bien les oiseaux pour se géolocaliser visuellement. Nous espérons que ces recherches permettront aux véhicules intelligents d’atteindre le même niveau d’agilité et de résilience que les insectes ou oiseaux navigateurs, abeilles mellifères et fourmis du désert en tête.
De façon surprenante, les insectes navigateurs possèdent une acuité visuelle plutôt mauvaise. Ainsi, les fourmis navigatrices possèdent une vision 300 fois moins précise que celle des humains en termes d’« acuité fovéale », qui est la capacité à discerner un petit objet à grande distance. De leur côté, les abeilles mellifères possèdent une vision 100 fois moins précise que les humains, mais elles réalisent pourtant quotidiennement des trajets de plusieurs kilomètres par jour, jusqu’à 13 kilomètres de la ruche… alors qu’elles ne mesurent que treize millimètres.
Cette distance représente un million de fois leur longueur de corps. C’est comme si un humain voyageait 1 000 kilomètres et était capable de retrouver son foyer sans demander d’aide à son téléphone. Il est tout à fait stupéfiant qu’un aussi petit animal soit capable de localiser sa ruche et de retrouver sa colonie à chaque sortie — avec seulement un million de neurones et 48 000 photorécepteurs par œil (contre 127 millions pour l’œil humain).
Le secret de ces insectes est l’« odométrie visuelle », c’est-à-dire l’aptitude à mesurer les distances en voyant le sol défiler entre les différents points de sa route aérienne, entre autres, mais aussi la reconnaissance de route par familiarité visuelle à très basse résolution et la vision de la polarisation du ciel pour trouver le cap à suivre.
Pour imiter l’œil des insectes, nous avons développé en 2013 le premier capteur visuel miniature (1,75 gramme) de type œil composé de 630 petits yeux élémentaires, appelé CurvACE.
Ce capteur, aux performances toujours inégalées à ce jour, est capable de mesurer des vitesses de défilement de contrastes visuels, que ce soit par un clair de lune ou une journée très ensoleillée. L’avantage majeur de cet œil composé est son large champ visuel panoramique horizontal de 180° et vertical de 60° pour une taille de seulement 15 millimètres de diamètre et une consommation de quelques milliwatts. Même si les récepteurs GPS consomment autant que le capteur CurvACE, les calculs effectués pour déterminer votre position à partir des signaux satellitaires sont extrêmement coûteux. C’est pour cela que la navigation sur smartphone est très consommatrice d’énergie. À cela, il faut ajouter le coût énergétique et écologique de l’entretien des constellations de satellites.
Puis, nous avons équipé un drone miniature de 80 grammes d’une paire de capteurs CurvACE, grâce auxquels il peut suivre un relief accidenté. Ce type de capteur pesant seulement quelques milligrammes pourrait équiper les drones de demain.
Les fourmis du désert Cataglyphis, que l’on retrouve principalement en milieux désertiques et sur le pourtour méditerranéen, sont capables de parcourir jusqu’à un kilomètre pour trouver leur nourriture, puis de rentrer au nid en moins de trente minutes, sur un sol pouvant atteindre plus de 50 °C. Pour cela, la fourmi compte ses pas, exploite l’« odométrie visuelle », et trouve son cap en observant la lumière diffusée par le ciel.
Notre robot fourmi AntBot est équipé de capteurs visuels inspirés des fourmis. Le premier est une boussole optique constituée de deux photorécepteurs sensibles au rayonnement ultraviolet et surmontés de filtres polarisants. En faisant tourner ces filtres, il est possible de scanner le ciel pour trouver l’axe de symétrie de motif de polarisation du ciel représentant une direction à suivre, puis de déterminer le cap du robot avec une précision inférieure à 0,5° représentant la taille optique de la lune ou du soleil dans le ciel.
Le second capteur est une rétine artificielle composée de 12 photorécepteurs, dénommé M2APix, qui s’adaptent aux changements de luminosité comme l’œil composé artificiel CurvACE. La distance est alors calculée en combinant le comptage de pas et le défilement optique, comme le font les fourmis du désert.
Testé sous diverses couvertures nuageuses, le robot AntBot s’est repositionné de façon autonome avec une erreur de sept centimètres, soit une valeur presque 100 fois plus faible que celle d’un dispositif de géolocalisation après un trajet de quinze mètres. Ce mode de navigation pourrait être intégré aux véhicules autonomes et intelligents afin de fiabiliser les systèmes de navigation autonomes par la combinaison de différentes façons de mesurer sa position.
En effet, les signaux de géolocalisation sont actuellement émis par des satellites au moyen d’ondes électromagnétiques de fréquences allant de 1,1 GHz à 2,5 GHz, très voisine de celles de la téléphonie mobile et peuvent être brouillés ou usurpés par un émetteur terrestre émettant un signal identique à celui d’un satellite. Bénéficier d’un dispositif capable de se localiser de façon autonome, sans se connecter à une entité extérieure, permettra de fiabiliser les véhicules autonomes sans pour autant consommer plus d’énergie et de ressources pour les faire fonctionner.
Julien Serres a reçu des financements de la part de l'Agence de l'Innovation Défense (AID), du Centre National de la Recherche Scientifique (CNRS), d'Aix Marseille Université (amU), de la Fondation Amidex, de la Région Sud (Provence-Alpes-Côte d'Azur), et de la Société d'Accélération du Transfert de Technologies Sud-Est (SATT Sud-Est).
02.04.2025 à 12:22
Laurent Vercueil, Neurologue hospitalier - CHU Grenoble Alpes (CHUGA) ; Laboratoire de Psychologie & Neurocognition. Equipe VISEMO. Université Grenoble Alpes, Université Grenoble Alpes (UGA)
Connaissez-vous le « shifting » ? Cette pratique consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire. Certains « shifteurs » racontent qu’ils sont capables de se projeter dans le monde de Harry Potter et de ressentir des sensations visuelles ou sonores.
Le confinement lors de la pandémie de Covid-19 a eu des effets significatifs sur l’activité humaine, à l’échelle de la société, bien sûr, mais également sur le plan individuel. Par exemple, une étude canadienne récente a montré que la consommation d’alcool avait augmenté pendant cette période, ce qui peut être le témoignage d’une tendance à fuir une réalité morose, privée des activités mobilisant habituellement l’intérêt. La difficulté à faire face à une réalité non souhaitée peut aussi venir expliquer l’observation d’une augmentation d’une pratique appelée « shifting » qui s’est propagée par les réseaux sociaux particulièrement au sein de la population adolescente.
Sous ce terme, on trouve une pratique qui peut se définir comme un désengagement de la réalité présente pour investir une réalité fantasmatique, souvent inspirée de la culture populaire, dans laquelle le sujet vit une expérience immersive gratifiante. Ainsi, une jeune fille se décrit basculant dans un monde inspiré de celui de Harry Potter, au sein duquel elle évolue en interagissant avec ses héros préférés. Il s’agit d’un voyage imaginaire, plus ou moins sous contrôle, interrompu par le retour à la réalité.
L’aspect « technique », qui donne son nom à cette pratique (« shifting » signifie « déplacement », « changement »), consiste dans l’aptitude à basculer de la réalité vers cette expérience imaginaire de façon volontaire. Un autre aspect souligné par les pratiquants est l’adhésion puissante à cette réalité « désirée », qui nécessite de suspendre l’incrédulité usuelle, pour apprécier pleinement le contenu de l’imagerie visuelle et sonore constituant l’expérience. C’est précisément cette adhésion et la suspension de l’incrédulité qui semblent susciter l’inquiétude de l’entourage ou des professionnels de santé, en ce qu’elles pourraient menacer l’adaptation du sujet à la réalité « vraie ».
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce que les pratiquants du shifting décrivent s’apparente à une forme de voyage mental sous contrôle.
Le voyage mental repose sur le désengagement de la situation présente pour générer une représentation mentale spécifique : par exemple, l’évocation d’un souvenir personnel repose sur l’activation d’une scène tirée du passé, qui est « rejouée » mentalement. Le voyage mental peut aussi être involontaire, avec l’irruption de souvenirs autobiographiques, ou de scènes fantaisistes, sans lien avec la réalité. Néanmoins, il demande toujours au sujet de se désengager de l’activité en cours, qui doit être suspendue, sauf s’il s’agit d’une activité routinière, de faible exigence, comme la marche, le tricot ou toute activité répétitive monotone, qui pourrait même favoriser le voyage.
Nous avons récemment publié un article de synthèse sur le voyage mental. Des travaux expérimentaux récents ont permis de mieux comprendre, chez l’animal, comment fonctionnait cette aptitude, qui n’est donc aucunement l’apanage de l’être humain, qui permet de se désengager du présent pour voyager mentalement dans l’espace et dans le temps.
Dans cet article, nous ne traiterons pas la question du « pourquoi » les adeptes du shifting font ce qu’ils font. Les neurosciences portent davantage sur le « comment », à la recherche des corrélats neuronaux des expériences subjectives.
Ainsi, nos activités mentales (et les comportements efférents) peuvent être classées en trois grands modes, entre lesquels nous naviguons en fonction des contextes :
d’abord, le mode « exploitation », qui consiste à remplir les tâches dictées par l’environnement, sous la forme d’un certain asservissement du cerveau à ses routines,
ensuite, le mode « exploration », lorsque nous sommes confrontés à un contexte nouveau qui nous contraint à développer des stratégies originales au résultat incertain,
enfin, le mode « désengagé », où l’absence de contrainte environnementale nous rend susceptibles de nous livrer à une activité autonome, de « vagabondage mental » (le fameux voyage) qui consiste à tripoter des idées, ressasser le passé, envisager l’avenir, etc.
Depuis les travaux pionniers du neurologue Marcus Raichle, nous savons que ce troisième mode, considéré comme un mode « par défaut », dans lequel le sujet bascule lorsqu’il n’a rien à faire (ni exploiter ni explorer), repose sur un réseau cérébral impliquant les territoires frontaux et pariétaux.
Or, le shifting repose sur un désengagement du réel, et la réalisation d’un voyage mental « contrôlé », où le sujet maîtrise, en partie au moins, le cours de son imagerie mentale.
Une étude expérimentale menée chez le rat, publiée en 2023 dans la revue Science, montre que le voyage mental peut être suivi littéralement à la trace chez l’animal.
Dans cette expérience, le rat est placé sur une sphère mobile sur laquelle il se déplace dans toutes les directions. Ces déplacements sont reportés dans un environnement virtuel qui lui est présenté sur un écran placé devant lui, de sorte qu’il peut se promener à son gré dans un labyrinthe numérique, à la recherche d’une récompense délivrée lorsqu’il atteint son but.
Ce faisant, les activités des neurones de l’hippocampe, appelés « place cells » (« cellules de lieu ») parce qu’ils codent la situation de l’animal dans l’espace, sont enregistrées afin de constituer une cartographie neuronale de ses déplacements. À l’aide de ces enregistrements, et à force de répétitions des essais, les chercheurs peuvent identifier l’endroit où se trouve l’animal dans le labyrinthe.
Et c’est là que la prouesse expérimentale réside : les chercheurs débranchent la connexion de la molette de déplacement à l’environnement virtuel et connectent, à la place, l’activité des neurones hippocampiques. Ainsi, le labyrinthe dans lequel le rat se déplace n’est plus liée à ses déplacements effectifs mais au plan cérébral qu’il est en train de suivre ! Et ça marche : le rat parvient à sa destination (virtuelle) et reçoit sa récompense (réelle). En somme, il ne se déplace que « dans sa tête », et non pas dans un environnement. Il réalise parfaitement un voyage mental.
Une autre expérimentation, plus récente encore, menée chez l’animal, a permis de cibler le commutateur qui permet de basculer d’une tâche vers un désengagement de l’environnement. Des souris dont les différentes populations de neurones du noyau du raphé médian, dans le tronc cérébral, sont influencées par le dispositif expérimental peuvent basculer d’un mode à l’autre sous l’effet de l’une des trois populations (neurones à GABA, glutamate et sérotonine), correspondant aux trois catégories décrites plus haut : exploitation, exploration et désengagement.
Ainsi, la suppression de l’activité des neurones sérotoninergiques du noyau du raphé médian permet le désengagement. L’activation ou l’inhibition de l’une des trois populations de neurones permet de basculer d’un mode à l’autre. Le shifting exploite probablement ces propriétés spécifiques, tout en développant une certaine expertise du désengagement, lorsque, tout au moins, le contexte le permet.
Mais pratiquer le voyage mental et désengager facilement ne doit pas suffire à faire l’expérience d’un shifting satisfaisant, il faut aussi, et c’est sans doute le point le plus critique, parvenir à suspendre son incrédulité. Celle-ci agit comme une sorte de « filtre de réalité », consistant à détecter les irrégularités de notre expérience mentale pour distinguer ce qui relève de la perception de ce qui appartient à notre propre fantaisie.
Nous pouvons tous imaginer des éléphants roses et les classer correctement dans les produits de cette imagination. Durant le sommeil, les structures qui assurent ce discernement entre fantaisie et réalité (le cortex orbitofrontal et le gyrus cingulaire antérieur) ont une activité qui est suffisamment inactivée pour que nous puissions adhérer au contenu de nos rêves, en dépit de leur caractère fantastique.
Au cours de l’hypnose, ces processus de critique de la réalité sont également mis au repos, de sorte que nous pouvons adhérer à des représentations erronées (par exemple, mon bras est paralysé). Il est vraisemblable qu’un tel processus, comme le suggèrent les méthodes proposées pour faciliter le shifting, et qui sont évocatrices d’une forme d’autohypnose, soit à l’œuvre pour que le sujet adhère au contenu de son voyage.
La pratique du « shifting » consiste donc à exploiter une propriété générale, propre à l’humain et à de nombreux animaux probablement, qui est de pouvoir s’abstraire du réel pour se projeter dans un monde imaginaire, réalisant un voyage mental. Nous commençons à connaître les opérateurs cérébraux de cette expérience, mais son contenu subjectif reste hors de portée : c’est bien ce qui fait toute sa magie.
Laurent Vercueil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.