LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

14.04.2025 à 17:34

Que sont les GPU, cette technologie à laquelle on doit l’essor des jeux vidéo et de l’IA ?

Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d'informatique en image et systèmes d'information, INSA Lyon – Université de Lyon

Les GPU ont permis l’explosion des jeux vidéo dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Texte intégral (1939 mots)

Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.


Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.

Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.

Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.

Qu’est-ce qu’un GPU ?

Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.

La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.

Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


GPU et jeux vidéos

Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.

Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.

Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.


À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille


Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.

Du jeu vidéo à l’IA

Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.

Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.

Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.

Vers la spécialisation des GPU pour l’IA

Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.

Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.

Souveraineté et IA : le prisme des GPU

Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.

Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.

Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.

L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.

Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.

The Conversation

Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.

12.04.2025 à 16:55

Pour lutter contre la désinformation sur les réseaux, tirer des leçons de la régulation audiovisuelle

Winston Maxwell, Directeur d'Etudes, droit et numérique, Télécom Paris – Institut Mines-Télécom

Nicolas Curien, Professeur émérite honoraire du CNAM, Académie des technologies

L’asymétrie entre la régulation des chaînes de télé et de radio et les réseaux sociaux est de moins en moins justifiée. La régulation pourrait être adaptée pour les algorithmes.
Texte intégral (2054 mots)

Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».

De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.


La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.

À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.

Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.

Une asymétrie réglementaire entre réseaux sociaux et audiovisuel

Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.

Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.

Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.

Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.

Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Asymétrie de moins en moins justifiée

Trois principales raisons sont invoquées.

Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.

Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que

« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».

Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.

Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.

Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.

Vers des algorithmes pluralistes…

À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.

Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.

Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.

Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.

Mesurer le degré d’artificialité, une approche qui fait ses preuves

Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.

Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.

Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.

Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.

The Conversation

Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).

Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.

10.04.2025 à 17:08

« The Last of Us » et les champignons : la vraie menace n’est pas celle des zombies…

Thomas Guillemette, Professeur de Microbiologie, Université d'Angers

La saison 2 de la série « The Last of Us » a commencé le 14 avril. Le scénario de zombification est peu probable mais les champignons peuvent présenter des menaces.
Texte intégral (2397 mots)
Que devraient vraiment craindre les héros de la série « The Last of Us » ? HBO

La saison 2 de la série américaine post-apocalyptique « The Last of Us » a commencé le 14 avril. Elle jette la lumière sur des champignons du genre Ophiocordyceps, connus par les scientifiques comme des parasites d’insectes et d’autres arthropodes capables de manipuler le comportement de leur hôte. Dans la série, suite à des mutations, ils deviennent responsables d’une pandémie mettant à mal la civilisation humaine. Si, dans le monde réel, ce scénario est heureusement plus qu’improbable, il n’en demeure pas moins que ces dernières années de nombreux scientifiques ont alerté sur les nouvelles menaces que font porter les champignons sur l’humain dans un contexte de dérèglement climatique.


L’attente a été longue pour les fans mais elle touche à sa fin : la sortie de la saison 2 de la série américaine post-apocalyptique « The Last of Us » est prévue pour ce 14 avril 2025. Cette série a été acclamée par le public comme par les critiques et a reçu plusieurs prix. Elle est l’adaptation d’un jeu vidéo homonyme sorti en 2013 qui s’est lui-même vendu à plusieurs dizaines de millions d’exemplaires. Le synopsis est efficace et particulièrement original : depuis 2003, l’humanité est en proie à une pandémie provoquée par un champignon appelé cordyceps. Ce dernier est capable de transformer des « infectés » en zombies agressifs et a entraîné l’effondrement de la civilisation. Les rescapés s’organisent tant bien que mal dans un environnement violent dans des zones de quarantaine contrôlées par une organisation militaire, la FEDRA. Des groupes rebelles comme les « Lucioles » luttent contre ce régime autoritaire.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Des insectes zombifiés

Les développeurs Neil Druckmann et Bruce Staley racontent que l’idée du jeu vidéo est née suite au visionnage d’un épisode de la série documentaire Planète Terre diffusée sur la chaîne BBC.

Cet épisode très impressionnant montre comment le champignon Ophiocordyceps unilateralis qui a infecté une fourmi prend le contrôle sur son hôte en agissant sur le contrôle des muscles pour l’amener à un endroit en hauteur particulièrement propice à la dissémination du mycète vers d’autres fourmis.

Une fourmi infectée par le champignon Ophiocordyceps unilateralis. On la voit accrochée à une feuille en hauteur
Une fourmi infectée par le champignon Ophiocordyceps unilateralis. On la voit accrochée à une feuille en hauteur. David P. Hughes, Maj-Britt Pontoppidan/Wikipedia, CC BY

Certains parlent de fourmis zombies et d’un champignon qui joue le rôle de marionnettiste. Une fois en hauteur, la fourmi plante ses mandibules dans une tige ou une feuille et attend la mort.

De manière surprenante, les fourmis saines sont capables de reconnaître une infection et s’empressent de transporter le congénère infecté le plus loin possible de la colonie. En voici la raison : le champignon présent à l’intérieur de l’insecte va percer sa cuticule et former une fructification (un sporophore) permettant la dissémination des spores (l’équivalent de semences) à l’extérieur. Ces spores produites en grandes quantités sont à l’origine de nouvelles infections lorsqu’elles rencontrent un nouvel hôte.

Bien que spectaculaire, ce n’est pas la seule « manipulation comportementale » connue d’un hôte par un champignon. On peut citer des cas de contrôle du vol de mouches ou de cigales, si bien que l’insecte devient un vecteur mobile pour disséminer largement et efficacement les spores fongiques dans l’environnement. Les mécanismes moléculaires qui supportent le contrôle du comportement des fourmis commencent seulement à être percés, ils sont complexes et semblent faire intervenir un cocktail de toxines et d’enzymes.

La bonne nouvelle est que le scénario d’un saut d’hôte de l’insecte à l’homme est peu crédible, même si ce phénomène est assez fréquent chez les champignons. C’est le cas avec des organismes fongiques initialement parasites d’arthropodes qui se sont finalement spécialisés comme parasites d’autres champignons.

La principale raison est que l’expansion à un nouvel hôte concerne préférentiellement un organisme proche de l’hôte primaire. Il est clair dans notre cas que l’humain et l’insecte ne constituent pas des taxons phylogénétiques rapprochés. Il existe aussi des différences physiologiques majeures, ne serait-ce que la complexité du système immunitaire ou la température du corps, qui constituent un obstacle sans doute infranchissable pour une adaptation du champignon Ophiocordyceps. Un autre facteur favorisant des sauts d’hôte réussis concerne une zone de coexistence par des préférences d’habitat qui se chevauchent au moins partiellement. Là encore on peut estimer que les insectes et les humains ne partagent pas de façon répétée et rapprochée les mêmes micro-niches écologiques, ce qui écarte l’hypothèse d’un saut d’Ophiocordyceps à l’Homme.

De véritables menaces pour les humains

Une fois écartée la menace imminente de la zombification massive, il n’en demeure pas moins que les infections fongiques ont été identifiées par les scientifiques comme un danger de plus en plus préoccupant. Lors des dernières décennies, un nombre croissant de maladies infectieuses d’origine fongique a été recensé que ce soit chez les animaux ou chez les plantes cultivées et sauvages.

L’inquiétude est telle que Sarah Gurr, pathologiste végétal à l’Université d’Oxford, a co-signé un commentaire dans la revue Nature en 2023 qui fait figure d’avertissement. Elle met en garde contre l’impact « dévastateur » que les maladies fongiques des cultures auront sur l’approvisionnement alimentaire mondial si les agences du monde entier ne s’unissent pas pour trouver de nouveaux moyens de combattre l’infection. À l’échelle de la planète, les pertes provoquées par des infections fongiques sont estimées chaque année entre 10 et 23 % des récoltes, malgré l’utilisation généralisée d’antifongiques. Pour cinq cultures fournissant des apports caloriques conséquents, à savoir le riz, le blé, le maïs, le soja et les pommes de terre, les infections provoquent des pertes qui équivalent à une quantité de nourriture suffisante pour fournir 2 000 calories par jour de quelque 600 millions à 4 milliards de personnes pendant un an. La sécurité alimentaire s’apprête donc à faire face à des défis sans précédent car l’augmentation de la population se traduit par une hausse de la demande.

L’impact dévastateur des maladies fongiques sur les cultures devrait de plus s’aggraver dans les années à venir en raison d’une combinaison de facteurs. Tout d’abord, le changement climatique s’accompagne d’une migration régulière des infections fongiques vers les pôles, ce qui signifie que davantage de pays sont susceptibles de connaître une prévalence plus élevée d’infections fongiques endommageant les récoltes.

Ce phénomène pourrait être par exemple à l’origine de l’identification de symptômes de rouille noire du blé en Irlande en 2020. Cette maladie touche exclusivement les parties aériennes de la plante, produisant des pustules externes et perturbant en particulier la nutrition. Elle est à l’origine de pertes de rendements conséquentes, pouvant aller jusqu’à 100 % dans des cas d’infection par des isolats particulièrement virulents.

Ensuite, la généralisation en agriculture des pratiques de monoculture, qui impliquent de vastes zones de cultures génétiquement uniformes, constitue des terrains de reproduction idéaux pour l’émergence rapide de nouveaux variants fongiques. N’oublions pas que les champignons sont des organismes qui évoluent rapidement et qui sont extrêmement adaptables. À cela s’ajoute que les champignons sont incroyablement résistants, restant viables dans le sol pendant plusieurs années, que les spores peuvent voyager dans le monde entier, notamment grâce à des échanges commerciaux de plus en plus intenses. Un dernier point loin d’être négligeable est que les champignons pathogènes continuent à développer une résistance aux fongicides conventionnels.

Des risques pour la santé humaine

L’impact des champignons sur la santé humaine a aussi tendance à être sous-estimé, bien que ces pathogènes infectent des milliards de personnes dans le monde et en tuent plus de 1,5 million par an.

Certains évènements récents préoccupent particulièrement les scientifiques. C’est le cas de Candida auris qui serait le premier pathogène fongique humain à émerger en raison de l’adaptation thermique en réponse au changement climatique. Cette levure constitue une nouvelle menace majeure pour la santé humaine en raison de sa capacité à persister, notamment, dans les hôpitaux et de son taux élevé de résistance aux antifongiques. Depuis le premier cas rapporté en 2009 au Japon, des infections à C. auris ont été signalées dans plus de 40 pays, avec des taux de mortalité compris entre 30 et 60 %. La majorité de ces infections survient chez des patients gravement malades dans des unités de soins intensifs.

L’augmentation alarmante du nombre de pathogènes résistants aux azoles est d’ailleurs une autre source d’inquiétude. Les azoles sont largement utilisés en agriculture comme fongicides, mais ils sont également utilisés en thérapeutique pour traiter les infections fongiques chez les humains et les animaux. Leur double utilisation en agriculture et en clinique a conduit à l’émergence mondiale d’une résistance aux azoles notamment chez C. auris mais aussi chez les champignons du genre Aspergillus. Ceux-ci sont depuis longtemps considérés comme des pathogènes humains majeurs, avec plus de 300 000 patients développant cette infection chaque année.

Les nombreuses émergences et l’identification de la résistance aux antifongiques chez de multiples champignons pathogènes apportent des éléments de poids aux défenseurs du concept « One Health », qui préconisent que les santés humaine, végétale et animale soient considérées comme étroitement interconnectées. Ces chercheurs issus d’universités prestigieuses proposent des recommandations actualisées pour relever les défis scientifiques et de santé publique dans cet environnement changeant.

The Conversation

Thomas Guillemette a reçu des financements de l'ANR et de la Région Pays de La Loire.

09.04.2025 à 16:52

Ultra-trail : ce que révèle la science sur ce sport extrême

Mathilde Plard, Chercheuse CNRS - UMR ESO, Université d'Angers

Benoît Mauvieux, Maître de Conférences en STAPS - Physiologie des Environnements Extrêmes, Université de Caen Normandie

Pour la toute première fois, un ultra-trail scientifique a été organisé pour étudier les effets physiologiques et mentaux de l’effort prolongé.
Texte intégral (1681 mots)
L'ultra-trail scientifique de Clécy a permis d'étudier les réponses de 56 coureurs à un effort long et intense. Alexis Berg, Fourni par l'auteur

Pour la toute première fois, un ultra-trail scientifique a été organisé pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs sur un parcours de 156 kilomètres. De quoi déconstruire quelques mythes et d’accumuler de nouvelles connaissances sur cette pratique extrême.


Des cimes pyrénéennes aux sentiers escarpés de la Réunion, l’ultra-trail est devenu un phénomène global. Selon l’International Trail Running Association (ITRA), plus de 1,7 million de coureurs sont enregistrés dans leur base de données, et pas moins de 25 000 courses sont organisées chaque année dans le monde.

On distingue plusieurs formats de course à pied en nature : du trail découverte (distance inférieure à 21 km) à l’ultra-trail (distance supérieure ou égale à 80 km). Dans cette dernière classification, la distance 100 Miles (165 km) est la distance reine, même si, aujourd’hui il existe des ultra-trails de 330km (Tor des Geants) ou la Double Suisse-Pick (700 km).

Pourquoi un tel engouement ? La discipline séduit par son aspect immersif en pleine nature, sa capacité à procurer un sentiment d’évasion et de connexion profonde avec l’environnement. Cet attrait va au-delà du sport : il s’inscrit dans une philosophie de vie, une quête de dépassement personnel et d’expérience du présent.

Dans l’ouvrage collectif « Les Sentiers de la Science », nous explorons ces multiples dimensions du trail. Cet ouvrage réunit les contributions de plus de 40 chercheurs issus de disciplines variées et vise à éclairer scientifiquement cette discipline en pleine expansion. Il valorise notamment les résultats obtenus lors du protocole expérimental que nous avons mis en place pour l’ultra-trail de Clécy, en rendant accessibles au grand public les connaissances issues de cette expérience grandeur nature. L’ouvrage nourrit ainsi le débat sur la performance, l’expérience corporelle et la relation à la nature dans le trail.

Des Mythes et croyances à déconstruire ?

L’ultra-trail est souvent entouré de mythes par les pratiquants. Cette jeune discipline, pourtant de plus en plus documentée sur le plan scientifique, manque encore d’encadrement et de supports d’entraînement.

La littérature scientifique montre que la performance en ultra-trail est le fruit de compétences multiples : capacités respiratoires, force et endurance musculaire, gestion des allures de course, motivation et endurance mentale, capacité à s’alimenter et maintien de la glycémie, technique ou encore la gestion de la privation de sommeil.

Ces études de la performance montrent que des athlètes aux qualités différentes peuvent engager différemment certaines de leurs aptitudes pour une même performance finale. Elles démontrent pourquoi les femmes rivalisent largement avec les hommes sur ces distances. Il faut savoir que plus la distance augmente plus l’écart de performance diminue. On observe cela en cyclisme d’ultra longue distance également.

Étudier les contributions respectives de ces paramètres in-situ de la performance n’est pour autant pas facile pour les scientifiques. Généralement un de ces paramètres va être isolé et une équipe va étudier par exemple, la fatigue musculaire avant et après la course (sans finalement avoir une idée de l’évolution de cette fatigue pendant l’effort), parfois quelques mesures pendant la course sont réalisées et apportent davantage de connaissances. Mais cette approche isole tous les autres facteurs. Il est donc difficile de comprendre les interactions avec les autres fonctions : la diminution de la force est-elle corrélée à la glycémie ou à la privation de sommeil par exemple ?

L’ultra-trail de Clécy (156 kilomètres), organisé au cœur de la Suisse-Normande au sud de Caen, conçu comme une expérience scientifique grandeur nature, a permis de confronter ces croyances aux données factuelles.

Cette course a été pensée comme un laboratoire à ciel ouvert pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs représentant la diversité de la population présente sur un trail de niveau national : des coureurs de haut niveau et des amateurs, 75 % d’hommes et 25 % de femmes, avec des analyses détaillées de leur glycémie, des biomarqueurs sanguins inflammatoires, le sommeil, l’hydratation, les paramètres dynamiques tendineux, cardiaques et les adaptations musculaires,la température centrale, les paramètres biomécaniques de la foulée, etc.

Ce protocole a aussi été un défi sur le plan technologique et organisationnel. Certaines mesures étaient enregistrées en continu comme la température centrale du corps à l’aide d’une gélule gastro-intestinale qui envoyait toutes les minutes une donnée sur un moniteur, ou des capteurs implantés dans le triceps des coureurs mesurant en continu la glycémie. D’autres capteurs positionnés sur les chaussures mesuraient les paramètres biomécaniques de la foulée (temps de contact au sol, longueur de la foulée, puissance, cadence) et un gilet connecté permettait de suivre la fréquence cardiaque et respiratoire.

Les coureurs passaient différents tests, des échographies cardiaques pour comprendre comment les paramètres cardiaques évoluaient au cours de la course, des tests devant écran pour mesurer leur état de vigilance, des tests en réalité virtuelle pour perturber leur équilibre et comprendre comment leur système vestibulaire pouvait compenser le conflit sensoriel visuel, des tests de détente verticale pour mesurer la puissance musculaire.

D’autres études menées avec nos collègues proposent d’étudier la discipline de l’Ultra Trail par une approche davantage sociale portant sur trois grands axes d’étude qui structurent les travaux de recherche : engagement et profils des coureurs, facteurs mentaux et expérience corporelle, rôle des territoires et des événements dans le développement du trail.

Ultra-trail et expérience existentielle

Au-delà de la simple performance sportive, le trail représente aussi une véritable aventure intérieure. Les coureurs témoignent souvent d’un profond dépassement personnel, lié non seulement à l’effort physique mais aussi à une exploration plus intime de leurs sensations et émotions. Dans notre ouvrage, cette dimension existentielle est particulièrement soulignée : les participants racontent comment courir en pleine nature leur permet d’être pleinement attentifs à leurs sensations corporelles (comme le froid nocturne, les battements de leur cœur ou la tension musculaire). Ces expériences sensorielles intenses provoquent souvent une véritable gratitude envers leur environnement, particulièrement face aux paysages jugés spectaculaires ou « à couper le souffle ».

Concrètement, nous avons pu mesurer précisément comment les coureurs perçoivent ces sensations à l’aide d’un outil appelé State Mindfulness Scale, une échelle qui permet d’évaluer à quel point les coureurs sont conscients et présents dans leur corps pendant la course. Les résultats indiquent clairement que cette pratique améliore notablement la capacité des coureurs à ressentir intensément leur corps et à mieux identifier leurs limites physiques, favorisant ainsi une expérience enrichie et profonde du trail.

Dans une perspective philosophique, cela rejoint l’un de nos précédents articles publié dans The Conversation montrant comment cette discipline interroge notre rapport au monde.

Que retenir de notre expérience ?

Les résultats de l’étude du trail de Clécy et les contributions académiques permettent d’identifier plusieurs recommandations :

  • Individualiser l’entraînement : il n’existe pas de recette universelle, chaque coureur doit écouter son corps.

  • Optimiser la récupération : la gestion du sommeil est un levier essentiel de performance et de bien-être.

  • Accepter l’incertitude : la préparation mentale est une clé pour affronter l’inconnu et la fatigue extrême.

  • Ne pas minimiser la période de récupération : on observe une forte élévation des marqueurs inflammatoire, une hyperglycémie et un sommeil de mauvaise qualité sur les nuits suivantes.

  • Rester vigilant à l’automédicamentation : ne jamais courir sous anti-inflammatoire.

  • Rester vigilant sur les troubles du comportement alimentaire et l’addiction à l’activité.

L’ultra-trail apparaît ainsi comme une école du vivant, entre prouesse athlétique et exploration humaine. La science permet aujourd’hui de mieux comprendre ce phénomène, tout en laissant place à la magie de l’expérience personnelle.

The Conversation

Mathilde Plard a reçu des financements de l'Université d'Angers pour la mise en place du protocole scientifique sur les dimensions psychosociales de l'Ultra Trail Scientifique de Clécy.

Benoît Mauvieux a reçu des financements des Fonds Européens (FEDER) et de la Région Normandie pour le financement de l'Ultra Trail Scientifique de Clécy (RIN APEEX : Adaptations physiologiques en environnements extrêmes)

03.04.2025 à 20:03

Les bonobos font des phrases (presque) comme nous

Mélissa Berthet, Docteur en biologie spécialisée en comportement animal, University of Zurich

Une nouvelle étude démontre que les bonobos créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain.
Texte intégral (2305 mots)

Les bonobos – nos plus proches parents vivants – créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain. Nos résultats, publiés aujourd’hui dans la revue Science, remettent en question de vieilles croyances sur ce qui rend la communication humaine unique et suggèrent que certains aspects clés du langage ont une origine évolutive ancienne.


Les humains combinent sans effort les mots en phrases, ce qui nous permet de parler d’une infinité de sujets. Cette capacité repose sur la syntaxe compositionnelle (ou « syntaxe » dans la suite de ce texte) – la capacité de créer des combinaisons d’unités porteuses de sens dont le sens global est dérivé du sens des unités et de la façon dont elles sont agencées. Par exemple, l’expression « robe bleue » a un sens dérivé de « robe » et « bleue », elle est compositionnelle – au contraire de « tourner autour du pot », dont le sens n’a rien à voir avec « tourner » et « pot ».

La syntaxe nous permet par exemple de combiner les mots en phrases, elle est omniprésente dans notre communication. Au contraire, quelques rares exemples isolés de syntaxe ont été observés chez d’autres espèces, comme les mésanges japonaises et les chimpanzés. Les scientifiques ont donc longtemps pensé que l’omniprésence de la syntaxe était propre au langage humain et que les combinaisons vocales chez les animaux n’étaient surtout qu’une simple juxtaposition aléatoire de cris. Pour vérifier cela, nous avons mené une étude approfondie de la communication vocale des bonobos dans leur habitat naturel, la réserve communautaire de Kokolopori (République démocratique du Congo). Nos résultats révèlent que, tout comme le langage humain, la communication vocale des bonobos repose également largement sur la syntaxe.

Un dictionnaire bonobo

Étudier la syntaxe chez les animaux nécessite d’abord une compréhension approfondie du sens des cris, isolés et combinés. Cela a longtemps représenté un défi majeur, car il est difficile d’infiltrer l’esprit des animaux et décoder le sens de leurs cris. Avec mes collègues biologistes de l’Université de Zürich et de Harvard, nous avons donc développé une nouvelle méthode pour déterminer avec précision la signification des vocalisations animales et l’avons appliquée à l’ensemble des cris de bonobos, aussi bien les cris isolés que les combinaisons.

Nous sommes partis du principe qu’un cri pouvait donner un ordre (par exemple, « Viens »), annoncer une action future (« Je vais me déplacer »), exprimer un état interne (« J’ai peur ») ou faire référence à un événement externe (« Il y a un prédateur »). Pour comprendre de manière fiable le sens de chaque vocalisation tout en évitant les biais humains, nous avons décrit en détail le contexte dans lequel chaque cri était émis, en utilisant plus de 300 paramètres contextuels.

Par exemple, nous avons décrit la présence d’événements externes (y avait-il un autre groupe de bonobos à proximité ? Est-ce qu’il pleuvait ?) ainsi que le comportement du bonobo qui criait (était-il en train de se nourrir, de se déplacer, de se reposer ?). Nous avons également analysé ce que l’individu qui criait et son audience faisaient dans les deux minutes suivant l’émission du cri, c’est-à-dire tout ce qu’ils commençaient à faire, continuaient à faire ou arrêtaient de faire. Grâce à cette description très détaillée du contexte, nous avons pu attribuer un sens à chaque cri, en associant chaque vocalisation aux éléments contextuels qui lui étaient fortement corrélés. Par exemple, si un bonobo commençait toujours à se déplacer après l’émission d’un certain cri, alors il était probable que ce cri signifie « Je vais me déplacer ».

Grâce à cette approche, nous avons pu créer une sorte de dictionnaire bonobo – une liste complète des cris et de leur sens. Ce dictionnaire constitue une avancée majeure dans notre compréhension de la communication animale, car c’est la première fois que des chercheurs déterminent le sens de l’ensemble des vocalisations d’un animal.

Un whistle a un sens proche de « Restons ensemble ». Mélissa Berthet, CC BY-SA36,7 ko (download)

La syntaxe chez les bonobos

Dans la seconde partie de notre étude, nous avons développé une méthode pour déterminer si les combinaisons de cris des animaux étaient compositionnelles, c’est-à-dire, déterminer si les bonobos pouvaient combiner leurs cris en sortes de phrases. Nous avons identifié plusieurs combinaisons qui présentaient les éléments clés de la syntaxe compositionnelle. De plus, certaines de ces combinaisons présentaient une ressemblance frappante avec la syntaxe plus complexe qu’on retrouve dans le langage humain.

Dans le langage humain, la syntaxe peut prendre deux formes. Dans sa version simple (ou « triviale »), chaque élément d’une combinaison contribue de manière indépendante au sens global, et le sens de la combinaison est la somme du sens de chaque élément. Par exemple, l’expression « danseur blond » désigne une personne à la fois blonde et faisant de la danse ; si cette personne est aussi médecin, on peut également en déduire qu’elle est un « médecin blond ». À l’inverse, la syntaxe peut être plus complexe (ou « non triviale ») : les unités d’une combinaison n’ont pas un sens indépendant, mais interagissent de manière à ce qu’un élément modifie l’autre. Par exemple, « mauvais danseur » ne signifie pas qu’il s’agit d’une mauvaise personne qui est aussi danseuse. En effet, si cette personne est aussi médecin, on ne peut pas en conclure qu’elle est un « mauvais médecin ». Ici, « mauvais » ne possède pas un sens indépendant de « danseur », mais vient en modifier le sens.

Des études antérieures sur les oiseaux et les primates ont démontré que les animaux peuvent former des structures compositionnelles simples. Cependant, aucune preuve claire de syntaxe plus complexe (ou non triviale) n’avait encore été trouvée, renforçant l’idée que cette capacité était propre aux humains.

En utilisant une méthode inspirée de la linguistique, nous avons cherché à savoir si les combinaisons de cris des bonobos étaient compositionnelles. Trois critères doivent être remplis pour qu’une combinaison soit considérée comme telle : d’abord, les éléments qui la composent doivent avoir des sens différents ; ensuite, la combinaison elle-même doit avoir un sens distinct de celle de ses éléments pris séparément ; enfin, le sens de la combinaison doit être dérivé du sens de ses éléments. Nous avons également évalué si cette compositionnalité est non triviale, en déterminant si le sens de la combinaison est plus qu’une addition du sens des éléments.

Pour cela, nous avons construit un « espace sémantique » – une représentation en plusieurs dimensions du sens des cris des bonobos – nous permettant de mesurer les similarités entre le sens des cris individuels et des combinaisons. Nous avons utilisé une approche de sémantique distributionnelle qui cartographie les mots humains selon leur sens, en considérant que les mots avec un sens proche apparaissent dans des contextes similaires. Par exemple, les mots « singe » et « animal » sont souvent utilisés avec des termes similaires, tels que « poilu » et « forêt », ce qui suggère qu’ils ont un sens proche. À l’inverse, « animal » et « train » apparaissent dans des contextes différents et ont donc des sens moins proches.

Exemple d’espace sémantique cartographiant trois mots humains. Les mots « animal » et « singe » sont proches l’un de l’autre parce qu’ils ont un sens proche. Au contraire, « train » a un sens plus différent, il est plus loin de « animal » et « singe ». Mélissa Berthet, CC BY

Avec cette approche linguistique, nous avons pu créer un espace sémantique propre aux bonobos, où l’on a pu cartographier chaque cri et chaque combinaison de cris selon s’ils étaient émis dans des contextes similaires ou non (donc, s’ils avaient un sens proche ou non). Cela nous a permis de mesurer les liens entre le sens des cris et de leurs combinaisons. Cette approche nous a ainsi permis d’identifier quelles combinaisons répondaient aux trois critères de compositionnalité, et leur niveau de complexité (triviale vs non triviale).

Nous avons identifié quatre combinaisons de cris dont le sens global est dérivé du sens de leurs éléments, un critère clé de la compositionnalité. Fait important, chaque type de cri apparaît dans au moins une combinaison compositionnelle, tout comme chaque mot peut être utilisé dans une phrase chez les humains. Cela suggère que, comme dans le langage humain, la syntaxe est une caractéristique fondamentale de la communication des bonobos.

De plus, trois de ces combinaisons de cris présentent une ressemblance frappante avec les structures compositionnelles non triviales du langage humain. Cela suggère que la capacité à combiner des cris de manière complexe n’est pas unique aux humains comme on le pensait, et que cette faculté pourrait avoir des racines évolutives bien plus anciennes qu’on ne le pensait.

Essayons de faire la paix. Mélissa Berthet, CC BY44,4 ko (download)

Un bonobo émet un subtil « peep » (« Je voudrais… ») suivi d’un « whistle » (« Restons ensemble »). Ce cri est émis dans des situations sociales tendues, il a un sens proche de « Essayons de trouver un arrangement » ou « Essayons de faire la paix ».

L’évolution du langage

Une implication majeure de cette recherche est l’éclairage qu’elle apporte sur l’évolution de la syntaxe dans le langage. Si nos cousins bonobos utilisent de façon extensive la syntaxe compositionnelle, tout comme nous, alors notre dernier ancêtre commun le faisait probablement aussi. Cela suggère que la capacité à construire des sens complexes à partir de plus petites unités vocales était déjà présente chez nos ancêtres il y a au moins 7 millions d’années, voire plus tôt. Ces nouvelles découvertes indiquent que la syntaxe n’est pas propre au langage humain, mais qu’elle existait probablement bien avant que le langage n’émerge.

The Conversation

Mélissa Berthet a reçu des financements du Fond National Suisse (SNF).

03.04.2025 à 17:52

Séisme au Myanmar : les dessous tectoniques d’une catastrophe majeure

Christophe Vigny, chercheur en géophysique, École normale supérieure (ENS) – PSL

Les secousses du séisme du 28 mars au Myanmar ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans une plaine sédimentaire.
Texte intégral (2050 mots)

Un séisme a touché l’Asie du Sud-Est le 28 mars 2025. D’une magnitude de 7,7, son épicentre est localisé au Myanmar, un pays déjà très fragilisé par des années de guerre civile. Les secousses sismiques y ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans la plaine sédimentaire de la rivière Irrawady.


Le séisme du 28 mars qui s’est produit au Myanmar (Birmanie) est une catastrophe de très grande ampleur. Il s’agit d’un très gros séisme – la magnitude 7,7 est rarement atteinte par un séisme continental – de l’ordre des séismes de Turquie de février 2023, de Nouvelle-Zélande en novembre 2016, du Sichuan en mai 2008 ou encore d’Alaska en novembre 2002. Le choc principal a été suivi douze minutes plus tard par une première réplique.

Le bilan est très probablement très sous-estimé pour toutes sortes de raisons : difficultés d’accès, pays en guerre… et pourrait, selon mon expérience et l’institut américain de géologie, largement atteindre plusieurs dizaines de milliers de victimes.

Les raisons d’un tel bilan sont multiples : le séisme lui-même est très violent car d’une magnitude élevée, sur une faille très longue et avec une rupture peut-être très rapide. De plus, la faille court dans une vallée sédimentaire, celle de la rivière Irrawady, où les sols sont peu consolidés, ce qui donne lieu à des phénomènes de « liquéfaction », fatals aux constructions, pendant lesquels le sol se dérobe complètement sous les fondations des immeubles. Les constructions elles-mêmes sont d’assez faible qualité (bétons peu armés, avec peu de ciment, mal chaînés, etc.). Enfin, les secours sont peu organisés et lents, alors que de nombreux blessés ont besoin de soins rapides.


À lire aussi : Séisme au Myanmar ressenti en Asie du Sud-Est : les satellites peuvent aider les secours à réagir au plus vite


Le Myanmar repose sur un système tectonique chargé

Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Cette faille résulte de la tectonique des plaques dans la région : la plaque indienne « monte » vers le nord à près de 4 centimètres par an. Devant elle, l’Himalaya. Sur les deux côtés, à l’ouest et à l’est, deux systèmes de failles accommodent le glissement entre la plaque indienne et la plaque eurasienne. À l’est, c’est la faille de Sagaing, du nom d’une grande ville du pays.

Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Fourni par l'auteur

Des mesures GPS réalisées au Myanmar à la fin des années 1990 par notre équipe ont produit beaucoup de résultats : nous avons tout d’abord observé que la faille était bien bloquée. Ceci implique que le déplacement continu des plaques tectoniques indienne et eurasienne provoque bien de l’« accumulation de déformation élastique » dans les plaques, et que cette déformation devra être relâchée tout ou tard sous forme de séisme, quand l’accumulation dépassera le seuil de résistance de la friction sur le plan de faille.

Mais nous avions fait également une découverte un peu déconcertante : la faille de Sagaing n’accommodait qu’un peu moins de 2 centimètres par an de déformation (exactement 1.8), le reste des 4 centimètres par an imposé par le mouvement des plaques indiennes et eurasiennes devant être accommodé ailleurs… Mais où ? Mystère.

Les études suivantes suggérèrent que cette déformation manquante se produit plus à l’ouest, sur la subduction dite « Rakhine-Bangladesh ».

De nombreux séismes dans l’histoire birmane

Il y a eu beaucoup de séismes le long de l’histoire au Myanmar. Les études archéologiques menées au début des années 2000 sur la cité impériale de Pegu, dans le sud du Myanmar, ont révélé que les murs de celle-ci avaient été fréquemment rompus par des séismes (sept depuis la fin du XVIe siècle), mais aussi décalés, car la cité était construite exactement sur la faille. La mesure du décalage total entre deux morceaux de murs (6 mètres en 450 ans) donne une vitesse moyenne sur cette période de 1,4 centimètre par an.

Plus au Nord, la cité impériale de la ville de Mandalay est aussi marquée par les séismes : des statues massives ont été cisaillées par les ondes sismiques des tremblements de terre passés.

Mieux comprendre le cycle sismique, ou comment les contraintes s’accumulent avant d’être relâchées lors un séisme

Grâce à ces études, nous avons aujourd’hui une meilleure vision de la situation tectonique à Myanmar.

La faille est tronçonnée en segment plus ou moins long, de 50 à 250 kilomètres de longueur. Chacun de ces segments casse plus ou moins irrégulièrement, tous les 50-200 ans, produisant des séismes de magnitude allant de 6 à presque 8.

Le plus long segment est celui dit de Meiktila. Il fait environ 250 kilomètres entre Mandalay et Naypyidaw. Il a rompu pour la dernière fois en 1839, avec un séisme de magnitude estimée entre 7,6 et 8,1. Le calcul est donc finalement assez simple : ici, la déformation s’accumule autour de la faille au rythme de 1,8 centimètre par an et le dernier séisme s’est produit il y a 184 ans : le prochain séisme devra donc relâcher 3,3 mètres, avant que l’accumulation ne reprenne.

Or, un déplacement de 3,3 mètres sur une faille de 250 kilomètres de long et environ 15 kilomètres de profondeur correspond bien à un séisme de magnitude 7,7 – comme celui qui vient de frapper.

Enfin, les toutes premières analyses par imagerie satellitaire semblent indiquer que la rupture se serait propagée largement au sud de la nouvelle capitale Naypyidaw, sur presque 500 kilomètres de long au total. Elle aurait donc rompu, simultanément ou successivement plusieurs segments de la faille.

La prévision sismique : on peut anticiper la magnitude maximale d’un prochain séisme, mais pas sa date

Sur la base des considérations précédentes (faille bloquée, vitesse d’accumulation de déformation et temps écoulé depuis le dernier séisme), il est assez facile d’établir une prévision : un séisme est inévitable puisque la faille est bloquée alors que les plaques, elles, se déplacent bien. La magnitude que ce prochain séisme peut atteindre est estimable et correspond à la taille de la zone bloquée multipliée par la déformation accumulée (en admettant que le séisme précédent a bien « nettoyé » la faille de toutes les contraintes accumulées).

La difficulté reste de définir avec précision la date à laquelle ce séisme va se produire : plus tôt il sera plus petit, plus tard il sera plus grand. C’est donc la résistance de la friction sur la faille qui va contrôler le jour du déclenchement du séisme. Mais celle-ci peut varier en fonction du temps en raison de paramètres extérieurs. Par exemple, on peut imaginer qu’une faille qui n’a pas rompu depuis longtemps est bien « collée » et présente une résistance plus grande, à l’inverse d’une faille qui a rompu récemment et qui est fragilisée.

Ainsi, plutôt que des séismes similaires se produisant à des intervalles de temps réguliers, on peut aussi avoir des séismes de tailles différentes se produisant à intervalles de temps plus variables. Pour autant, la résistance de la faille ne peut dépasser une certaine limite et au bout d’un certain temps, le séisme devient inévitable. Il est donc logique de pouvoir évoquer la forte probabilité d’un séisme imminent sur un segment de faille donné, et d’une magnitude correspondant à la déformation accumulée disponible. La magnitude de 7,7 dans le cas du récent séisme sur la faille de Sagaing correspond exactement aux calculs de cycle sismique.

Par contre, la détermination de la date du déclenchement du séisme au jour près reste impossible. En effet, si la déformation augmente de quelques centimètres par an, elle n’augmente que de quelques centièmes de millimètres chaque jour, une très petite quantité en termes de contraintes.

La crise sismique est-elle terminée ?

Il y a toujours des répliques après un grand séisme, mais elles sont plus petites.

Il y a aujourd’hui au Myanmar assez peu de stations sismologiques, et les plus petites répliques (jusqu’à la magnitude 3) ne sont donc pas enregistrées. Les répliques de magnitude entre 3 et 4,5 sont en général perçues par le réseau thaïlandais, mais seules les répliques de magnitude supérieure à 4,5 sont enregistrées et localisées par le réseau mondial.

Il semble néanmoins qu’il y ait assez peu de répliques dans la partie centrale de la rupture, ce qui pourrait être une indication d’une rupture « super-shear » car celles-ci auraient tendance à laisser derrière elles une faille très bien cassée et très « propre ».

The Conversation

Christophe Vigny a reçu des financements de UE, ANR, MAE, CNRS, ENS, Total.

02.04.2025 à 12:23

La destruction des données scientifiques aux États-Unis : un non-sens intellectuel, éthique mais aussi économique

Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education

La destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance et la richesse des nations.
Texte intégral (2068 mots)

Dans un monde où l’information est devenue à la fois omniprésente et suspecte, la destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance partagée, le progrès scientifique global et, plus fondamentalement, la richesse des nations.


Depuis le 20 janvier 2025, l’administration aux commandes de la première puissance mondiale mène une campagne méthodique contre les données, particulièrement celles à caractère scientifique. Plus de 3 400 jeux de données, dont 2 000 à vocation scientifique, ont été supprimés des sites gouvernementaux américains. Cette offensive cible prioritairement les informations relatives au changement climatique, à la santé publique et à l’équité sociale. L’armée américaine a ainsi reçu l’ordre de supprimer tout contenu mettant en valeur ses efforts de diversité, y compris les images historiques des premières femmes ayant réussi l’entraînement pour intégrer l’infanterie du corps des Marines !

Des données cruciales de santé publique concernant l’obésité, les taux de suicide, le tabagisme chez les adolescents et les comportements sexuels ont également disparu des sites web du Center for Disease Control (CDC), l’équivalent états-unien de notre direction de maladies infectueuses (DMI) dont le rôle est de surveiller notamment les pandémies. Malgré une injonction judiciaire ordonnant la restauration de ces informations, des questions persistent quant à l’intégrité des données reconstituées.

Par ailleurs, des préoccupations émergent concernant la manipulation potentielle des statistiques économiques. Cette purge numérique s’accompagne d’interruptions de projets de recherche, de réductions drastiques des moyens et de licenciements de scientifiques de premier plan, notamment Kate Calvin, scientifique en chef de la Nasa.

L’administration a également ordonné la fin des échanges scientifiques internationaux, notamment entre la National Oceanic and Atmospheric Administration (NOAA) et l’Institut français de recherche pour l’exploitation de la mer (Ifremer). Cela fait craindre pour la précision des alertes sur les évènements majeurs, comme on avait pu le voir lors du Sharpiegate, où l’actuel président et les équipes le soutenant (dont l’actuel administrateur du NOAA déjà en poste à l’époque) avaient falsifié des cartes météo pour donner raison au président quant à la direction du cyclone « Dorian », et ce, contre l’évidence scientifique. Or, la précision de ces alertes est fondamentale pour sauver des vies.

Face à cette situation alarmante, certes, une résistance s’organise : des chercheurs tentent désespérément de préserver les données avant leur destruction. Malheureusement, la vitesse des coups portés à la preuve scientifique rend ces réponses bien dérisoires.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Une menace croissante pour le patrimoine scientifique mondial

Ce phénomène où des ensembles de données scientifiques, fruits de décennies de recherche minutieuse, sont anéantis sans considération pour leur valeur intrinsèque, ou verrouillés par des entités privées échappant largement au contrôle démocratique, interroge d’autant plus que ces mêmes acteurs ont souvent tiré profit des avancées permises par le libre partage des connaissances, par exemple les recherches introduisant l’architecture dite Transformer, publiées dans l’article « Attention Is All You Need » ont directement permis le développement du modèle commercial de Meta : LLaMA.

Dans ce contexte, la destruction de ces données représente non seulement une perte intellectuelle massive, mais aussi un non-sens économique flagrant. Comment justifier l’anéantissement d’actifs dont la valeur, bien que difficile à quantifier avec précision, est manifestement considérable ?

Évaluer l’inestimable : la valeur économique des données scientifiques

La valeur des données en tant qu’actif économique pour les nations et les entreprises est désormais un fait établi, documenté et largement accepté dans la littérature académique. Plusieurs méthodologies permettent d’évaluer cette valeur : le coût historique, les bénéfices futurs actualisés et la valeur de remplacement. Les coûts pour l’économie états-unienne sont donc aujourd’hui immédiatement quantifiables et dantesques.

L’approche par le coût historique consiste à calculer l’investissement total nécessaire à la production des données, incluant le financement de recherche, le temps de travail des chercheurs et l’infrastructure mobilisée. Mais certains soulignent que cette méthode comptable traditionnelle enregistre la valeur d’un actif à son coût d’acquisition initial, sans tenir compte des variations ultérieures de sa valeur. Aussi, la méthode des bénéfices futurs actualisés estime les avancées scientifiques et innovations potentielles découlant de l’exploitation des données sur plusieurs décennies. Elle permet de ramener les coûts et bénéfices futurs à leur valeur présente, ce qui est particulièrement pertinent pour les données scientifiques dont la valeur se déploie souvent sur le long terme.

Quant à la méthode de la valeur de remplacement, elle évalue le coût qu’impliquerait la reconstitution complète des bases de données si elles venaient à disparaître. L’OCDE recommande cette approche pour estimer la valeur des actifs de données, particulièrement lorsque les données sont uniques ou difficilement reproductibles, ce qui est clairement le cas des données de recherche. Aussi, la reconnaissance des données comme actif économique majeur est désormais bien établie, au même titre que tous autres actifs immatériels, désormais centraux dans l’économie moderne. Les données sont de la sorte devenues un facteur de production distinct, au même titre que le capital et le travail.

Une estimation conservatrice basée sur ces approches révèle que chaque jeu de données scientifiques majeur représente potentiellement des milliards d’euros de valeur. À titre d’exemple, le génome humain, dont le séquençage initial a coûté environ 2,7 milliards de dollars en quinze ans, a généré une valeur économique estimée à plus de 1 000 milliards de dollars US à travers diverses applications médicales et biotechnologiques, sans compter les recettes fiscales associées.

L’absurdité économique de la destruction et de la pollution informationnelle

Dans le contexte actuel, où l’intelligence artificielle (IA) se développe à un rythme fulgurant, le volume et la qualité des données deviennent des enjeux cruciaux. Le principe bien connu en informatique de « garbage in, garbage out » (ou GIGO, des données de mauvaise qualité produiront des résultats médiocres) s’applique plus que jamais aux systèmes d’IA qui sont dépendants de données de qualité pour assurer un entraînement des algorithmes efficients.

Ainsi, la destruction et la reconstruction erratique de sets de données à laquelle nous assistons aujourd’hui (on ne peut établir à ce stade que les données détruites ont été ou seront reconstituées avec sérieux et un niveau suffisant de qualité) génèrent une contamination délibérée ou négligente de l’écosystème informationnel par des données incorrectes, peut-être falsifiées ou biaisées.

Il y a là une double destruction de valeur : d’une part, par la compromission de l’intégrité des bases de données existantes, fruit d’investissements considérables ; d’autre part, en affectant la qualité des modèles d’IA entraînés sur ces données, perpétuant ainsi les biais et les erreurs dans des technologies appelées à jouer un rôle croissant dans nos sociétés. Sans données fiables et représentatives, comment espérer développer des systèmes d’IA sans biais et dignes de confiance ?

L’Europe comme sanctuaire de la donnée scientifique et terre d’accueil d’une IA éthique ?

Face à ces défis, l’Union européenne dispose d’atouts considérables pour s’imposer comme le gardien d’une science ouverte mais rigoureuse et le berceau d’une IA responsable. Son cadre réglementaire pionnier, illustré par le RGPD et l’AI Act, démontre sa capacité à établir des normes qualitatives élevées. Le cadre du RGPD permet de « concilier la protection des droits fondamentaux et la conduite des activités de recherche ». L’AI Act, entré en vigueur le 1er août 2024, entend « favoriser le développement et le déploiement responsables de l’intelligence artificielle dans l’UE », notamment dans des domaines sensibles comme la santé. L’Europe régule non pas pour porter atteinte à la liberté d’expression, mais, au contraire, pour proposer un environnement d’affaires sûr, de confiance et pacifié.

L’Union européenne pourrait donc créer un véritable « sanctuaire numérique » pour les données scientifiques mondiales, garantissant leur préservation, leur accessibilité et leur utilisation éthique. Ce sanctuaire reposerait sur trois piliers complémentaires dont l’essentiel est déjà en place du fait de la stratégie digitale :

  • un système d’archivage pérenne et sécurisé des données de recherche assurant leur préservation ;

  • des protocoles de partage ouverts mais encadrés, favorisant la collaboration internationale tout en protégeant l’intégrité des données ;

  • et un cadre d’utilisation garantissant que l’exploitation des données, notamment pour l’entraînement d’IA, respecte des principes éthiques clairs.

The Conversation

Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de sa participation aux projets de recherche DEFORM et ProRes.

02.04.2025 à 12:23

S’inspirer des insectes pour rendre les véhicules autonomes plus intelligents

Julien Serres, Professeur des Universités en biorobotique, Aix-Marseille Université (AMU)

Pour retrouver leur chemin, les abeilles et les fourmis s’appuient sur une perception de l’environnement bien différente de la nôtre… et dont s’inspirent certains roboticiens.
Texte intégral (2391 mots)
Abeille mellifère, _Apis mellifera_, à la recherche de nectar floral. Christian Guiraud (2021), Fourni par l'auteur

Nul besoin de connexion satellite pour que les abeilles et les fourmis retrouvent le chemin de leurs foyers. Leurs stratégies reposent sur des perceptions de l’environnement bien différentes de la nôtre, que décortiquent certains roboticiens… pour mieux les imiter.


Les insectes navigateurs possèdent de minuscules cervelles, de seulement un millimètre cube et pourtant… n’y aurait-il pas plus d’intelligence chez eux que ce que l’on imagine ?

Dans une certaine mesure, ces petits animaux sont plus performants en matière d’orientation spatiale que votre application mobile de navigation favorite et que les robots taxis américains… Ils n’ont pas besoin de se connecter à Internet pour retrouver leur foyer et consomment une quantité d’énergie absolument minuscule par rapport au supercalculateur dédié à la conduite autonome de Tesla.

Le biomimétisme consiste à puiser dans les multiples sources d’inspiration que nous offre la nature, qu’il s’agisse des formes — comme le design du nez du train Shinkansen 500, inspiré du bec du martin-pêcheur ; des matériaux — comme les écrans solaires anti-UV basés sur les algues rouges ; ou bien encore des synergies et des écosystèmes durables — comme la myrmécochorie qui utilise les fourmis pour accélérer la dispersion des graines et réparer plus vite les écosystèmes.

En effet, les solutions sélectionnées dans la nature se sont perfectionnées au long de l’évolution. Les yeux des insectes et leur traitement des images en sont un exemple frappant. Leur étude a donné naissance à de nouvelles caméras bio-inspirées dites « événementielles » ultrarapides. Les pixels de ses caméras sont lus et traités uniquement lorsqu’un changement de luminosité est détecté par un pixel et l’information est codée par des impulsions de très courte durée réduisant de facto la consommation énergétique et les temps de calcul. Ces petits animaux représentent alors une véritable banque de solutions pour les roboticiens, pour résoudre certains problèmes auxquels nous sommes confrontés.


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La biorobotique a ainsi pour finalité de comprendre le comportement animal au moyen de robots mobiles imitant soit leur système perceptif, soit leur mode de locomotion, ou bien encore le couplage entre ces deux systèmes.

Les résultats obtenus sont parfois contre-intuitifs pour les roboticiens et les roboticiennes. La biorobotique propose d’explorer la navigation autonome « déconnectée » ou « en mode avion », exploitant uniquement la lumière réfléchie par l’environnent ou diffusée par le ciel comme le font les insectes navigateurs pour trouver leur cap de manière optique ou bien les oiseaux pour se géolocaliser visuellement. Nous espérons que ces recherches permettront aux véhicules intelligents d’atteindre le même niveau d’agilité et de résilience que les insectes ou oiseaux navigateurs, abeilles mellifères et fourmis du désert en tête.

Voir son environnement comme un insecte : moins précis peut-être, mais parfois plus efficace

De façon surprenante, les insectes navigateurs possèdent une acuité visuelle plutôt mauvaise. Ainsi, les fourmis navigatrices possèdent une vision 300 fois moins précise que celle des humains en termes d’« acuité fovéale », qui est la capacité à discerner un petit objet à grande distance. De leur côté, les abeilles mellifères possèdent une vision 100 fois moins précise que les humains, mais elles réalisent pourtant quotidiennement des trajets de plusieurs kilomètres par jour, jusqu’à 13 kilomètres de la ruche… alors qu’elles ne mesurent que treize millimètres.

Cette distance représente un million de fois leur longueur de corps. C’est comme si un humain voyageait 1 000 kilomètres et était capable de retrouver son foyer sans demander d’aide à son téléphone. Il est tout à fait stupéfiant qu’un aussi petit animal soit capable de localiser sa ruche et de retrouver sa colonie à chaque sortie — avec seulement un million de neurones et 48 000 photorécepteurs par œil (contre 127 millions pour l’œil humain).

Le secret de ces insectes est l’« odométrie visuelle », c’est-à-dire l’aptitude à mesurer les distances en voyant le sol défiler entre les différents points de sa route aérienne, entre autres, mais aussi la reconnaissance de route par familiarité visuelle à très basse résolution et la vision de la polarisation du ciel pour trouver le cap à suivre.

Pour imiter l’œil des insectes, nous avons développé en 2013 le premier capteur visuel miniature (1,75 gramme) de type œil composé de 630 petits yeux élémentaires, appelé CurvACE.

Ce capteur, aux performances toujours inégalées à ce jour, est capable de mesurer des vitesses de défilement de contrastes visuels, que ce soit par un clair de lune ou une journée très ensoleillée. L’avantage majeur de cet œil composé est son large champ visuel panoramique horizontal de 180° et vertical de 60° pour une taille de seulement 15 millimètres de diamètre et une consommation de quelques milliwatts. Même si les récepteurs GPS consomment autant que le capteur CurvACE, les calculs effectués pour déterminer votre position à partir des signaux satellitaires sont extrêmement coûteux. C’est pour cela que la navigation sur smartphone est très consommatrice d’énergie. À cela, il faut ajouter le coût énergétique et écologique de l’entretien des constellations de satellites.

œil courbe électronique
Premier œil composé et courbe, réalisé dans le cadre du projet européen CurvACE. Ce capteur intègre une matrice de pixels autoadaptatifs (630 pixels) et leurs microoptiques de manière à former une juxtaposition de petits yeux élémentaires selon une courbe cylindrique. Dario Floreano, École polytechnique fédérale de Lausanne (EPFL), Laboratory of Intelligent Systems (LIS), Fourni par l'auteur

Puis, nous avons équipé un drone miniature de 80 grammes d’une paire de capteurs CurvACE, grâce auxquels il peut suivre un relief accidenté. Ce type de capteur pesant seulement quelques milligrammes pourrait équiper les drones de demain.

Naviguer sans dispositif de géolocalisation, ou comment déterminer la direction à prendre comme une fourmi du désert

Les fourmis du désert Cataglyphis, que l’on retrouve principalement en milieux désertiques et sur le pourtour méditerranéen, sont capables de parcourir jusqu’à un kilomètre pour trouver leur nourriture, puis de rentrer au nid en moins de trente minutes, sur un sol pouvant atteindre plus de 50 °C. Pour cela, la fourmi compte ses pas, exploite l’« odométrie visuelle », et trouve son cap en observant la lumière diffusée par le ciel.

Notre robot fourmi AntBot est équipé de capteurs visuels inspirés des fourmis. Le premier est une boussole optique constituée de deux photorécepteurs sensibles au rayonnement ultraviolet et surmontés de filtres polarisants. En faisant tourner ces filtres, il est possible de scanner le ciel pour trouver l’axe de symétrie de motif de polarisation du ciel représentant une direction à suivre, puis de déterminer le cap du robot avec une précision inférieure à 0,5° représentant la taille optique de la lune ou du soleil dans le ciel.

Photo du robot hexapode AntBot dont la boussole optique est inspirée de la fourmi du désert. Julien Dupeyroux, Institut des Sciences du Mouvement — Étienne-Jules Marey (CNRS/Aix-Marseille Université, ISM UMR7287) (2019), Fourni par l'auteur

Le second capteur est une rétine artificielle composée de 12 photorécepteurs, dénommé M2APix, qui s’adaptent aux changements de luminosité comme l’œil composé artificiel CurvACE. La distance est alors calculée en combinant le comptage de pas et le défilement optique, comme le font les fourmis du désert.

Testé sous diverses couvertures nuageuses, le robot AntBot s’est repositionné de façon autonome avec une erreur de sept centimètres, soit une valeur presque 100 fois plus faible que celle d’un dispositif de géolocalisation après un trajet de quinze mètres. Ce mode de navigation pourrait être intégré aux véhicules autonomes et intelligents afin de fiabiliser les systèmes de navigation autonomes par la combinaison de différentes façons de mesurer sa position.

En effet, les signaux de géolocalisation sont actuellement émis par des satellites au moyen d’ondes électromagnétiques de fréquences allant de 1,1 GHz à 2,5 GHz, très voisine de celles de la téléphonie mobile et peuvent être brouillés ou usurpés par un émetteur terrestre émettant un signal identique à celui d’un satellite. Bénéficier d’un dispositif capable de se localiser de façon autonome, sans se connecter à une entité extérieure, permettra de fiabiliser les véhicules autonomes sans pour autant consommer plus d’énergie et de ressources pour les faire fonctionner.

AntBot retourne à la maison comme une fourmi du désert. Source : Julien Serres — His personal YouTube channel.
The Conversation

Julien Serres a reçu des financements de la part de l'Agence de l'Innovation Défense (AID), du Centre National de la Recherche Scientifique (CNRS), d'Aix Marseille Université (amU), de la Fondation Amidex, de la Région Sud (Provence-Alpes-Côte d'Azur), et de la Société d'Accélération du Transfert de Technologies Sud-Est (SATT Sud-Est).

02.04.2025 à 12:22

Le « shifting » : comment la science décrypte ce phénomène de voyage mental prisé des ados

Laurent Vercueil, Neurologue hospitalier - CHU Grenoble Alpes (CHUGA) ; Laboratoire de Psychologie & Neurocognition. Equipe VISEMO. Université Grenoble Alpes, Université Grenoble Alpes (UGA)

Le « shifting » consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire et d’y ressentir des sensations visuelles ou sonores.
Texte intégral (1988 mots)
Vous rêvez de passer un moment dans le monde de _Harry Potter_ ? Ce serait possible avec la technique du « _shifting_ ». Khashayar Kouchpeydeh/Unsplash, CC BY

Connaissez-vous le « shifting » ? Cette pratique consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire. Certains « shifteurs » racontent qu’ils sont capables de se projeter dans le monde de Harry Potter et de ressentir des sensations visuelles ou sonores.


Le confinement lors de la pandémie de Covid-19 a eu des effets significatifs sur l’activité humaine, à l’échelle de la société, bien sûr, mais également sur le plan individuel. Par exemple, une étude canadienne récente a montré que la consommation d’alcool avait augmenté pendant cette période, ce qui peut être le témoignage d’une tendance à fuir une réalité morose, privée des activités mobilisant habituellement l’intérêt. La difficulté à faire face à une réalité non souhaitée peut aussi venir expliquer l’observation d’une augmentation d’une pratique appelée « shifting » qui s’est propagée par les réseaux sociaux particulièrement au sein de la population adolescente.

Sous ce terme, on trouve une pratique qui peut se définir comme un désengagement de la réalité présente pour investir une réalité fantasmatique, souvent inspirée de la culture populaire, dans laquelle le sujet vit une expérience immersive gratifiante. Ainsi, une jeune fille se décrit basculant dans un monde inspiré de celui de Harry Potter, au sein duquel elle évolue en interagissant avec ses héros préférés. Il s’agit d’un voyage imaginaire, plus ou moins sous contrôle, interrompu par le retour à la réalité.

L’aspect « technique », qui donne son nom à cette pratique (« shifting » signifie « déplacement », « changement »), consiste dans l’aptitude à basculer de la réalité vers cette expérience imaginaire de façon volontaire. Un autre aspect souligné par les pratiquants est l’adhésion puissante à cette réalité « désirée », qui nécessite de suspendre l’incrédulité usuelle, pour apprécier pleinement le contenu de l’imagerie visuelle et sonore constituant l’expérience. C’est précisément cette adhésion et la suspension de l’incrédulité qui semblent susciter l’inquiétude de l’entourage ou des professionnels de santé, en ce qu’elles pourraient menacer l’adaptation du sujet à la réalité « vraie ».


Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Un voyage mental sous contrôle

Ce que les pratiquants du shifting décrivent s’apparente à une forme de voyage mental sous contrôle.

Le voyage mental repose sur le désengagement de la situation présente pour générer une représentation mentale spécifique : par exemple, l’évocation d’un souvenir personnel repose sur l’activation d’une scène tirée du passé, qui est « rejouée » mentalement. Le voyage mental peut aussi être involontaire, avec l’irruption de souvenirs autobiographiques, ou de scènes fantaisistes, sans lien avec la réalité. Néanmoins, il demande toujours au sujet de se désengager de l’activité en cours, qui doit être suspendue, sauf s’il s’agit d’une activité routinière, de faible exigence, comme la marche, le tricot ou toute activité répétitive monotone, qui pourrait même favoriser le voyage.

Nous avons récemment publié un article de synthèse sur le voyage mental. Des travaux expérimentaux récents ont permis de mieux comprendre, chez l’animal, comment fonctionnait cette aptitude, qui n’est donc aucunement l’apanage de l’être humain, qui permet de se désengager du présent pour voyager mentalement dans l’espace et dans le temps.

Dans cet article, nous ne traiterons pas la question du « pourquoi » les adeptes du shifting font ce qu’ils font. Les neurosciences portent davantage sur le « comment », à la recherche des corrélats neuronaux des expériences subjectives.

Ainsi, nos activités mentales (et les comportements efférents) peuvent être classées en trois grands modes, entre lesquels nous naviguons en fonction des contextes :

  • d’abord, le mode « exploitation », qui consiste à remplir les tâches dictées par l’environnement, sous la forme d’un certain asservissement du cerveau à ses routines,

  • ensuite, le mode « exploration », lorsque nous sommes confrontés à un contexte nouveau qui nous contraint à développer des stratégies originales au résultat incertain,

  • enfin, le mode « désengagé », où l’absence de contrainte environnementale nous rend susceptibles de nous livrer à une activité autonome, de « vagabondage mental » (le fameux voyage) qui consiste à tripoter des idées, ressasser le passé, envisager l’avenir, etc.

Depuis les travaux pionniers du neurologue Marcus Raichle, nous savons que ce troisième mode, considéré comme un mode « par défaut », dans lequel le sujet bascule lorsqu’il n’a rien à faire (ni exploiter ni explorer), repose sur un réseau cérébral impliquant les territoires frontaux et pariétaux.

Or, le shifting repose sur un désengagement du réel, et la réalisation d’un voyage mental « contrôlé », où le sujet maîtrise, en partie au moins, le cours de son imagerie mentale.

Les animaux sont capables de voyager mentalement

Une étude expérimentale menée chez le rat, publiée en 2023 dans la revue Science, montre que le voyage mental peut être suivi littéralement à la trace chez l’animal.

Dans cette expérience, le rat est placé sur une sphère mobile sur laquelle il se déplace dans toutes les directions. Ces déplacements sont reportés dans un environnement virtuel qui lui est présenté sur un écran placé devant lui, de sorte qu’il peut se promener à son gré dans un labyrinthe numérique, à la recherche d’une récompense délivrée lorsqu’il atteint son but.

Ce faisant, les activités des neurones de l’hippocampe, appelés « place cells » (« cellules de lieu ») parce qu’ils codent la situation de l’animal dans l’espace, sont enregistrées afin de constituer une cartographie neuronale de ses déplacements. À l’aide de ces enregistrements, et à force de répétitions des essais, les chercheurs peuvent identifier l’endroit où se trouve l’animal dans le labyrinthe.

Et c’est là que la prouesse expérimentale réside : les chercheurs débranchent la connexion de la molette de déplacement à l’environnement virtuel et connectent, à la place, l’activité des neurones hippocampiques. Ainsi, le labyrinthe dans lequel le rat se déplace n’est plus liée à ses déplacements effectifs mais au plan cérébral qu’il est en train de suivre ! Et ça marche : le rat parvient à sa destination (virtuelle) et reçoit sa récompense (réelle). En somme, il ne se déplace que « dans sa tête », et non pas dans un environnement. Il réalise parfaitement un voyage mental.

Une autre expérimentation, plus récente encore, menée chez l’animal, a permis de cibler le commutateur qui permet de basculer d’une tâche vers un désengagement de l’environnement. Des souris dont les différentes populations de neurones du noyau du raphé médian, dans le tronc cérébral, sont influencées par le dispositif expérimental peuvent basculer d’un mode à l’autre sous l’effet de l’une des trois populations (neurones à GABA, glutamate et sérotonine), correspondant aux trois catégories décrites plus haut : exploitation, exploration et désengagement.

Ainsi, la suppression de l’activité des neurones sérotoninergiques du noyau du raphé médian permet le désengagement. L’activation ou l’inhibition de l’une des trois populations de neurones permet de basculer d’un mode à l’autre. Le shifting exploite probablement ces propriétés spécifiques, tout en développant une certaine expertise du désengagement, lorsque, tout au moins, le contexte le permet.

Suspendre son incrédulité pour « shifter »

Mais pratiquer le voyage mental et désengager facilement ne doit pas suffire à faire l’expérience d’un shifting satisfaisant, il faut aussi, et c’est sans doute le point le plus critique, parvenir à suspendre son incrédulité. Celle-ci agit comme une sorte de « filtre de réalité », consistant à détecter les irrégularités de notre expérience mentale pour distinguer ce qui relève de la perception de ce qui appartient à notre propre fantaisie.

Nous pouvons tous imaginer des éléphants roses et les classer correctement dans les produits de cette imagination. Durant le sommeil, les structures qui assurent ce discernement entre fantaisie et réalité (le cortex orbitofrontal et le gyrus cingulaire antérieur) ont une activité qui est suffisamment inactivée pour que nous puissions adhérer au contenu de nos rêves, en dépit de leur caractère fantastique.

Au cours de l’hypnose, ces processus de critique de la réalité sont également mis au repos, de sorte que nous pouvons adhérer à des représentations erronées (par exemple, mon bras est paralysé). Il est vraisemblable qu’un tel processus, comme le suggèrent les méthodes proposées pour faciliter le shifting, et qui sont évocatrices d’une forme d’autohypnose, soit à l’œuvre pour que le sujet adhère au contenu de son voyage.

La pratique du « shifting » consiste donc à exploiter une propriété générale, propre à l’humain et à de nombreux animaux probablement, qui est de pouvoir s’abstraire du réel pour se projeter dans un monde imaginaire, réalisant un voyage mental. Nous commençons à connaître les opérateurs cérébraux de cette expérience, mais son contenu subjectif reste hors de portée : c’est bien ce qui fait toute sa magie.

The Conversation

Laurent Vercueil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  CULTURE / IDÉES 1/2
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  IDÉES 2/2
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
   Fiabilité faible
Contre-Attaque
Issues
Korii
Positivr
Regain
Slate
Ulyces
🌓