04.05.2025 à 11:23
Marco Daturi, Professeur de chimie, Université de Caen Normandie
Christian Serre, Directeur de recherches spécialiste en chimie des matériaux, Université Paris Dauphine – PSL
Le formaldéhyde pollue l’air intérieur, car il est utilisé pour conserver le mobilier et les vêtements lors des longs voyages en bateau depuis leurs lieux de production. Il est très nocif pour la santé, mais les filtres à air le retiennent mal. De nouveaux matériaux, poreux à toute petite échelle, agissent comme des éponges et montrent une bonne efficacité de capture de ce polluant.
La qualité de l’air intérieur, invisible mais crucial, est un enjeu majeur de santé publique. Parmi les polluants les plus préoccupants figure le formaldéhyde, un composé organique volatil présent dans de nombreux produits du quotidien tels que les peintures, meubles, colles ou les produits ménagers. Bien qu’il soit souvent présent dans l’air en très faibles concentrations, à hauteur de quelques dizaines de « parties par milliards » (une molécule de formaldéhyde pour un milliard d’autres molécules), ses effets pour la santé peuvent être graves, notamment des risques accrus de cancers et d’irritations des voies respiratoires.
À l’heure actuelle, les solutions pour réduire son impact sur notre santé restent insuffisantes. En effet, les filtres traditionnels à base de charbons actifs ont des limites notables : leur efficacité décroît avec le temps et les conditions environnementales, notamment lorsque la température ambiante et l’humidité varient. Ces filtres peuvent même devenir des sources de formaldéhyde en fin de vie. Ils sont donc très limités en termes d’innocuité.
D’autres solutions pourraient être envisagées, comme l’utilisation de filtres à base de zéolithes. Cependant, ces matériaux poreux sont sensibles à la présence d’eau et sont pénalisés par des demandes en énergie considérables lors de leur régénération. La minéralisation du formaldéhyde (et d’autres polluants) à température ambiante nécessite, quant à elle, des catalyseurs à base de métaux nobles, donc très coûteux.
Bien évidemment, il serait plus judicieux de diminuer à la source ce type de polluants, mais ils sont présents de façon diffuse dans la plupart des matériaux de construction, ainsi que dans l’ameublement et les vêtements, car le formaldéhyde est un conservateur très utilisé pour éviter la formation de mousses et champignons, notamment lorsque les biens de consommation sont acheminés par bateau depuis leurs centres de production. Dans l’attente de changer notre modèle économique, il faudrait donc trouver une solution à cette pollution.
Pour chercher des solutions plus efficaces que celles qui existent, nous nous sommes penchés sur des matériaux poreux à très petite échelle (taille des « pores » de l’ordre de la molécule ou la centaine de molécules) appelés « MOF » (pour Metal-Organic Frameworks), et avons ajouté au sein des pores des fonctions chimiques particulières, les pyrazoles.
Ces matériaux hybrides, de vraies éponges moléculaires, ont montré un potentiel exceptionnel pour la capture de formaldéhyde. Ils permettent de capturer sélectivement des traces infimes de formaldéhyde en présence d’humidité, offrant une nouvelle voie pour améliorer la qualité de l’air intérieur.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Dans des espaces fermés, l’air intérieur peut être jusqu’à cinq fois plus pollué que l’air extérieur. Le formaldéhyde, présent dans presque tous les environnements intérieurs, dépasse fréquemment les seuils recommandés par l’OMS. Par exemple, dans les maisons neuves, ses concentrations peuvent atteindre entre 20 et 60 microgrammes par mètre cube d’air, voire plus de 100 microgrammes par mètres cubes d’air dans des pièces mal ventilées (pour un seuil à 100 microgrammes par mètre cube d’air pendant trente minutes).
Beaucoup de gens ne réalisent même pas que l’air qu’ils respirent chez eux peut être aussi, voire plus, pollué que celui dans une grande ville. Dans ces conditions, il n’est pas facile de réduire ce risque invisible et méconnu.
Les Metal-Organic Frameworks ou MOF sont des matériaux poreux extrêmement modulables. La découverte de ces solides poreux hybrides cristallisés a débuté il y plus de vingt-cinq ans. À l’image des Lego, ils sont constitués de briques de constructions qui peuvent être assemblées à façon en fonction des propriétés physico-chimiques recherchées. Leur production à l’échelle industrielle, ainsi que les premières applications industrielles, ont été reportées il y a quelques années et concernent essentiellement la capture du CO2, la dégradation des polluants ou le stockage de gaz.
Ces briques sont de deux types : d’une part des entités inorganiques, constituées de métaux sous leur forme cationique, et d’autre part des molécules organiques majoritairement constituées de carbone et d’oxygène ou d’azote, appelés ligands.
L’assemblage de ces deux types de briques conduit à la formation d’un réseau de pores ou cavités de taille nanométrique (un milliardième de mètre). À l’image des éponges qui peuvent stocker de l’eau dans leurs pores, les MOF sont capables de capturer une large diversité de polluants, par exemple le toluène avec une efficacité bien supérieure aux filtres classiques.
Nous avons fabriqué et testé une famille de MOF avec une brique organique très spécifique, contenant des groupements pyrazoles, qui forment des liens très forts avec les molécules de formaldéhyde et permettent ainsi de les capturer de manière très efficace.
Ainsi, l’un de nos MOF possède une capacité d’adsorption autour de 20 % en masse soit près de 2 à 3 fois plus que les filtres commerciaux, et conserve son efficacité même dans des conditions de forte humidité, typiques de nos maisons ou lorsque la température de la pièce augmente.
Nous pouvons de plus le synthétiser dans de l’eau, à pression ambiante et une température en deçà de celle de l’ébullition de l’eau, ce qui facilite sa production à grande échelle. Les premiers essais de production montrent la possibilité de fabriquer aisément des dizaines de kilogrammes de ce matériau et tout laisse à penser qu’une production à très grande échelle (1-100 tonnes) est faisable.
L’un des défis des filtres à air est leur saturation, c’est-à-dire le moment où le filtre n’est plus efficace car tous les pores sont pleins.
Les filtres actuels doivent ainsi la plupart du temps être changés et le filtre incinéré. Au contraire, le MOF que nous avons développé peut-être régénéré, c’est-à-dire que ses pores vont être vidés, en plongeant le filtre dans de l’eau à température ambiante pendant quelques heures, le formaldéhyde étant ensuite évacué dans l’évier.
De plus, notre MOF ne relâche pas de formaldéhyde en deçà d’une température de 75 °C – alors que d’autres relarguent toutes les molécules polluantes accumulées à des températures plus basses, ce qui peut résulter en un « pic de pollution » plus important que dans les conditions initiales où le polluant est diffus. Pour donner une idée, dans une voiture en plein été, les températures peuvent varier drastiquement entre son utilisation avec la climatisation (20 °C) et à l’arrêt en plein soleil, où la température peut se rapprocher des 50 °C.
Enfin, ce nouveau MOF est très « sélectif », c’est-à-dire que son efficacité de capture du formaldéhyde est très peu impactée par la présence des autres polluants de l’air intérieur.
En termes de perspectives, des essais sont en cours avec des industriels ou spécialistes reconnus dans le domaine de la qualité de l’air intérieur afin d’intégrer ces nouveaux adsorbants dans des systèmes, actifs ou passifs, de purification d’air. La production à grande échelle de ces MOF devrait permettre également de réduire le coût de fabrication du MOF.
À plus long terme, il sera intéressant de coupler la capture du formaldéhyde à un processus de régénération catalytique permettant d’allonger la durée d’utilisation de ces MOF pour purifier l’air intérieur. D’autres applications potentielles sont envisagées par la suite pour la capture d’autres polluants nocifs de l’air intérieur tels que les acides pour la protection des œuvres d’art ou pour la détection de composés organovolatils.
Cet article a été écrit avec le concours de Nicolas Sadovnik et Mathilde Renouard, tous deux employés par SquairTech, une start-up, issue de laboratoires de recherche, qui développe un catalogue de matériaux poreux pour la capture de polluants de l’air.
Marco Daturi a reçu des financements de l'ADEME sur ce sujet. Il détient des parts dans la société SquairTech.
Christian SERRE détient des parts dans la société SquairTech. Et son laboratoire un contrat de collaboration avec cette société.
30.04.2025 à 11:01
Joel Marthelot, Chercheur au CNRS, Aix-Marseille Université (AMU)
Simon Hadjaje, Docteur en physique, Aix-Marseille Université (AMU)
Après des jours à se préparer patiemment dans son cocon, la mouche émerge et déploie ses ailes. En quelques instants, ces appendices, au départ pliés et froissés, forment des structures planes, translucides, résistantes et surtout… prêtes à décoller !
La vie des insectes est ponctuée par des phases de transformation impressionnantes, au cours desquelles leurs corps subissent des métamorphoses spectaculaires : de la larve à la nymphe protégée dans son cocon, jusqu’à l’insecte adulte.
Lors de la transformation finale, l’insecte émerge de sa nymphe et déploie ses ailes en seulement quelques minutes. À partir d’une structure compacte et pliée, semblable à un origami, les ailes s’étendent pour devenir des surfaces rigides et fonctionnelles, prêtes pour le vol, qui permettront à la mouche adulte d’échapper aux prédateurs, de rechercher de la nourriture et de se reproduire.
Ce déploiement se fait par une augmentation de la pression sanguine dans des ailes – un mécanisme que nous sommes désormais en mesure d’imager et d’étudier avec une précision sans précédent, comme nous l’avons rapporté récemment dans Nature Communications. Ces recherches éclairent la mécanique des structures souples capables de changer de forme – elles ouvrent ainsi de nouvelles perspectives pour des applications dans les structures déployables, utilisées aussi bien en aérospatiale qu’en chirurgie mini-invasive et en robotique flexible.
Aux stades larvaire et nymphal, les ailes se forment progressivement grâce à des processus de divisions cellulaires, d’élongation et de réarrangement de tissus. Ces étapes relativement longues s’étendent sur une dizaine de jours chez la drosophile, petite mouche du vinaigre et modèle privilégié des biologistes. Puis, en seulement quelques minutes, la mouche adulte déploie ses ailes.
Cette métamorphose spectaculaire intrigue les scientifiques depuis des siècles. Au XVIIIe siècle, le naturaliste français René-Antoine Ferchault de Réaumur observait que, durant cette phase d’expansion, « l’insecte boit l’air pour s’en bien remplir le corps ».
Un siècle plus tard, Georges Jousset de Bellesme observa, en piquant délicatement une aile de libellule en déploiement avec une aiguille fine, qu’elle était en réalité remplie de liquide, et non d’air, pendant cette phase.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
On sait aujourd’hui que, pour générer cette pression de liquide dans les ailes, l’insecte active un ensemble de muscles situés à la base de la trompe, habituellement impliqués chez la mouche adulte dans l’ingestion de nourriture – Réaumur avait raison.
Ces muscles lui permettent d’avaler de l’air, ce qui gonfle son intestin comme un ballon. Simultanément, la contraction des muscles abdominaux réduit le volume de l’abdomen, augmentant ainsi efficacement la pression sanguine. Celle-ci atteint progressivement quelques kilopascals, environ un quart de la pression artérielle chez un humain adulte, et génère un flux sanguin dans la structure de l’aile – de Bellesme aussi était sur la bonne piste.
Dans notre étude, nous avons mesuré l’augmentation de pression du sang chez l’insecte, à l’aide d’une sonde reliée à un capillaire en verre inséré dans son abdomen.
De plus, en injectant des traceurs fluorescents dans le sang de l’insecte, nous avons pu visualiser le flux de sang dans l’aile. De façon surprenante, nous avons observé que lors de cette phase de dépliement de l’aile, le sang se diffuse dans l’ensemble de l’aile – ceci contraste avec le reste de la vie de la mouche adulte, où le sang reste confiné aux veines qui parcourent les ailes.
Pour mieux comprendre où va précisément le sang lors du dépliement, nous avons imagé les ailes par microtomographie aux rayons X. Cette technique permet de reconstruire en trois dimensions la structure interne de l’aile à partir d’un grand nombre de radiographies. Nous avons ainsi montré que l’aile est constituée de deux fines plaques séparées par des piliers espacés, se pressurisant comme un matelas gonflable. Contrairement aux structures artificielles, la surface de l’aile s’étire au cours du dépliement.
À une échelle plus fine, des observations au microscope électronique révèlent que chaque plaque est composée d’une monocouche de cellules recouvertes d’une fine couche rigide initialement plissée : la cuticule.
En observant le déploiement des ailes chez des mutants dont les contours cellulaires sont visibles grâce à un marquage fluorescent, nous avons découvert que les cellules s’étirent pendant l’expansion tandis que la fine couche se déplisse, mais sans s’étirer davantage, fixant ainsi la forme finale de l’aile. Une fois l’aile entièrement déployée, les cellules meurent et sont aspirées hors de l’aile, tandis que la fine couche se rigidifie, ce qui permet à l’aile de garder sa forme chez l’adulte.
Ainsi, nous avons montré que le déploiement des ailes de drosophile est un processus hiérarchique à deux échelles : un dépliage macroscopique à l’échelle de l’organe et un déplissage microscopique à l’échelle du tissu.
Le déplissage engendre également une propriété mécanique intéressante. Lorsqu’on tire sur l’aile, la force n’augmente pas de manière linéaire, comme ce serait le cas pour un ressort. Au début, c’est surtout les cellules qui résistent tandis que la fine couche plissée joue un rôle très faible. Mais au fur et à mesure que cette couche se déplisse puis s’étire, elle commence à participer à ce qui se traduit par une augmentation rapide de la rigidité globale du tissu.
Nous avons montré que cette propriété mécanique, combinée à la géométrie de la structure de l’aile, constitue une configuration efficace pour le déploiement – appelée « point de fonctionnement » – où une faible augmentation de la surpression exercée par la mouche entraîne une augmentation significative de la taille de l’aile. L’insecte exploite naturellement cette configuration pour déployer largement son aile dans le plan, sans avoir à générer de grandes variations de pression.
Ainsi, l’essentiel du déploiement se produit pour une pression constante, maintenue par la pression sanguine de la mouche. Nous avons ensuite étudié les facteurs limitant la vitesse de ce déploiement.
Pour le savoir, nous avons déformé l’aile à des vitesses croissantes. Ce que nous avons observé, c’est que l’aile apparaît plus rigide à mesure que la vitesse augmente, ce qui montre que sa réponse est « viscoélastique ». Cela signifie que l’aile peut s’étirer comme un matériau élastique, mais à grande vitesse, elle se comporte aussi comme un matériau visqueux, offrant une résistance à la déformation et ralentissant le mouvement. Cette viscosité interne nous permet de prédire la vitesse du déploiement et de mieux comprendre la dynamique du processus.
Les changements de forme par actionnement hydraulique sont fréquents dans le règne végétal, comme on peut le constater lorsqu’on arrose une plante desséchée. Cependant, ces mécanismes restent encore peu explorés chez les animaux. Les insectes présentent une diversité remarquable de formes et d’échelles de taille d’ailes.
Dans notre laboratoire, nous explorons actuellement une question ouverte : dans quelle mesure les mécanismes mis en évidence chez la mouche sont-ils génériques et applicables à d’autres ordres d’insectes ? Chez la drosophile, certains aspects du processus de déploiement restent encore à éclaircir, notamment les mécanismes garantissant l’irréversibilité du processus (la forme de l’aile est fixée : celle-ci ne se replie pas après déploiement), ainsi que ceux garantissant la planitude finale de l’aile.
Joel Marthelot a reçu des financements de l'Agence Nationale de la Recherche, de la Fondation pour la Recherche Médicale et du CNRS.
Simon Hadjaje a reçu des financements de la Fondation pour la Recherche Médicale (FRM Fin de Thèse, FDT FDT202304016556).
30.04.2025 à 11:01
François Bouteau, Pr Biologie, Université Paris Cité
Etienne Grésillon, Géographe, Université Paris Cité
Lucia Sylvain Bonfanti, Doctorante interdisciplinaire en géographie et biologie, Université Paris Cité
Nous sommes des êtres doués de conscience mais qu’en est-il des autres animaux ? De nos plus proches cousins, les primates, jusqu’aux mollusques, où placer la limite de la (non-) conscience ? Certaines théories vont jusqu’à reconnaître cette capacité à toute forme de vie. Faisons le tour de la question.
L’année 2024 a été riche en évènements autour de la question de la conscience. La « déclaration de New York sur la conscience animale », signée en avril par plus de 300 chercheurs, a proposé qu’une possibilité de conscience existe chez la plupart des animaux.
En juin, toujours à New York, a eu lieu la première présentation des résultats de la collaboration adversariale Cogitate, qui organise une collaboration entre des équipes qui s’opposent autour de deux théories de la conscience. Le but étant qu’ils définissent entre eux les expériences à mener pour prouver l’une ou l’autre des conceptions qu’ils défendent.
Cette confrontation regroupe des experts de neurosciences et des philosophes cherchant un consensus entre : la théorie de l’espace de travail global (GNWT), portée par Stanislas Dehaene, et la théorie de l’information intégrée (IIT), proposée par Giulio Tononi. La GNWT propose que l’interaction entre plusieurs régions et processus spécifiques du cerveau soit nécessaire à la conscience, celle-ci n’émergeant suite à un premier traitement automatique que si l’information est amplifiée par différents réseaux de neurones spécialisés. L’IIT propose que la conscience émerge d’un système qui génère et confronte des informations. Dans cette proposition la possibilité de conscience n’est pas réduite au cerveau.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La revue Neuron, une des revues scientifiques les plus influentes dans la communauté des neurosciences, a proposé en mai 2024 un numéro spécial sur la conscience. Les articles montrent que si les substrats neurobiologiques de la conscience ont suscité de nombreux efforts de recherche au cours des dernières décennies, il n’en demeure pas moins que les neuroscientifiques ne sont pas d’accord. Ils analysent cinq théories différentes de la conscience. Malgré l’absence de définition commune du terme « conscience », utilisé à la fois comme une « expérience », incluant les perceptions sensibles du monde extérieur (vision des couleurs), et comme une expérience subjective, qui se construit a posteriori en intégrant différentes sources d’informations, le groupe élabore des convergences entre ces théories concurrentes et apparemment contradictoires.
Sans rentrer dans les détails et les arguments concernant ces différentes, les travaux montrent qu’il n’existe pas de théorie unifiée de la conscience et que nous ne connaissons toujours pas les bases biologiques de la conscience. Les anciennes questions autour du dualisme, qui distinguent monde physique et monde psychique et du monisme soutenant l’unicité des deux mondes ne semblent toujours pas prêtes d’être tranchées.
Cependant, même sans théorie unifiée, la possibilité d’une expérience consciente n’est plus l’apanage des humains. Elle se diffuse à travers l’arbre phylogénétique, étant désormais reconnue chez de nombreux groupes d’animaux, y compris les insectes. Le dénominateur commun entre toutes ces approches semble être la présence d’un cerveau, caractéristique partagée par la majorité des animaux, même si celui-ci est petit et de structure simple. Les éponges dépourvues de cerveau et de systèmes nerveux ne sont pas incluses dans la famille des êtres conscients. Mais qu’en est-il des bivalves (huîtres ou moules par exemple) qui ne sont pourvus que de ganglions regroupant leurs neurones, rejoindront-ils prochainement la famille des êtres conscients ?
Mais la conscience pourrait-elle exister en dehors de ce fameux système nerveux ? Cette idée radicale a été notamment proposée il y a déjà quelques années par Frantisek Baluska, biologiste cellulaire, professeur à l’Université de Bonn, et Arthur Reber, psychologue, professeur à l’Université British Columbia.
Ils ont proposé que la conscience aurait émergée très tôt au cours de l’évolution chez les organismes unicellulaires, et serait même coïncidente avec l’apparition de la vie. La conscience serait donc une propriété intrinsèque de la vie. Cette proposition repose sur l’observation que toutes les cellules, qu’elles soient isolées ou intégrées dans un organisme multicellulaire, possèdent une capacité impressionnante à percevoir leur environnement, à traiter des informations leur permettant de prendre des décisions basiques en réponse à des stimuli externes. Certains organismes unicellulaires peuvent par exemple libérer des molécules pour se signaler les uns aux autres.
Ces processus pourraient être considérés comme une forme de conscience primitive. Et si cette proposition fait fi de la présence d’un système nerveux, elle s’appuie toutefois notamment sur l’excitabilité électrique des cellules. Le neurone et le cerveau sont considérés comme des systèmes hyperoptimisés dans l’une des parties du vivant, permettant la conscience humaine.
Cette théorie reste bien sûr très controversée, notamment en raison de l’absence de définition partagée de la conscience. De nombreux scientifiques considèrent que cette « conscience cellulaire » serait simplement une métaphore pour décrire des processus biochimiques et biophysiques complexes, sans qu’il soit nécessaire d’y inclure une notion de conscience. Ils critiquent cette théorie, en utilisant une définition traditionnellement de la conscience impliquant un système neurobiologique et une expérience subjective, peu probable ? En tout cas difficile à démontrer au niveau cellulaire.
Poursuivant leurs réflexions, Frantisek Baluska et d’autres collègues ont proposé la théorie de l’IIT développée par Giulio Tononi comme cadre possible pour explorer la question d’une forme de « proto-conscience » chez les plantes.
Appliquer l’IIT aux plantes implique d’examiner comment les plantes perçoivent, intègrent et répondent à l’information dans leur environnement sans posséder de système nerveux central. Les plantes pourraient agir de manière consciente suivant l’IIT. Elles reçoivent et intègrent des signaux de diverses sources et y répondent de manière coordonnée grâce à un réseau de communication interne constitué de connexions cellulaires, de faisceaux vasculaires connectant toutes les parties de la plante notamment par des signaux électriques. Ils considèrent que ces caractéristiques et ces réseaux de communication hautement interconnectés pourraient correspondre à l’exigence d’intégration d’informations de l’IIT permettant aux plantes une réponse unifiée malgré l’absence d’un système nerveux centralisé. Bien que les auteurs considèrent qu’il ne s’agisse que d’un niveau de conscience minimale, ces données ont bien sûr étaient immédiatement récusées.
Les principaux arguments opposés sont que les théories de la conscience sont basées sur l’existence de neurones et l’impossibilité de prouver que les plantes aient une expérience subjective de leur environnement. L’IIT autorisant de plus la conscience dans divers systèmes non vivants, elle ne serait pas suffisante pour prouver la conscience des plantes. Même si cette hypothèse reste spéculative et nécessite certainement davantage de recherche pour mieux comprendre la relation entre la complexité biologique et la conscience, l’idée que les plantes puissent être étudiées à l’aide de la théorie de l’IIT pourrait permettre d’explorer d’autres formes de traitement de l’information dans des systèmes biologiques, qu’ils soient ou non dotés de cerveaux. Il n’est par contre pas certain que ces approches aident les tenants de l’IIT, celle-ci ayant été récemment controversée, et qualifiée de « pseudoscience non testable » dans une lettre rédigée par 124 neuroscientifiques.
À notre connaissance aucune tentative de démonstration d’une autre théorie de la conscience n’a été tentée sur des organismes sans cerveau. Par contre, faisant suite aux travaux de Claude Bernard qui indiquait, dès 1878, « Ce qui est vivant doit sentir et peut être anesthésié, le reste est mort », différentes équipes dont la nôtre, se sont intéressées aux effets des anesthésiques, un des outils importants de l’étude de la neurobiologie de la conscience, sur des organismes sans cerveau.
La théorie de la conscience cellulaire, tout comme l’exploration de la théorie de l’IIT chez des organismes sans neurones peuvent apparaître provocantes, elles offrent cependant une perspective fascinante et ouvrent de nouvelles voies pour comprendre les fondements de la conscience et l’émergence des comportements dans le règne vivant. Tout comme l’attribution progressive d’une conscience à des groupes d’animaux de plus en plus éloignés des humains dans l’arbre phylogénétique, qui relancent et étendent une épineuse question philosophique et scientifique.
Ces réflexions ouvrent évidemment aussi de nombreux questionnements éthiques concernant les organismes non humains et, bien sûr, les machines connectées à des intelligences artificielles, qui pourraient s’inscrire dans un continuum de conscience. De nombreux outils et protocoles sont encore à développer pour tester ce qui reste des hypothèses et, pourquoi pas, envisager une collaboration adversariale sur la conscience sans cerveau.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
30.04.2025 à 11:01
François Dernoncourt, Doctorant en Sciences du Mouvement Humain, Université Côte d’Azur
Lorsque vous vous grattez la plante de pied ou que vous frottez vos aisselles sous la douche, cela ne provoque probablement pas de réaction particulière en vous. Pourtant, si cette même stimulation tactile venait de quelqu’un d’autre, elle serait perçue comme une chatouille. Ce phénomène, bien connu de tous, soulève une question intrigante : pourquoi est-il si difficile de se chatouiller soi-même ?
À première vue, cette interrogation peut sembler anodine, mais elle révèle un mécanisme fondamental du système nerveux : la prédiction. Le cerveau n’est en effet pas un simple récepteur passif d’informations sensorielles. Il anticipe activement l’état du monde extérieur ainsi que l’état interne du corps afin de sélectionner les actions les plus appropriées. Cette capacité prédictive lui permet de filtrer les informations : les sensations inattendues, susceptibles de signaler un danger ou une nouveauté, retiennent particulièrement notre attention, tandis que les sensations prévisibles sont ignorées.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La difficulté à se chatouiller soi-même illustre parfaitement ce principe de cerveau prédictif. Pour réaliser un mouvement, le cerveau envoie une commande aux muscles et, simultanément, une copie de cette commande (appelée « copie d’efférence ») est transmise à d’autres aires cérébrales, notamment le cervelet. Ce dernier anticipe alors les conséquences sensorielles du mouvement en créant une sorte de simulation interne, quelques centaines de millisecondes à l’avance, de façon inconsciente mais extrêmement précise. Cette prédiction permet de différencier une sensation prévisible, générée par le corps lui-même, d’une sensation inattendue. Par exemple, si vous manquez une marche en descendant les escaliers, la discordance entre le contact anticipé et la réalité permet de corriger le mouvement très rapidement, avant même que votre pied ne touche le sol. Les prédictions du cerveau filtrent ainsi les perceptions sensorielles en sélectionnant les stimuli pertinents, évitant à notre capacité attentionnelle – très limitée – d’être submergée par une surcharge d’informations.
Si vous échouez à vous chatouiller vous-même, c’est donc parce que votre cerveau prédit parfaitement la sensation cutanée à venir et l’atténue. En revanche, lorsqu’une autre personne vous chatouille, le stimulus n’est pas anticipé de façon aussi précise : l’information sensorielle passe à travers le filtre et est donc perçue avec plus d’intensité.
Des études expérimentales confirment ce mécanisme : lorsque des participants se chatouillent eux-mêmes par l’intermédiaire d’un bras robotisé qui reproduit exactement leurs mouvements, la sensation de chatouille est atténuée. Cependant, si le mouvement du dispositif est légèrement décalé (par un délai ou une rotation), la sensation de chatouille devient plus intense. Ces résultats, fondés sur le ressenti subjectif des participants, sont également corroborés par des données d’imagerie cérébrale. Ainsi, pour un même stimulus tactile, l’activité du cortex somatosensoriel (zone du cerveau responsable de la perception du toucher) est plus élevée lorsque la stimulation est externe que lorsqu’elle est auto générée. Ce contraste suggère que le cervelet anticipe nos propres gestes et atténue l’intensité des sensations qui en découlent.
Le principe d’atténuation des sensations produites par nos propres mouvements est omniprésent dans notre interaction avec le monde. Restons tout d’abord dans le domaine des perceptions somesthésiques – notre sens du toucher et du mouvement. Il a été démontré que l’atténuation sensorielle nous conduit à sous-estimer la force que nous exerçons. Ce biais perceptif pourrait contribuer à « l’escalade de la violence » que l’on observe parfois entre deux enfants qui chahutent. En effet, deux enfants qui jouent à la bagarre sous-estiment chacun la force qu’ils déploient, et ont l’impression que leur partenaire répond avec une intensité supérieure. Dans une logique de réciprocité, ils vont avoir tendance à progressivement augmenter la force de leurs coups, pensant seulement répliquer la force de l’autre.
Le second exemple concerne cette fois le sens de la vision. Bien que nos yeux soient constamment en mouvement, nous percevons un monde stable. Pourtant, les seules informations visuelles ne permettent pas de faire la distinction entre le scénario où l’on balaie un paysage du regard et le scénario où le paysage tourne autour de nous alors que nous gardons le regard fixe – ces deux situations produisent des images identiques sur la rétine. Le fait que nous percevons un monde stable s’explique par le fait que le système nerveux anticipe les changements d’images induits par les mouvements oculaires et filtre les informations autogénérées. Pour l’expérimenter, fermez un œil, et appuyez légèrement sur le côté de l’autre œil en le gardant ouvert (à travers la paupière bien sûr). Cette manipulation crée une légère rotation de l’œil qui n’est pas générée par les muscles oculaires, donnant l’impression que le monde extérieur se penche légèrement.
Le modèle du cerveau prédictif offre un cadre conceptuel intéressant pour comprendre certaines pathologies. En effet, une défaillance dans la capacité du système nerveux à prédire et atténuer les conséquences sensorielles de ses propres actions pourrait contribuer à des symptômes observés dans certaines maladies mentales. Par exemple, il a été constaté que l’atténuation sensorielle est souvent moins marquée chez les patients schizophrènes – et qu’ils sont d’ailleurs capables de se chatouiller eux-mêmes, dans une certaine mesure. Cela pourrait expliquer pourquoi ces patients perçoivent parfois leurs propres mouvements comme provenant d’une source externe, dissociée de leur volonté. De même, des monologues intérieurs qui ne sont pas suffisamment atténués pourraient être à l’origine des hallucinations auditives, où la voix perçue semble venir de l’extérieur.
Ainsi, une question aussi simple et amusante que celle des chatouilles peut, lorsqu’on la prend au sérieux, révéler des mécanismes profonds de notre cerveau, et contribuer à une meilleure compréhension de notre rapport au monde.
François Dernoncourt a reçu des financements du ministère de l'enseignement supérieur (bourse de thèse).
29.04.2025 à 17:23
Michel Beaudouin-Lafon, Chercheur en informatique, Université Paris-Saclay
Chloé Mercier, Chercheuse en modélisation informatique et cognitive pour l'éducation, Université de Bordeaux
Serge Abiteboul, Directeur de recherche à Inria, membre de l'Académie des Sciences, École normale supérieure (ENS) – PSL
Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.
Michel Beaudouin-Lafon est un chercheur en informatique français dans le domaine de l’interaction humain-machine. Il est professeur depuis 1992 à l’Université de Paris-Saclay. Ses travaux de recherche portent sur les aspects fondamentaux de l’interaction humain-machine, l’ingénierie des systèmes interactifs, le travail collaboratif assisté par ordinateur et plus généralement les nouvelles techniques d’interaction. Il a co-fondé et a été premier président de l’Association francophone pour l’interaction humain-machine. Il est membre senior de l’Institut universitaire de France, lauréat de la médaille d’argent du CNRS, ACM Fellow et, depuis 2025, membre de l’Académie des sciences.
Binaire : Pourrais-tu nous raconter comment tu es devenu un spécialiste de l’interaction humain-machine ?
Michel Beaudouin-Lafon : J’ai suivi les classes préparatoires au lycée Montaigne à Bordeaux. On n’y faisait pas d’informatique, mais je m’amusais déjà un peu avec ma calculatrice programmable HP29C. Ensuite, je me suis retrouvé à l’ENSEEIHT, une école d’ingénieur à Toulouse, où j’ai découvert l’informatique… un peu trop ardemment : en un mois, j’avais épuisé mon quota de calcul sur les cartes perforées !
À la sortie, je n’étais pas emballé par l’idée de rejoindre une grande entreprise ou une société de service. J’ai alors rencontré Gérard Guiho de l’université Paris-Sud (aujourd’hui Paris-Saclay) qui m’a proposé une thèse en informatique. Je ne savais pas ce que c’était qu’une thèse : nos profs à l’ENSEEIHT, qui étaient pourtant enseignants-chercheurs, ne nous parlaient jamais de recherche.
Fin 1982, c’était avant le Macintosh, Gérard venait d’acquérir une station graphique dont personne n’avait l’usage dans son équipe. Il m’a proposé de travailler dessus. Je me suis bien amusé et j’ai réalisé un logiciel d’édition qui permettait de créer et simuler des réseaux de Pétri, un formalisme avec des ronds, des carrés, des flèches, qui se prêtait bien à une interface graphique. C’est comme ça que je me suis retrouvé à faire une thèse en IHM : interaction humain-machine.
M. B.-L. : Ça existait mais de manière encore assez confidentielle. La première édition de la principale conférence internationale dans ce domaine, Computer Human Interaction (CHI), a eu lieu en 1982. En France, on s’intéressait plutôt à l’ergonomie. Une des rares exceptions : Joëlle Coutaz qui, après avoir découvert l’IHM à CMU (Pittsburgh), a lancé ce domaine à Grenoble.
Binaire : Et après la thèse, qu’es-tu devenu ?
M. B.-L. : J’ai été nommé assistant au LRI, le laboratoire de recherche de l’Université Paris-Sud, avant même d’avoir fini ma thèse. Une autre époque ! Finalement, j’ai fait toute ma carrière dans ce même laboratoire, même s’il a changé de nom récemment pour devenir le LISN, laboratoire interdisciplinaire des sciences du numérique. J’y ai été nommé professeur en 1992. J’ai tout de même bougé un peu. D’abord en année sabbatique en 1992 à l’Université de Toronto, puis en détachement à l’Université d’Aarhus au Danemark entre 1998 et 2000, et enfin plus récemment comme professeur invité à l’université de Stanford entre 2010 et 2012.
En 1992, au cours d’un workshop au Danemark, j’ai rencontré Wendy Mackay, une chercheuse qui travaillait sur l’innovation par les utilisateurs. Un an plus tard, nous étions mariés ! Cette rencontre a été déterminante dans ma carrière pour combiner mon parcours d’ingénieur, que je revendique toujours, avec son parcours à elle, qui était psychologue. Wendy est spécialiste de ce qu’on appelle la conception participative, c’est-à-dire d’impliquer les utilisateurs dans tout le cycle de conception des systèmes interactifs. Je vous invite d’ailleurs à lire son entretien dans Binaire. C’est cette complémentarité entre nous qui fait que notre collaboration a été extrêmement fructueuse sur le plan professionnel. En effet, dans le domaine de l’IHM, c’est extrêmement important d’allier trois piliers : (1) l’aspect humain, donc la psychologie ; (2) le design, la conception, la créativité ; et (3) l’ingénierie. Ce dernier point concerne la mise en œuvre concrète, et les tests avec des vrais utilisateurs pour voir si ça marche (ou pas) comme on l’espère. Nous avons vécu la belle aventure du développement de l’IHM en France, et sa reconnaissance comme science confirmée, par exemple, avec mon élection récente à l’Académie des Sciences.
*Binaire : L’IHM est donc une science, mais en quoi consiste la recherche dans ce domaine ? *
M. B.-L. : On nous pose souvent la question. Elle est légitime. En fait, on a l’impression que les interfaces graphiques utilisées aujourd’hui par des milliards de personnes ont été inventées par Apple, Google ou Microsoft, mais pas vraiment ! Elles sont issues de la recherche académique en IHM !
Si on définit souvent l’IHM par Interface Humain-Machine, je préfère parler d’Interaction Humain-Machine. L’interaction, c’est le phénomène qui se produit lorsqu’on est utilisateur d’un système informatique et qu’on essaie de faire quelque chose avec la machine, par la machine. On a ainsi deux entités très différentes l’une de l’autre qui communiquent : d’un côté, un être humain avec ses capacités cognitives et des moyens d’expression très riches ; et de l’autre, des ordinateurs qui sont de plus en plus puissants et très rapides mais finalement assez bêtes. Le canal de communication entre les deux est extrêmement ténu : taper sur un clavier, bouger une souris. En comparaison des capacités des deux parties, c’est quand même limité. On va donc essayer d’exploiter d’autres modalités sensorielles, des interfaces vocales, tactiles, etc., pour multiplier les canaux, mais on va aussi essayer de rendre ces canaux plus efficaces et plus puissants.
Ce phénomène de l’interaction, c’est un peu une sorte de matière noire : on sait que c’est là, mais on ne peut pas vraiment la voir. On ne peut la mesurer et l’observer que par ses effets sur la machine et sur l’être humain. Et donc, on observe comment l’humain avec la machine peuvent faire plus que l’humain seul et la machine seule. C’est une idée assez ancienne : Doug Engelbart en parlait déjà dans les années 60. Et pourtant, aujourd’hui, on a un peu tendance à l’oublier car on se focalise sur des interfaces de plus en plus simples, où c’est la machine qui va tout faire et on n’a plus besoin d’interagir. Or, je pense qu’il y a vraiment une valeur ajoutée à comprendre ce phénomène d’interaction pour en tirer parti et faire que la machine augmente nos capacités plutôt que faire le travail à notre place. Par extension, on s’intéresse aussi à ce que des groupes d’humains et de machines peuvent faire ensemble.
La recherche en IHM, il y a donc un aspect recherche fondamentale qui se base sur d’autres domaines (la psychologie mais aussi la sociologie quand on parle des interactions de groupes, ou encore la linguistique dans le cadre des interactions langagières) qui permet de créer nos propres modèles d’interaction, qui ne sont pas des modèles mathématiques ; et ça, je le revendique parce que je pense que c’est une bonne chose qu’on ne sache pas encore mettre le cerveau humain en équation. Et puis il y a une dimension plus appliquée où on va créer des objets logiciels ou matériels pour mettre tout ça en œuvre.
Pour moi, l’IHM ne se résume pas à faire de nouveaux algorithmes. Au début des années 90, Peter Wegener a publié dans Communications of the ACM – un des journaux de référence dans notre domaine – un article qui disait « l’interaction est plus puissante que les algorithmes ». Cela lui a valu pas mal de commentaires et de critiques, mais ça m’a beaucoup marqué.
*Binaire : Et à propos d’algorithmes, est-ce que l’IA soulève de nouvelles problématiques en IHM ? *
M. B.-L. : Oui, absolument ! En ce moment, les grandes conférences du domaine débordent d’articles qui combinent des modèles de langage (LLM) ou d’autres techniques d’IA avec de l’IHM.
Historiquement, dans une première phase, l’IA a été extrêmement utilisée en IHM, par exemple pour faire de la reconnaissance de gestes. C’était un outil commode, qui nous a simplifié la vie, mais sans changer nos méthodes d’interaction.
Aux débuts de l’IA générative, on est un peu revenu 50 ans en arrière en matière d’interaction, quand la seule façon d’interagir avec les ordinateurs, c’était d’utiliser le terminal. On fait un prompt, on attend quelques secondes, on a une réponse ; ça ne va pas, on bricole. C’est une forme d’interaction extrêmement pauvre. De plus en plus de travaux très intéressants imaginent des interfaces beaucoup plus interactives, où on ne voit plus les prompts, mais où on peut par exemple dessiner, transformer une image interactivement, sachant que derrière, ce sont les mêmes algorithmes d’IA générative avec leurs interfaces traditionnelles qui sont utilisés.
Pour moi, l’IA soulève également une grande question : qu’est-ce qu’on veut déléguer à la machine et qu’est-ce qui reste du côté humain ? On n’a pas encore vraiment une bonne réponse à ça. D’ailleurs, je n’aime pas trop le terme d’intelligence artificielle. Je n’aime pas attribuer des termes anthropomorphiques à des systèmes informatiques. Je m’intéresse plutôt à l’intelligence augmentée, quand la machine augmente l’intelligence humaine. Je préfère mettre l’accent sur l’exploitation de capacités propres à l’ordinateur, plutôt que d’essayer de rendre l’ordinateur identique à un être humain.
*Binaire : La parole nous permet d’interagir avec les autres humains, et de la même façon avec des bots. N’est-ce pas plus simple que de chercher la bonne icône ? *
M. B.-L. : Interagir par le langage, oui, c’est commode. Ceci étant, à chaque fois qu’on a annoncé une nouvelle forme d’interface qui allait rendre ces interfaces graphiques (avec des icônes, etc.) obsolètes, cela ne s’est pas vérifié. Il faut plutôt s’intéresser à comment on fait cohabiter ces différentes formes d’interactions. Si je veux faire un schéma ou un diagramme, je préfère le dessiner plutôt que d’imaginer comment le décrire oralement à un système qui va le faire (sans doute mal) pour moi. Ensuite, il y a toujours des ambiguïtés dans le langage naturel entre êtres humains. On ne se contente pas des mots. On les accompagne d’expressions faciales, de gestes, et puis de toute la connaissance d’un contexte qu’un système d’IA aujourd’hui n’a souvent pas, ce qui le conduit à faire des erreurs que des humains ne feraient pas. Et finalement, on devient des correcteurs de ce que fait le système, au lieu d’être les acteurs principaux.
Ces technologies d’interaction par la langue naturelle, qu’elles soient écrites ou orales, et même si on y combine des gestes, soulèvent un sérieux problème : comment faire pour que l’humain ne se retrouve pas dans une situation d’être de plus en plus passif ? En anglais, on appelle ça de-skilling : la perte de compétences et d’expertise. C’est un vrai problème parce que, par exemple, quand on va utiliser ces technologies pour faire du diagnostic médical, ou bien prononcer des sentences dans le domaine juridique, on va mettre l’être humain dans une situation de devoir valider ou non la décision posée par une IA. Et en fait, il va être quand même encouragé à dire oui, parce que contredire l’IA revient à s’exposer à une plus grande responsabilité que de constater a posteriori que l’IA s’est trompée. Donc dans ce genre de situation, on va chercher comment maintenir l’expertise de l’utilisateur et même d’aller vers de l’upskilling, c’est-à-dire comment faire pour qu’un système d’IA le rende encore plus expert de ce qu’il sait déjà bien faire, plutôt que de déléguer et rendre l’utilisateur passif. On n’a pas encore trouvé la façon magique de faire ça. Mais si on reprend l’exemple du diagnostic médical, si on demande à l’humain de faire un premier diagnostic, puis à l’IA de donner le sien, et que les deux ont ensuite un échange, c’est une interaction très différente que d’attendre simplement ce qui sort de la machine et dire oui ou non.
Binaire : Vous cherchez donc de nouvelles façons d’interagir avec les logiciels, qui rendent l’humain plus actif et tendent vers l’upskilling.
M. B.-L. : Voilà ! Notre équipe s’appelle Ex Situ, pour Extreme Situated Interaction. C’est parti d’un gag parce qu’avant, on s’appelait In Situ pour Interaction Située. Il s’agissait alors de concevoir des interfaces en fonction de leur contexte, de la situation dans laquelle elles sont utilisées.
Nous nous sommes rendus compte que nos recherches conduisaient à nous intéresser à ce qu’on a appelé des utilisateurs « extrêmes », qui poussent la technologie dans ses retranchements. En particulier, on s’intéresse à deux types de sujets, qui sont finalement assez similaires. D’un part, les créatifs (musiciens, photographes, graphistes…) qui par nature, s’ils ont un outil (logiciel ou non) entre les mains, vont l’utiliser d’une manière qui n’était pas prévue, et ça nous intéresse justement de voir comment ils détournent ces outils. D’autre part, Wendy travaille, depuis longtemps d’ailleurs, dans le domaine des systèmes critiques dans lequel on n’a pas droit à l’erreur : pilotes d’avion, médecins, etc.
Dans les industries culturelles et créatives (édition, création graphique, musicale, etc.), les gens sont soit terrorisés, soit anxieux, de ce que va faire l’IA. Et nous, ce qu’on dit, c’est qu’il ne s’agit pas d’être contre l’IA – c’est un combat perdu de toute façon – mais de se demander comment ces systèmes vont pouvoir être utilisés d’une manière qui va rendre les humains encore plus créatifs. Les créateurs n’ont pas besoin qu’on crée à leur place, ils ont besoin d’outils qui les stimulent. Dans le domaine créatif, les IA génératives sont, d’une certaine façon, plus intéressantes quand elles hallucinent ou qu’elles font un peu n’importe quoi. Ce n’est pas gênant au contraire.
Binaire : L’idée d’utiliser les outils de façon créative, est-ce que cela conduit au design ?
M. B.-L. : Effectivement. Par rapport à l’ergonomie, qui procède plutôt selon une approche normative en partant des tâches à optimiser, le design est une approche créative qui questionne aussi les tâches à effectuer. Un designer va autant mettre en question le problème, le redéfinir, que le résoudre. Et pour redéfinir le problème, il va interroger et observer les utilisateurs pour imaginer des solutions. C’est le principe de conception participative, qui implique les acteurs eux-mêmes en les laissant s’approprier leur activité, ce qui donne finalement de meilleurs résultats, non seulement sur le plan de la performance mais aussi et surtout sur l’acceptation.
Notre capacité naturelle d’être humain nous conduit à constamment réinventer notre activité. Lorsque nous interagissons avec le monde, certes nous utilisons le langage, nous parlons, mais nous faisons aussi des mouvements, nous agissons sur notre environnement physique ; et ça passe parfois par la main nue, mais surtout par des outils. L’être humain est un inventeur d’outils incroyables. Je suis passionné par la facilité que nous avons à nous servir d’outils et à détourner des objets comme outils ; qui n’a pas essayé de défaire une vis avec un couteau quand il n’a pas de tournevis à portée de main ? Et en fait, cette capacité spontanée disparaît complètement quand on passe dans le monde numérique. Pourquoi ? Parce que dans le monde physique, on utilise des connaissances techniques, on sait qu’un couteau et un tournevis ont des propriétés similaires pour cette tâche. Alors que dans un environnement numérique, on a besoin de connaissances procédurales : on apprend que pour un logiciel il faut cliquer ici et là, et puis dans un autre logiciel pour faire la même chose, c’est différent.
C’est en partant de cette observation que j’ai proposé l’ERC One, puis le projet Proof-of Concept OnePub, qui pourrait peut-être même déboucher sur une start-up. On a voulu fonder l’interaction avec nos ordinateurs d’aujourd’hui sur ce modèle d’outils – que j’appelle plutôt des instruments, parce que j’aime bien l’analogie avec l’instrument de musique et le fait de devenir virtuose d’un instrument. Ça remet en cause un peu tous nos environnements numériques. Pour choisir une couleur sur Word, Excel ou Photoshop, on utilise un sélecteur de couleurs différent. En pratique, même si tu utilises les mêmes couleurs, il est impossible de prendre directement une couleur dans l’un pour l’appliquer ailleurs. Pourtant, on pourrait très bien imaginer décorréler les contenus qu’on manipule (texte, images, vidéos, son…) des outils pour les manipuler, et de la même façon que je peux aller m’acheter les pinceaux et la gouache qui me conviennent bien, je pourrais faire la même chose avec mon environnement numérique en la personnalisant vraiment, sans être soumis au choix de Microsoft, Adobe ou Apple pour ma barre d’outils. C’est un projet scientifique qui me tient à cœur et qui est aussi en lien avec la collaboration numérique.
Binaire : Par rapport à ces aspects collaboratifs, n’y a-t-il pas aussi des verrous liés à la standardisation ?
M. B.-L. : Absolument. On a beau avoir tous ces moyens de communication actuels, nos capacités de collaboration sont finalement très limitées. À l’origine d’Internet, les applications s’appuyaient sur des protocoles et standards ouverts assurant l’interopérabilité : par exemple, peu importait le client ou serveur de courrier électronique utilisé, on pouvait s’échanger des mails sans problème. Mais avec la commercialisation du web, des silos d’information se sont créés. Aujourd’hui, des infrastructures propriétaires comme Google ou Microsoft nous enferment dans des “jardins privés” difficiles à quitter. La collaboration s’établit dans des applications spécialisées alors qu’elle devrait être une fonctionnalité intrinsèque.
C’est ce constat qui a motivé la création du PEPR eNSEMBLE, un grand programme national sur la collaboration numérique, dont je suis codirecteur. L’objectif est de concevoir des systèmes véritablement interopérables où la collaboration est intégrée dès la conception. Cela pose des défis logiciels et d’interface. Une des grandes forces du système Unix, où tout est très interopérable, vient du format standard d’échange qui sont des fichiers textes ASCII. Aujourd’hui, cela ne suffit plus. Les interactions sont plus complexes et dépassent largement l’échange de messages.
C’est frustrant car on a quand même fait beaucoup de progrès en IHM, mais il faudrait aussi plus d’échanges avec les autres disciplines comme les réseaux, les systèmes distribués, la cryptographie, etc., parce qu’en fait, aucun système informatique aujourd’hui ne peut se passer de prendre en compte les facteurs humains. Au-delà des limites techniques, il y a aussi des contraintes qui sont totalement artificielles et qu’on ne peut aborder que s’il y a une forme de régulation qui imposerait, par exemple, la publication des API de toute application informatique qui communique avec son environnement. D’ailleurs, la législation européenne autorise le reverse engineering dans les cas exceptionnels où cela sert à assurer l’interopérabilité, un levier que l’on pourrait exploiter pour aller plus loin.
Cela pose aussi la question de notre responsabilité de chercheur pour ce qui est de l’impact de l’informatique, et pas seulement l’IHM, sur la société. C’est ce qui m’a amené à m’impliquer dans l’ACM Europe Technology Policy Committee, dont je suis Chair depuis 2024. L’ACM est un société savante apolitique, mais on a pour rôle d’éduquer les décideurs politiques, notamment au niveau de l’Union européenne, sur les capacités, les enjeux et les dangers des technologies, pour qu’ils puissent ensuite les prendre en compte ou pas dans des textes de loi ou des recommandations (comme l’AI ACT récemment).
Binaire : En matière de transmission, sur un ton plus léger, tu as participé au podcast Les petits bateaux sur Radio France. Pourrais-tu nous en parler ?
M. B.-L. : Oui ! Les petits bateaux. Dans cette émission, les enfants peuvent appeler un numéro de téléphone pour poser des questions. Ensuite, les journalistes de l’émission contactent un scientifique avec une liste de questions, collectées au cours du temps, sur sa thématique d’expertise. Le scientifique se rend au studio et enregistre des réponses. A l’époque, un de mes anciens doctorants ou étudiants avait participé à une action de standardisation du clavier français Azerty sur le positionnement des caractères non alphanumériques, et j’ai donc répondu à des questions très pertinentes comme “Comment les Chinois font pour taper sur un clavier ?”, mais aussi “Où vont les fichiers quand on les détruit ?”, “C’est quoi le com dans.com ?” Évidemment, les questions des enfants intéressent aussi les adultes qui n’osent pas les poser. On essaie donc de faire des réponses au niveau de l’enfant mais aussi d’aller un petit peu au-delà, et j’ai trouvé cela vraiment intéressant de m’adresser aux différents publics.
Je suis très attaché à la transmission, je suis issu d’une famille d’enseignants du secondaire, et j’aime moi-même enseigner. J’ai dirigé et participé à la rédaction de manuels scolaires des spécialités informatiques SNT et NSI au Lycée. Dans le programme officiel de NSI issu du ministère, une ligne parle de l’interaction avec l’utilisateur comme étant transverse à tout le programme, ce qui veut dire qu’elle n’est concrètement nulle part. Mais je me suis dit que c’était peut-être l’occasion d’insuffler un peu de ma passion dans ce programme, que je trouve par ailleurs très lourd pour des élèves de première et terminale, et de laisser une trace ailleurs que dans des papiers de recherche…
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
29.04.2025 à 17:22
Anne Blavette, Chargée de recherche CNRS en génie électrique, École normale supérieure de Rennes
Lundi 28 avril, l’Espagne, le Portugal et une partie du Pays basque français ont été touchés par une coupure d’électricité majeure qui a perturbé l’ensemble de la région. Alors que la situation est presque rétablie moins de 24 heures plus tard, les causes de l’incident sont encore inconnues. Anne Blavette travaille sur l’optimisation de la gestion de l’énergie au sein des réseaux électriques avec un fort taux d’énergies renouvelables et répond à nos questions sur les instabilités des réseaux.
The Conversation : L’événement d’hier a surpris la population par son ampleur et ses conséquences sur le fonctionnement de pays entiers — des trains aux distributeurs de billets, en passant par l’accès à Internet perturbé jusqu’au Maroc — qui nous rappellent notre dépendance aux systèmes électriques. Quel est votre regard de spécialiste sur un tel événement ?
Anne Blavette : L’évènement qui s’est déclenché hier est assez incroyable, car un incident de cette ampleur géographique est très rare.
À l’heure actuelle, ses causes sont en cours d’investigation. Cependant, il est déjà impressionnant de voir que l’alimentation a presque entièrement été rétablie à 9h le lendemain matin, que ce soit au Portugal ou en Espagne, tandis que l’impact a été mineur en France (quelques minutes d’interruption).
On peut saluer l’efficacité des équipes des différents gestionnaires de réseau (espagnols, portugais et français) qui ont réalisé et réalisent encore un travail très important après les déconnexions et arrêts automatiques de liaisons électriques et centrales électriques, notamment avec des redémarrages zone par zone et le rétablissement progressif des connexions internationales. Ces opérations se font en parallèle des vérifications minutieuses de l’état du réseau. Cette procédure rigoureuse est nécessaire pour éviter que le réseau ne s’effondre à nouveau. Le travail ne sera pas encore achevé même lorsque l’ensemble de la population sera reconnecté, car les investigations sur l’origine de l’incident se poursuivront.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le Portugal et le Pays basque français ont aussi été touchés. Est-ce parce que les réseaux sont connectés localement ?
A. B. : Oui, le Portugal est connecté au réseau européen via l’Espagne, et des connexions existent entre l’Espagne et la France. Cela permet de mieux échanger de l’énergie et d’assurer en général une bien meilleure stabilité du réseau que des réseaux non interconnectés. D’ailleurs, la France participe à la réalimentation électrique de l’Espagne via les interconnexions.
Quelles sont les fragilités typiques d’un réseau électrique ?
A. B. : Un point important pour qu’un réseau électrique soit stable est que l’équilibre entre la consommation et la production d’électricité soit assuré à chaque instant (on parle d’équilibre production-consommation ou offre-demande).
Or, on a vu hier sur le réseau espagnol un brusque décrochage de la production/consommation de l’ordre d’une dizaine de gigawatts. Cela correspond à une perte d’environ 60 % de la consommation pour ce jour. Je cite le journal le Monde : « M.Sanchez a affirmé qu’il n’y avait “jamais” eu un tel “effondrement” du réseau électrique espagnol, précisant que “15 gigawatts” d’électricité avaient été “soudainement perdus"sur le réseau, le tout "en à peine cinq secondes” […] "Quinze gigawatts correspondent approximativement à 60 % de la demande" en électricité de l’Espagne à cette heure-là de la journée, a décrit le chef du gouvernement, qui a présidé une réunion de crise sur cette panne géante. »
Dans le cas d’un brusque décrochage de cet ordre, il y a une coupure électrique sur une grande région (qu’on qualifie de blackout), car le système devient instable. La raison du décrochage d’hier en Espagne semble encore inconnue et est en cours d’investigations par les gestionnaires de réseau et les autorités publiques.
Qu’est-ce qu’une instabilité du réseau électrique ? Qu’est-ce qui peut provoquer de telles instabilités ?
A. B. : Un réseau stable fonctionne dans des plages définies pour plusieurs grandeurs, notamment la fréquence et la tension électrique. En dehors de ces plages, le réseau peut être instable. Par exemple, si la tension en un point du réseau devient brusquement excessive, cela peut entraîner des déconnexions d’appareils qui se mettent en protection. Prenons, par exemple, le cas de panneaux photovoltaïques : s’ils se déconnectent, l’énergie qu’ils devaient produire peut manquer aux consommateurs, créant ainsi un déséquilibre entre la consommation et la production électrique. Sans opération de remédiation à ce problème, ce déséquilibre pourrait entraîner de graves conséquences pour le réseau électrique.
La seule opération à réaliser à ce stade est de délester très rapidement les consommateurs (c’est-à-dire réaliser une coupure électrique) afin de rétablir l’équilibre entre consommation et production, avant de pouvoir les réalimenter progressivement dans une configuration stable pour le réseau.
Si un incident peut provoquer un blackout, ce dernier peut aussi être provoqué par une succession d’éléments : on parle ainsi de « pannes en cascade ». Mais une panne, en cascade ou isolée, peut entraîner également une propagation à d’autres régions ou d’autres pays et accroître la sévérité de l’incident initial.
De nombreuses causes d’incident sont possibles : pannes de centrales électriques, phénomènes météorologiques extrêmes, etc.
Cependant, l’état du réseau électrique européen est contrôlé avec une grande vigilance par les gestionnaires de réseaux et bénéficie de systèmes automatisés permettant de réagir de façon de façon instantanée et adéquate dans l’urgence : cela a permis notamment de couper la propagation éventuelle vers la France en déconnectant la liaison de la France vers la Catalogne.
Comme la consommation électrique de chacun varie tout le temps, la consommation à l’échelle d’un pays est variable. De même, certains moyens de production d’électricité utilisés (éolien, photovoltaïque…) présentent une production variable avec la météo. Les déséquilibres entre la production d’électricité et la consommation sont donc permanents, et une des tâches des gestionnaires de réseaux de transport d’électricité est d’équilibrer ce qui est produit et ce qui est consommé. Comment ces déséquilibres sont-ils gérés d’habitude ?
A. B. : Il y a tout d’abord un effet de foisonnement à l’échelle d’un pays qui permet de « lisser » les variations individuelles de chaque consommateur ou producteur : la consommation nationale est, par exemple, beaucoup plus lisse que les consommations individuelles. Cela la rend par ailleurs beaucoup plus prédictible, et l’équilibre offre-demande commence par un aspect de prédiction de la consommation, mais également des productions d’énergies renouvelables.
On vient ensuite compléter avec des moyens de production ou de stockage entièrement contrôlables (centrales thermiques, hydroélectricité…) qui permettront d’atteindre l’équilibre à chaque instant.
Bien entendu, certains déséquilibres imprévus peuvent exister et ils sont corrigés par de la réserve qui permet de maintenir la stabilité du réseau. Cette réserve est tirée par exemple d’une marge obligatoire de fonctionnement de centrales électriques (qui peuvent donc produire un peu plus ou un peu moins, selon les besoins). Or, dans le cas de l’Espagne, le déséquilibre était trop important pour réaliser cette compensation, étant plusieurs dizaines de fois supérieure aux réserves disponibles.
Mais il y a aussi d’autres moyens d’ajuster l’offre-demande en amont, notamment en déplaçant la consommation grâce à des tarifs incitatifs (par exemple des heures creuses lorsque la production photovoltaïque est à son maximum) ou par des informations citoyennes, comme ce qui est réalisé via EcoWatt. Dans ce dispositif géré par le gestionnaire de réseau de transport français RTE, les utilisateurs peuvent être alertés en cas de forte demande sur le réseau (généralement en hiver en France, à cause du chauffage électrique), afin de réduire leur consommation sur de courtes plages horaires qui peuvent être critiques pour le réseau ou nécessiter des moyens de production fortement émetteurs de CO2.
Anne Blavette a reçu des financements pour ses travaux de recherche de diverses agences et partenaires de financements, notamment l'ANR, l'ADEME, la région Bretagne, etc. et a collaboré/collabore avec divers partenaires publics et privés dont RTE, SRD, EDF, etc.
28.04.2025 à 16:54
Deransart Colin, Enseignant-chercheur en neurosciences, Grenoble Institut des Neurosciences (GIN), Université Grenoble Alpes (UGA)
Bertrand Favier, Dr Vétérinaire, Maitre de conférences à l'UFR de Chimie Biologie, Université Grenoble Alpes (UGA)
Boulet sabrina, Professeur des Universités- Neurosciences, Université Grenoble Alpes (UGA)
Véronique Coizet, CR Inserm en Neurosciences, Université Grenoble Alpes (UGA)
L’expérimentation animale fait débat. La recherche scientifique est-elle prête à se passer des animaux ? Les alternatives sont-elles suffisantes ? La discussion mérite en tout cas d’être menée de la manière la plus objective possible.
La maladie de Parkinson touche plus de 270 000 personnes en France. Lorsque le diagnostic est posé, la destruction des neurones producteurs de dopamine est trop avancée pour envisager des traitements curatifs. Pour obtenir des marqueurs précoces de la maladie, et permettre des traitements préventifs, l’équipe des chercheurs du Professeur Boulet du Grenoble Institut des Neurosciences a développé une recherche métabolomique par Résonance Magnétique Nucléaire.
A l’image de l’analyse des gaz d’échappement d’une voiture lors d’un contrôle technique dont la recherche des produits de combustion permet de déceler d’éventuelles anomalies de fonctionnement du moteur, la métabolomique par Résonance Magnétique Nucléaire permet l’identification de toutes les substances organiques de petites tailles (comme certains acides aminés) ou de leurs produits de dégradation issus des cascades des évènements moléculaires se produisant dans les cellules. L’identification de ces substances ou métabolites au sein d’un échantillon biologique, comme le sang ou d’autres tissus, permet donc de déceler d’éventuels marqueurs de la maladie (biomarqueurs). Cette approche se situe en aval de l’étude des gènes (génomique), de l’ensemble des ARN messagers (transcriptomique) et de l’ensemble des protéines (protéomique). Cette approche novatrice permet donc d’appréhender l’ensemble des facteurs (génétiques, environnementaux, nutritionnels…) dont la résultante est susceptible de conduire à une maladie.
Les chercheurs ont croisé les métabolites issus de trois modèles animaux complémentaires de la maladie de Parkinson et ont soumis aux mêmes analyses des échantillons de sang issus de patients nouvellement diagnostiqués mais non encore traités (patients de novo).
En 1959 les biologistes William Russel et Rex Burch ont proposé des recommandations éthiques en expérimentation animale connues sous le terme de « règle des 3 R » qui font encore aujourd’hui consensus à l’égard du traitement éthique des animaux de laboratoire. Ces recommandations visent à remplacer quand cela est possible l’utilisation d’animaux par des modèles alternatifs, réduire le nombre d’animaux requis et raffiner les expérimentations en minimisant les contraintes imposées aux animaux (douleur, souffrance, angoisse…).
Il semble contraire au critère de réduction de faire appel à une multiplicité de modèles animaux différents pour une même étude. Dans cette étude, utiliser trois modèles a permis de recouper entre elles les données, et d’en augmenter la portée « translationnelle » des résultats, c’est-à-dire ce qui permet de les transposer à l’humain. En effet, chaque modèle présentait des caractéristiques complémentaires de la maladie de Parkinson, chacun imitant différentes phases de la maladie, depuis la phase où seuls des déficits de motivation sont présents, jusqu’à celle avec des symptômes moteurs. De plus, les chercheurs ont développé une échelle de cotation de la progression de la maladie calquée sur ce qui existe en clinique humaine, évaluant les performances motivationnelles, motrices et l’étendue des lésions neurologiques. Cela a amélioré l’aspect translationnel de ces études et a participé aussi au raffinement des expérimentations.
Le premier modèle porte sur des rats traités par une neurotoxine ciblant les neurones dopaminergiques. Il est ainsi possible de constituer des lots d’animaux mimant de façon stable et sans évolution temporelle, un stade précis de la maladie ; ceci est une simplification de la maladie humaine où chaque patient est un cas particulier évolutif. En complément, les chercheurs ont sélectionné un second modèle reflétant la nature progressive de la pathologie dont le marqueur est lié à la production d’une protéine délétère. Bien que ce modèle permette chez un même animal de suivre la progression de la pathologie, il n’englobe pas tous les symptômes neuropsychiatriques caractéristiques du stade précoce de la maladie (tel que l’apathie).
Enfin, le troisième modèle, induit par injection d’une neurotoxine à des macaques, reproduit l’évolution des phases cliniques de la maladie et présente une plus grande homologie avec l’humain. L’homologie d’un modèle se réfère à sa capacité à mimer les mécanismes physiologiques sous-jacents à l’origine de la pathologie étudiée chez l’humain : on parle donc d’identité de causalité et de mécanismes mis en jeu.
Chez ces animaux, les dérégulations métaboliques ont amené à identifier six métabolites, potentiellement liés au processus neurodégénératif, dont les niveaux combinés constituent un biomarqueur métabolique composite. Ce biomarqueur permet de discriminer les animaux imitant la maladie de Parkinson des témoins, et ce, dès la phase précoce. Ce résultat n’aurait pas été atteint si une seule situation, un seul modèle animal, avait été étudié.
Les résultats obtenus chez les animaux ont ensuite été comparés avec les résultats de patients de novo (diagnostiqués mais non encore traités) provenant de deux banques différentes. Les mêmes six métabolites constituant le biomarqueur identifié chez les animaux ont permis de distinguer les patients de novo des patients sains avec un niveau élevé de sensibilité et de spécificité.
Les chercheurs ont également montré que la dérégulation de 3 des 6 métabolites composant le biomarqueur peut être partiellement corrigée par un médicament mimant les effets de la dopamine. Ce traitement permet de corriger le déficit de motivation des animaux à la phase précoce. Cette amélioration partielle a également été observée dans un sous-ensemble des patients de l’étude. Cela renforce l’intérêt du biomarqueur identifié et suggère que ce marqueur permettrait de surveiller l’évolution des traitements d’une manière moins contraignante que les méthodes d’imagerie médicale actuelles.
Outre les perspectives diagnostiques de cette étude, ces travaux ont également permis d’identifier un mécanisme de régulation du métabolisme cellulaire sur lequel on pourrait agir pour contrer les effets de la maladie, offrant ainsi des perspectives thérapeutiques. Ceci illustre notamment à quel point recherche fondamentale et recherche appliquée sont fortement indissociables l’une de l’autre. Nous venons de le voir au travers de cet exemple, mais de nombreuses recherches montrent l’intérêt de l’expérimentation animale, comme dans le cas des travaux de Pasteur sur la rage, les travaux grenoblois sur les approches par stimulations électriques intracérébrales profondes qui ont permis de révolutionner la prise en charge de nombreux patients parkinsoniens à travers le monde, ou encore, plus proche de nous, les travaux sur les ARN messagers ayant permis la mise au point de vaccins contre la Covid-19 et ont valu à leurs auteurs le prix Nobel de Médecine 2023.
Au-delà de ces avancées scientifiques, les détracteurs de l’expérimentation animale mettent en avant la faible transposabilité des résultats obtenus chez l’animal à l’homme, un de leurs argument étant que « 90 % des traitements testés avec succès sur les animaux se révèlent inefficaces ou dangereux pour les êtres humains ». Ceci leur permet notamment de justifier le recours à l’utilisation de modèles alternatifs à l’animal, tels que des modèles in vitro ou in silico.
Cette citation nous semble cependant partielle et partiale. Il n’a pas été démontré que la transposabilité des tests in vitro et/ou in silico soit meilleure en l’état actuel des techniques.
En réalité, ces tests sont les premiers cribles de l’ensemble des tests précliniques et la contribution des animaux est essentielle puisqu’en fin de phase pré-clinique, ils permettent d’exclure 40 % de candidats médicaments, notamment sur la base de risques potentiels chez l’humain.
Par ailleurs, les auteurs dutexte cité après avoir souligné cette faible transposabilité, proposent plutôt de mettre l’accent sur la robustesse des approches expérimentales, en assurant une recherche rigoureuse tant sur les animaux que chez les humains. Ils suggèrent ainsi « d’harmoniser la conception des protocoles expérimentaux menés chez l’humain (étude clinique) avec celle des études précliniques réalisées chez l’animal dont l’utilisation demeure indispensable, balayant la vision manichéenne qui voudrait que s’opposent une communauté pro-expérimentation animale et une autre, pro-méthodes alternatives. »
Le fait d’attribuer des capacités cognitives à l’autre – humain comme animal – nous confère un socle commun de droits moraux et apporte du sens à nos actions. Le domaine de l’expérimentation animale n’échappe pas à cette règle.
Il a été avancé que les chercheurs utilisant des animaux à des fins scientifiques auraient une moindre empathie vis-à-vis de la souffrance animale que le reste de la population.
Cette observation nous parait occulter un point important. De même qu’un chirurgien ne s’évanouit pas à la vue du sang au moment crucial de son intervention, en tant que chercheurs travaillant sur des modèles animaux, nous réfléchissons aux conséquences de nos actes. Leur aspect émotionnel est maîtrisé, mais non oblitéré : le chercheur n’a aucun intérêt à négliger la souffrance animale. Une expérience sur un modèle animal perd de sa puissance de déduction si certains animaux sont en panique, d’autres en stress, ou en prostration. Bien au contraire, la qualité de la science dans ce domaine va de pair avec le bien-être des animaux. La démarche de raffinement citée plus haut vise également à limiter les symptômes au strict minimum pour l’étude de la maladie, et elle est indissociable d’une empathie raisonnée avec les animaux utilisés.
Il est nécessaire également de rappeler que la qualité de nos avancées médicales comme de nos services de soins assume que le nombre moyen d’animaux que chaque Français « utilisera » au cours de sa vie entière est de 2,6 animaux. Ce nombre est à mettre lui-même en rapport avec les 1298 animaux, en moyenne, que pour toute sa vie un(e) Français(e) utilisera pour se nourrir. L’utilisation d’animaux en recherche expérimentale telle qu’elle est pratiquée de nos jours dans un cadre raisonné et contrôlé, et dans le respect du bien-être animal, reste, selon nous, une nécessité pour l’évolution de nos connaissances, même si son bannissement « à terme » tel qu’inscrit dans le marbre de la loi européenne doit nous inciter à en limiter le nombre et à développer des alternatives.
Enfin, en ce qui concerne le respect effectif des lois relatives à l’utilisation d’animaux en recherche, dont l’obligation d’appliquer les 3R, les inspecteurs vétérinaires départementaux ont à leur disposition des sanctions dissuasives qui peuvent être lourdes en cas de maltraitance.
En tant que chercheurs, nous savons que la recherche en expérimentation animale est sujette à des controverses : nos détracteurs adhèrent aux idées développées par les mouvements opposés à l’expérimentation animale en partie parce qu’il n’y a pas de manifestation de ceux qui sont en faveur de cette pratique. C’est précisément pour cela qu’il nous incombe de rendre compte à nos concitoyens de ce que nous faisons dans nos laboratoires.
Colin Deransart a reçu des financements de la Ligue Française Contre les Epilepsies, des Laboratoires GlaxoSmithKline, de la Fondation Electricité de France, de l'ANR et d'un Programme Hospitalier de Recherche Clinique.
Bertrand Favier est membre de l'AFSTAL. Sa recherche actuelle est financée par l'ANR et la Société Française de Rhumatologie en plus de son employeur.
Boulet sabrina a reçu des financements de l'ANR, la Fondation de France, la fondation pour la Rechercher sur le Cerveau, la fondation France Parkinson.
Véronique Coizet a reçu des financements de l'ANR, la fondation France Parkinson, la Fondation de France. Elle est présidente du comité d'éthique de l'Institut des Neurosciences de Grenoble et membre du comité Santé et bien-être des animaux.
26.04.2025 à 15:31
Quentin Bletery, Géophysicien, Directeur de Recherche IRD à l'Observatoire de la Côte d'Azur., Institut de recherche pour le développement (IRD)
Savoir prédire les séismes permettrait de sauver de nombreuses vies chaque année. La grande question est de savoir si, avant qu’un séisme se déclenche, il pourrait y avoir des signaux précurseurs mesurables. La communauté des géophysiciens n’a pas encore atteint de consensus sur cette problématique.
Les tremblements de terre et les tsunamis qu’ils génèrent ont causé la mort de près d’un million de personnes au cours des vingt-cinq dernières années. Des systèmes d’alerte existent, mais ils sont basés sur les premiers signaux émis par le séisme, et ne procurent donc que quelques secondes d’alerte avant les premières secousses, quelques dizaines de minutes avant le tsunami éventuel. Si des progrès importants sont réalisés pour améliorer ces systèmes, ceux-ci sont intrinsèquement limités en termes de temps d’alerte, car ils n’utilisent que des signaux émis par un séisme déjà initié.
Pour alerter plus de quelques secondes en avance, il faudra donc être capable de prédire les séismes avant que ceux-ci ne se déclenchent. Pourra-t-on un jour atteindre cet objectif ?
Les humains ont cherché à prédire les tremblements de terre depuis bien longtemps. Dans les années 1970, de nombreux scientifiques ont pensé que cet objectif était à portée de main. En Californie, un séisme semblait se produire tous les vingt-deux ans, ce qui a poussé les sismologues à prédire qu’un tremblement de terre se produirait, selon ce schéma de récurrence, en 1988. Mais le séisme annoncé n’eut lieu qu’en 2004, et devant l’échec de cette prédiction, la communauté scientifique devint, dans les années 1990, de plus en plus sceptique à l’idée de la prédictibilité des séismes. Cet évènement a rendu l’idée de prédire les séismes « taboue » durant de longues années, en particulier aux États-Unis, où toute mention du terme « prédiction » a été proscrite. Elle reste aujourd’hui considérée comme impossible par une grande partie de la communauté.
Néanmoins, les travaux expérimentaux et théoriques suggèrent l’existence d’une phase de préparation des séismes. Les données sismologiques (qui enregistrent les vibrations du sol) et géodésiques (qui enregistrent les déplacements du sol) sont en forte croissance et nous donnent des informations de plus en plus fines sur ce qu’il se passe en profondeur. Dans ces conditions, la prédiction des séismes restera-t-elle impossible pour toujours ?
Un séisme est un glissement rapide entre deux « blocs de Terre » le long de l’interface qui les sépare : une faille. Les plus grands « blocs de Terre » sont connus sous le nom de plaques tectoniques. Celles-ci se déplacent lentement (quelques millimètres par an) les unes par rapport aux autres, mais leur mouvement relatif est largement bloqué le long des failles qui les séparent. Les failles étant bloquées, et les plaques n’arrêtant pas de se déplacer, un « déficit de glissement » s’accumule. Ce déficit est compensé, en quelques secondes, lors d’évènements rares mais violents : les séismes.
Mais alors, se pourrait-il que le glissement rapide se produisant lors des séismes commence avec un glissement lent accélérant jusqu’à la rupture sismique ? C’est ce que montrent les expériences réalisées en laboratoire et ce que prédisent les modèles physiques.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les expériences et les modèles suggèrent l’existence d’une phase préparatoire des séismes pendant laquelle le glissement lent s’accélère et s’étend progressivement jusqu’à atteindre une taille critique à partir de laquelle un séisme se déclenche. Cette taille critique est très faible dans la plupart des expériences réalisées en laboratoire, car ces expériences sont réalisées sur des « failles » de très petites tailles parfaitement planes et homogènes.
Des travaux théoriques ont montré que cette taille critique peut être beaucoup plus grande et la durée de la phase préparatoire beaucoup plus longue (et donc potentiellement détectable) pour des failles hétérogènes qui sont beaucoup plus réalistes que les failles homogènes planes des expériences en laboratoire.
Si l’on observe bien des signaux pré-sismiques en laboratoire, cela est beaucoup plus difficile sur des failles naturelles. La raison est simple : les capteurs sont beaucoup plus loin. Les chercheurs utilisent essentiellement deux types de capteurs : les capteurs sismologiques et les capteurs géodésiques. Les capteurs sismologiques (les sismomètres) enregistrent les vibrations du sol, alors que les capteurs géodésiques (tels que les GPS) mesurent les déplacements du sol.
Pour rechercher des indices de glissement lent le long des failles, il semble ainsi naturel de regarder les données GPS. Malheureusement, lorsque l’on regarde les déplacements mesurés par GPS dans les heures, ou les jours, précédant les grands séismes, on voit essentiellement ce que l’on appelle du bruit, c’est-à-dire des signaux qui n’ont pas une origine tectonique, mais qui sont dus à des erreurs de correction dans le traitement de données GPS. Ce bruit masque tout potentiel signal pré-sismique qui serait nécessairement de faible amplitude. Comment pourrait-on ainsi extraire un signal de faible amplitude « noyé » dans des données bruitées ?
Nous avons proposé une approche, dans un article publié en 2023 dans le journal Science, pour augmenter le rapport signal sur bruit et faire ressortir de potentiels signaux de faible amplitude. L’approche ne vise pas à prédire les séismes, mais à explorer l’existence de signaux faibles en « stackant » (c’est-à-dire, simplement, en additionnant) toutes les données GPS enregistrées avant tous les grands séismes.
Bien sûr, additionner brutalement toutes les données n’aurait pas de sens, car selon le type de séisme et la configuration source-station les déplacements potentiellement générés par un hypothétique glissement précurseur ne seront pas tous dans la même direction. Nous avons donc calculé tous les déplacements attendus sur chaque station avant chaque grand séisme, puis nous avons calculé le produit scalaire entre les déplacements attendus et les déplacements observés.
Le produit scalaire est une mesure de la cohérence entre les déplacements attendus et observés. Si les déplacements observés sont plus ou moins dans la même direction que les déplacements attendus, leur produit scalaire sera positif. Dans le cas contraire, il sera négatif. Ainsi, si les mesures GPS ne contiennent que du bruit sans rapport avec un potentiel signal pré-sismique, les produits scalaires ont une probabilité égale d’être positif ou négatif, et sommer un grand nombre de ceux-ci devrait donner un résultat proche de 0. Au contraire, si les mesures GPS contiennent un signal pré-sismique faible, on s’attend, en sommant un grand nombre de produits scalaires, à obtenir des valeurs plutôt positives.
Ainsi, nous avons sommé les produits scalaires des déplacements attendus et observés toutes les cinq minutes pendant les 48 heures précédant tous les évènements de magnitude supérieure à 7. Cela représente un total de 3 026 séries temporelles GPS enregistrées avant 90 séismes (Figure 1).
Le résultat est une série temporelle décrivant la cohérence entre les déplacements attendus et les déplacements observés en fonction du temps avant les grands séismes (Figure 2).
Cette série temporelle montre une augmentation de la cohérence entre déplacements attendus et observés dans les deux heures précédant les séismes, qui pourrait être la trace d’une accélération du glissement lent pré-sismique aboutissant à la rupture sismique. Le signal est subtil, mais nous avons reproduit l’exercice sur des données enregistrées à 100 000 dates différentes (ne précédant pas des séismes) et obtenu un signal similaire dans seulement 0,3 % des cas, ce qui en fait un signal statistiquement très significatif.
Étant donné les implications potentielles, nous avons publié avec l’article tous nos codes et toutes nos données pour que la communauté scientifique puisse vérifier et travailler sur des approches alternatives, auxquelles nous n’aurions pas pensé.
Quatre jours après la publication de l’article, deux scientifiques américains, reconvertis dans la vulgarisation scientifique, ont publié, sur leur blog, un article faisant état de doutes concernant l’origine tectonique du signal. Cet article a eu un fort écho médiatique, en raison de l’activité de vulgarisateur des auteurs et de la force de l’argument principal avancé : après avoir corrigé les données GPS de ce que les auteurs considèrent comme du bruit (des fluctuations dans les données qu’ils considèrent non liées à l’activité tectonique), le signal disparaît du stack. La conclusion des auteurs de ce blog est que le signal est le résultat d’une coïncidence malchanceuse de facteurs improbables faisant apparaître du bruit GPS comme un signal tectonique.
Nous avons récemment publié un article dans le journal Seismica montrant que la probabilité d’une telle coïncidence est extrêmement faible, et avancé l’hypothèse que la correction de bruit proposée puisse altérer la détection d’un signal réel.
À ce jour, la communauté scientifique est partagée et le débat autour de cette question est plus vivant que jamais. Un débat en ligne a même été organisé entre les auteurs du blog et nous-mêmes devant un parterre de scientifiques (une première dans la communauté scientifique travaillant sur les séismes). Les termes du débat sont extrêmement techniques et l’issue est incertaine.
La multiplication des stations GPS (et des autres instruments géophysiques) apporte un nombre croissant d’observations à mesure que de nouveaux séismes se produisent et laisse augurer le fait que, si les experts ne parviennent pas à déterminer l’origine du signal, le temps le fera – le signal devenant de plus en plus, ou de moins en moins, clair à mesure que de nouvelles données seront ajoutées au stack.
Si le signal s’avère être le résultat d’une combinaison malencontreuse de bruit corrélé, alors la perspective de la prédiction s’éloignera encore un peu plus. Si le signal s’avère être la preuve d’une phase de glissement préparatoire des séismes, alors cette perspective se rapprochera un peu. Un peu seulement, car, même dans cette hypothèse, l’approche que nous avons proposée ne pourra malheureusement pas prédire les séismes.
En effet, celle-ci utilise toutes les données enregistrées avant tous les évènements passés en faisant l’hypothèse que l’épicentre et les mécanismes des séismes sont connus. Elle ne saurait ainsi avoir une quelconque ambition prédictive.
On considère généralement qu’un stack amplifie le rapport signal sur bruit d’un facteur égal à la racine carrée du nombre d’observations. Dans notre cas, cela voudrait dire que le signal identifié sur la figure 2 a été amplifié d’un facteur 55 grâce au stack. Il faudrait donc augmenter la sensibilité (ou réduire le bruit) des enregistrements GPS d’un facteur (au moins) 55 pour être capable d’identifier un signal sur une station unique.
De tels progrès représentent des avancées technologiques majeures et sont improbables dans les années à venir. Cependant, si l’existence d’une phase préparatoire (potentiellement observable) des séismes se confirme, cela motiverait certainement le développement de technologies nouvelles et le déploiement de réseaux de stations denses qui pourraient faire de la prédiction des séismes une perspective pas si lointaine.
Quentin Bletery a reçu des financements de l'European Research Council (ERC).
24.04.2025 à 17:44
Thuy Le Toan, Chercheuse principale de la mission BIOMASS, Centre national de la recherche scientifique (CNRS)
Alexandre Bouvet, Ingénieur de recherche en télédétection de la végétation, Institut de recherche pour le développement (IRD)
Le 29 avril, le satellite Biomass a été lancé avec succès depuis le port spatial européen de Kourou, en Guyane, par le lanceur européen Vega C. Son orbite à 666 kilomètres d’altitude lui permettra de mesurer avec une précision sans précédent la quantité de carbone stockée dans les forêts et son évolution dans le temps, afin de nous aider à mieux quantifier le cycle du carbone et, ainsi, de mieux définir des mesures d’atténuation du changement climatique.
Alors que les concentrations atmosphériques de dioxyde de carbone atteignent des niveaux sans précédent, l’accord de Paris (2015) encourage à mettre en place des mesures visant à réduire les émissions et à accroître les absorptions par les forêts, un des leviers majeurs pour atténuer les émissions de carbone dues aux activités humaines. Il est essentiel que la mise en œuvre de ces mesures s’appuie sur une meilleure quantification des variables forestières clés, notamment les pertes et les gains de biomasse forestière, afin de mieux comprendre les processus anthropiques et naturels qui contrôlent les émissions et les absorptions de CO2.
C’est la mission que doit relever Biomass, un satellite de l’Agence spatiale européenne (ESA, en anglais), conçu spécifiquement pour répondre à des questions scientifiques cruciales sur le système terrestre, essentielles à la recherche sur le climat et à la surveillance de notre environnement.
Biomass embarque un instrument jamais envoyé dans l’espace : un radar à synthèse d’ouverture (SAR) en bande P. Grâce à sa grande longueur d’onde (environ 70 cm), la plus grande disponible pour l’observation de la Terre, le signal radar peut pénétrer toute la strate forestière pour mesurer la biomasse, c’est-à-dire la masse des troncs, des branches et des tiges ligneuses, où les arbres stockent la majeure partie de leur carbone.
Ainsi, Biomass va fournir des estimations à l’échelle de l’hectare des stocks de carbone et de la dynamique des pertes dans des zones forestières largement sous-observées et vulnérables du monde entier, comme les forêts tropicales. Outre ses capacités d’observation, Biomass permettra donc d'améliorer notre compréhension de la dynamique forestière, conduisant ainsi à une meilleure représentation de la mortalité, des perturbations et de la croissance, améliorant ainsi le pronostic des trajectoires futures du cycle du carbone terrestre.
De plus, grâce à sa longueur d’onde inédite, la mission doit fournir des données d’observation sans précédent sur les calottes glaciaires, les déserts, l’ionosphère (couche supérieure de l’atmosphère), la topographie sous la forêt, ainsi que, nous l’espérons, d’autres découvertes à venir.
Les forêts jouent un rôle crucial dans le cycle du carbone et le climat. Elles agissent comme des puits de carbone, en absorbant, grâce à la photosynthèse, le dioxyde de carbone (CO2) de l’atmosphère et en le stockant dans la biomasse et le sol.
La capacité des forêts à séquestrer le carbone est immense, puisque celles-ci retiennent environ 70 % du carbone total des écosystèmes terrestres. Les forêts tropicales humides, en particulier, détiennent les plus importants stocks de carbone sur Terre (environ 50 % du carbone total de la végétation).
L’importance de ces forêts rend leur conservation et leur gestion durable essentielles pour atténuer le changement climatique.
Les forêts sont également d’importantes sources de carbone. Par le biais de perturbations naturelles telles que les incendies de forêt, les ravageurs ou la mortalité due à la sécheresse, mais surtout par les processus de déforestation et de dégradation dus aux activités humaines, elles libèrent dans l’atmosphère le carbone stocké dans les arbres. Ces émissions de CO2 connaissent de fortes variations d’une année à l’autre. Par exemple, les conditions de sécheresse liées aux épisodes climatiques El Niño, comme en 2015-2016 ou 2023-2024, exacerbent les émissions dues à la déforestation et aux incendies de forêt, tout en entraînant une réduction de la capacité d’absorption de carbone des forêts.
La quantification de la biomasse sur Terre, et de ses variations dans le temps, est essentielle pour réduire les incertitudes sur les émissions de CO2 par les forêts.
Dans le bilan carbone mondial publié chaque année par le Global Carbon Project, les plus grandes incertitudes concernent les flux de carbone des écosystèmes terrestres, dont les forêts mais aussi les savanes ou les prairies : il est difficile de savoir précisément combien de CO2 les forêts et les autres systèmes terrestres émettent et absorbent.
En effet, aujourd’hui, on connaît mal les émissions des écosystèmes terrestres liées aux changements d’usage des terres (par exemple, la déforestation) : on les estime à 1,1 ± 0,7 gigatonne de carbone par an soit une incertitude de 63 % ! Pour obtenir ces chiffres, l’approche utilisée pour l’instant consiste à multiplier la surface des zones de déforestation par des estimations régionales de la quantité de carbone stocké sous forme de biomasse (de manière empirique, le carbone représente la moitié de la biomasse).
À l’échelle mondiale, la répartition de la biomasse est encore assez mal connue. Pour les forêts tropicales, dont la plupart ne font pas l’objet d’inventaires forestiers, les mesures de biomasse issues de placettes de recherche écologique (des surfaces délimitées dans lesquelles des inventaires de végétation sont effectués) sont transposées à l’échelle régionale. Il est reconnu que les lacunes dans la connaissance actuelle du cycle du carbone terrestre résultent majoritairement d’un échantillonnage clairsemé et biaisé dans ces régions tropicales à flux et stockage élevés.
Quant aux puits de carbone terrestre (le fait que les écosystèmes terrestres, dont les forêts, absorbent du CO2), les estimations sont issues de la modélisation, et les incertitudes publiées reflètent seulement la dispersion des résultats d’une vingtaine de modèles.
Les méthodes traditionnelles de mesure de la biomasse, telles que les inventaires forestiers, ne permettent pas de cartographier à grande échelle. Les images des satellites existants ont été utilisées individuellement ou en combinaison pour produire des cartes de biomasse mondiale. Bien que ces produits soient actuellement utilisés, ils ne répondent pas à l’ensemble des besoins exprimés par la communauté scientifique : les cartes obtenues ne sont pas assez précises spatialement, et ils ne permettent pas de caractériser la structure des forêts denses et de mesurer leur biomasse.
Biomass va fournir des mesures radar basse fréquence pour la première fois depuis l’espace. Celles-ci répondent aux besoins scientifiques, à savoir une grande sensibilité à la biomasse des forêts tropicales denses ; des estimations à l’échelle de l’hectare, qui est l’échelle effective de la variabilité forestière ; une couverture spatiale continue des régions forestières tropicales et subtropicales avec des mesures répétées sur plusieurs années ; une précision de 20 % des produits de biomasse et de hauteur, comparable aux observations au sol, afin de garantir la fiabilité des résultats scientifiques et de contribuer à l’élaboration de mesures d’atténuation du changement climatique.
Outre l’utilisation du radar à grande longueur d’onde, Biomass offre des avancées majeures dans l’utilisation de trois technologies complémentaires pour fournir des informations sur les propriétés 3D des forêts :
la polarimétrie (exploitation de la polarisation des ondes électromagnétiques dans une image),
l’interférométrie polarimétrique (utilisation de la polarimétrie et de la différence de phase entre deux images)
et la tomographie (reconstruction 3D en utilisant plusieurs images prises depuis différents points de vue, comme dans les scanners médicaux).
Ces techniques permettent des mesures innovantes pour maximiser la sensibilité à la biomasse tout en minimisant les effets perturbateurs, par exemple la topographie, l’humidité du sol, ou les effets parasites issus de la traversée de certaines couches de l’atmosphère.
Par exemple, pendant la phase tomographique, l’orbite du système sera ajustée pour collecter plusieurs acquisitions sur les mêmes sites, avec un intervalle de répétition de trois jours. Ceci permettra une reconstruction de la structure verticale de la forêt.
En effet, les travaux effectués pendant la phase de préparation avec des radars aéroportés en bande P ont montré qu’à partir des signaux en provenance des strates forestières identifiées par tomographie, il était possible d’estimer la hauteur de la canopée, la topographie sous-jacente et la biomasse aérienne (partie de la biomasse située au-dessus du sol, par opposition à la biomasse souterraine des racines). La densité de biomasse a pu ainsi être cartographiée jusqu’à 500 tonnes de masse végétale par hectare, soit approximativement 250 tonnes de carbone par hectare. À titre d’exemple, la biomasse des parcelles de pins maritimes dans la forêt des Landes n’excède pas 150 tonnes par hectare, et celle d’une forêt boréale en Suède ne dépasse pas 250 tonnes par hectare.
Nous attendons maintenant avec impatience les premières données de Biomass, à la fin de 2025. Les scientifiques prévoient de les utiliser pour réduire les incertitudes liées aux estimations des stocks et des flux de carbone forestier, et pour améliorer les modèles de prévision de la capacité des forêts à absorber du carbone, sous l’effet du changement climatique et des pressions anthropiques.
Thuy Le Toan a reçu des financements de l'Agence Spatiale Européenne (ESA), du Centre National d'Etudes Spatiales (CNES) pour mener des recherches en tant que co-chercheuse principale de la mission BIOMASS
Alexandre Bouvet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.04.2025 à 16:33
Jérôme Visioli, Maître de Conférences STAPS, Université de Bretagne occidentale
Une carrière d’athlète de haut niveau est jalonnée de périodes de transition, de la découverte de sa discipline jusqu’à sa retraite. Pour faciliter ces évolutions, il semble indispensable de mieux analyser toutes les émotions ressenties.
Dans les carrières sportives, les émotions jouent un rôle central. Au-delà de la joie intense associée à la réussite et au dépassement de soi, certains récits d’athlètes illustrent la fragilité psychologique qui peut émerger sous la pression constante du haut niveau. Par exemple, le footballeur Thierry Henry a révélé avoir souffert de dépression pendant sa carrière. Il s’agit d’une confession encore rare parmi les sportifs, même si d’autres témoignages marquants ont émergé dans les médias, comme ceux de la gymnaste Simone Biles ou du nageur Michael Phelps.
Les émotions sont un élément fondamental de l’expérience du sport de haut niveau, à tel point qu’elles façonnent les trajectoires des athlètes. Elles jouent un rôle particulièrement visible lors des périodes de transition. En 2022, Roger Federer met fin à sa carrière. Une photo devenue iconique le montre en larmes, main dans la main avec Rafael Nadal, tous deux submergés par l’émotion. Cette image illustre la puissance émotionnelle de ces moments charnières, même pour les figures les plus emblématiques du sport.
Pourtant, jusqu’à présent, les émotions restent souvent peu prises en compte dans l’accompagnement des sportifs de haut niveau, ce qui révèle un paradoxe et souligne la nécessité d’un changement d’approche. Les enjeux sont d’importance, tant en termes de performance que de santé.
Nos recherches s’inscrivent dans cette perspective, en cherchant à décrire, comprendre et accompagner les émotions des athlètes lors des transitions dans les carrières sportives de haut niveau.
Les carrières sportives de haut niveau ne sont pas linéaires, mais jalonnées de transitions qui influencent l’expérience des athlètes, leur rapport à soi, aux autres, plus globalement encore leur relation au monde.
Dans son sens général, la transition correspond au passage d’un état à un autre, d’une situation à une autre. Elle se situe à proximité des termes de changements, de mutations, de crise(s) et d’épreuves. Il est classique d’envisager six grandes étapes transitionnelles dans la carrière des athlètes : le début de la spécialisation, le passage à un entraînement intensif, l’entrée dans le haut niveau, la professionnalisation, le déclin des performances et l’arrêt de carrière.
Ces transitions, qu’elles soient normatives (prévisibles) ou non normatives (imprévues), ne sont jamais dénuées de résonance émotionnelle. Par exemple, l’entrée dans le haut niveau peut générer de l’excitation, de la fierté, tandis qu’une blessure peut susciter frustration, peur ou découragement. L’expérience de ces transitions est singulière à chaque athlète : les significations qu’ils attribuent à ces moments clés façonnent leur potentiel à surmonter les obstacles et à maintenir leur engagement. Cela nécessite de l’individu la mise en œuvre de stratégies d’adaptation plus ou moins conscientes.
Dans nos recherches, nous menons des entretiens approfondis portant sur le « cours de vie » des sportifs de haut niveau. En prenant appui sur une frise chronologique représentant les moments marquants de leur carrière, nous les accompagnons progressivement dans la mise en évidence de périodes charnières, puis dans l’explicitation de leur expérience. L’objectif est de reconstruire la dynamique de leurs émotions tout au long de leur parcours sportif, afin de mieux comprendre comment ils vivent, interprètent et traversent ces transitions.
Nous avons réalisé une première étude avec un pongiste français de haut niveau, dont le témoignage met en lumière les émotions marquantes d’une carrière de plus de vingt ans. Après une progression rapide dans ce sport, l’intégration dans l’équipe de France constitue une source de grande fierté : « Je commence à avoir des rapports privilégiés avec le champion du monde », se souvient-il. Cette transition, de jeune espoir à membre reconnu de l’équipe suscite un optimisme débordant. Elle ouvre un large champ des possibles pour le pongiste, par exemple celui de pouvoir participer aux Jeux olympiques.
Toutefois, les transitions ne sont pas toujours vécues de manière positive. Après cette progression vers le haut niveau, le pongiste fait face à une blessure : « C’est une année pourrie à cause de ça », raconte-t-il. Plus tard dans sa carrière, après un départ à l’étranger, il vit une période de doute et de remise en question :
« Pendant trois mois, je ne gagne pas un set, et j’ai l’impression de ne plus savoir jouer. Tous les matins, je me lève pour aller m’entraîner et, dès qu’il y a un petit grain de sable, j’explose. Je ne suis plus sélectionné en équipe de France. Tu te dis, c’est fini. »
Avec l’aide d’un nouvel entraîneur, il reprend progressivement confiance, en acceptant d’abord de jouer à un niveau inférieur. Plus tard, conscient de l’élévation du niveau international, il réoriente ses ambitions :
« Je me dis que je vais essayer de vivre les belles choses qui restent à vivre, notamment des titres de champion de France. »
Le pongiste accepte de ne plus viser les compétitions internationales les plus prestigieuses, mais s’engage dans un projet plus personnel et accessible, nourrissant ainsi un épanouissement renouvelé jusqu’à la fin de sa carrière. Ces quelques extraits issus d’une étude de cas beaucoup plus large, illustrent au fur et à mesure des transitions successives l’émergence d’une passion, l’expérience du burn out, ou encore un fort potentiel de résilience.
Nous avons réalisé une deuxième étude (en cours de publication) portant sur le parcours d’une planchiste de haut niveau en planche à voile. Après une non-qualification aux Jeux olympiques de Sidney, malgré son statut de première au classement mondial, elle vit une expérience difficile : « Tout le monde me voyait aux Jeux », confie-t-elle. Cet échec, difficile à accepter, permet une prise de conscience cruciale : sa stratégie était trop centrée sur elle-même, sans tenir compte de ses adversaires. Cela devient un moteur de sa progression : « Là, je me dis, les prochains Jeux, j’y serai. »
Quatre ans plus tard, elle remporte l’or aux JO d’Athènes, fruit d’une préparation méticuleuse. Mais cette victoire, loin de marquer la fin de son parcours, génère des questionnements sur la suite de sa carrière. L’épuisement physique et la diversification des aspirations personnelles la poussent à envisager une reconversion : « Pourquoi continuer ? », se demande-t-elle. Le changement de matériel (une nouvelle planche) est également problématique pour cette sportive. Cette période débouche sur un échec aux JO de Pékin qu’elle vit douloureusement. Mais simultanément, « c’est une véritable libération », affirme-t-elle, se rendant compte qu’elle était prête à quitter la compétition de haut niveau.
Elle choisit alors de se réinventer en devenant cadre technique, transmettant son expérience aux jeunes athlètes :
« Je veux qu’on me voie autrement, pas comme une athlète, mais comme quelqu’un qui transmet. Je vais reprendre rapidement du plaisir à accompagner les jeunes. Je vais pouvoir transmettre mon expérience, je vibre à travers les athlètes. »
Cette transition met en lumière un fort potentiel de résilience et une capacité à se réinventer en dehors de la compétition, ouvrant ainsi une nouvelle voie à l’épanouissement personnel et professionnel. Ces quelques extraits illustrent l’ambivalence des défaites et des victoires, l’alternance d’émotions positives et négatives au fur et à mesure des transitions, et un fort potentiel de résilience.
Nos recherches actuelles sur les carrières sportives, principalement celles des athlètes ayant participé aux Jeux olympiques, visent à analyser les similitudes et différences en termes d’émotions dans l’expérience des transitions. Nous nous efforçons de multiplier les études de cas afin de mieux comprendre à la fois la singularité des trajectoires individuelles et les éléments de typicalité. Ces études permettent de mieux comprendre l’impact du contexte (social, culturel, institutionnel), des relations interpersonnelles (entraîneurs, coéquipiers, famille), des caractéristiques sportives (type de sport, exigences spécifiques), ainsi que des caractéristiques individuelles (sensibilité, culture) sur l’expérience des transitions.
Nos recherches offrent des points de repère précieux pour penser et ajuster l’accompagnement des athlètes. Il est intéressant de travailler en amont des transitions pour les anticiper, pendant cette période, mais aussi après. Des dispositifs reposant sur les entretiens approfondis, permettent aux sportifs de mettre en mots leurs émotions, de les partager, de donner sens à leur expérience des transitions, d’envisager des stratégies d’adaptation.
Également, lorsqu’un sportif écoute le récit d’un autre athlète, il peut identifier des situations similaires, des émotions partagées ou des stratégies communes, ce qui favorise la transférabilité de l’expérience et peut nourrit sa propre progression.
Enfin, sensibiliser les entraîneurs et les structures sportives à la dimension émotionnelle est essentiel pour favoriser l’épanouissement des athlètes à tous les stades de leur parcours. À ce titre, l’intégration de cette thématique dans les formations constitue un levier important.
D’ailleurs, cette réflexion gagnerait à être étendue à l’analyse des carrières des entraîneurs de haut niveau, eux aussi confrontés à de nombreuses transitions au cours de leur parcours. Mieux comprendre le rôle des émotions dans ces étapes charnières permettrait d’éclairer les enjeux spécifiques de leur trajectoire professionnelle, souvent marquée par l’instabilité, l’adaptation constante et des remises en question profondes.
Jérôme Visioli ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.04.2025 à 08:11
François Hammer, Astronome, membre du laboratoire LIRA, labellisé Domaine d'Intérêt Majeur ACAV+ par la Région Ile-de-France, Observatoire de Paris
François Vannucci, Professeur émérite, chercheur en physique des particules, spécialiste des neutrinos, Université Paris Cité
Le satellite Gaia a mesuré les positions et les vitesses d’un grand nombre d’étoiles appartenant au disque de notre galaxie. Pour la première fois, on constate une décroissance des vitesses orbitales en fonction de la distance au centre galactique dans la région du halo sombre, ce qui implique une quantité de matière sombre (aussi appelée matière noire) beaucoup plus faible que ce qui était admis jusque-là.
Notre galaxie, classiquement appelée la Voie lactée, est formée d’une multitude d’étoiles, plus de cent milliards, que notre œil ne peut pas distinguer d’où son apparence « laiteuse ». C’est une grande galaxie spirale et la majorité des étoiles, en particulier notre Soleil, se répartissent dans un disque de près de 100 000 années-lumière de diamètre. Mais il y a beaucoup plus dans la galaxie.
Tout d’abord il existe des nuages de gaz où se formeront les nouvelles étoiles ainsi que des poussières. De plus, il faut aussi ajouter la très énigmatique masse manquante ou sombre qu’on retrouve à toutes les échelles de l’Univers.
L’observation du fond diffus cosmologique (en anglais Cosmic Microwave Background, CMB) apporte des contraintes physiques sur la présence de matière sombre dans l’Univers. La collaboration Planck fit une mesure précise de ce fond, qui a été comparé à un ensemble de données pour en faire un modèle très précis. La conclusion est que seulement 5 % du contenu de l’Univers est constitué de matière ordinaire, les 95 % inconnus se répartissant entre deux composantes invisibles : 25 % sous forme de matière sombre et 70 % d’énergie sombre encore plus mystérieuse.
La matière sombre est une composante insensible à toute interaction sauf la gravitation. Elle n’émet aucun rayonnement et n’interagit avec le reste de la matière que par les effets de sa masse.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Au niveau de la formation des galaxies, ce serait la masse sombre, qui n’étant affectée que par la gravitation, s’est structurée en premier dans ce qu’on appelle le halo sombre, plus ou moins sphérique, dont les dimensions dépassent de beaucoup celles de la masse visible. Cette dernière s’est accumulée par la suite dans ces halos de matière sombre.
Cette hypothèse a été confirmée, dans les années 1970, par l’astronome américaine Vera Rubin, et l’astronome franco-néerlandais Albert Bosma grâce à la mesure des courbes de rotation d’étoiles ou de gaz froid qui orbitent autour du centre. Ces courbes montrent la variation de la vitesse de rotation en fonction du rayon de l’orbite. Notons que, dans le disque, les orbites sont quasi circulaires. Un exemple typique est donné dans la figure ci-dessous.
On y voit que les étoiles visibles se répartissent dans une région concentrée et leur vitesse de rotation décroît rapidement dès 30 000 années-lumière, en accord avec la gravitation de Newton.
C’est une vérification de la deuxième loi de Kepler : les vitesses de rotation décroissent comme l’inverse de la racine carrée de la distance au centre d’attraction. Cette loi se vérifie déjà dans le cas des planètes qui tournent de moins en moins rapidement à mesure qu’elles sont plus éloignées du Soleil. Mais si l’on examine la galaxie dans son ensemble, la masse sombre donne une composante qui s’étend bien au-delà. Les courbes de rotation semblent plates, on ne constate pas de décroissance de la vitesse jusqu’à des distances approchant 100 000 années-lumière.
Les vitesses de rotation se mesurent par l’effet Doppler qui se traduit par un décalage du rayonnement des objets examinés vers les fréquences basses (le rouge pour le spectre visible). Pour la Voie lactée, notre Soleil est à l’intérieur du disque et c’est un grand défi d’analyser des mouvements d’étoiles pour lesquels les lignes de visée sont transverses et changeantes. C’est ce qu’a su résoudre Gaia, un satellite lancé fin 2013 par l’Agence spatiale européenne (acronyme anglais, ESA).
Gaia est un satellite astrométrique, c’est-à-dire qu’il mesure les mouvements dans le ciel de plus d’un milliard d’étoiles en les observant à diverses époques. Près de 33 millions d’étoiles ont été aussi observées en spectroscopie pour mesurer leurs vitesses radiales, c’est-à-dire leurs mouvements dans notre direction. Avec deux vitesses dans le plan du ciel et la vitesse radiale, cela donne en trois dimensions les vitesses et les positions de 1,8 million d’étoiles du disque galactique.
Connaître les mouvements dans toutes les directions apporte une mesure beaucoup plus précise de la courbe de rotation caractérisant notre galaxie.
Le résultat de Gaia est donné sur la figure ci-dessous. On y voit une décroissance qui suit la loi de Kepler, depuis le bord du disque visible à environ 50 000 années-lumière jusqu’à 80 000 années-lumière. C’est la première fois que l’on détecte un tel déclin képlérien pour une grande galaxie spirale.
Avec ce profil mesuré, on peut déduire une masse totale de la galaxie d’environ 200 milliards de masses solaires, avec une incertitude de 10 %. La masse de la Voie lactée était auparavant estimée à 1 000 milliards de masses solaires, cinq fois plus.
Avec une masse de matière ordinaire (étoiles et gaz) de près de 60 milliards de masses solaires, le rapport masse invisible/masse ordinaire est à peine supérieure à 2, très inférieur à ce qui est connu pour les autres galaxies spirales où on trouve un rapport entre 10 et 20. Ceci est à comparer avec le rapport 5, indiqué en préambule, mesuré pour l’Univers global à l’aide du fond cosmologique.
Pourquoi notre galaxie aurait-elle une dynamique différente des autres galaxies spirales ? Les galaxies spirales ont une histoire compliquée. On a d’abord pensé qu’elles se formaient lors d’un effondrement primordial aux premières époques de l’Univers. On sait depuis les années 2010 que les galaxies actuelles n’ont pas pour origine la première structuration de la matière, mais qu’elles découlent d’une série de collisions entre galaxies plus jeunes, capables de former les grands disques spiraux observés.
La dynamique d’aujourd’hui dépend donc de l’histoire de ces collisions. Or, notre galaxie a connu une histoire relativement calme avec une grande collision il y a 9 milliards à 10 milliards d’années. Ceci explique que le disque externe, dans lequel les étoiles suivent des orbites quasi circulaires, soit à l’équilibre. Pour la grande majorité des galaxies spirales, la dernière collision est advenue beaucoup plus tardivement, il y a seulement 6 milliards d’années.
Finalement, on peut dire que non seulement la galaxie n’a pas perdu les trois quarts de sa masse, mais la nouvelle évaluation de la matière sombre présente donne un résultat qui remet en question certaines certitudes cosmologiques. La quantité locale de masse sombre s’avère très inférieure à ce qu’on trouve à d’autres échelles de l’Univers, peut-être du fait de l’histoire spéciale de notre galaxie.
Cela résonne avec un épisode du règne de Louis XIV. Il demanda à ses astronomes une nouvelle cartographie du pays à partir de données astronomiques, suivant une recette imaginée par Galilée. La méthode était beaucoup plus précise que celle fournie par les arpenteurs, mais la carte ainsi obtenue se révéla très surprenante. Elle montra un rétrécissement notable du royaume sur le flanc de la côte ouest et le roi, irrité, aurait déclaré : « Mes astronomes ont fait perdre à la France plus de territoires que tout ce qu’avaient gagné mes militaires. »
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.04.2025 à 10:14
Guillaume Paris, Géochimiste, chargé de recherche CNRS au Centre de recherches pétrographiques et géochimiques de Nancy, Université de Lorraine
*La Lune serait née d’un immense cataclysme : la collision entre notre planète et une autre, aujourd’hui disparue, appelée Théia. *
La Lune est là, au-dessus de nous, toujours changeante, parfois absente et pourtant toujours présente. Saviez-vous qu’elle n’a pas toujours été là ? En effet, la Terre, à sa naissance, n’était pas accompagnée de son satellite. Comment s’est-elle formée ? Qui donc, en la regardant, pourrait imaginer le cataclysme qui est à son origine ?
Pour répondre à cela, il nous faut remonter loin, très loin dans le temps, peu de temps après la formation du système solaire, qui débuta voilà environ 4,567 milliards d’années. Des poussières, des gaz et des débris de glace tournent autour du Soleil, s’accrètent, s’agglutinent, commencent à former des petits corps qui grossissent peu à peu. Entre ces planétésimaux et autres embryons planétaires, c’est la guerre. Ils tournent autour du Soleil avec des trajectoires qui peuvent se croiser les unes les autres. Ils entrent en collision, explosent, fondent sous le choc, se reforment.
C’est dans ce contexte un peu chaotique que se stabilisent les futures Vénus, Mercure, Mars… proches du Soleil. Et, bien sûr, la future Terre, que les scientifiques imaginent dépourvue de Lune à sa naissance. Peu à peu, la Terre s’approche de sa taille actuelle.
Environ 60 millions d’années après la formation du système solaire, une autre planète, probablement de la taille de Mars, croise le chemin de la Terre et la percute brutalement. Ce corps céleste a été baptisé Théia, du nom du Titan mère de Séléné, déesse de la Lune dans la mythologie grecque. Sous le choc ce cet impact géant, Théia est pulvérisée, une partie de la Terre aussi.
Instantanément, la surface de la Terre fond, probablement sur des centaines de kilomètres de profondeur, générant ainsi un nouvel océan de magma dont le refroidissement et la réorganisation chimique auraient peu à peu donné naissance au manteau terrestre, ainsi qu’aux océans et à l’atmosphère. Suite à ce cataclysme, les débris de Théia et des morceaux de la Terre auraient refroidi en se mettant en rotation autour de la Terre. Peu à peu, une partie d’entre eux se serait accrétée pour donner naissance à la Lune.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Bien sûr, on ne peut pas être sûr, et il existe différentes théories. Des scientifiques ont suggéré que la Lune aurait pu se former indépendamment avant d’être « capturée » dans l’orbite de la Terre, ou bien s’accréter en même temps que la Terre. D’autres ont proposé que la Lune se serait « arrachée » d’une jeune Terre qui tournait trop vite sur elle-même. Mais ces deux hypothèses n’arrivent pas à expliquer un certain nombre d’aspects que nous connaissons des compositions de la Terre et de la Lune, comme le fait que cette dernière est plus pauvre en fer, ou encore l’orbite et les paramètres de rotation de la Terre et son satellite. À l’inverse, la théorie de l’impact géant permet d’expliquer la pauvreté en eau de la Lune par rapport à la Terre, même si elle est sans doute moins sèche que ce que les scientifiques ont longtemps pensé. Enfin, cette théorie permet aussi d’expliquer pourquoi la Lune s’éloigne peu à peu de la Terre de 3,8 centimètres par an.
Ainsi, initialement proposée en 1946, la théorie s’est imposée dans les années 1970, notamment suite au retour d’échantillons lunaires de la mission Apollo 11. Depuis, l’hypothèse de l’impact géant est celle qui fait le plus consensus, même si certaines observations résistent encore à cette théorie. Quel sera le mot de la fin ? Pour le moment, Lune ne le sait !
Guillaume Paris a reçu des financements de CNRS Terre et Univers et de l'ANR.
16.04.2025 à 10:13
Didier Massonnet, Chef de projet Pharao, Centre national d’études spatiales (CNES)
Martin Boutelier, Centre national d’études spatiales (CNES)
Soixante-dix ans après la mort d’Albert Einstein, les scientifiques travaillent toujours activement à vérifier les prédictions de la relativité générale, toujours aussi puissante, et toujours en conflit avec la mécanique quantique.
La mission spatiale Pharao, qui doit décoller le 21 avril 2025, fait partie de ces efforts. Son horloge atomique va mesurer le temps très précisément, pour comparer comment il s’écoule à la surface de la Terre et à l’altitude de la station spatial internationale.
Soixante-dix ans après la disparition d’Albert Einstein, sa théorie de la relativité générale est l’un des deux piliers fondamentaux sur lequel s’appuie la science pour expliquer l’Univers. Les succès de cette théorie sont nombreux et elle a été largement vérifiée, en particulier appliquée à l’infiniment grand.
Son grand défaut ? Elle n’est pas compatible en l’état avec l’autre pilier fondamental sur lequel s’appuie la physique, la théorie quantique des champs, autrement appelée mécanique quantique. Alors, comment réconcilier ces deux théories ? Quelles modifications faut-il faire pour les rendre compatibles ? Y a-t-il une nouvelle physique encore inconnue qui pourrait surgir de cette incompatibilité ?
Pour progresser sur ces questions, il est essentiel de vérifier les deux théories actuelles à des niveaux toujours plus précis, afin d’identifier d’éventuelles déviations qui pourraient conduire à les retoucher à la marge, avec l’espoir que ces retouches ouvrent la voie vers une compatibilité entre elles, voire vers une théorie englobant les deux.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Une telle expérience de vérification sera lancée vers la station spatiale internationale (ISS) le 21 avril prochain. Cette expérience, appelée ACES (Atomic Clock Ensemble in Space), est conduite sous l’égide de l’ESA, l’agence spatiale européenne. L’élément principal est une horloge atomique d’une précision exceptionnelle, appelée Pharao et développée par l’agence spatiale française, le CNES.
L’objectif est de mesurer avec une précision inégalée une prédiction étrange de la relativité générale : la masse d’un objet modifie l’écoulement du temps dans son entourage. Plus vous êtes proche de cette masse ou plus la masse est grande, plus le temps s’écoule lentement. Cette prédiction atteint son paroxysme à la limite des trous noirs, où le temps… s’arrête !
Pour notre petite Terre, cet effet est moins spectaculaire : à 400 kilomètres d’altitude, soit l’altitude de l’ISS, un astronaute vieillit plus vite que son jumeau resté sur Terre d’une seconde tous les 300 ans. À l’altitude des systèmes de positionnement par satellite (Galileo, GPS, Beidou et Glonass volent à plus de 20 000 kilomètres d’altitude), cet effet est plus important. S’il n’était pas corrigé, la précision de positionnement de ces systèmes serait dégradée.
L’objectif de Pharao est de mesurer ce ralentissement très faible avec une précision inégalée. Pour ce faire, il faut que notre horloge ne se trompe pas de plus d’une seconde en 300 millions d’années, soit une dérive de deux dixièmes de seconde depuis la disparition des dinosaures ; ou de façon équivalente, de moins d’une minute depuis le Big Bang, le début du temps ! Traduit en termes de distances, cela reviendrait à mesurer une année-lumière au mètre près…
Pour pouvoir vérifier que Pharao bat le temps moins vite dans l’espace que sur Terre, il faut pouvoir la comparer de façon très précise à des horloges restées au sol. Pour cela, elle est accompagnée de deux systèmes chargés de cette comparaison : un lien microonde qui permet de communiquer le temps au sol lorsque l’ISS survole un laboratoire métrologique abritant une horloge atomique, ainsi qu’un lien laser permettant de définir des « tops » de synchronisation entre le sol et l’espace.
L’horloge Pharao est une horloge très exacte mais également très complexe et qui a besoin de temps pour obtenir sa précision ultime. Pour remplir cette mission, elle est épaulée par deux autres horloges, moins exactes mais permettant d’initier et de garder le temps. D’une part, un oscillateur à quartz ultra stable est intégré à Pharao et permet d’initialiser grossièrement son heure, lui permettant d’interroger les atomes avec une fréquence déjà proche de leur fréquence de référence.
D’autre part, un maser utilisant l’atome d’hydrogène (une horloge atomique d’un autre type), maintient la référence de temps pendant les phases de réglage. L’effet de ces réglages peut alors être mesuré par rapport à cette référence.
Pharao volera accrochée à l’extérieur de l’ISS, sur un balcon du module européen Colombus. Même si les années de l’ISS sont désormais comptées avec une mise hors service suivie d’une désorbitation envisagées pour 2030, Pharao aura largement le temps de remplir ses objectifs.
Installer cette horloge à bord de l’ISS présente des avantages et des inconvénients : parmi les avantages, on trouve des occasions de transports fréquents, des niveaux de radiation modérés, des services de commandes et de communication éprouvés ainsi que des moyens de positionnement, d’attitude, de chauffage/refroidissement et d’alimentation électrique.
Parmi les inconvénients, on trouve le fait que l’ISS vole au final assez bas… si Aces avait été placée sur une orbite géostationnaire (à 36 000 kilomètres de la surface de la Terre), l’effet de relativité générale serait douze fois plus marqué, améliorant d’autant la précision obtenue avec la même horloge. Par ailleurs, la proximité des astronautes peut perturber l’expérience, en particulier à cause des vibrations de leurs machines d’entraînement musculaire.
Depuis leur invention dans les années 1950, les horloges atomiques ont connu un rythme d’amélioration comparable à celui des systèmes électroniques (la fameuse « loi de Moore »).
Leur principe est de se caler sur une des nombreuses fréquences propres à un atome et qui reflètent son état d’excitation, un signal universel. Selon l’énergie de la vibration choisie, l’horloge peut être dans le domaine radio (10 giga Hertz), optique (visible et infrarouge), voire « nucléaire » (ultra-violet lointain).
Les fréquences plus basses des horloges radio sont les plus faciles à maîtriser et la définition officielle de la seconde (1967) est basée sur une vibration des électrons de l’atome de césium dans le domaine radio. Depuis quelques années, des horloges dans le domaine optique, plus performantes, sont apparues et sont disponibles au sol. Leur complexité les rend encore difficiles à envoyer dans l’espace. Enfin, des résultats prometteurs ont été obtenus en interrogeant des vibrations du noyau d’un atome, préfigurant peut-être des « horloges nucléaires » encore plus performantes.
L’horloge Pharao est quant à elle basée sur une amélioration décisive des horloges radio, obtenue par l’utilisation d’atomes refroidis par laser. Cette technique de refroidissement par laser a notamment valu le prix Nobel au physicien français Claude Cohen-Tannoudji en 1997. Les atomes ainsi refroidis à un millionième de degré absolu ont des vitesses résiduelles très faibles. Couplé à un environnement de microgravité, on obtient des durées d’auscultation importantes, paramètre clé de la performance des horloges. Les horloges au sol qui mettent en œuvre ce principe sont appelées « fontaines atomiques ».
Afin de préserver les atomes froids de toute interaction avec d’autres atomes, un vide très poussé, dit « ultravide » doit régner au centre de l’horloge Pharao. Ce vide est 1000 fois meilleur que l’environnement spatial autour de l’ISS. Seuls des métaux ou des verres peuvent être utilisés pour les éléments de la cavité et les joints qui les lient entre eux, tout autre matériau comme du caoutchouc ou des plastiques s’évapore dans le vide (phénomène de dégazage) rendant impossible l’obtention d’un ultravide. La conception de la cavité ultravide a donc été particulièrement complexe, notamment à cause des joints entre hublots de silice et pièces en titane (deux matériaux dont le contact étanche est difficile) ou encore la tenue à l’étanchéité des joints en acier.
En mesurant l’effet de la gravitation sur l’écoulement du temps, Pharao est capable de détecter d’infimes variations du potentiel gravitationnel équivalent à un changement d’altitude de 1 mètre. Les dernières horloges optiques au sol, encore plus précises, peuvent détecter un changement dans le potentiel gravitationnel équivalent à une variation d’un centimètre.
À ce niveau de précision, de tels changements peuvent être liés non seulement à des variations d’altitude de l’horloge, mais aussi à des variations dans la répartition des masses à la surface et à l’intérieur de la Terre : mouvement des nappes phréatiques, mouvements internes de la Terre, mouvement des masses d’air… C’est le domaine de la « géodésie chronométrique ».
Gageons que, dans un avenir pas si lointain, des horloges encore plus performantes que Pharao, connectées et comparées à une horloge de référence placée dans l’espace, pourraient bien mesurer à peu près tout… sauf le temps !
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.04.2025 à 10:13
Antonio Monari, Professeur en Chimie Théorique, Université Paris Cité
Florent Barbault, Maitre de conférences en modélisation moléculaire, Université Paris Cité
Isabelle Broutin, Directrice de recherche CNRS, Université Paris Cité
Les antibiotiques sauvent de nombreuses vies mais les bactéries qu’ils combattent deviennent résistantes. Cette antibiorésistance provoque de nombreux décès prématurés, et le problème devrait s’aggraver dans les prochaines années et décennies.
Pour mieux le contrer, biochimistes et pharmaciens décryptent les mécanismes qui mènent à l’antibiorésistance. Comment les bactéries repoussent-elles les antibiotiques, évitent leurs effets, ou les détruisent ? Cette compréhension doit permettre de mettre au point des thérapies combinant antibiotiques et autres médicaments qui limiteraient la capacité des bactéries à contrer l’effet des antibiotiques.
Les bactéries sont des organismes constitués d’une unique cellule largement présents dans des habitats variés et parfois extrêmes. Elles sont présentes, sous le nom de microbiotes, sur notre corps ou à l’intérieur, et favorisent des phénomènes essentiels tels que la digestion. Mais les bactéries sont aussi des agents pathogènes à l’origine d’épidémies majeures comme la peste provoquée par la bactérie Yersinia pestis, et le choléra dû à l’espèce Vibrio choleræ.
De ce fait, la découverte des antibiotiques — des molécules qui tuent les bactéries ou bloquent leur croissance — a marqué un tournant décisif dans l’histoire de la médecine, à commencer par la découverte de la pénicilline en 1929. En effet, l’utilisation de ces molécules a permis d’éradiquer de nombreuses maladies infectieuses et d’améliorer grandement l’espérance de vie ainsi que les conditions de santé dans nos sociétés modernes.
Cependant, les antibiotiques, longtemps considérés comme des remèdes miracles et souvent utilisés abusivement en clinique et dans le secteur agroalimentaire, voient aujourd’hui leur efficacité compromise par le développement de souches bactériennes qui leur sont résistantes.
En effet, l’utilisation d’antibiotiques induit une « pression évolutive » sur les bactéries : les bactéries présentant des mutations génétiques leur permettant de résister aux antibiotiques survivent et se reproduisent davantage que les bactéries non résistantes.
À terme, cela favorise les populations bactériennes résistantes aux antibiotiques. L’émergence de souches présentant une résistance multiple aux antibiotiques, c’est-à-dire qui sont résistantes à plusieurs types d’antibiotiques à la fois, par exemple à la pénicilline et à l’amoxicilline, est un problème majeur selon l’Organisation mondiale de la santé. Ainsi certaines estimations considèrent que la résistance aux antibiotiques pourrait causer près de 40 millions de décès d’ici 2050.
On ne peut guère s’attendre à de nouveaux antibiotiques, le dernier ayant été introduit sur le marché il y a environ quanrante ans (la ciprofloxacine, en 1987).
En revanche, aujourd’hui, pour mettre au point de nouvelles stratégies thérapeutiques, il est essentiel d’élucider les processus cellulaires et moléculaires qui permettent aux bactéries de développer leur résistance aux antibiotiques.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Différentes stratégies de résistance aux antibiotiques existent — elles font intervenir différents niveaux de régulation.
Parmi ces mécanismes, on trouve la « dormance », un état dans lequel l’ensemble des bactéries réduisent leur activité cellulaire pour survivre à des conditions défavorables, comme la présence d’antibiotiques. Une fois l’administration d’antibiotiques terminée, les conditions environnementales redeviennent favorables, permettant aux bactéries de reprendre leur activité normale et notamment leur croissance et multiplication. Ce mécanisme de résistance complique en particulier le traitement des infections chroniques, car des bactéries peuvent se réactiver après la suspension de la thérapie antibiotique, entraînant des rechutes.
Un autre mécanisme de résistance lié aux populations bactériennes est la formation de « biofilms ». En effet, si les bactéries semblent être des organismes simples, elles sont capables de former des colonies pour maximiser leurs chances de survie. Ainsi, en présence d’une surface qui agit comme support, par exemple un cathéter ou une prothèse, les bactéries s’attachent les unes aux autres pour former une communauté organisée : le film de bactéries crée une barrière physique qui réduit l’efficacité des antibiotiques, car ces derniers ne peuvent pas pénétrer à l’intérieur du film et donc dans les bactéries, rendant le traitement plus complexe.
Ce phénomène est particulièrement fréquent dans le cas des infections nosocomiales, qui concernent désormais environ 6 % des personnes séjournant à l’hôpital et qui représentent une menace grave pour les personnes dont le système immunitaire est affaibli. Pour contrer la formation de biofilms, des thérapies combinées, des doses élevées, voire le retrait des dispositifs infectés, sont nécessaires.
À lire aussi : Résistances aux antibiotiques : comment nous pouvons tous agir
À lire aussi : Antibiotiques et antibiorésistance : une situation qui varie selon l’endroit où l’on est
Au niveau d’une bactérie isolée, les mécanismes de mise en place de l’antibiorésistance ont lieu quand des mutations génétiques apparaissant par hasard au cours de la vie d’une bactérie lui permettent de résister à l’action d’un antibiotique. La bactérie résistante peut transmettre la mutation à sa descendance ; et ce phénomène est amplifié dans les biofilms bactériens, car ceux-ci favorisent l’échange de matériel génétique entre les cellules.
Des mutations génétiques ponctuelles peuvent par exemple altérer la structure et le fonctionnement des protéines ciblées par les antibiotiques, rendant ces derniers inefficaces. À l’inverse, la bactérie peut utiliser la stratégie dite d’« évitement métabolique » en utilisant d’autres protéines, ou des voies métaboliques alternatives, pour contourner l’effet d’un antibiotique. On peut comparer cela à une autoroute bloquée (c’est l’antibiotique qui tente d’empêcher la bactérie de vivre sa vie), où l’évitement métabolique reviendrait à emprunter une déviation pour atteindre sa destination malgré le blocage.
Par ailleurs, certaines bactéries, suite à une mutation génétique, produisent des protéines spécifiques capables de dégrader ou d’inactiver les antibiotiques, les rendant donc inefficaces. C’est le cas par exemple des bêta-lactamases, qui détruisent les antibiotiques de la famille des pénicillines.
Les autres mécanismes de résistance aux antibiotiques se situent au niveau de la membrane qui entoure la cellule bactérienne. Cette membrane, constituée d’une double couche de lipides imperméables, protège la cellule.
Les membranes des bactéries sont parsemées de nombreuses protéines qui exercent des rôles différents : elles peuvent favoriser l’adhésion des bactéries aux surfaces ou aux autres cellules, elles peuvent permettre de décoder des signaux, et pour finir elles peuvent favoriser les passages des différentes molécules, par exemple des nutriments.
La résistance aux antibiotiques au niveau de la membrane est donc particulièrement efficace car elle permet de contrer la thérapie antibiotique dès son point d’entrée.
Ainsi, certaines bactéries limitent l’entrée des antibiotiques en réduisant la production des porines, c’est-à-dire des protéines qui forment des canaux traversant la membrane cellulaire et, donc, permettant le passage des molécules externes, dont les antibiotiques.
Un autre mécanisme fascinant de résistance bactérienne consiste en l’utilisation de protéines complexes appelées « pompes à efflux ». Ces structures sont constituées de plusieurs protéines et se situent dans les membranes bactériennes. Elles expulsent activement les antibiotiques qui auraient pénétré la cellule, empêchant ainsi leur accumulation.
Les pompes à efflux sont une machinerie complexe oscillant entre une structure ouverte et une structure fermée, pour éviter d’introduire des canaux de communication permanents entre la bactérie et l’extérieur. Elles doivent également être sélectives, pour éviter l’éjection de composés nécessaires à la survie de la bactérie.
Dans le cas de bactéries dites « Gram négatives », qui possèdent deux membranes séparées par un sas appelé « périplasme », les pompes à efflux doivent traverser les deux membranes et le périplasme pour permettre l’éjection complète des antibiotiques.
Déterminer la structure des pompes à efflux et comprendre leurs mécanismes de fonctionnement est fondamental pour permettre de développer des médicaments capables de les bloquer, et ainsi de restaurer une sensibilité aux antibiotiques dans les souches bactériennes résistantes.
Des techniques de biophysique et de chimie physique, notamment la cryomicroscopie électronique et la modélisation moléculaire, permettent d’accomplir cette tâche et d’accéder à la structure des pompes à efflux avec une résolution à l’échelle des atomes.
Plusieurs structures de pompes à efflux issues de différentes bactéries Gram négatives ont pu être résolues grâce à cette technique, telles que le complexe AcrAB-TolC d’Escherichia coli, ou MexAB-OprM de Pseudomonas aeruginosa, deux bactéries classées comme préoccupantes par l’Organisation mondiale de la santé.
Nous avons étudié davantage la pompe à efflux MexAB-OprM, afin de mettre en évidence le mécanisme d’expulsion sélective des antibiotiques.
Cette pompe est formée de trois protéines : l’une, composée de trois unités, joue le rôle de moteur de la pompe, la seconde de conduit étanche, tandis que la troisième fait un trou dans la membrane externe pour l’éjection finale des molécules à expulser, selon un mécanisme sophistiqué.
La première unité du moteur présente une cavité dans laquelle l’antibiotique peut entrer. Dans la seconde unité, cette cavité commence à se refermer pour pousser l’antibiotique vers l’intérieur de la pompe, dans une deuxième cavité. Enfin, les deux cavités se referment et un canal s’ouvre au niveau de la troisième unité, permettant l’acheminement dans le tunnel formé par les deux autres protéines, vers l’extérieur de la cellule. Cette pompe n’est donc pas qu’un simple « gros tuyau » : elle réalise un transport actif de l’antibiotique et est capable d’effectuer une sélection des molécules à expulser.
Grâce à ce type d’études, notre but est de comprendre finement les mécanismes de fonctionnement de cette pompe à efflux et de proposer des molécules qui seraient capables d’interagir avec les protéines pour bloquer son action. Par exemple, nous étudions la possibilité de développer des molécules qui pourraient interagir avec les cavités plus favorablement que les antibiotiques, pour bloquer au moins une des trois unités, et donc immobiliser la pompe. Une autre possibilité serait d’empêcher la formation du canal étanche liant les deux protéines insérées dans les membranes en enjambant le périplasme. Ces avancés pourraient permettre de développer une thérapie combinée qui pourrait rendre les bactéries Gram négatives à nouveau sensibles aux antibiotiques et donc contrer efficacement les infections nosocomiales.
Nous croyons que la lutte contre la résistance bactérienne, qui sera un enjeu fondamental de santé publique dans les années à venir, passe par l’utilisation intelligente des méthodes de chimie physique et de biologie structurale pour permettre de comprendre des mécanismes biologiques complexes, tels que la résistance aux antibiotiques ou l’échappement immunitaire, et d’y répondre efficacement.
Entre-temps, il est aussi primordial de favoriser une utilisation propre et contrôlée des antibiotiques, notamment en évitant leur surutilisation ou l’automédication, pour limiter l’émergence de souches résistantes qui pourraient être à l’origine d’épisodes épidémiques difficiles à contrer.
Antonio Monari a reçu des financements d'organisation publiques ANR, MESR etc..
Florent Barbault a reçu des financements de diverses organisations publiques (ANR, idex...)
Isabelle Broutin est membre de la société Française de Microbiologie (SFM), de la Société Française de Biophysique (SFB), et de la Société Française de Biochimie et biologie Moléculaires (SFBBM). Elle a reçu des financements de diverses organisations publiques (ANR, Idex-UPC, Vaincre la mucoviscidose...).
16.04.2025 à 10:11
Françoise Combes, Astrophysicienne à l'Observatoire de Paris - PSL, Sorbonne Université
Françoise Combes est astrophysicienne à l’Observatoire de Paris, professeure au Collège de France et présidente de l’Académie des sciences. En 2020, elle reçoit la médaille d’or du CNRS pour récompenser une carrière consacrée à l’étude de la dynamique des galaxies.
Avec Benoît Tonson et Elsa Couderc, chefs de rubrique Science à The Conversation France, la chercheuse lève le voile sur l’un des grands mystères de l’Univers : la matière noire. De la découverte d’une « masse manquante », en passant par l’hypothèse de la gravité modifiée, jusqu’aux grands projets internationaux de télescopes qui pourraient aider les scientifiques à caractériser cette matière imperceptible. Elle analyse également la situation actuelle des sciences aux États-Unis et dans le monde après l’électrochoc de l’élection de Donald Trump.
The Conversation : Vous vous intéressez à la matière noire, qu’est-ce que c’est ?
Françoise Combes : La matière noire, c’est de la matière invisible, parce qu’elle n’interagit pas avec la lumière : elle n’absorbe pas et n’émet pas de lumière, c’est pour cela qu’elle est appelée « noire ». Mais dans la pièce où nous sommes, il y en a peut-être et on ne la voit pas. En réalité, cette matière n’est pas noire, mais transparente. Ce problème nous questionne depuis des dizaines d’années.
D’où vient le concept de matière noire ? Les astrophysiciens ont observé un manque de masse pour pouvoir expliquer la dynamique des objets astronomiques, comme les galaxies, dont les étoiles et le gaz tournent autour de leur centre. Cette vitesse de rotation est très grande et la force centrifuge devrait faire éclater ces objets, s’il n’y avait pas de la masse pour les retenir. C’est aussi vrai pour les amas de galaxies. La conclusion inévitable est qu’il manque beaucoup de masse. Cette « masse manquante » est nécessaire pour faire coller la théorie et les calculs avec les observations.
À l’origine, les chercheurs pensaient que c’était de la masse ordinaire : c’est-à-dire des protons et des neutrons – la matière dont nous sommes faits, en somme. Mais ils se sont aperçus en 1985 que cette masse manquante ne pouvait pas être faite de matière ordinaire.
Prenons la nucléosynthèse primordiale, qui se déroule dans le premier quart d’heure de l’histoire de l’Univers où l’hélium et le deutérium se forment. S’il y avait suffisamment de matière ordinaire pour expliquer les observations sur la vitesse de rotation des galaxies, on ne mesurerait pas du tout la quantité d’hélium que l’on observe actuellement dans le Soleil, par exemple. On mesurerait beaucoup plus d’hélium et de lithium. Il a donc été établi, dans les années 1990, que seulement 5 % du contenu de l’Univers est fait de matière ordinaire !
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
T. C. : Donc, si cette « masse manquante » est invisible, elle doit être faite d’autre chose…
F. C. : Oui, et une confirmation de ce fait est venue avec la détection des fluctuations primordiales du fond diffus cosmologique, vestige du Big Bang. Ces fluctuations sont détectées au tout début de l’histoire de l’Univers, environ 380 000 ans après le Big Bang. Il s’agit de toutes petites fluctuations de la lumière dans le domaine des microondes. À cette époque, la matière ordinaire interagit avec la lumière et cette interaction, par la pression de radiation, empêche la condensation en structures, celles qui vont former les galaxies notamment. S’il n’y avait eu, à cette époque, que de la matière ordinaire, il n’y aurait pas aujourd’hui de galaxies, ni même une seule étoile.
Les chercheurs ont donc compris, entre 1985 et 1990, qu’il fallait supposer l’existence d’une matière qui n’interagisse pas avec la lumière : ainsi, elle ne subit pas la pression de radiation et peut alors s’effondrer sous l’effet de sa propre gravité. C’est la « matière noire » qui va permettre de créer des « galaxies noires », sans matière visible à ce moment-là. Ensuite, 380 000 ans après le Big Bang, la matière va se refroidir en dessous de 3 000 °K. À cette température, les protons et les électrons se recombinent et forment l’hydrogène qui interagit beaucoup moins avec la lumière que les particules chargées. À ce moment, la matière ordinaire peut, si je puis dire, tomber dans les galaxies noires déjà établies et former des étoiles et les galaxies visibles.
T. C. : Cette terminologie de « matière noire » ne semble pas vous convenir…
F. C. : En effet, cela donne l’impression qu’il y aurait quelque chose de noir qui nous empêcherait de voir derrière. Mais ce n’est pas noir, c’est transparent. On devrait plutôt parler de « masse manquante », mais bon, tout le monde utilise ce terme, il faut faire avec !
T. C. : Au fur et à mesure des études sur la matière noire, des candidats ont été imaginés par les physiciens, puis beaucoup ont été écartés…
F. C. : Oui, depuis 1985, beaucoup de pistes ont été éliminées. Il faut en éliminer, sinon il n’est pas possible d’approfondir les bonnes pistes. C’est un peu comme un enquêteur qui a une dizaine de pistes, il ne peut pas toutes les étudier : ça le ralentirait énormément.
Prenons, d’abord, les Wimp parce qu’ils ont été un candidat privilégié pendant de nombreuses années. Wimp signifie Weakly Interacting Massive Particles (en français, particules massives interagissant faiblement). Il existe quatre interactions en physique : l’électromagnétisme, la gravité, puis les deux forces nucléaires forte et faible. L’idée est que s’il existe une interaction entre les particules de matière noire, cela ne peut être qu’une interaction faible. Le Wimp est une particule sans charge, et elle est sa propre antiparticule. Ces particules vont s’annihiler progressivement, par cette interaction faible, jusqu’au moment où l’expansion de l’Univers aura tellement diminué leur densité qu’elles ne pourront plus se rencontrer. Leur abondance sera alors gelée à une valeur « relique ».
Il faut savoir que la matière noire constitue 25 % de notre Univers. Pour que la densité « relique » réponde à cette proportion, il a été calculé que la masse d’un Wimp devait être d’à peu près 100 fois la masse du proton. Ces particules ont été recherchées, et cette recherche de détection directe continue aujourd’hui par des expériences dans le tunnel du Gran Sasso en Italie, par exemple : les particules de matière noire incidentes pourraient entrer en collision avec les noyaux du détecteur, et les faire reculer. Mais aucune collision n’a été détectée !
Une autre approche pourrait être de créer ce Wimp dans un accélérateur de particules, comme au Cern (Large Hadron Collider, LHC). La collision entre deux protons, lancés à des vitesses proches de celle de la lumière, libère énormément d’énergie. Cela crée les conditions d’un mini Big Bang. Avec ce type d’énergie, il est possible de créer une particule de 100 fois la masse du proton. Mais aucune particule exotique n’a été détectée… C’est ce qui a fait tomber ce candidat qui était privilégié depuis trente ans. Ceci a été réalisé vers 2015.
T. C. : C’était donc la fin de l’aventure du Wimp, quelles pistes sont encore ouvertes ?
F. C. : La communauté a également beaucoup travaillé sur la piste du neutrino stérile. C’est une particule inventée de toute pièce. Il faut savoir qu’il existe trois types de neutrinos, qui sont de chiralité gauche, et les physiciens ont imaginé trois neutrinos miroirs, qui ont une chiralité droite (une particule chirale est non superposable à son image dans un miroir, elle a une « latéralité », comme une chaussure droite vis-à-vis de la gauche). Cette théorie rencontre des problèmes : d’une part, des contraintes astrophysiques sur la formation des structures, qui leur affectent une masse trop grande. D’autre part, si le nombre de neutrinos est plus grand que trois, cela devrait accélérer l’expansion au début de l’Univers, au-delà de ce qui est observé dans le fond cosmologique par le satellite Planck. Enfin, des expériences de détection des neutrinos stériles au Fermilab (États-Unis) n’ont donné aucun résultat.
Actuellement, le candidat qui monte est l’axion. Beaucoup de simulations cosmologiques ont été effectuées avec cette particule pour tester ses capacités à reproduire les observations. Là aussi, il s’agit d’une particule hypothétique qui aurait une masse extrêmement faible. Avec un champ magnétique très fort, elle pourrait se changer en photon, mais, là encore, rien n’a été détecté. Même près des étoiles à neutrons, qui bénéficient de champs magnétiques extrêmes.
T. C. : Mais si on n’arrive pas à détecter cette matière noire, peut-être faut-il en conclure qu’elle n’existe pas ?
F. C. : C’est possible, cette idée a déjà été proposée en 1983, mais, dans ce cas de figure, il faut alors valider l’idée qu’il existe une gravité modifiée. C’est-à-dire changer la loi de gravité en champ faible.
Dans le système solaire, le champ est très fort : la gravité de notre étoile, le Soleil, suffit à maintenir tout le système en régime de champ fort. La force de gravité décroît comme le carré de la distance. Il faut s’éloigner très loin du Soleil pour que son champ de gravité devienne assez faible, au-delà du nuage d’Oort, qui est un ensemble de petits corps, d’où viennent les comètes, entre 20 000 et 30 000 unités astronomiques (cette unité est la distance Terre-Soleil, soit environ 150 millions de kilomètres). De même, dans notre galaxie, la Voie lactée, l’ensemble des étoiles au centre a une densité telle, que le champ de gravité combiné est très fort. Il n’y a pas de masse manquante, il n’est pas nécessaire de supposer l’existence de matière noire ou de gravité modifiée ; la physique newtonienne classique permet d’expliquer l’équilibre au centre, mais pas au bord. C’est sur les bords de notre galaxie qu’il manque de la masse.
Notre équipe a effectué des simulations avec cette gravité modifiée, pour la confronter aux observations. Avec Olivier Tiret, nous avons pu reproduire les premières interactions entre galaxies avec le champ de gravité modifiée et nous avons montré que le scénario marchait très bien.
Pour résumer, soit la loi de la gravité est supposée être toujours la même en champ faible, et il faut alors ajouter de la matière noire, soit il n’y a pas de matière noire et il faut supposer que la loi de la gravité est modifiée en champ faible. Car le problème de la masse manquante ne survient que dans les cas de champ faible. En champ fort, il n’y a jamais de problème de matière noire.
T. C. : Et parmi toutes ces hypothèses, quelle est celle qui a le plus de valeur à vos yeux ?
F. C. : Eh bien ! Je n’en sais rien du tout ! Parce que cette gravité modifiée, qui est étudiée par certains astronomes depuis quarante ans, est encore assez empirique. Il n’y a pas de théorie encore bien établie. De plus, si elle explique très bien la dynamique de toutes les galaxies, elle ne reproduit pas bien les amas de galaxies.
La solution est de rajouter soit un petit peu de neutrinos, soit même de la matière ordinaire qui manque. Parce qu’en fait, ce que l’on oublie généralement de dire, c’est que toute la matière ordinaire de l’Univers n’a pas été identifiée. La matière qui correspond aux galaxies, aux étoiles au gaz chaud dans les amas de galaxies, ne correspond qu’à 10 % de la matière ordinaire. On peut déduire des absorptions de l’hydrogène dans les filaments cosmiques qu’il pourrait y en avoir une quantité importante, mais au moins la moitié de la matière ordinaire n’est toujours pas localisée.
Donc, il y a beaucoup de protons et de neutrons manquants. Il suffirait d’en mettre une petite pincée dans les amas de galaxies pour résoudre notre problème de gravité modifiée. En résumé, la matière ordinaire manquante n’est pas encore localisée. Elle ne peut pas être toute dans les galaxies, il y en a peut-être dans les amas de galaxies, mais surtout dans les filaments cosmiques.
En 2015, quand l’hypothèse du Wimp est tombée, ce fut un choc pour la communauté. Et il ne faut pas penser que celle-ci est homogène, certains ont été convaincus tout de suite, mais, chez d’autres, cela a pris plus de temps et certains ne sont toujours pas convaincus. Notamment ceux qui ont travaillé sur le Wimp pendant toute leur carrière. Mais, à chaque fois, le scénario est identique lorsqu’il y a une découverte qui bouscule tout. Il y avait par exemple des astronomes détracteurs de l’existence du Big Bang. L’opposition s’est éteinte lorsqu’ils sont partis en retraite.
En ce qui concerne la gravité modifiée, les progrès sont indéniables. Le problème du début de l’Univers, des galaxies primordiales et des fluctuations est en passe d’être résolu. Par contre, dans les amas, ce n’est toujours pas le cas. La recherche est toujours en cours. Aussi bien dans la théorie de la matière noire que dans celle de la gravité modifiée, il y a des problèmes des deux côtés. Lorsque tous les problèmes seront résolus, une piste ressortira. Mais, pour l’instant, il faut rester attentif et agnostique, en travaillant sur les deux en attendant de savoir de quoi le futur sera fait.
T. C. : Justement, parlons du futur, il y a de nouveaux projets de télescopes, est-ce que cela pourrait vous aider ?
F. C. : Oui, je peux d’abord vous parler du télescope spatial Euclid, qui va décupler les détections de lentilles gravitationnelles, permettant de dresser des cartographies de matière noire. Le télescope va observer presque tout le ciel, et notamment les galaxies de fond, lointaines. Leurs rayons lumineux sont déviés par la matière qu’il y a entre elles et nous. Ce sont ces déformations qui nous renseignent sur la quantité de matière noire. Les images des galaxies de fond sont déformées de manière faible. Cela ressemble à un cisaillement qui permet de déduire statistiquement les cartes de la matière invisible.
Comme chaque galaxie a sa propre forme, il faut observer un très grand nombre de galaxies, ce qui sera possible avec Euclid. On aura 12 milliards d’objets à des profondeurs différentes.
Par ailleurs, et toujours avec ce télescope, il sera possible d’observer les oscillations acoustiques baryoniques, des ondes sonores qui se sont propagées au tout début de l’Univers et qui ont laissé des empreintes dans les structures à grande échelle. Ces structures ont une taille caractéristique, correspondant au chemin parcouru par le son depuis le Big Bang. Lorsque la matière est devenue neutre et s’est découplée de la lumière, 380 000 ans après le Big Bang, la taille de ces structures est restée gelée, et n’augmente qu’avec l’expansion de l’Univers. Il suffit de mesurer cette taille caractéristique à diverses époques pour en déduire la loi de l’expansion de l’Univers. Celle-ci est en accélération aujourd’hui, mais sa loi d’évolution dans le passé n’est pas encore connue. Tous ces résultats seront obtenus vers 2030.
T. C. : Et le télescope James-Webb ?
F. C. : Le JWST nous a montré qu’il y avait beaucoup de galaxies primordiales massives. Il peut observer dans l’infrarouge et donc peut détecter de la lumière provenant de très loin. Ces galaxies se sont formées bien plus tôt que ce que l’on pensait. En plus, en leur centre se trouvent des trous noirs très massifs. Ceci est une surprise, car le scénario de formation attendu était un scénario très progressif. De petits trous noirs se formaient aux premières époques, qui fusionnaient pour former des trous noirs très massifs aujourd’hui ; le scénario est à revoir !
T. C. : Il y a également le projet SKA…
F. C. : Oui, ici l’observation va capter des ondes radio. SKA signifie Square Kilometre Array (un kilomètre carré de surface, en français) ; il est fait d’une multitude d’antennes en Afrique du Sud et en Australie. Ce sont les moyennes fréquences en Afrique du Sud et les basses fréquences en Australie. Comme Euclid, SKA va regarder tout le ciel, mais, puisque ce sont des longueurs d’onde très différentes, ce sont d’autres populations de galaxies qui seront observées. Il sera possible également de cartographier la matière noire. SKA est donc complémentaire à Euclid.
T. C. : Vous avez travaillé dans de nombreux pays, fait-on la même science partout ?
F. C. : Nous, les astrophysiciens, faisons la même science partout. L’astrophysique est une science mondialisée depuis très longtemps. L’observation du ciel a besoin de gros instruments, qui sont relativement très coûteux. Prenons l’exemple de l’ESO, qui a été fondé, vers 1960, avec l’objectif de construire un télescope dans l’hémisphère Sud. Auparavant, chaque pays avait son télescope localement, mais, pour construire de grands télescopes au Chili, il fallait unir ses forces. Ce qui a conduit à l’Observatoire européen austral ESO : un vrai projet européen. Et maintenant, avec SKA, il s’agit même d’un seul instrument pour le monde entier, y compris la Chine. Il n’y a plus la compétition entre pays. Avec le James-Webb et Euclid, on a également des collaborations entre États-Unis et Europe.
T. C. : Votre communauté a donc réussi la prouesse de collaborer mondialement, comment voyez-vous la suite avec l’arrivée de Donald Trump au pouvoir ?
F. C. : La politique de l’administration Trump est en train de faire des coupes drastiques dans les budgets scientifiques et de licencier jusqu’à 20 % des postes. Notre communauté n’est pas la plus affectée. À l’Académie des sciences, nous avons publié un communiqué de presse pour exprimer notre solidarité avec nos collègues, et, surtout, avec plusieurs secteurs en danger : la biologie et la santé, notamment, les recherches sur le changement climatique, l’environnement, la diversité, l’équité et l’inclusion. Des doctorants et postdoctorants ont été renvoyés du jour au lendemain et interdits d’accès à leurs ordinateurs. Il existe des mots interdits, dans la recherche et dans les publications.
Du côté de la NASA, les programmes supprimés sont ceux de la surveillance de la Terre, ce qui impacte fortement la capacité de prédire les événements climatiques, comme les ouragans et les cyclones, ou ceux qui étudient les pollutions. En ce qui concerne les programmes spatiaux, les craintes sont que tous les budgets soient focalisés sur l’envoi d’humains sur Mars, aux dépens de missions plus scientifiques.
Il faut également rappeler les difficultés du lancement du satellite Euclid, qui avait été prévu avec un lanceur Soyouz en Guyane. Après la guerre lancée par les Russes en Ukraine, tout a changé. Ariane n’ayant aucun créneau de libre avant des années, il a fallu se tourner vers SpaceX pour le lancement.
T. C. : Les grandes coopérations spatiales ne sont donc pas encore menacées, mais vous n’êtes pas rassurée pour autant pour la science en général ?
F. C. : Oui, lors du premier mandat de Donald Trump, les réactions des antisciences s’étaient déjà manifestées avec, notamment, la sortie de l’accord de Paris sur le climat. Maintenant, tout se passe encore plus vite, avec la menace de sortir de l’OMS, de supprimer l’Usaid, de démanteler des programmes entiers. Certains juges réagissent, car souvent ces actions ne sont pas légales, et tout peut être remis en question.
Nous sommes aussi très inquiets pour les NIH (National Institutes of Health), dont de nombreux scientifiques ont été licenciés ou encouragés à prendre leur retraite. En janvier, les chercheurs du NIH étaient interdits de publier et de voyager ! Des collègues biologistes nous ont expliqué avoir vu de jeunes chercheurs en postdoctorat se faire licencier du jour au lendemain par mail. Des personnes en train de travailler sur l’écriture d’un article scientifique et qui, d’un coup, n’avaient plus accès à leur ordinateur pour le terminer.
Il est possible que les chercheurs licenciés essaient de trouver des pays plus accueillants. La France fait des efforts, au niveau gouvernemental, pour offrir des postes à ces « réfugiés scientifiques », mais aussi universitaires. Une pétition a circulé pour demander à la Commission européenne de débloquer des fonds pour cet accueil.
T. C. : Avez-vous vu une réplique de vos homologues américains ?
F. C. : Il n’y a pas vraiment eu de levée de boucliers très forte encore, non. Peut-être que l’Académie américaine est très dépendante du gouvernement fédéral et ne peut pas réagir. Il y a aussi une certaine sidération, et de l’expectative en attendant de savoir si toutes ces menaces vont être mises à exécution. Il y a aussi une grande part de peur de représailles et de coupures ou de licenciements encore plus graves. Le 7 mars, les scientifiques se sont réunis pour une manifestation Stand Up for Science aux États-Unis, qui a été accompagnée en Europe dans beaucoup de pays.
Françoise Combes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.04.2025 à 17:30
Patrice Cailleba, Professeur de Management, PSB Paris School of Business
Nicolas Dufour, Professeur affilié, PSB Paris School of Business
Les hackers éthiques se font embaucher par des entreprises ou des collectivités pour tester la résistance aux cyberattaques de leurs systèmes informatiques. Leur guerre silencieuse protège ceux et celles qui doivent protéger nos données.
Experts dans la lutte contre la cybercriminalité, les hackers éthiques travaillent à protéger et renforcer la sécurité informatique des entreprises et des États qui font appel à eux. Selon le site communautaire HackerOne, qui regroupe plus de 600 000 hackers éthiques à travers le monde, le premier dispositif qui a consisté à récompenser des hackers pour identifier les problèmes d’un programme informatique ou d’un système d’exploitation remonte à 1983 : on parle alors de bug bounty programme, ou « programme de prime aux bogues » en français.
Depuis lors, ces bug bounty programmes se sont multipliés. En 2020, les hackers éthiques de la plate-forme hackerone auraient résolu plus de 300 000 défaillances et vulnérabilités informatiques en échange de plus de 200 millions de dollars de primes, ou bounties.
En matière de sécurité et de défense, l’emploi de ruses, quelles qu’elles soient, ne se fait ni au grand jour ni avec grand bruit. Dans une étude pionnière sur ce thème, nous avons examiné ce qui constitue l’éthique silencieuse des hackers éthiques dans la guerre qu’ils et elles mènent aux cybercriminels.
De manière générale, les hackers éthiques se spécialisent dans les tests d’intrusion informatique auprès d’entreprises consentantes, afin d’en explorer les vulnérabilités et de proposer des actions correctrices le cas échéant.
Leur silence assure tout à la fois la transmission des connaissances (par imitation, seul devant l’écran), la formation et l’acquisition des compétences, mais aussi la socialisation au sein d’une communauté et d’un métier ainsi que la promotion de leur expérience et de leur réputation. Toutes ces dimensions sont concrètement liées et se répartissent en fait autour de trois moments : avant, pendant et après la mission de hacking éthique.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Tout d’abord, les hackers éthiques doivent acquérir et développer les compétences techniques nécessaires pour devenir de véritables testeurs capables de détecter des vulnérabilités, plus globalement des failles de sécurité, à savoir des professionnels diplômés et légitimes. Or, leur formation commence souvent dès l’adolescence, de manière isolée, bien avant d’entrer dans l’enseignement supérieur. Par la suite, l’accès à une formation de hacker éthique est longtemps resté difficile en raison du faible nombre de l’offre en tant que telle. Cependant, ces formations ont considérablement crû récemment et gagné en visibilité en France et surtout aux États-Unis.
Lorsqu’une entreprise fait appel à des hackers éthiques, elle le fait sans trop de publicité. Les appels d’offres sont rares. Des plates-formes spécialisées américaines comme HackerOne mettent en relation des entreprises demandeuses et des hackers volontaires. Toutefois, les contrats ne sont pas rendus publics : ni sur les missions, ni sur le montant de la prime, ni sur les résultats…
Les termes du contrat relèvent par définition du secret professionnel : avant de procéder à un test d’intrusion, il est important d’obtenir le consentement des propriétaires du système sur ce qu’il est possible de faire ou de ne pas faire.
Lors des tests d’intrusion, les hackers éthiques ont accès à des informations sensibles ou confidentielles sur l’organisation (données informatiques mais aussi financières, logistiques… sans oublier les brevets) et sur ses employés (données fiscales, administratives, etc.). Le secret professionnel autour des informations collectées directement ou indirectement est essentiel.
De même, les vulnérabilités et les failles découvertes pendant la mission doivent toutes être signalées uniquement au commanditaire, sans les rendre publiques ou s’en servir par la suite.
Le hacking éthique n’a pas le même cadre juridique de pays à pays : les lois et les réglementations locales correspondent rarement, que ce soit en Europe ou au sein d’États fédéraux, par exemple en Inde ou aux États-Unis. Le cadre légal changeant oblige ainsi les hackers à la plus grande discrétion, à la demande et pour le bien de leur employeur.
À la fin d’une mission, les obligations des hackers éthiques ne s’arrêtent pas pour autant. Contractuellement, ils n’ont plus le droit de s’introduire dans le système de l’organisation cliente. En même temps, ils doivent effacer toute trace de leur passage et de leur activité et cesser toute forme de tests.
En outre, les hackers éthiques ne doivent divulguer ni ce qui a été vu (informations stratégiques, données privées, défaillances et vulnérabilités identifiées, etc.), ni ce qui a été fait, ni stocker les données collectées. Ils ne doivent pas non plus vendre ces données collectées. Le secret professionnel est de rigueur, autant que le maintien des relations avec chaque client est rendu nécessaire pour assurer le bon suivi des opérations réalisées.
La difficulté pour les hackers éthiques tient au fait de se prévaloir de leur expérience pour des missions à venir auprès de potentiels clients. Ceci doit être fait de manière modérée, à savoir en respectant les règles de confidentialité et sans être identifié à leur tour comme une cible par des concurrents potentiels, voire, surtout, par des hackers criminels.
On retrouve à chaque étape de la mission les règles de confidentialité ayant trait au secret professionnel. Concrètement, les hackers éthiques peuvent être soumis au secret professionnel par mission (en tant que prestataire pour un organisme public de santé par exemple) ou par fonction (en tant que fonctionnaire). Toutefois, pour le moment, ils ne sont pas soumis au secret professionnel en tant que profession.
À mesure de la numérisation grandissante des activités humaines et professionnelles, la cybersécurité phagocyte une grande partie des problématiques sécuritaires, qu’elles soient intérieures et extérieures, publiques et privées. Il ne s’agit plus de travailler à une synergie opérationnelle entre services au sein des organisations, mais plutôt à intégrer de manière systémique la menace cyber et sa prise en charge pour l’ensemble de l’organisation et ses parties prenantes (employés, clients, fournisseurs et société civile en général).
Le silence est l’élément fondamental de la formation (avant la mission), la socialisation (avant et pendant la mission) et la réputation (après la mission) des hackers éthiques. Ce silence transmet et enjoint, socialise et promeut, mais aussi protège ceux qui doivent protéger les données de tout un chacun.
Être hacker éthique constitue au final un engagement opérationnel mais aussi civique, voire politique, qui oblige les organisations publiques et privées à aligner davantage stratégie et éthique, au risque de se mettre en danger.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
14.04.2025 à 17:34
Jonathan Rouzaud-Cornabas, Maître de conférences au Laboratoire d'informatique en image et systèmes d'information, INSA Lyon – Université de Lyon
Les GPU ont permis l’explosion des jeux vidéos dans les années 1990 puis de l’IA depuis vingt ans. Ils permettent de faire certains calculs plus rapidement que les processeurs classiques.
Les progrès massifs dans le domaine de l’intelligence artificielle doivent beaucoup à un type de composant informatique, les GPU, pour graphical processing unit – à tel point que l’on considère aujourd’hui Nvidia, le plus grand concepteur de GPU au monde, comme un acteur clef du marché de l’IA avec l’une des capitalisation boursière la plus élevée de tous les temps. Revers de la médaille, ses actions en bourse ont dévissé quand une entreprise chinoise, DeepSeek, a annoncé pouvoir faire des calculs avec moins de GPU que ses concurrents.
Les GPU ont émergé dans les années 80, avant d’exploser avec le marché des jeux vidéo. Si on trouve aujourd’hui un GPU dans de nombreux ordinateurs personnels et surtout dans les consoles de jeux, il faut des dizaines de milliers de GPU pour faire tourner les plus gros systèmes d’IA dans des fermes de calculs dédiées.
Le marché des GPU est très concentré, tant au niveau de la conception, de la fabrication et de la fourniture (le nombre de GPU produits étant très largement inférieur à la demande), qu’au niveau de l’hébergement (ces fermes nécessitant une expertise rare). Ils sont donc devenu un enjeu géostratégique – avec des investissements en centaines de milliards aussi bien aux USA qu’en France, mais aussi un conflit commercial majeur entre les États-Unis et la Chine.
Les GPU existent depuis le début des années 80 ; mais leurs principes fondamentaux datent des années 60, quand les « processeurs vectoriels » ont émergé. Ceux-ci ont été conçus pour traiter de grands tableaux de données (un tableau à une dimension s’appelle un vecteur, d’où le nom de « processeurs vectoriels ») et appliquer sur chaque élément du tableau la même opération, par exemple additionner les éléments d’un tableau deux à deux.
La puissance des processeurs vectoriels réside dans le fait qu’ils sont capables d’appliquer en même temps une opération sur plusieurs éléments, alors que les processeurs classiques de votre ordinateur, également appelés « processeurs scalaires », n’appliquent les opérations que sur un seul élément à la fois. Pour additionner deux tableaux de 32 cases, un processeur vectoriel traitera les 32 éléments en une seule fois, alors qu’un processeur scalaire classique un seul élément à la fois. Le nombre d’éléments qu’un processeur vectoriel peut traiter en parallèle est variable d’une génération de processeurs à l’autre.
Ceci étant, les problèmes que doivent résoudre les ordinateurs consistent rarement à effectuer la même opération sur tous les éléments d’un grand tableau, en dehors de cas bien particuliers… dont les jeux vidéos, et une grande partie des systèmes d’IA justement !
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Pour faire tourner un jeu vidéo moderne haut de gamme sur un ordinateur ou sur une console, il faut être capable d’afficher 60 images par seconde en haute résolution 4K. Une image 4K est un rectangle (une matrice) de 3840 pixels de haut par 2160 pixels de large. Pour chaque pixel, il faut 3 valeurs (rouge, vert et bleu) pour pouvoir représenter la palette de couleurs. Par conséquent, il faut calculer et mettre à jour 1 492 992 000 pixels par seconde. Pour faire tourner des jeux vidéo, les GPU ont donc repris les principes des processeurs vectoriels.
Dans le courant des années 1980 et 1990, la démocratisation de l’informatique et des jeux vidéos a fait exploser le marché des GPU. Avec leur démocratisation, leur coût a énormément baissé, à une époque où les gros ordinateurs (supercalculateurs) étaient très chers et complexes.
Par conséquent, les chercheurs ont cherché à détourner ces GPU conçu pour le jeu vidéo pour faire d’autres types d’opérations qui leur étaient utiles pour leur recherche. En effet, à performance égale, les GPU avaient (et ont toujours) un coût largement inférieur aux CPU.
À lire aussi : Prix Nobel de chimie 2024 : design des protéines et prédiction de leurs structures, deux facettes d’une même médaille
Un des premiers cas d’utilisation de ces GPU, en 2004, venait de la communauté d’algèbre linéaire, qui utilisait déjà du calcul vectoriel et a pu adapter ses méthodes à ce nouveau matériel. Il faut savoir que l’algèbre linéaire, qui est utilisée pour simplifier la résolution d’équations, est à la base de beaucoup de programmes simulant différents processus réels, depuis le Big Bang jusqu’à la météo ou aux infections de cellules par des virus.
Nvidia a rapidement répondu aux besoins de la communauté académique en 2006. Puis, à partir de 2014, elle a aussi fourni des GPU, pour le développement de systèmes d’IA, notamment par les GAFAM.
Ainsi, après une longue période de réduction de budget pour l’intelligence artificielle, le potentiel de calcul des GPU a permis de rendre exploitables les approches de type apprentissage profond qui étaient bloquées depuis des années, qui se base sur des réseaux de neurones pour répondre à des tâches complexes. Pour implémenter ces approches, il faut pouvoir faire d’énormes quantités de calcul vectoriel sur de grands volumes de données.
Un réseau de neurones tel qu’utilisé par l’IA est une simplification extrême du fonctionnement d’un vrai réseau neuronal, mais il en reprend les grands principes. La représentation mathématique d’un réseau de neurones est faite sous la forme d’opérations sur des matrices et des vecteurs à grandes échelles. Plus le modèle est complexe, plus la taille des données stockées dans de grands tableaux est grande et plus le nombre d’opérations mathématiques est nombreux. C’est grâce à la collaboration entre communautés de l’IA et de l’algèbre linéaire que les capacités de calcul de l’IA ont explosé ces dernières années.
Devant l’explosion de l’utilisation dans le domaine de l’intelligence artificielle, les GPU évoluent de plus en plus vers des fonctionnalités spécialisées pour l’IA et moins pour le jeu vidéo. Par exemple, des opérations spéciales ont été introduites pour traiter des matrices et proposer des fonctions de plus haut niveau, comme les « transformers » utilisés dans les grands modèles de langage.
Mais le principal gain de calcul dans l’IA vient de la réduction de la précision des opérations mathématiques. Un ordinateur ne fait jamais un calcul exact sur des nombres à virgule : comme il stocke et calcule sur un nombre de bits prédéfini, avec une précision déterminée, il y a constamment des erreurs d’arrondi plus ou moins visibles et souvent suffisamment faibles pour être négligeables. Devant la quantité de calcul nécessaire au fonctionnement des systèmes d’IA, la précision a été grandement diminuée (par quatre ou plus) pour accélérer les calculs (par quatre ou plus). Les grands réseaux de neurones sont donc peu précis, mais, grâce à leur taille, ils peuvent répondre à des problèmes complexes.
Derrière l’essor des systèmes d’IA et les GPU, il y a une guerre commerciale entre la Chine et les USA, les USA interdisant l’utilisation de leurs GPU haut de gamme par la Chine. En dehors de Nvidia, seuls AMD et Intel peuvent à la marge concevoir des GPU.
Mais Nvidia ne les produit pas elle-même : une entreprise taïwanaise, TSMC, est la seule à avoir la technologie et les usines pour graver les GPU sur du silicium, au niveau mondial. Pour pouvoir continuer à produire et à vendre des produits venant de sociétés américaines, TSMC s’est engagée à ne pas travailler avec la Chine. Comme Taïwan est par ailleurs menacée d’annexion par la Chine, on peut envisager un risque très important sur l’approvisionnement en GPU dans les années à venir.
Cela met aussi en avant le besoin de développer en Europe une souveraineté sur la conception et la production de processeurs classiques ou de GPU.
L’Union européenne travaille sur cette thématique depuis des années avec un investissement dans le hardware ou matériel ouvert, mais ne peut pas aujourd’hui rivaliser avec les USA ou la Chine. Si des usines de moyenne gamme existent en Allemagne et en France, la présence d’usine de production de processeurs haut de gamme n’est pas prévue.
Au-delà, des problématiques de souveraineté, il est nécessaire de se poser de la question de l’intérêt de consacrer une part de plus en plus importante de la production d’électricité aux technologies numériques. En effet, l’IA consomme énormément d’énergie et son utilisation provoque déjà des problèmes d’approvisionnement en électricité, mais aussi en eau (pour le refroidissement), voire de redémarrage d’usines à charbon, pour répondre aux besoins.
Jonathan Rouzaud-Cornabas a reçu des financements de l'ANR et Inria.
12.04.2025 à 16:55
Winston Maxwell, Directeur d'Etudes, droit et numérique, Télécom Paris – Institut Mines-Télécom
Nicolas Curien, Professeur émérite honoraire du CNAM, Académie des technologies
Les députés socialiste Thierry Sother et écologiste Jérémie Iordanoff tirent la sonnette d’alarme : l’outil principal de l’Union européenne pour lutter contre la désinformation sur les réseaux, le règlement sur les services numériques (DSA), est une « digue fragilisée ».
De la même façon, Viginum, le service de vigilance et protection contre les ingérences numériques étrangères, décrit la facilité avec laquelle l’algorithme de TikTok a pu être manipulé pour torpiller les élections roumaines et souligne que le même phénomène pourrait se produire en France, à travers TikTok ou d’autres grands réseaux.
La dérive désinformationnelle aujourd’hui observée sur les réseaux sociaux, et en particulier sur X, constitue un sérieux motif d’inquiétude, selon les députés Thierry Sother et Jérémie Iordanoff, qui appellent à mieux mobiliser les armes disponibles, voire à en créer de nouvelles. Le Brésil par exemple n’a pas hésité à interdire X sur son territoire jusqu’à ce que le réseau se conforme aux exigences d’un juge.
À la recherche de nouveaux outils réglementaires, la régulation de la radio et de la télévision, médias depuis longtemps confrontés au problème de désinformation, peut être une source d’inspiration.
Une telle approche nécessiterait d’être adaptée au fonctionnement des réseaux sociaux, en particulier en l’appliquant aux algorithmes de recommandation, qui sont à la source des bulles d’informations qui piègent les internautes.
Comme rappelé dans le rapport parlementaire, le règlement européen sur les services numériques (ou DSA) impose aux grands réseaux sociaux de déployer des outils pour enrayer la désinformation. Le DSA ne les oblige certes pas à vérifier chaque contenu posté par les utilisateurs, mais à mettre en place des mesures techniques appropriées pour réduire l’impact des contenus préjudiciables. Ceci représente une avancée majeure par rapport à la situation antérieure, en établissant un équilibre entre, d’un côté, la liberté d’expression sur les réseaux et, de l’autre, la protection des institutions et des citoyens européens contre des attaques perpétrées par l’intermédiaire de ces mêmes réseaux.
Au titre du DSA, la Commission européenne a entamé des procédures d’enquête et de sanction mais, selon les députés, les effets « tardent à se faire sentir et les investigations tendent à repousser l’action » : de fait, aucune sanction n’a été infligée à ce jour.
Ainsi que l’explique un récent rapport de l’Académie des technologies auquel les auteurs de cet article ont contribué, la désinformation est un phénomène ancien, que les règles de pluralisme ont su endiguer dans les médias audiovisuels, tout en préservant la liberté d’expression.
Dès lors, pourquoi ne pas appliquer ces mêmes règles aux grands réseaux sociaux ? Contrairement à ces derniers, les services audiovisuels sont strictement encadrés : selon le Conseil d’État, l’Arcom doit veiller à ce que les chaînes assurent une expression pluraliste des courants de pensée et d’opinion. Cette autorité a ainsi suspendu, en mars 2022 puis mars 2025, la diffusion de plusieurs chaînes de télévision russes, en raison de manquements manifestes à l’honnêteté de l’information.
Si TikTok était un service audiovisuel, il aurait sans doute déjà encouru de lourdes sanctions, voire des interdictions d’émettre. Pourquoi une telle différence de traitement ?
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Trois principales raisons sont invoquées.
Tout d’abord, les réseaux sociaux ne choisissent pas les contenus postés par les utilisateurs, ils ne font que les héberger ; ils ne poussent pas un programme vers des téléspectateurs, les internautes venant chercher les contenus comme dans une bibliothèque. Aujourd’hui, ce motif de non-régulation semble beaucoup moins pertinent qu’au début des années 2000. En effet, les algorithmes de recommandation sélectionnent la plupart des contenus et les dirigent de manière ciblée vers les utilisateurs afin que ceux-ci restent connectés, avec, pour résultat, l’augmentation des recettes publicitaires des plateformes.
Ensuite, les réseaux sociaux n’exercent pas le même impact que la télévision. En 2013, la CEDH a ainsi rejeté l’idée que les réseaux sociaux auraient une influence équivalente à celle de la télévision, en estimant que
« les choix inhérents à l’utilisation d’Internet et des médias sociaux impliquent que les informations qui en sont issues n’ont pas la même simultanéité ni le même impact que celles qui sont diffusées à la télévision ou à la radio ».
Ce raisonnement, recevable au début des années 2010, ne l’est clairement plus aujourd’hui, alors que 53 % des jeunes de 15 à 30 ans s’informent principalement à travers les réseaux sociaux, l’incidence relative de la télévision s’étant significativement réduite.
Enfin, les canaux hertziens de la télévision constituent une ressource rare, propriété de l’État. Les chaînes qui exploitent ce spectre radioélectrique, ce qui n’est pas le cas des services numériques, doivent en retour respecter des obligations de service public, comme le pluralisme. Cet argument perd de sa force aujourd’hui, car l’évolution des marchés numériques a spontanément créé une rareté de choix pour les internautes, en plaçant quelques grandes plateformes en position oligopolistique de gate keepers dans l’accès à l’information.
Si la diversité des contenus disponibles en ligne est théoriquement quasi infinie, leur accessibilité effective est quant à elle régie par le petit nombre des algorithmes des plus grandes plateformes. Le pouvoir né de cette concentration sur le marché de l’accès à l’information justifie pleinement une régulation.
À l’évidence, la « matière » régulée ne serait pas les contenus postés sur les plateformes par les utilisateurs, mais l’algorithme de recommandation qui organise les flux et capte l’attention des visiteurs. Cet algorithme devrait être considéré comme un service de télévision et se voir imposer des règles de pluralisme, à savoir l’obligation de mettre en avant des informations impartiales et exactes et de promouvoir la diversité des opinions exprimées dans les commentaires.
Si l’idée d’un « algorithme pluraliste » apparaît séduisante, la complexité de sa mise en œuvre ne peut être ignorée. Considérons un individu qu’un algorithme a piégé à l’intérieur d’une bulle informationnelle et qui se trouve donc privé de pluralisme. S’il s’agissait d’un service de télévision, il conviendrait d’inclure dans le flux les points de vue de personnes en désaccord avec les contenus prioritairement mis en avant. Une approche difficile à appliquer à un algorithme, car elle exigerait que celui-ci soit capable d’identifier, en temps réel, les messages ou personnes à insérer dans le flux pour crever la bulle sans perdre l’attention de l’internaute.
Une approche alternative consisterait à accorder une priorité croissante à la diffusion d’informations issues de tiers de confiance (fact-checkers), au fur et à mesure que l’utilisateur s’enfonce dans un puits de désinformation. Ce dispositif s’approche de celui des community notes utilisé par X ; des chercheurs ont néanmoins montré qu’il n’est pas assez rapide pour être efficace.
Selon une troisième approche, les messages provenant de sources identifiées comme problématiques seraient coupés. Ce procédé radical a notamment été utilisé par Twitter en 2021, pour suspendre le compte de Donald Trump ; son emploi est problématique, car la coupure est une procédure extrême pouvant s’apparenter à la censure en l’absence d’une décision de justice.
Une dernière approche envisageable s’inspire des instruments multifactoriels utilisés par les banques dans la lutte contre le blanchiment de capitaux. Les contenus seraient marqués d’un score de risque de désinformation et les scores élevés « dépriorisés » dans le système de recommandation, tandis que seraient rehaussés les poids des informations issues de sources journalistiques plus fiables.
Le score de risque serait calculé à partir d’au moins deux critères : le degré d’artificialité dans la diffusion du message, indiquant la vraisemblance du recours à des bots ; et le degré d’artificialité dans la création du contenu, indiquant la vraisemblance d’une génération par l’IA. Un tel indicateur double est proposé par l’Académie des technologies dans son rapport. Des outils d’IA vertueux pourraient par ailleurs aider au calcul du score, ou encore à l’identification d’informations de confiance, permettant de contrer les messages litigieux.
Les plateformes objecteront qu’une obligation de pluralisme violerait la liberté d’expression. C’est en réalité tout le contraire : selon la Cour européenne des droits de l’homme, le pluralisme préserve la liberté d’expression et le débat démocratique, en prévenant la manipulation de l’opinion.
Le pluralisme a fait ses preuves dans l’audiovisuel, il est temps désormais de l’appliquer aux grands réseaux sociaux, même si les modalités techniques restent à définir.
Winston Maxwell fait partie du groupe de travail sur l'IA Générative et la mésinformation de l'Académie des Technologies. Il a reçu des financements de l'Agence nationale de Recherche (ANR).
Nicolas Curien est membre fondateur de l'Académie des technologies, où il a piloté en 2023-2024 le groupe de travail "IA générative et mésinformation". Il a été membre du Collège du CSA (devenu Arcom), de 2015 à 2021, et membre du Collège de l'Arcep, de 2005 à 2011.
10.04.2025 à 17:08
Thomas Guillemette, Professeur de Microbiologie, Université d'Angers
La saison 2 de la série américaine post-apocalyptique « The Last of Us » a commencé le 14 avril. Elle jette la lumière sur des champignons du genre Ophiocordyceps, connus par les scientifiques comme des parasites d’insectes et d’autres arthropodes capables de manipuler le comportement de leur hôte. Dans la série, suite à des mutations, ils deviennent responsables d’une pandémie mettant à mal la civilisation humaine. Si, dans le monde réel, ce scénario est heureusement plus qu’improbable, il n’en demeure pas moins que ces dernières années de nombreux scientifiques ont alerté sur les nouvelles menaces que font porter les champignons sur l’humain dans un contexte de dérèglement climatique.
L’attente a été longue pour les fans mais elle touche à sa fin : la sortie de la saison 2 de la série américaine post-apocalyptique « The Last of Us » est prévue pour ce 14 avril 2025. Cette série a été acclamée par le public comme par les critiques et a reçu plusieurs prix. Elle est l’adaptation d’un jeu vidéo homonyme sorti en 2013 qui s’est lui-même vendu à plusieurs dizaines de millions d’exemplaires. Le synopsis est efficace et particulièrement original : depuis 2003, l’humanité est en proie à une pandémie provoquée par un champignon appelé cordyceps. Ce dernier est capable de transformer des « infectés » en zombies agressifs et a entraîné l’effondrement de la civilisation. Les rescapés s’organisent tant bien que mal dans un environnement violent dans des zones de quarantaine contrôlées par une organisation militaire, la FEDRA. Des groupes rebelles comme les « Lucioles » luttent contre ce régime autoritaire.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Les développeurs Neil Druckmann et Bruce Staley racontent que l’idée du jeu vidéo est née suite au visionnage d’un épisode de la série documentaire Planète Terre diffusée sur la chaîne BBC.
Cet épisode très impressionnant montre comment le champignon Ophiocordyceps unilateralis qui a infecté une fourmi prend le contrôle sur son hôte en agissant sur le contrôle des muscles pour l’amener à un endroit en hauteur particulièrement propice à la dissémination du mycète vers d’autres fourmis.
Certains parlent de fourmis zombies et d’un champignon qui joue le rôle de marionnettiste. Une fois en hauteur, la fourmi plante ses mandibules dans une tige ou une feuille et attend la mort.
De manière surprenante, les fourmis saines sont capables de reconnaître une infection et s’empressent de transporter le congénère infecté le plus loin possible de la colonie. En voici la raison : le champignon présent à l’intérieur de l’insecte va percer sa cuticule et former une fructification (un sporophore) permettant la dissémination des spores (l’équivalent de semences) à l’extérieur. Ces spores produites en grandes quantités sont à l’origine de nouvelles infections lorsqu’elles rencontrent un nouvel hôte.
Bien que spectaculaire, ce n’est pas la seule « manipulation comportementale » connue d’un hôte par un champignon. On peut citer des cas de contrôle du vol de mouches ou de cigales, si bien que l’insecte devient un vecteur mobile pour disséminer largement et efficacement les spores fongiques dans l’environnement. Les mécanismes moléculaires qui supportent le contrôle du comportement des fourmis commencent seulement à être percés, ils sont complexes et semblent faire intervenir un cocktail de toxines et d’enzymes.
La bonne nouvelle est que le scénario d’un saut d’hôte de l’insecte à l’homme est peu crédible, même si ce phénomène est assez fréquent chez les champignons. C’est le cas avec des organismes fongiques initialement parasites d’arthropodes qui se sont finalement spécialisés comme parasites d’autres champignons.
La principale raison est que l’expansion à un nouvel hôte concerne préférentiellement un organisme proche de l’hôte primaire. Il est clair dans notre cas que l’humain et l’insecte ne constituent pas des taxons phylogénétiques rapprochés. Il existe aussi des différences physiologiques majeures, ne serait-ce que la complexité du système immunitaire ou la température du corps, qui constituent un obstacle sans doute infranchissable pour une adaptation du champignon Ophiocordyceps. Un autre facteur favorisant des sauts d’hôte réussis concerne une zone de coexistence par des préférences d’habitat qui se chevauchent au moins partiellement. Là encore on peut estimer que les insectes et les humains ne partagent pas de façon répétée et rapprochée les mêmes micro-niches écologiques, ce qui écarte l’hypothèse d’un saut d’Ophiocordyceps à l’Homme.
Une fois écartée la menace imminente de la zombification massive, il n’en demeure pas moins que les infections fongiques ont été identifiées par les scientifiques comme un danger de plus en plus préoccupant. Lors des dernières décennies, un nombre croissant de maladies infectieuses d’origine fongique a été recensé que ce soit chez les animaux ou chez les plantes cultivées et sauvages.
L’inquiétude est telle que Sarah Gurr, pathologiste végétal à l’Université d’Oxford, a co-signé un commentaire dans la revue Nature en 2023 qui fait figure d’avertissement. Elle met en garde contre l’impact « dévastateur » que les maladies fongiques des cultures auront sur l’approvisionnement alimentaire mondial si les agences du monde entier ne s’unissent pas pour trouver de nouveaux moyens de combattre l’infection. À l’échelle de la planète, les pertes provoquées par des infections fongiques sont estimées chaque année entre 10 et 23 % des récoltes, malgré l’utilisation généralisée d’antifongiques. Pour cinq cultures fournissant des apports caloriques conséquents, à savoir le riz, le blé, le maïs, le soja et les pommes de terre, les infections provoquent des pertes qui équivalent à une quantité de nourriture suffisante pour fournir 2 000 calories par jour de quelque 600 millions à 4 milliards de personnes pendant un an. La sécurité alimentaire s’apprête donc à faire face à des défis sans précédent car l’augmentation de la population se traduit par une hausse de la demande.
L’impact dévastateur des maladies fongiques sur les cultures devrait de plus s’aggraver dans les années à venir en raison d’une combinaison de facteurs. Tout d’abord, le changement climatique s’accompagne d’une migration régulière des infections fongiques vers les pôles, ce qui signifie que davantage de pays sont susceptibles de connaître une prévalence plus élevée d’infections fongiques endommageant les récoltes.
Ce phénomène pourrait être par exemple à l’origine de l’identification de symptômes de rouille noire du blé en Irlande en 2020. Cette maladie touche exclusivement les parties aériennes de la plante, produisant des pustules externes et perturbant en particulier la nutrition. Elle est à l’origine de pertes de rendements conséquentes, pouvant aller jusqu’à 100 % dans des cas d’infection par des isolats particulièrement virulents.
Ensuite, la généralisation en agriculture des pratiques de monoculture, qui impliquent de vastes zones de cultures génétiquement uniformes, constitue des terrains de reproduction idéaux pour l’émergence rapide de nouveaux variants fongiques. N’oublions pas que les champignons sont des organismes qui évoluent rapidement et qui sont extrêmement adaptables. À cela s’ajoute que les champignons sont incroyablement résistants, restant viables dans le sol pendant plusieurs années, que les spores peuvent voyager dans le monde entier, notamment grâce à des échanges commerciaux de plus en plus intenses. Un dernier point loin d’être négligeable est que les champignons pathogènes continuent à développer une résistance aux fongicides conventionnels.
L’impact des champignons sur la santé humaine a aussi tendance à être sous-estimé, bien que ces pathogènes infectent des milliards de personnes dans le monde et en tuent plus de 1,5 million par an.
Certains évènements récents préoccupent particulièrement les scientifiques. C’est le cas de Candida auris qui serait le premier pathogène fongique humain à émerger en raison de l’adaptation thermique en réponse au changement climatique. Cette levure constitue une nouvelle menace majeure pour la santé humaine en raison de sa capacité à persister, notamment, dans les hôpitaux et de son taux élevé de résistance aux antifongiques. Depuis le premier cas rapporté en 2009 au Japon, des infections à C. auris ont été signalées dans plus de 40 pays, avec des taux de mortalité compris entre 30 et 60 %. La majorité de ces infections survient chez des patients gravement malades dans des unités de soins intensifs.
L’augmentation alarmante du nombre de pathogènes résistants aux azoles est d’ailleurs une autre source d’inquiétude. Les azoles sont largement utilisés en agriculture comme fongicides, mais ils sont également utilisés en thérapeutique pour traiter les infections fongiques chez les humains et les animaux. Leur double utilisation en agriculture et en clinique a conduit à l’émergence mondiale d’une résistance aux azoles notamment chez C. auris mais aussi chez les champignons du genre Aspergillus. Ceux-ci sont depuis longtemps considérés comme des pathogènes humains majeurs, avec plus de 300 000 patients développant cette infection chaque année.
Les nombreuses émergences et l’identification de la résistance aux antifongiques chez de multiples champignons pathogènes apportent des éléments de poids aux défenseurs du concept « One Health », qui préconisent que les santés humaine, végétale et animale soient considérées comme étroitement interconnectées. Ces chercheurs issus d’universités prestigieuses proposent des recommandations actualisées pour relever les défis scientifiques et de santé publique dans cet environnement changeant.
Thomas Guillemette a reçu des financements de l'ANR et de la Région Pays de La Loire.
09.04.2025 à 16:52
Mathilde Plard, Chercheuse CNRS - UMR ESO, Université d'Angers
Benoît Mauvieux, Maître de Conférences en STAPS - Physiologie des Environnements Extrêmes, Université de Caen Normandie
Pour la toute première fois, un ultra-trail scientifique a été organisé pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs sur un parcours de 156 kilomètres. De quoi déconstruire quelques mythes et d’accumuler de nouvelles connaissances sur cette pratique extrême.
Des cimes pyrénéennes aux sentiers escarpés de la Réunion, l’ultra-trail est devenu un phénomène global. Selon l’International Trail Running Association (ITRA), plus de 1,7 million de coureurs sont enregistrés dans leur base de données, et pas moins de 25 000 courses sont organisées chaque année dans le monde.
On distingue plusieurs formats de course à pied en nature : du trail découverte (distance inférieure à 21 km) à l’ultra-trail (distance supérieure ou égale à 80 km). Dans cette dernière classification, la distance 100 Miles (165 km) est la distance reine, même si, aujourd’hui il existe des ultra-trails de 330km (Tor des Geants) ou la Double Suisse-Pick (700 km).
Pourquoi un tel engouement ? La discipline séduit par son aspect immersif en pleine nature, sa capacité à procurer un sentiment d’évasion et de connexion profonde avec l’environnement. Cet attrait va au-delà du sport : il s’inscrit dans une philosophie de vie, une quête de dépassement personnel et d’expérience du présent.
Dans l’ouvrage collectif « Les Sentiers de la Science », nous explorons ces multiples dimensions du trail. Cet ouvrage réunit les contributions de plus de 40 chercheurs issus de disciplines variées et vise à éclairer scientifiquement cette discipline en pleine expansion. Il valorise notamment les résultats obtenus lors du protocole expérimental que nous avons mis en place pour l’ultra-trail de Clécy, en rendant accessibles au grand public les connaissances issues de cette expérience grandeur nature. L’ouvrage nourrit ainsi le débat sur la performance, l’expérience corporelle et la relation à la nature dans le trail.
L’ultra-trail est souvent entouré de mythes par les pratiquants. Cette jeune discipline, pourtant de plus en plus documentée sur le plan scientifique, manque encore d’encadrement et de supports d’entraînement.
La littérature scientifique montre que la performance en ultra-trail est le fruit de compétences multiples : capacités respiratoires, force et endurance musculaire, gestion des allures de course, motivation et endurance mentale, capacité à s’alimenter et maintien de la glycémie, technique ou encore la gestion de la privation de sommeil.
Ces études de la performance montrent que des athlètes aux qualités différentes peuvent engager différemment certaines de leurs aptitudes pour une même performance finale. Elles démontrent pourquoi les femmes rivalisent largement avec les hommes sur ces distances. Il faut savoir que plus la distance augmente plus l’écart de performance diminue. On observe cela en cyclisme d’ultra longue distance également.
Étudier les contributions respectives de ces paramètres in-situ de la performance n’est pour autant pas facile pour les scientifiques. Généralement un de ces paramètres va être isolé et une équipe va étudier par exemple, la fatigue musculaire avant et après la course (sans finalement avoir une idée de l’évolution de cette fatigue pendant l’effort), parfois quelques mesures pendant la course sont réalisées et apportent davantage de connaissances. Mais cette approche isole tous les autres facteurs. Il est donc difficile de comprendre les interactions avec les autres fonctions : la diminution de la force est-elle corrélée à la glycémie ou à la privation de sommeil par exemple ?
L’ultra-trail de Clécy (156 kilomètres), organisé au cœur de la Suisse-Normande au sud de Caen, conçu comme une expérience scientifique grandeur nature, a permis de confronter ces croyances aux données factuelles.
Cette course a été pensée comme un laboratoire à ciel ouvert pour étudier les effets physiologiques et mentaux de l’effort prolongé. L’étude a porté sur 56 coureurs représentant la diversité de la population présente sur un trail de niveau national : des coureurs de haut niveau et des amateurs, 75 % d’hommes et 25 % de femmes, avec des analyses détaillées de leur glycémie, des biomarqueurs sanguins inflammatoires, le sommeil, l’hydratation, les paramètres dynamiques tendineux, cardiaques et les adaptations musculaires,la température centrale, les paramètres biomécaniques de la foulée, etc.
Ce protocole a aussi été un défi sur le plan technologique et organisationnel. Certaines mesures étaient enregistrées en continu comme la température centrale du corps à l’aide d’une gélule gastro-intestinale qui envoyait toutes les minutes une donnée sur un moniteur, ou des capteurs implantés dans le triceps des coureurs mesurant en continu la glycémie. D’autres capteurs positionnés sur les chaussures mesuraient les paramètres biomécaniques de la foulée (temps de contact au sol, longueur de la foulée, puissance, cadence) et un gilet connecté permettait de suivre la fréquence cardiaque et respiratoire.
Les coureurs passaient différents tests, des échographies cardiaques pour comprendre comment les paramètres cardiaques évoluaient au cours de la course, des tests devant écran pour mesurer leur état de vigilance, des tests en réalité virtuelle pour perturber leur équilibre et comprendre comment leur système vestibulaire pouvait compenser le conflit sensoriel visuel, des tests de détente verticale pour mesurer la puissance musculaire.
D’autres études menées avec nos collègues proposent d’étudier la discipline de l’Ultra Trail par une approche davantage sociale portant sur trois grands axes d’étude qui structurent les travaux de recherche : engagement et profils des coureurs, facteurs mentaux et expérience corporelle, rôle des territoires et des événements dans le développement du trail.
Au-delà de la simple performance sportive, le trail représente aussi une véritable aventure intérieure. Les coureurs témoignent souvent d’un profond dépassement personnel, lié non seulement à l’effort physique mais aussi à une exploration plus intime de leurs sensations et émotions. Dans notre ouvrage, cette dimension existentielle est particulièrement soulignée : les participants racontent comment courir en pleine nature leur permet d’être pleinement attentifs à leurs sensations corporelles (comme le froid nocturne, les battements de leur cœur ou la tension musculaire). Ces expériences sensorielles intenses provoquent souvent une véritable gratitude envers leur environnement, particulièrement face aux paysages jugés spectaculaires ou « à couper le souffle ».
Concrètement, nous avons pu mesurer précisément comment les coureurs perçoivent ces sensations à l’aide d’un outil appelé State Mindfulness Scale, une échelle qui permet d’évaluer à quel point les coureurs sont conscients et présents dans leur corps pendant la course. Les résultats indiquent clairement que cette pratique améliore notablement la capacité des coureurs à ressentir intensément leur corps et à mieux identifier leurs limites physiques, favorisant ainsi une expérience enrichie et profonde du trail.
Dans une perspective philosophique, cela rejoint l’un de nos précédents articles publié dans The Conversation montrant comment cette discipline interroge notre rapport au monde.
Les résultats de l’étude du trail de Clécy et les contributions académiques permettent d’identifier plusieurs recommandations :
Individualiser l’entraînement : il n’existe pas de recette universelle, chaque coureur doit écouter son corps.
Optimiser la récupération : la gestion du sommeil est un levier essentiel de performance et de bien-être.
Accepter l’incertitude : la préparation mentale est une clé pour affronter l’inconnu et la fatigue extrême.
Ne pas minimiser la période de récupération : on observe une forte élévation des marqueurs inflammatoire, une hyperglycémie et un sommeil de mauvaise qualité sur les nuits suivantes.
Rester vigilant à l’automédicamentation : ne jamais courir sous anti-inflammatoire.
Rester vigilant sur les troubles du comportement alimentaire et l’addiction à l’activité.
L’ultra-trail apparaît ainsi comme une école du vivant, entre prouesse athlétique et exploration humaine. La science permet aujourd’hui de mieux comprendre ce phénomène, tout en laissant place à la magie de l’expérience personnelle.
Mathilde Plard a reçu des financements de l'Université d'Angers pour la mise en place du protocole scientifique sur les dimensions psychosociales de l'Ultra Trail Scientifique de Clécy.
Benoît Mauvieux a reçu des financements des Fonds Européens (FEDER) et de la Région Normandie pour le financement de l'Ultra Trail Scientifique de Clécy (RIN APEEX : Adaptations physiologiques en environnements extrêmes)
03.04.2025 à 20:03
Mélissa Berthet, Docteur en biologie spécialisée en comportement animal, University of Zurich
Les bonobos – nos plus proches parents vivants – créent des combinaisons de cris complexes et avec du sens, semblables aux phrases dans le langage humain. Nos résultats, publiés aujourd’hui dans la revue Science, remettent en question de vieilles croyances sur ce qui rend la communication humaine unique et suggèrent que certains aspects clés du langage ont une origine évolutive ancienne.
Les humains combinent sans effort les mots en phrases, ce qui nous permet de parler d’une infinité de sujets. Cette capacité repose sur la syntaxe compositionnelle (ou « syntaxe » dans la suite de ce texte) – la capacité de créer des combinaisons d’unités porteuses de sens dont le sens global est dérivé du sens des unités et de la façon dont elles sont agencées. Par exemple, l’expression « robe bleue » a un sens dérivé de « robe » et « bleue », elle est compositionnelle – au contraire de « tourner autour du pot », dont le sens n’a rien à voir avec « tourner » et « pot ».
La syntaxe nous permet par exemple de combiner les mots en phrases, elle est omniprésente dans notre communication. Au contraire, quelques rares exemples isolés de syntaxe ont été observés chez d’autres espèces, comme les mésanges japonaises et les chimpanzés. Les scientifiques ont donc longtemps pensé que l’omniprésence de la syntaxe était propre au langage humain et que les combinaisons vocales chez les animaux n’étaient surtout qu’une simple juxtaposition aléatoire de cris. Pour vérifier cela, nous avons mené une étude approfondie de la communication vocale des bonobos dans leur habitat naturel, la réserve communautaire de Kokolopori (République démocratique du Congo). Nos résultats révèlent que, tout comme le langage humain, la communication vocale des bonobos repose également largement sur la syntaxe.
Étudier la syntaxe chez les animaux nécessite d’abord une compréhension approfondie du sens des cris, isolés et combinés. Cela a longtemps représenté un défi majeur, car il est difficile d’infiltrer l’esprit des animaux et décoder le sens de leurs cris. Avec mes collègues biologistes de l’Université de Zürich et de Harvard, nous avons donc développé une nouvelle méthode pour déterminer avec précision la signification des vocalisations animales et l’avons appliquée à l’ensemble des cris de bonobos, aussi bien les cris isolés que les combinaisons.
Nous sommes partis du principe qu’un cri pouvait donner un ordre (par exemple, « Viens »), annoncer une action future (« Je vais me déplacer »), exprimer un état interne (« J’ai peur ») ou faire référence à un événement externe (« Il y a un prédateur »). Pour comprendre de manière fiable le sens de chaque vocalisation tout en évitant les biais humains, nous avons décrit en détail le contexte dans lequel chaque cri était émis, en utilisant plus de 300 paramètres contextuels.
Par exemple, nous avons décrit la présence d’événements externes (y avait-il un autre groupe de bonobos à proximité ? Est-ce qu’il pleuvait ?) ainsi que le comportement du bonobo qui criait (était-il en train de se nourrir, de se déplacer, de se reposer ?). Nous avons également analysé ce que l’individu qui criait et son audience faisaient dans les deux minutes suivant l’émission du cri, c’est-à-dire tout ce qu’ils commençaient à faire, continuaient à faire ou arrêtaient de faire. Grâce à cette description très détaillée du contexte, nous avons pu attribuer un sens à chaque cri, en associant chaque vocalisation aux éléments contextuels qui lui étaient fortement corrélés. Par exemple, si un bonobo commençait toujours à se déplacer après l’émission d’un certain cri, alors il était probable que ce cri signifie « Je vais me déplacer ».
Grâce à cette approche, nous avons pu créer une sorte de dictionnaire bonobo – une liste complète des cris et de leur sens. Ce dictionnaire constitue une avancée majeure dans notre compréhension de la communication animale, car c’est la première fois que des chercheurs déterminent le sens de l’ensemble des vocalisations d’un animal.
Dans la seconde partie de notre étude, nous avons développé une méthode pour déterminer si les combinaisons de cris des animaux étaient compositionnelles, c’est-à-dire, déterminer si les bonobos pouvaient combiner leurs cris en sortes de phrases. Nous avons identifié plusieurs combinaisons qui présentaient les éléments clés de la syntaxe compositionnelle. De plus, certaines de ces combinaisons présentaient une ressemblance frappante avec la syntaxe plus complexe qu’on retrouve dans le langage humain.
Dans le langage humain, la syntaxe peut prendre deux formes. Dans sa version simple (ou « triviale »), chaque élément d’une combinaison contribue de manière indépendante au sens global, et le sens de la combinaison est la somme du sens de chaque élément. Par exemple, l’expression « danseur blond » désigne une personne à la fois blonde et faisant de la danse ; si cette personne est aussi médecin, on peut également en déduire qu’elle est un « médecin blond ». À l’inverse, la syntaxe peut être plus complexe (ou « non triviale ») : les unités d’une combinaison n’ont pas un sens indépendant, mais interagissent de manière à ce qu’un élément modifie l’autre. Par exemple, « mauvais danseur » ne signifie pas qu’il s’agit d’une mauvaise personne qui est aussi danseuse. En effet, si cette personne est aussi médecin, on ne peut pas en conclure qu’elle est un « mauvais médecin ». Ici, « mauvais » ne possède pas un sens indépendant de « danseur », mais vient en modifier le sens.
Des études antérieures sur les oiseaux et les primates ont démontré que les animaux peuvent former des structures compositionnelles simples. Cependant, aucune preuve claire de syntaxe plus complexe (ou non triviale) n’avait encore été trouvée, renforçant l’idée que cette capacité était propre aux humains.
En utilisant une méthode inspirée de la linguistique, nous avons cherché à savoir si les combinaisons de cris des bonobos étaient compositionnelles. Trois critères doivent être remplis pour qu’une combinaison soit considérée comme telle : d’abord, les éléments qui la composent doivent avoir des sens différents ; ensuite, la combinaison elle-même doit avoir un sens distinct de celle de ses éléments pris séparément ; enfin, le sens de la combinaison doit être dérivé du sens de ses éléments. Nous avons également évalué si cette compositionnalité est non triviale, en déterminant si le sens de la combinaison est plus qu’une addition du sens des éléments.
Pour cela, nous avons construit un « espace sémantique » – une représentation en plusieurs dimensions du sens des cris des bonobos – nous permettant de mesurer les similarités entre le sens des cris individuels et des combinaisons. Nous avons utilisé une approche de sémantique distributionnelle qui cartographie les mots humains selon leur sens, en considérant que les mots avec un sens proche apparaissent dans des contextes similaires. Par exemple, les mots « singe » et « animal » sont souvent utilisés avec des termes similaires, tels que « poilu » et « forêt », ce qui suggère qu’ils ont un sens proche. À l’inverse, « animal » et « train » apparaissent dans des contextes différents et ont donc des sens moins proches.
Avec cette approche linguistique, nous avons pu créer un espace sémantique propre aux bonobos, où l’on a pu cartographier chaque cri et chaque combinaison de cris selon s’ils étaient émis dans des contextes similaires ou non (donc, s’ils avaient un sens proche ou non). Cela nous a permis de mesurer les liens entre le sens des cris et de leurs combinaisons. Cette approche nous a ainsi permis d’identifier quelles combinaisons répondaient aux trois critères de compositionnalité, et leur niveau de complexité (triviale vs non triviale).
Nous avons identifié quatre combinaisons de cris dont le sens global est dérivé du sens de leurs éléments, un critère clé de la compositionnalité. Fait important, chaque type de cri apparaît dans au moins une combinaison compositionnelle, tout comme chaque mot peut être utilisé dans une phrase chez les humains. Cela suggère que, comme dans le langage humain, la syntaxe est une caractéristique fondamentale de la communication des bonobos.
De plus, trois de ces combinaisons de cris présentent une ressemblance frappante avec les structures compositionnelles non triviales du langage humain. Cela suggère que la capacité à combiner des cris de manière complexe n’est pas unique aux humains comme on le pensait, et que cette faculté pourrait avoir des racines évolutives bien plus anciennes qu’on ne le pensait.
Un bonobo émet un subtil « peep » (« Je voudrais… ») suivi d’un « whistle » (« Restons ensemble »). Ce cri est émis dans des situations sociales tendues, il a un sens proche de « Essayons de trouver un arrangement » ou « Essayons de faire la paix ».
Une implication majeure de cette recherche est l’éclairage qu’elle apporte sur l’évolution de la syntaxe dans le langage. Si nos cousins bonobos utilisent de façon extensive la syntaxe compositionnelle, tout comme nous, alors notre dernier ancêtre commun le faisait probablement aussi. Cela suggère que la capacité à construire des sens complexes à partir de plus petites unités vocales était déjà présente chez nos ancêtres il y a au moins 7 millions d’années, voire plus tôt. Ces nouvelles découvertes indiquent que la syntaxe n’est pas propre au langage humain, mais qu’elle existait probablement bien avant que le langage n’émerge.
Mélissa Berthet a reçu des financements du Fond National Suisse (SNF).
03.04.2025 à 17:52
Christophe Vigny, chercheur en géophysique, École normale supérieure (ENS) – PSL
Un séisme a touché l’Asie du Sud-Est le 28 mars 2025. D’une magnitude de 7,7, son épicentre est localisé au Myanmar, un pays déjà très fragilisé par des années de guerre civile. Les secousses sismiques y ont été très destructrices, notamment car elles ont « liquifié » le sol sous les bâtiments dans la plaine sédimentaire de la rivière Irrawady.
Le séisme du 28 mars qui s’est produit au Myanmar (Birmanie) est une catastrophe de très grande ampleur. Il s’agit d’un très gros séisme – la magnitude 7,7 est rarement atteinte par un séisme continental – de l’ordre des séismes de Turquie de février 2023, de Nouvelle-Zélande en novembre 2016, du Sichuan en mai 2008 ou encore d’Alaska en novembre 2002. Le choc principal a été suivi douze minutes plus tard par une première réplique.
Le bilan est très probablement très sous-estimé pour toutes sortes de raisons : difficultés d’accès, pays en guerre… et pourrait, selon mon expérience et l’institut américain de géologie, largement atteindre plusieurs dizaines de milliers de victimes.
Les raisons d’un tel bilan sont multiples : le séisme lui-même est très violent car d’une magnitude élevée, sur une faille très longue et avec une rupture peut-être très rapide. De plus, la faille court dans une vallée sédimentaire, celle de la rivière Irrawady, où les sols sont peu consolidés, ce qui donne lieu à des phénomènes de « liquéfaction », fatals aux constructions, pendant lesquels le sol se dérobe complètement sous les fondations des immeubles. Les constructions elles-mêmes sont d’assez faible qualité (bétons peu armés, avec peu de ciment, mal chaînés, etc.). Enfin, les secours sont peu organisés et lents, alors que de nombreux blessés ont besoin de soins rapides.
À lire aussi : Séisme au Myanmar ressenti en Asie du Sud-Est : les satellites peuvent aider les secours à réagir au plus vite
Le séisme s’est produit sur la faille de Sagaing qui traverse le Myanmar du nord au sud sur plus de 1000 kilomètres de long. Cette faille résulte de la tectonique des plaques dans la région : la plaque indienne « monte » vers le nord à près de 4 centimètres par an. Devant elle, l’Himalaya. Sur les deux côtés, à l’ouest et à l’est, deux systèmes de failles accommodent le glissement entre la plaque indienne et la plaque eurasienne. À l’est, c’est la faille de Sagaing, du nom d’une grande ville du pays.
Des mesures GPS réalisées au Myanmar à la fin des années 1990 par notre équipe ont produit beaucoup de résultats : nous avons tout d’abord observé que la faille était bien bloquée. Ceci implique que le déplacement continu des plaques tectoniques indienne et eurasienne provoque bien de l’« accumulation de déformation élastique » dans les plaques, et que cette déformation devra être relâchée tout ou tard sous forme de séisme, quand l’accumulation dépassera le seuil de résistance de la friction sur le plan de faille.
Mais nous avions fait également une découverte un peu déconcertante : la faille de Sagaing n’accommodait qu’un peu moins de 2 centimètres par an de déformation (exactement 1.8), le reste des 4 centimètres par an imposé par le mouvement des plaques indiennes et eurasiennes devant être accommodé ailleurs… Mais où ? Mystère.
Les études suivantes suggérèrent que cette déformation manquante se produit plus à l’ouest, sur la subduction dite « Rakhine-Bangladesh ».
Il y a eu beaucoup de séismes le long de l’histoire au Myanmar. Les études archéologiques menées au début des années 2000 sur la cité impériale de Pegu, dans le sud du Myanmar, ont révélé que les murs de celle-ci avaient été fréquemment rompus par des séismes (sept depuis la fin du XVIe siècle), mais aussi décalés, car la cité était construite exactement sur la faille. La mesure du décalage total entre deux morceaux de murs (6 mètres en 450 ans) donne une vitesse moyenne sur cette période de 1,4 centimètre par an.
Plus au Nord, la cité impériale de la ville de Mandalay est aussi marquée par les séismes : des statues massives ont été cisaillées par les ondes sismiques des tremblements de terre passés.
Grâce à ces études, nous avons aujourd’hui une meilleure vision de la situation tectonique à Myanmar.
La faille est tronçonnée en segment plus ou moins long, de 50 à 250 kilomètres de longueur. Chacun de ces segments casse plus ou moins irrégulièrement, tous les 50-200 ans, produisant des séismes de magnitude allant de 6 à presque 8.
Le plus long segment est celui dit de Meiktila. Il fait environ 250 kilomètres entre Mandalay et Naypyidaw. Il a rompu pour la dernière fois en 1839, avec un séisme de magnitude estimée entre 7,6 et 8,1. Le calcul est donc finalement assez simple : ici, la déformation s’accumule autour de la faille au rythme de 1,8 centimètre par an et le dernier séisme s’est produit il y a 184 ans : le prochain séisme devra donc relâcher 3,3 mètres, avant que l’accumulation ne reprenne.
Or, un déplacement de 3,3 mètres sur une faille de 250 kilomètres de long et environ 15 kilomètres de profondeur correspond bien à un séisme de magnitude 7,7 – comme celui qui vient de frapper.
Enfin, les toutes premières analyses par imagerie satellitaire semblent indiquer que la rupture se serait propagée largement au sud de la nouvelle capitale Naypyidaw, sur presque 500 kilomètres de long au total. Elle aurait donc rompu, simultanément ou successivement plusieurs segments de la faille.
Sur la base des considérations précédentes (faille bloquée, vitesse d’accumulation de déformation et temps écoulé depuis le dernier séisme), il est assez facile d’établir une prévision : un séisme est inévitable puisque la faille est bloquée alors que les plaques, elles, se déplacent bien. La magnitude que ce prochain séisme peut atteindre est estimable et correspond à la taille de la zone bloquée multipliée par la déformation accumulée (en admettant que le séisme précédent a bien « nettoyé » la faille de toutes les contraintes accumulées).
La difficulté reste de définir avec précision la date à laquelle ce séisme va se produire : plus tôt il sera plus petit, plus tard il sera plus grand. C’est donc la résistance de la friction sur la faille qui va contrôler le jour du déclenchement du séisme. Mais celle-ci peut varier en fonction du temps en raison de paramètres extérieurs. Par exemple, on peut imaginer qu’une faille qui n’a pas rompu depuis longtemps est bien « collée » et présente une résistance plus grande, à l’inverse d’une faille qui a rompu récemment et qui est fragilisée.
Ainsi, plutôt que des séismes similaires se produisant à des intervalles de temps réguliers, on peut aussi avoir des séismes de tailles différentes se produisant à intervalles de temps plus variables. Pour autant, la résistance de la faille ne peut dépasser une certaine limite et au bout d’un certain temps, le séisme devient inévitable. Il est donc logique de pouvoir évoquer la forte probabilité d’un séisme imminent sur un segment de faille donné, et d’une magnitude correspondant à la déformation accumulée disponible. La magnitude de 7,7 dans le cas du récent séisme sur la faille de Sagaing correspond exactement aux calculs de cycle sismique.
Par contre, la détermination de la date du déclenchement du séisme au jour près reste impossible. En effet, si la déformation augmente de quelques centimètres par an, elle n’augmente que de quelques centièmes de millimètres chaque jour, une très petite quantité en termes de contraintes.
Il y a toujours des répliques après un grand séisme, mais elles sont plus petites.
Il y a aujourd’hui au Myanmar assez peu de stations sismologiques, et les plus petites répliques (jusqu’à la magnitude 3) ne sont donc pas enregistrées. Les répliques de magnitude entre 3 et 4,5 sont en général perçues par le réseau thaïlandais, mais seules les répliques de magnitude supérieure à 4,5 sont enregistrées et localisées par le réseau mondial.
Il semble néanmoins qu’il y ait assez peu de répliques dans la partie centrale de la rupture, ce qui pourrait être une indication d’une rupture « super-shear » car celles-ci auraient tendance à laisser derrière elles une faille très bien cassée et très « propre ».
Christophe Vigny a reçu des financements de UE, ANR, MAE, CNRS, ENS, Total.
02.04.2025 à 12:23
Caroline Gans Combe, Associate professor Data, econometrics, ethics, OMNES Education
Dans un monde où l’information est devenue à la fois omniprésente et suspecte, la destruction délibérée de bases de données scientifiques évoque de sombres souvenirs historiques. Elle représente une menace sérieuse pour l’avenir de la connaissance partagée, le progrès scientifique global et, plus fondamentalement, la richesse des nations.
Depuis le 20 janvier 2025, l’administration aux commandes de la première puissance mondiale mène une campagne méthodique contre les données, particulièrement celles à caractère scientifique. Plus de 3 400 jeux de données, dont 2 000 à vocation scientifique, ont été supprimés des sites gouvernementaux américains. Cette offensive cible prioritairement les informations relatives au changement climatique, à la santé publique et à l’équité sociale. L’armée américaine a ainsi reçu l’ordre de supprimer tout contenu mettant en valeur ses efforts de diversité, y compris les images historiques des premières femmes ayant réussi l’entraînement pour intégrer l’infanterie du corps des Marines !
Des données cruciales de santé publique concernant l’obésité, les taux de suicide, le tabagisme chez les adolescents et les comportements sexuels ont également disparu des sites web du Center for Disease Control (CDC), l’équivalent états-unien de notre direction de maladies infectueuses (DMI) dont le rôle est de surveiller notamment les pandémies. Malgré une injonction judiciaire ordonnant la restauration de ces informations, des questions persistent quant à l’intégrité des données reconstituées.
Par ailleurs, des préoccupations émergent concernant la manipulation potentielle des statistiques économiques. Cette purge numérique s’accompagne d’interruptions de projets de recherche, de réductions drastiques des moyens et de licenciements de scientifiques de premier plan, notamment Kate Calvin, scientifique en chef de la Nasa.
L’administration a également ordonné la fin des échanges scientifiques internationaux, notamment entre la National Oceanic and Atmospheric Administration (NOAA) et l’Institut français de recherche pour l’exploitation de la mer (Ifremer). Cela fait craindre pour la précision des alertes sur les évènements majeurs, comme on avait pu le voir lors du Sharpiegate, où l’actuel président et les équipes le soutenant (dont l’actuel administrateur du NOAA déjà en poste à l’époque) avaient falsifié des cartes météo pour donner raison au président quant à la direction du cyclone « Dorian », et ce, contre l’évidence scientifique. Or, la précision de ces alertes est fondamentale pour sauver des vies.
Face à cette situation alarmante, certes, une résistance s’organise : des chercheurs tentent désespérément de préserver les données avant leur destruction. Malheureusement, la vitesse des coups portés à la preuve scientifique rend ces réponses bien dérisoires.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce phénomène où des ensembles de données scientifiques, fruits de décennies de recherche minutieuse, sont anéantis sans considération pour leur valeur intrinsèque, ou verrouillés par des entités privées échappant largement au contrôle démocratique, interroge d’autant plus que ces mêmes acteurs ont souvent tiré profit des avancées permises par le libre partage des connaissances, par exemple les recherches introduisant l’architecture dite Transformer, publiées dans l’article « Attention Is All You Need » ont directement permis le développement du modèle commercial de Meta : LLaMA.
Dans ce contexte, la destruction de ces données représente non seulement une perte intellectuelle massive, mais aussi un non-sens économique flagrant. Comment justifier l’anéantissement d’actifs dont la valeur, bien que difficile à quantifier avec précision, est manifestement considérable ?
La valeur des données en tant qu’actif économique pour les nations et les entreprises est désormais un fait établi, documenté et largement accepté dans la littérature académique. Plusieurs méthodologies permettent d’évaluer cette valeur : le coût historique, les bénéfices futurs actualisés et la valeur de remplacement. Les coûts pour l’économie états-unienne sont donc aujourd’hui immédiatement quantifiables et dantesques.
L’approche par le coût historique consiste à calculer l’investissement total nécessaire à la production des données, incluant le financement de recherche, le temps de travail des chercheurs et l’infrastructure mobilisée. Mais certains soulignent que cette méthode comptable traditionnelle enregistre la valeur d’un actif à son coût d’acquisition initial, sans tenir compte des variations ultérieures de sa valeur. Aussi, la méthode des bénéfices futurs actualisés estime les avancées scientifiques et innovations potentielles découlant de l’exploitation des données sur plusieurs décennies. Elle permet de ramener les coûts et bénéfices futurs à leur valeur présente, ce qui est particulièrement pertinent pour les données scientifiques dont la valeur se déploie souvent sur le long terme.
Quant à la méthode de la valeur de remplacement, elle évalue le coût qu’impliquerait la reconstitution complète des bases de données si elles venaient à disparaître. L’OCDE recommande cette approche pour estimer la valeur des actifs de données, particulièrement lorsque les données sont uniques ou difficilement reproductibles, ce qui est clairement le cas des données de recherche. Aussi, la reconnaissance des données comme actif économique majeur est désormais bien établie, au même titre que tous autres actifs immatériels, désormais centraux dans l’économie moderne. Les données sont de la sorte devenues un facteur de production distinct, au même titre que le capital et le travail.
Une estimation conservatrice basée sur ces approches révèle que chaque jeu de données scientifiques majeur représente potentiellement des milliards d’euros de valeur. À titre d’exemple, le génome humain, dont le séquençage initial a coûté environ 2,7 milliards de dollars en quinze ans, a généré une valeur économique estimée à plus de 1 000 milliards de dollars US à travers diverses applications médicales et biotechnologiques, sans compter les recettes fiscales associées.
Dans le contexte actuel, où l’intelligence artificielle (IA) se développe à un rythme fulgurant, le volume et la qualité des données deviennent des enjeux cruciaux. Le principe bien connu en informatique de « garbage in, garbage out » (ou GIGO, des données de mauvaise qualité produiront des résultats médiocres) s’applique plus que jamais aux systèmes d’IA qui sont dépendants de données de qualité pour assurer un entraînement des algorithmes efficients.
Ainsi, la destruction et la reconstruction erratique de sets de données à laquelle nous assistons aujourd’hui (on ne peut établir à ce stade que les données détruites ont été ou seront reconstituées avec sérieux et un niveau suffisant de qualité) génèrent une contamination délibérée ou négligente de l’écosystème informationnel par des données incorrectes, peut-être falsifiées ou biaisées.
Il y a là une double destruction de valeur : d’une part, par la compromission de l’intégrité des bases de données existantes, fruit d’investissements considérables ; d’autre part, en affectant la qualité des modèles d’IA entraînés sur ces données, perpétuant ainsi les biais et les erreurs dans des technologies appelées à jouer un rôle croissant dans nos sociétés. Sans données fiables et représentatives, comment espérer développer des systèmes d’IA sans biais et dignes de confiance ?
Face à ces défis, l’Union européenne dispose d’atouts considérables pour s’imposer comme le gardien d’une science ouverte mais rigoureuse et le berceau d’une IA responsable. Son cadre réglementaire pionnier, illustré par le RGPD et l’AI Act, démontre sa capacité à établir des normes qualitatives élevées. Le cadre du RGPD permet de « concilier la protection des droits fondamentaux et la conduite des activités de recherche ». L’AI Act, entré en vigueur le 1er août 2024, entend « favoriser le développement et le déploiement responsables de l’intelligence artificielle dans l’UE », notamment dans des domaines sensibles comme la santé. L’Europe régule non pas pour porter atteinte à la liberté d’expression, mais, au contraire, pour proposer un environnement d’affaires sûr, de confiance et pacifié.
L’Union européenne pourrait donc créer un véritable « sanctuaire numérique » pour les données scientifiques mondiales, garantissant leur préservation, leur accessibilité et leur utilisation éthique. Ce sanctuaire reposerait sur trois piliers complémentaires dont l’essentiel est déjà en place du fait de la stratégie digitale :
un système d’archivage pérenne et sécurisé des données de recherche assurant leur préservation ;
des protocoles de partage ouverts mais encadrés, favorisant la collaboration internationale tout en protégeant l’intégrité des données ;
et un cadre d’utilisation garantissant que l’exploitation des données, notamment pour l’entraînement d’IA, respecte des principes éthiques clairs.
Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de sa participation aux projets de recherche DEFORM et ProRes.
02.04.2025 à 12:23
Julien Serres, Professeur des Universités en biorobotique, Aix-Marseille Université (AMU)
Nul besoin de connexion satellite pour que les abeilles et les fourmis retrouvent le chemin de leurs foyers. Leurs stratégies reposent sur des perceptions de l’environnement bien différentes de la nôtre, que décortiquent certains roboticiens… pour mieux les imiter.
Les insectes navigateurs possèdent de minuscules cervelles, de seulement un millimètre cube et pourtant… n’y aurait-il pas plus d’intelligence chez eux que ce que l’on imagine ?
Dans une certaine mesure, ces petits animaux sont plus performants en matière d’orientation spatiale que votre application mobile de navigation favorite et que les robots taxis américains… Ils n’ont pas besoin de se connecter à Internet pour retrouver leur foyer et consomment une quantité d’énergie absolument minuscule par rapport au supercalculateur dédié à la conduite autonome de Tesla.
Le biomimétisme consiste à puiser dans les multiples sources d’inspiration que nous offre la nature, qu’il s’agisse des formes — comme le design du nez du train Shinkansen 500, inspiré du bec du martin-pêcheur ; des matériaux — comme les écrans solaires anti-UV basés sur les algues rouges ; ou bien encore des synergies et des écosystèmes durables — comme la myrmécochorie qui utilise les fourmis pour accélérer la dispersion des graines et réparer plus vite les écosystèmes.
En effet, les solutions sélectionnées dans la nature se sont perfectionnées au long de l’évolution. Les yeux des insectes et leur traitement des images en sont un exemple frappant. Leur étude a donné naissance à de nouvelles caméras bio-inspirées dites « événementielles » ultrarapides. Les pixels de ses caméras sont lus et traités uniquement lorsqu’un changement de luminosité est détecté par un pixel et l’information est codée par des impulsions de très courte durée réduisant de facto la consommation énergétique et les temps de calcul. Ces petits animaux représentent alors une véritable banque de solutions pour les roboticiens, pour résoudre certains problèmes auxquels nous sommes confrontés.
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La biorobotique a ainsi pour finalité de comprendre le comportement animal au moyen de robots mobiles imitant soit leur système perceptif, soit leur mode de locomotion, ou bien encore le couplage entre ces deux systèmes.
Les résultats obtenus sont parfois contre-intuitifs pour les roboticiens et les roboticiennes. La biorobotique propose d’explorer la navigation autonome « déconnectée » ou « en mode avion », exploitant uniquement la lumière réfléchie par l’environnent ou diffusée par le ciel comme le font les insectes navigateurs pour trouver leur cap de manière optique ou bien les oiseaux pour se géolocaliser visuellement. Nous espérons que ces recherches permettront aux véhicules intelligents d’atteindre le même niveau d’agilité et de résilience que les insectes ou oiseaux navigateurs, abeilles mellifères et fourmis du désert en tête.
De façon surprenante, les insectes navigateurs possèdent une acuité visuelle plutôt mauvaise. Ainsi, les fourmis navigatrices possèdent une vision 300 fois moins précise que celle des humains en termes d’« acuité fovéale », qui est la capacité à discerner un petit objet à grande distance. De leur côté, les abeilles mellifères possèdent une vision 100 fois moins précise que les humains, mais elles réalisent pourtant quotidiennement des trajets de plusieurs kilomètres par jour, jusqu’à 13 kilomètres de la ruche… alors qu’elles ne mesurent que treize millimètres.
Cette distance représente un million de fois leur longueur de corps. C’est comme si un humain voyageait 1 000 kilomètres et était capable de retrouver son foyer sans demander d’aide à son téléphone. Il est tout à fait stupéfiant qu’un aussi petit animal soit capable de localiser sa ruche et de retrouver sa colonie à chaque sortie — avec seulement un million de neurones et 48 000 photorécepteurs par œil (contre 127 millions pour l’œil humain).
Le secret de ces insectes est l’« odométrie visuelle », c’est-à-dire l’aptitude à mesurer les distances en voyant le sol défiler entre les différents points de sa route aérienne, entre autres, mais aussi la reconnaissance de route par familiarité visuelle à très basse résolution et la vision de la polarisation du ciel pour trouver le cap à suivre.
Pour imiter l’œil des insectes, nous avons développé en 2013 le premier capteur visuel miniature (1,75 gramme) de type œil composé de 630 petits yeux élémentaires, appelé CurvACE.
Ce capteur, aux performances toujours inégalées à ce jour, est capable de mesurer des vitesses de défilement de contrastes visuels, que ce soit par un clair de lune ou une journée très ensoleillée. L’avantage majeur de cet œil composé est son large champ visuel panoramique horizontal de 180° et vertical de 60° pour une taille de seulement 15 millimètres de diamètre et une consommation de quelques milliwatts. Même si les récepteurs GPS consomment autant que le capteur CurvACE, les calculs effectués pour déterminer votre position à partir des signaux satellitaires sont extrêmement coûteux. C’est pour cela que la navigation sur smartphone est très consommatrice d’énergie. À cela, il faut ajouter le coût énergétique et écologique de l’entretien des constellations de satellites.
Puis, nous avons équipé un drone miniature de 80 grammes d’une paire de capteurs CurvACE, grâce auxquels il peut suivre un relief accidenté. Ce type de capteur pesant seulement quelques milligrammes pourrait équiper les drones de demain.
Les fourmis du désert Cataglyphis, que l’on retrouve principalement en milieux désertiques et sur le pourtour méditerranéen, sont capables de parcourir jusqu’à un kilomètre pour trouver leur nourriture, puis de rentrer au nid en moins de trente minutes, sur un sol pouvant atteindre plus de 50 °C. Pour cela, la fourmi compte ses pas, exploite l’« odométrie visuelle », et trouve son cap en observant la lumière diffusée par le ciel.
Notre robot fourmi AntBot est équipé de capteurs visuels inspirés des fourmis. Le premier est une boussole optique constituée de deux photorécepteurs sensibles au rayonnement ultraviolet et surmontés de filtres polarisants. En faisant tourner ces filtres, il est possible de scanner le ciel pour trouver l’axe de symétrie de motif de polarisation du ciel représentant une direction à suivre, puis de déterminer le cap du robot avec une précision inférieure à 0,5° représentant la taille optique de la lune ou du soleil dans le ciel.
Le second capteur est une rétine artificielle composée de 12 photorécepteurs, dénommé M2APix, qui s’adaptent aux changements de luminosité comme l’œil composé artificiel CurvACE. La distance est alors calculée en combinant le comptage de pas et le défilement optique, comme le font les fourmis du désert.
Testé sous diverses couvertures nuageuses, le robot AntBot s’est repositionné de façon autonome avec une erreur de sept centimètres, soit une valeur presque 100 fois plus faible que celle d’un dispositif de géolocalisation après un trajet de quinze mètres. Ce mode de navigation pourrait être intégré aux véhicules autonomes et intelligents afin de fiabiliser les systèmes de navigation autonomes par la combinaison de différentes façons de mesurer sa position.
En effet, les signaux de géolocalisation sont actuellement émis par des satellites au moyen d’ondes électromagnétiques de fréquences allant de 1,1 GHz à 2,5 GHz, très voisine de celles de la téléphonie mobile et peuvent être brouillés ou usurpés par un émetteur terrestre émettant un signal identique à celui d’un satellite. Bénéficier d’un dispositif capable de se localiser de façon autonome, sans se connecter à une entité extérieure, permettra de fiabiliser les véhicules autonomes sans pour autant consommer plus d’énergie et de ressources pour les faire fonctionner.
Julien Serres a reçu des financements de la part de l'Agence de l'Innovation Défense (AID), du Centre National de la Recherche Scientifique (CNRS), d'Aix Marseille Université (amU), de la Fondation Amidex, de la Région Sud (Provence-Alpes-Côte d'Azur), et de la Société d'Accélération du Transfert de Technologies Sud-Est (SATT Sud-Est).
02.04.2025 à 12:22
Laurent Vercueil, Neurologue hospitalier - CHU Grenoble Alpes (CHUGA) ; Laboratoire de Psychologie & Neurocognition. Equipe VISEMO. Université Grenoble Alpes, Université Grenoble Alpes (UGA)
Connaissez-vous le « shifting » ? Cette pratique consiste à basculer de la réalité vers une expérience imaginaire de façon volontaire. Certains « shifteurs » racontent qu’ils sont capables de se projeter dans le monde de Harry Potter et de ressentir des sensations visuelles ou sonores.
Le confinement lors de la pandémie de Covid-19 a eu des effets significatifs sur l’activité humaine, à l’échelle de la société, bien sûr, mais également sur le plan individuel. Par exemple, une étude canadienne récente a montré que la consommation d’alcool avait augmenté pendant cette période, ce qui peut être le témoignage d’une tendance à fuir une réalité morose, privée des activités mobilisant habituellement l’intérêt. La difficulté à faire face à une réalité non souhaitée peut aussi venir expliquer l’observation d’une augmentation d’une pratique appelée « shifting » qui s’est propagée par les réseaux sociaux particulièrement au sein de la population adolescente.
Sous ce terme, on trouve une pratique qui peut se définir comme un désengagement de la réalité présente pour investir une réalité fantasmatique, souvent inspirée de la culture populaire, dans laquelle le sujet vit une expérience immersive gratifiante. Ainsi, une jeune fille se décrit basculant dans un monde inspiré de celui de Harry Potter, au sein duquel elle évolue en interagissant avec ses héros préférés. Il s’agit d’un voyage imaginaire, plus ou moins sous contrôle, interrompu par le retour à la réalité.
L’aspect « technique », qui donne son nom à cette pratique (« shifting » signifie « déplacement », « changement »), consiste dans l’aptitude à basculer de la réalité vers cette expérience imaginaire de façon volontaire. Un autre aspect souligné par les pratiquants est l’adhésion puissante à cette réalité « désirée », qui nécessite de suspendre l’incrédulité usuelle, pour apprécier pleinement le contenu de l’imagerie visuelle et sonore constituant l’expérience. C’est précisément cette adhésion et la suspension de l’incrédulité qui semblent susciter l’inquiétude de l’entourage ou des professionnels de santé, en ce qu’elles pourraient menacer l’adaptation du sujet à la réalité « vraie ».
Tous les quinze jours, des grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce que les pratiquants du shifting décrivent s’apparente à une forme de voyage mental sous contrôle.
Le voyage mental repose sur le désengagement de la situation présente pour générer une représentation mentale spécifique : par exemple, l’évocation d’un souvenir personnel repose sur l’activation d’une scène tirée du passé, qui est « rejouée » mentalement. Le voyage mental peut aussi être involontaire, avec l’irruption de souvenirs autobiographiques, ou de scènes fantaisistes, sans lien avec la réalité. Néanmoins, il demande toujours au sujet de se désengager de l’activité en cours, qui doit être suspendue, sauf s’il s’agit d’une activité routinière, de faible exigence, comme la marche, le tricot ou toute activité répétitive monotone, qui pourrait même favoriser le voyage.
Nous avons récemment publié un article de synthèse sur le voyage mental. Des travaux expérimentaux récents ont permis de mieux comprendre, chez l’animal, comment fonctionnait cette aptitude, qui n’est donc aucunement l’apanage de l’être humain, qui permet de se désengager du présent pour voyager mentalement dans l’espace et dans le temps.
Dans cet article, nous ne traiterons pas la question du « pourquoi » les adeptes du shifting font ce qu’ils font. Les neurosciences portent davantage sur le « comment », à la recherche des corrélats neuronaux des expériences subjectives.
Ainsi, nos activités mentales (et les comportements efférents) peuvent être classées en trois grands modes, entre lesquels nous naviguons en fonction des contextes :
d’abord, le mode « exploitation », qui consiste à remplir les tâches dictées par l’environnement, sous la forme d’un certain asservissement du cerveau à ses routines,
ensuite, le mode « exploration », lorsque nous sommes confrontés à un contexte nouveau qui nous contraint à développer des stratégies originales au résultat incertain,
enfin, le mode « désengagé », où l’absence de contrainte environnementale nous rend susceptibles de nous livrer à une activité autonome, de « vagabondage mental » (le fameux voyage) qui consiste à tripoter des idées, ressasser le passé, envisager l’avenir, etc.
Depuis les travaux pionniers du neurologue Marcus Raichle, nous savons que ce troisième mode, considéré comme un mode « par défaut », dans lequel le sujet bascule lorsqu’il n’a rien à faire (ni exploiter ni explorer), repose sur un réseau cérébral impliquant les territoires frontaux et pariétaux.
Or, le shifting repose sur un désengagement du réel, et la réalisation d’un voyage mental « contrôlé », où le sujet maîtrise, en partie au moins, le cours de son imagerie mentale.
Une étude expérimentale menée chez le rat, publiée en 2023 dans la revue Science, montre que le voyage mental peut être suivi littéralement à la trace chez l’animal.
Dans cette expérience, le rat est placé sur une sphère mobile sur laquelle il se déplace dans toutes les directions. Ces déplacements sont reportés dans un environnement virtuel qui lui est présenté sur un écran placé devant lui, de sorte qu’il peut se promener à son gré dans un labyrinthe numérique, à la recherche d’une récompense délivrée lorsqu’il atteint son but.
Ce faisant, les activités des neurones de l’hippocampe, appelés « place cells » (« cellules de lieu ») parce qu’ils codent la situation de l’animal dans l’espace, sont enregistrées afin de constituer une cartographie neuronale de ses déplacements. À l’aide de ces enregistrements, et à force de répétitions des essais, les chercheurs peuvent identifier l’endroit où se trouve l’animal dans le labyrinthe.
Et c’est là que la prouesse expérimentale réside : les chercheurs débranchent la connexion de la molette de déplacement à l’environnement virtuel et connectent, à la place, l’activité des neurones hippocampiques. Ainsi, le labyrinthe dans lequel le rat se déplace n’est plus liée à ses déplacements effectifs mais au plan cérébral qu’il est en train de suivre ! Et ça marche : le rat parvient à sa destination (virtuelle) et reçoit sa récompense (réelle). En somme, il ne se déplace que « dans sa tête », et non pas dans un environnement. Il réalise parfaitement un voyage mental.
Une autre expérimentation, plus récente encore, menée chez l’animal, a permis de cibler le commutateur qui permet de basculer d’une tâche vers un désengagement de l’environnement. Des souris dont les différentes populations de neurones du noyau du raphé médian, dans le tronc cérébral, sont influencées par le dispositif expérimental peuvent basculer d’un mode à l’autre sous l’effet de l’une des trois populations (neurones à GABA, glutamate et sérotonine), correspondant aux trois catégories décrites plus haut : exploitation, exploration et désengagement.
Ainsi, la suppression de l’activité des neurones sérotoninergiques du noyau du raphé médian permet le désengagement. L’activation ou l’inhibition de l’une des trois populations de neurones permet de basculer d’un mode à l’autre. Le shifting exploite probablement ces propriétés spécifiques, tout en développant une certaine expertise du désengagement, lorsque, tout au moins, le contexte le permet.
Mais pratiquer le voyage mental et désengager facilement ne doit pas suffire à faire l’expérience d’un shifting satisfaisant, il faut aussi, et c’est sans doute le point le plus critique, parvenir à suspendre son incrédulité. Celle-ci agit comme une sorte de « filtre de réalité », consistant à détecter les irrégularités de notre expérience mentale pour distinguer ce qui relève de la perception de ce qui appartient à notre propre fantaisie.
Nous pouvons tous imaginer des éléphants roses et les classer correctement dans les produits de cette imagination. Durant le sommeil, les structures qui assurent ce discernement entre fantaisie et réalité (le cortex orbitofrontal et le gyrus cingulaire antérieur) ont une activité qui est suffisamment inactivée pour que nous puissions adhérer au contenu de nos rêves, en dépit de leur caractère fantastique.
Au cours de l’hypnose, ces processus de critique de la réalité sont également mis au repos, de sorte que nous pouvons adhérer à des représentations erronées (par exemple, mon bras est paralysé). Il est vraisemblable qu’un tel processus, comme le suggèrent les méthodes proposées pour faciliter le shifting, et qui sont évocatrices d’une forme d’autohypnose, soit à l’œuvre pour que le sujet adhère au contenu de son voyage.
La pratique du « shifting » consiste donc à exploiter une propriété générale, propre à l’humain et à de nombreux animaux probablement, qui est de pouvoir s’abstraire du réel pour se projeter dans un monde imaginaire, réalisant un voyage mental. Nous commençons à connaître les opérateurs cérébraux de cette expérience, mais son contenu subjectif reste hors de portée : c’est bien ce qui fait toute sa magie.
Laurent Vercueil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.