29.06.2025 à 08:30
Jodie L. Rummer, Professor of Marine Biology, James Cook University
Joel Gayford, PhD Candidate, Department of Marine Biology, James Cook University
Vous avez peut-être déjà vu cette scène dans votre documentaire animalier préféré. Le prédateur surgit brutalement de sa cachette, gueule grande ouverte, et sa proie… se fige soudain. Elle semble morte. Cette réponse de figement – appelée « immobilité tonique » – peut sauver la vie de certains animaux. Les opossums sont célèbres pour leur capacité à « faire le mort » afin d’échapper aux prédateurs. Il en va de même pour les lapins, les lézards, les serpents et même certains insectes.
Mais que se passe-t-il quand un requin agit ainsi ?
Dans notre dernière étude, nous avons exploré ce comportement étrange chez les requins, les raies et leurs proches parents. Chez ce groupe, l’immobilité tonique est déclenchée lorsque l’animal est retourné sur le dos : il cesse de bouger, ses muscles se relâchent et il entre dans un état proche de la transe. Certains scientifiques utilisent même cette réaction pour manipuler certains requins en toute sécurité.
Mais pourquoi cela se produit-il ? Et ce comportement aide-t-il réellement ces prédateurs marins à survivre ?
Bien que ce phénomène soit largement documenté dans le règne animal, les causes de l’immobilité tonique restent obscures – surtout dans l’océan. On considère généralement qu’il s’agit d’un mécanisme de défense contre les prédateurs. Mais aucune preuve ne vient appuyer cette hypothèse chez les requins, et d’autres théories existent.
Nous avons testé 13 espèces de requins, de raies et une chimère – un parent du requin souvent appelé « requin fantôme » – pour voir si elles entraient en immobilité tonique lorsqu’on les retournait délicatement sous l’eau.
Sept espèces se sont figées. Nous avons ensuite analysé ces résultats à l’aide d’outils d’analyse évolutive pour retracer ce comportement sur plusieurs centaines de millions d’années d’histoire des requins.
Alors, pourquoi certains requins se figent-ils ?
Trois grandes hypothèses sont avancées pour expliquer l’immobilité tonique chez les requins :
Une stratégie anti-prédateur – « faire le mort » pour éviter d’être mangé.
Un rôle reproductif – certains mâles retournent les femelles lors de l’accouplement, donc l’immobilité pourrait réduire leur résistance.
Une réponse à une surcharge sensorielle – une sorte d’arrêt réflexe en cas de stimulation extrême.
Mais nos résultats ne confirment aucune de ces explications.
Il n’existe pas de preuve solide que les requins tirent un avantage du figement en cas d’attaque. En réalité, des prédateurs modernes, comme les orques, exploitent cette réaction en retournant les requins pour les immobiliser, avant d’arracher le foie riche en nutriments – une stratégie mortelle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’hypothèse reproductive est aussi peu convaincante. L’immobilité tonique ne varie pas selon le sexe, et rester immobile pourrait même rendre les femelles plus vulnérables à des accouplements forcés ou nocifs.
Quant à la théorie de la surcharge sensorielle, elle reste non testée et non vérifiée. Nous proposons donc une explication plus simple : l’immobilité tonique chez les requins est probablement une relique de l’évolution.
Notre analyse suggère que l’immobilité tonique est un trait « plésiomorphe » – c’est-à-dire ancestral –, qui était probablement présent chez les requins, les raies et les chimères anciens. Mais au fil de l’évolution, de nombreuses espèces ont perdu ce comportement.
En fait, nous avons découvert que cette capacité avait été perdue au moins cinq fois indépendamment dans différents groupes. Ce qui soulève une question : pourquoi ?
Dans certains environnements, ce comportement pourrait être une très mauvaise idée. Les petits requins de récif et les raies vivant sur le fond marin se faufilent souvent dans des crevasses étroites des récifs coralliens complexes pour se nourrir ou se reposer. Se figer dans un tel contexte pourrait les coincer – ou pire. Perdre ce comportement aurait donc pu être un avantage dans ces lignées.
Que faut-il en conclure ?
Plutôt qu’une tactique de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un « bagage évolutif » – un comportement qui a jadis servi, mais qui persiste aujourd’hui chez certaines espèces simplement parce qu’il ne cause pas assez de tort pour être éliminé par la sélection naturelle.
Un bon rappel que tous les traits observés dans la nature ne sont pas adaptatifs. Certains ne sont que les bizarreries de l’histoire évolutive.
Notre travail remet en question des idées reçues sur le comportement des requins, et éclaire les histoires évolutives cachées qui se déroulent encore dans les profondeurs de l’océan. La prochaine fois que vous entendrez parler d’un requin qui « fait le mort », souvenez-vous : ce n’est peut-être qu’un réflexe musculaire hérité d’un temps très ancien.
Jodie L. Rummer reçoit des financements de l’Australian Research Council. Elle est affiliée à l’Australian Coral Reef Society, dont elle est la présidente.
Joel Gayford reçoit des financements du Northcote Trust.
25.06.2025 à 17:04
Mônica Macedo-Rouet, Professeure des universités en psychologie de l'éducation, CY Cergy Paris Université
La fin de l’année universitaire est un moment propice à la réflexion sur les usages de l’intelligence artificielle (IA) dans les travaux académiques. C’est le moment où les enseignants-chercheurs évaluent les écrits des étudiants. Les réclamations qui s’ensuivent nous donnent l’occasion de discuter avec eux de leur rapport à la lecture, aux sources d’information et à la connaissance.
Si peu d’étudiants savent que ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour leur scolarité, il convient de décider comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants.
Je lis les écrits d’étudiants en Master depuis plus de vingt ans. Cette année, j’ai constaté une augmentation massive du nombre de travaux qui comportaient des passages entiers stylistiquement proches des textes produits par l’IA générative. J’ai passé de nombreuses heures à scruter les rapports du logiciel Compilatio (un outil conçu au départ pour lutter contre le plagiat, progressivement adapté à l’IA), à vérifier l’authenticité des références bibliographiques, à faire des recherches en ligne et parfois même dans des ouvrages imprimés, afin de savoir si mes étudiants avaient rédigé eux-mêmes leurs textes.
En effet, à l’heure actuelle, aucun outil ne permet de déterminer avec certitude si un texte a été produit par l’IA générative. Parmi les cas suspects, j’ai décelé des citations à des auteurs et des références bibliographiques introuvables sur le Net ou à la bibliothèque universitaire. Ces occurrences connues sous le nom d’« hallucinations » justifiaient pleinement une demande d’explications à mes étudiants. Leurs réponses m’ont laissée perplexe.
Si les étudiants ont majoritairement reconnu avoir utilisé l’IA, ils ne voyaient pas où était le problème. Tous m’ont envoyé les articles qu’ils avaient « lu » et « traité » dans le cadre de leur travail. Ils ont justifié l’utilisation de l’IA générative comme un moyen de « reformuler [leurs] propos », « structurer [leurs] idées », « améliorer la syntaxe », « illustrer les idées de chaque auteur », « gagner du temps plutôt que de retourner dans chaque article », ou encore « faire la bibliographie à [leur] place ». Tout cela leur paraissait tout à fait normal et acceptable.
Plus grave pour moi, dont le métier est d’éduquer à l’évaluation de l’information, quand je leur ai demandé pourquoi le nom d’un auteur ou le titre d’une revue cité dans leur texte étaient différents de ceux qui figuraient dans la première page de l’article qu’ils m’avaient transmis, il y a eu un haussement d’épaules.
D’où venait leur perception que la citation des sources était un détail dans la rédaction d’un écrit sur un sujet de recherche ?
L’attitude des étudiants, faite d’un mélange de surprise (certes possiblement feinte) et de frustration vient, à mon avis, du bouleversement apporté par l’IA générative au statut des sources d’information dans les textes.
Dans un texte scientifique, le rôle des sources d’information est fondamental. La source correspond à l’ensemble des paramètres qui renseignent le lecteur sur l’origine de l’information, tels que l’auteur, la date de publication, ou le média. Elle donne des indications sur l’affiliation institutionnelle et disciplinaire d’un auteur, le processus éditorial préalable à la publication d’une information, et d’autres indices qui permettent d’interpréter les propos et d’en juger la fiabilité.
Or, si les chercheurs s’appuient constamment sur ces critères pour évaluer la crédibilité d’un texte, c’est l’objet d’un processus d’apprentissage pour les étudiants. Dans un article précurseur sur le sujet, Wineburg a comparé le raisonnement d’historiens et d’élèves de terminale sur un ensemble de documents à propos d’un évènement historique controversé. La source était le premier critère utilisé par les historiens pour évaluer la pertinence et la fiabilité d’un document, alors qu’il n’apparaissait qu’en troisième position pour les lycéens, qui se focalisaient davantage sur le contenu et la lisibilité des textes. Ces résultats ont été répliqués dans de nombreuses études.
Récemment, tout un chacun a pu mesurer leur importance dans le contexte de la diffusion des fausses informations sur la Covid-19. Sans la source, la crédibilité d’une information scientifique peut difficilement être évaluée.
Dans les textes générés par l’IA, le rôle des sources est sensiblement différent.
À la base de cette technologie, il y a bien un corpus de sources gigantesque qui permet à des modèles statistiques du langage d’apprendre et de générer des textes cohérents et vraisemblablement similaires aux textes produits par les humains.
Mais les sources ne servent que d’input durant l’entraînement et ne sont pas utilisées comme critère explicite de fiabilité lors de la génération d’une réponse. Le modèle prédit la suite la plus probable d’un texte, mot à mot, selon les régularités apprises, sans évaluer la véracité de l’information par rapport à des documents authentifiés.
À lire aussi : Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage
Ainsi, l’on peut se retrouver avec un texte généré par l’IA parfaitement cohérent et néanmoins erroné. Même lorsque l’on demande à ChatGPT de résumer un article scientifique, il est nécessaire de vérifier que les informations correspondent à celles de l’article original. Sans une vérification scrupuleuse des textes produits par l’IA, il y a un risque de reproduction d’informations imprécises ou incorrectes, et d’attribution de certaines idées à de faux auteurs, ce qui constitue une fraude passible de sanctions.
Les étudiants n’ont pas forcément l’impression de tricher lorsqu’ils utilisent l’IA comme une aide à la rédaction, car les textes générés par l’IA ne constituent pas un plagiat au sens propre. En France, le ministère de l’Enseignement supérieur et de la Recherche s’est prononcé sur ce sujet dans une réponse à la question d’un sénateur en 2023 (page 5289) :
« Les œuvres créées par des IA ne sont pas protégées en elles-mêmes sauf si elles reproduisent des œuvres de l’esprit au sens du code de la propriété intellectuelle[…][donc] recopier un texte produit par ChatGPT ne peut être sanctionné au regard des dispositions des articles L. 122-4 et L. 335-2 du code de la propriété intellectuelle. »
Cependant, la même réponse précise que :
« L’indication des sources est une obligation juridique, académique et éthique. D’un point de vue académique, notamment, elle doit permettre d’apprécier la valeur pédagogique du travail original réalisé par son auteur. Ne pas mentionner les sources pour faire sien un travail réalisé par autrui ou par une IA est, en conséquence, constitutif d’une fraude susceptible d’être poursuivie et sanctionnée, pour les usagers de l’enseignement supérieur, en application des dispositions des articles R. 811-1 et suivants du code de l’éducation. »
Autrement dit, le fait d’utiliser un texte généré par l’IA ne dispense pas l’étudiant de citer correctement ses sources. Les sanctions peuvent aller jusqu’à l’exclusion de l’université et le retrait du diplôme, et ce sans délai de prescription.
En somme, ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour la scolarité d’un étudiant, sans parler du fait que la simple copie d’un texte produit par l’IA ne garantit pas l’apprentissage. Car celui-ci requiert un traitement actif de l’information de la part de l’apprenant.
Chacun doit donc s’assurer que les sources utilisées dans son travail sont correctement citées, selon les normes bibliographiques et scientifiques en vigueur. Hélas, ces normes sont enseignées parfois trop brièvement ou superficiellement – quand elles le sont – dans les cours de méthodologie de la recherche à l’université.
Une première piste serait d’améliorer la détection des textes produits par l’IA.
Les logiciels de détection automatique deviennent de plus en plus performants dans cette tâche, mais les modèles d’IA générative s’améliorent également dans l’application de stratégies de paraphrase et « d’humanisation » des textes, qui rendent plus difficile la détection automatique. Par ailleurs, certains chercheurs s’évertuent à construire des modèles visant à empêcher directement la détection automatique des textes générés par l’IA.
À lire aussi : Peut-on détecter automatiquement les deepfakes ?
C’est donc un rapport de forces extrême et inégal qui est en train de se jouer et risque de se reproduire en permanence, rendant difficile la mise à disposition des enseignants d’outils performants de détection automatique.
Pour améliorer la détection des textes générés par l’IA, une étude non encore publiée, déposée dans la plateforme ArXiv, propose de faire appel à des experts de l’usage de l’IA. Les chercheurs ont en effet observé que ces experts sont capables d’utiliser plusieurs critères d’évaluation de manière flexible : « vocabulaire de l’IA », présence de structures syntaxiques et documentaires stéréotypées, absence de fautes orthographiques et grammaticales, entre autres. Ces résultats nécessitent évidemment d’être confirmés par une publication et répliqués, mais ils suggèrent qu’il peut être utile de former les enseignants à l’application de ces critères.
Au-delà de l’aspect purement « détectionnel » des textes, ce sont des connaissances sur la structure et la rhétorique des textes générés par l’IA qu’il convient d’expliciter dans le but de les intégrer dans la pédagogie universitaire.
L’IA peut aider les enseignants et les étudiants dans de nombreuses tâches, mais elle ne peut pas se substituer complètement au jugement humain. L’usage éthique de l’IA ne se résume pas à interdire certains procédés ni à promouvoir les compétences techniques des étudiants et des enseignants (par exemple, « Comment faire un bon prompt ? »). Elle va au-delà des aspects normatifs et techniques, et inclut les questions d’épistémologie, de connaissances documentaires, et de métacognition indispensables à toute démarche maîtrisée de recherche d’informations.
Je suis sûre que l’on gagnerait à avoir des discussions plus ouvertes avec les étudiants au sujet des usages de l’IA dans les travaux universitaires, ce que cela signifie pour eux et pour nous, enseignants et chercheurs, et comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants. Ce serait un débat au nom du savoir, de l’apprentissage et de la vérité, un débat dont notre université et notre démocratie ont tant besoin.
Mônica Macedo-Rouet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.06.2025 à 12:10
Jean-Pierre Dalmont, Professeur des Universités, spécialiste des guides d'ondes acoustiques et de la physique des instruments de musique, Le Mans Université
Pourquoi la musique sonne-t-elle « juste » ou « faux » et pourquoi seuls quelques élus après un travail forcené sont-ils capables de jouer ensemble et juste ? La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.
S’il arrive souvent qu’on perçoive dans diverses circonstances que certaines personnes, même seules, chantent faux, c’est parce qu’elles s’éloignent de façon très significative de l’échelle musicale attendue. Pour fixer les idées, si dans une mélodie, la note attendue est un La3 (le la au milieu du clavier) sa fréquence devrait être de l’ordre de 440 Hz, c’est-à-dire 440 oscillations par seconde.
Si elle dévie de plus de 10 Hz, elle sera suffisamment éloignée de l’attendu pour choquer les auditeurs qui connaissent la mélodie. Les échelles musicales ont une grande part d’arbitraire et leur perception relève donc de l’acquis.
Quelqu’un qui n’a aucune culture musicale ne sera en aucun cas choqué par ces déviations. D’ailleurs, les échelles musicales qui ne relèvent pas de notre culture telles que les échelles orientales ou les échelles en quart de tons nous paraissent fausses, car elles ne nous sont pas familières.
La justesse est donc une notion toute relative, et c’est lorsque l’on fait de la musique à plusieurs que celle-ci prend vraiment son sens. En effet, deux musiciens qui jouent ensemble doivent être « d’accord », c’est-à-dire que les notes qu’ils vont jouer ensemble doivent s’accorder. Et là, notre oreille est intraitable : si deux musiciens ne sont pas accordés, le résultat est extrêmement déplaisant, ça sonne faux. On sort donc du domaine de l’acquis pour rentrer dans celui de la physique.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
À quel phénomène cela tient-il ? La réponse à cette question est connue finalement depuis assez peu de temps au regard de l’histoire de la musique puisque c’est seulement au milieu du XIXe siècle qu’Hermann von Helmholtz donne une explication scientifique de la notion de dissonance, qu’il nomme « Rauhigkeit » (« rugosité »).
Il associe la notion de dissonance à la notion de battements. En effet, les mathématiques nous disent que, lorsqu’on superpose deux sons purs de même amplitude et de fréquences voisines, il en résulte un son unique dont la fréquence est leur moyenne et dont l’amplitude est modulée périodiquement par une fréquence égale à leur différence. Par exemple, si on superpose deux sons purs de même amplitude et de fréquences 439 Hz et 441 Hz, on obtient un son de 440 Hz qui s’éteint deux fois par seconde (2 Hz). C’est une sensation assez désagréable, car notre cerveau n’apprécie pas les événements répétés rapidement qui mobilisent trop son attention.
Hermann von Helmholtz a estimé subjectivement que la sensation était la plus désagréable pour des battements autour de 30 Hz. Quand cette fréquence augmente, la sensation de battement disparaît et la sensation désagréable avec.
Les choses se compliquent lorsqu’on superpose deux sons complexes. Un son complexe est un son périodique dont on sait, depuis Joseph Fourier, qu’il peut être décomposé en une somme de sons purs – les harmoniques –, dont les fréquences sont multiples de sa fréquence, dite fréquence fondamentale. Lorsqu’on superpose deux sons complexes, alors tous les harmoniques du premier son sont susceptibles de battre avec un voire plusieurs harmoniques du second. La probabilité pour que les deux sons sonnent bien ensemble est alors quasi nulle.
Les rares situations sans battement correspondent aux intervalles consonants : l’octave qui correspond à un rapport de fréquence égal à 2 exactement, la quinte qui correspond à un rapport 3/2, la quarte 4/3, la tierce majeure 5/4 et, à la limite, la tierce mineure 6/5.
Ces intervalles, si la note fondamentale n’est pas trop basse, ne créent pas de battements. Cela s'explique car de la superposition de deux sons d’un intervalle juste résulte un seul son, dont la fréquence fondamentale est la différence entre les deux. Ainsi un La3 à 440 Hz et un La4 à 880 Hz (octave) donnent un La3 de fréquence 440 Hz, mais avec un timbre différent. Un La3 à 440 Hz et un Mi4 à 660 Hz (quinte) donnent un La2 à 220 Hz. De même, un La3 à 440 Hz et un do#4 à 550 Hz (tierce majeure) donnent un La1 à 110 Hz.
Dans tous les cas, l’oreille ne perçoit pas de battements car ceux-ci sont trop rapides. Par contre, si on considère un La2 une octave plus bas à 220 Hz et un do#3 à 275 Hz (tierce majeure), on obtient un La1 à 55 Hz qui commence à être perçu comme rugueux. À cette hauteur, la tierce est presque dissonante. C’est sans doute pour cela qu’au Moyen Âge, la tierce majeure était rejetée, car considérée comme dissonante, sans parler de la tierce mineure. Ces deux intervalles sont d’ailleurs toujours considérés par les spécialistes comme des consonances imparfaites, par opposition à l’octave et la quinte qui sont des consonances parfaites.
Ces intervalles sont à la base de la musique occidentale puisqu’ils permettent de construire la gamme naturelle Ut (do) ré mi fa sol la, qui va permettre, en combinant différentes notes non conjointes, de définir les bases de l’harmonie musicale. Au fil du temps, les compositeurs et les auditeurs seront de plus en plus accommodants vis-à-vis de la justesse et, actuellement, sur un clavier numérique, seules les octaves sont rigoureusement justes.
Finalement, de nos jours, chanter juste, c’est chanter pas trop faux !
Jean-Pierre Dalmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
25.06.2025 à 12:09
Guillaume Cabanac, Professor of Computer Science, Institut de Recherche en Informatique de Toulouse
Guillaume Cabanac est professeur d’informatique à l’Université de Toulouse et membre de l’Institut universitaire de France. Avec son « collège invisible », constitué d’une centaine de personnes, des scientifiques mais aussi de nombreux amateurs, il pourchasse les fraudes scientifiques. Son travail de dépollution lui a valu d’être distingué par la revue Nature comme un des dix scientifiques de l’année 2021. Benoît Tonson, chef de rubrique Science à The Conversation France, l'a rencontré.
The Conversation : Comment avez-vous démarré votre travail d’enquêteur scientifique ?
Guillaume Cabanac : La littérature scientifique est mon objet de recherche, car c’est un corpus passionnant à étudier, riche en données de différentes natures : du texte, des liens de citations, des dates, des affiliations, des personnes… Par ailleurs, ce corpus est évolutif puisque, tous les jours, 15 000 nouveaux articles scientifiques sont publiés de par le monde.
Initialement, ce n’était pas la fraude qui m’intéressait, mais plutôt l’erreur en science. J’ai entrepris de traquer les méconduites en sciences au contact de Cyril Labbé, professeur d’informatique à l’Université de Grenoble-Alpes. J’avais lu un de ses articles qui avait fait grand bruit. Dans cet article, il racontait qu’il avait créé un faux profil sur Google Scholar (le moteur de recherche spécialisé de Google qui permet de rechercher des articles scientifiques). Un certain Ike Antkare (comprendre “I can’t care”, ou « Je ne peux pas m’en soucier » en français). Avec ce profil, il avait créé de faux articles à l’aide d’un logiciel SCIgen de génération de texte, un ancêtre des IA génératives si l’on veut. C’est un programme qui se fonde sur une grammaire probabiliste hors contexte. Cela signifie qu’il perd la mémoire d’une phrase à l’autre. Il va écrire des phrases, qui prises indépendamment ont du sens, mais qui, collectivement, produiront un texte qui n’aura aucune logique. Par exemple, la première phrase serait « Aujourd’hui, il fait beau », la deuxième « Les diamants sont des pierres précieuses » et la troisième « Mon chien s’appelle Médor ».
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Cyril Labbé a donc utilisé ce logiciel pour générer des articles qu’il a réussi à faire indexer par Google Scholar. Chaque faux article citait les autres. Or, le calcul du nombre de citations d’un auteur dans d’autres articles est un indicateur bibliométrique très populaire. Cela montre que d’autres scientifiques se sont appuyés sur ces travaux. Après avoir publié un nombre suffisant d’articles bidon, Ike Antkare est devenu l’un des scientifiques les plus cités au monde, dépassant même Einstein ! J’ai rencontré Cyril dans un congrès en 2015, et c’est comme ça que notre aventure a commencé.
Tout s’est accéléré pendant le Covid-19 : il me disait qu’il trouvait chez de très grands éditeurs scientifiques comme l’Institute of Electrical and Electronics Engineers (IEEE) ou Springer Nature des articles bidon générés par les mêmes méthodes que celles employées par Ike Antkare. À cette époque, il avait un détecteur qui travaillait article par article. J’ai proposé d’automatiser ce procédé pour pouvoir analyser la littérature scientifique dans son intégralité, c’est-à-dire 130 millions d’articles scientifiques publiés à ce jour. Le logiciel prototype que j’ai développé montrait qu’on peut interroger les centaines de millions d’articles à la recherche de ces articles bidon en quelques heures seulement. On en a trouvé quelques centaines en 2020. On s’est mis en chasse. D’abord, de ces articles contenant du texte qui n’avait aucun sens, puis on a continué à identifier d’autres types de fraudes. Nous avons créé d’autres détecteurs, intégrés au sein du Problematic Paper Screener et on dénombre aujourd’hui des dizaines de milliers d’articles frauduleux !
Vous avez découvert un type de fraude qui a fait particulièrement réagir : les expressions torturées…
G. C. : En menant nos recherches, on a découvert que des auteurs commettaient des plagiats un peu particuliers. Ce n’étaient pas des textes copiés/collés, car les maisons d’édition ont des détecteurs de plagiats directs. Ça ne passerait pas et l’astuce, si l’on peut dire, consiste à faire du copier/paraphraser/coller. Paraphraser revient à remplacer un mot dans le texte d’origine par un synonyme. Il existe des sites en ligne qui peuvent le faire très rapidement.
Il y a un hic : ces synonymes viennent plutôt de la littérature et ne font aucun sens dans un contexte scientifique. Prenons le mot « cancer » par exemple : le logiciel paraphraseur le remplacera par un synonyme tel que « péril ». En effet, lorsque l’on parle de cancer de la société, on peut aussi utiliser le terme de péril. En revanche, écrire « péril de la poitrine » au lieu de « cancer du sein » dans un article biomédical est tout simplement inacceptable.
De façon choquante et inattendue, nous avons trouvé des milliers d’expressions torturées dans les plus grosses maisons d’édition : Elsevier, Springer, Wiley, IEEE… Cela a fait scandale, car la communauté scientifique pensait qu’il y avait, d’un côté, des « prédateurs », qui tiennent des revues publiant n’importe quoi contre rémunération, et, de l’autre, les maisons d’édition prestigieuses, qui assurent un processus éditorial sérieux avec relecture par les pairs.
Et je ne parle pas d’un cas isolé : dans la revue scientifique Microprocessors and Microsystems dans laquelle nous avons découvert les premières expressions torturées, plus de 400 articles étaient concernés, avec des remplacements du type « intelligence artificielle » qui devient « conscience contrefaite » ou « rapport signal sur bruit » torturé en « rapport signal sur clameur ».
Ceci questionne la qualité de l’évaluation par les pairs. C’est ce qui a vraiment scandalisé la communauté scientifique et a discrédité ces maisons d’édition qui ont dû reconnaître les faits.
Ce que nous critiquons en creux, c’est la massification du nombre de revues scientifiques dont le nombre a doublé en vingt ans et pour lesquelles la main d’œuvre nécessaire et gratuite s’est raréfiée. En effet, ce travail d’évaluation par les pairs impliquant deux ou trois experts mondiaux du sujet par soumission d’article à évaluer n’est pas rémunéré.
Les maisons d’édition nous assurent qu’un processus rigoureux d’évaluation par les pairs a été mis en place, comme attendu. Personnellement je me demande si l’évaluateur n’était pas endormi lorsqu’il a recommandé la publication d’une article truffé d’expressions torturées. Ce n’est pas sérieux.
Cela dit, je n’ai aucun moyen d’estimer la qualité de l’évaluation, ni même si elle a été réalisée : la plupart des maisons d’édition ne rendent pas publics les rapports d’évaluation.
À lire aussi : Découverte d’une fraude scientifique pour booster artificiellement l’impact des recherches
Vous avez donc démarré ce travail à deux, mais aujourd’hui vous coordonnez une vraie communauté, comment s’est-elle mise en place ?
G. C. : Sur les expressions torturées, on a d’abord été rejoint par Alexander Magazinov, un mathématicien et informaticien russe qui se distrait en devenant détective scientifique. En parallèle, je lisais tous les signalements postés par la communauté scientifique sur PubPeer (un site web qui permet à quiconque de formuler des commentaires à propos d’articles scientifiques publiés, pour notamment signaler des soupçons de manquements à l’intégrité scientifique) et j’y ai repéré des personnes très actives, signalant des fraudes. Je les ai contactées et on a commencé à se regrouper, mobilisant une plateforme en ligne que j’ai nommée « le collège invisible ». C’était un clin d’œil à un concept de sociologie des sciences, pour rappeler que des scientifiques de diverses disciplines peuvent partager des centres d’intérêt tout en étant affiliés à des institutions différentes, réparties de par le monde. Mon initiative a fédéré au sujet de la fraude en sciences. Le groupe a grossi progressivement et inclut désormais 120 personnes qui échangent, partagent et coordonnent leurs actions quotidiennement. C’est une communauté internationale constituée de scientifiques, de professionnels de l’édition et d’amateurs de tous types de milieux.
Vous avez détecté de nombreuses fraudes mais, finalement, pourquoi les chercheurs trichent-ils ?
G. C. : Il est bon ici de rappeler que le problème est systémique, et pas individuel. En effet, les individus sont en prise avec des systèmes qui les régissent et qui imposent par le haut une performance difficile voire impossible à atteindre. Prenons l’exemple d’un chirurgien en Chine qui travaille dans un hôpital. On va lui demander d’opérer, d’enseigner mais aussi de faire des découvertes, pas de la recherche mais des découvertes, qui devront être publiées dans certaines revues prestigieuses. Ils ont un quota d’articles à publier.
Quand cela devient trop dur de mener toutes ces activités en parallèle, on peut être tentés de se tourner vers ce que l’on appelle les papers mills (« usine ou moulins à articles »). Ce sont des entreprises qui proposent, moyennant finance, de produire des articles plus ou moins bidon sur lesquels vous pouvez mettre votre nom et les publier.
Il y a beaucoup d’autres exemples. En Italie, devenir éditeur invité d’un numéro spécial d’une revue est apprécié dans les évaluations individuelles de chercheurs. L’offre en face vient de MDPI, une maison d’édition identifiée dans la « zone grise » de l’édition. Elle permet à des chercheurs de créer un numéro spécial et d’accepter des articles à leur discrétion. Vu les critiques émises sur PubPeer et le nombre délirant de numéros spéciaux par an, qui peut atteindre les 3 000, on est en droit de questionner ce modèle éditorial, dans les pas du Cirad, de l’Inrae et de l’Inria.
Cela satisfait tout le monde : la maison d’édition touche quelques milliers d’euros par article, l’éditeur invité valide son objectif… Cependant, la science est affaiblie alors qu’on se doit de la soutenir et de la défendre. Publier des articles fragiles pose de réels problèmes : le mur des connaissances est en péril lorsque des briques de connaissances ne sont pas robustes.
Avec vos travaux, certains articles sont rétractés, mais qu’en est-il des articles qui citent des travaux dépubliés ?
G. C. : Je me suis posé la question en 2023 : quels sont les articles scientifiques qui possèdent dans leur bibliographie des articles rétractés ? Normalement, on devrait observer un effet domino, des rétractations en chaîne : les articles s’appuyant sur des connaissances remises en question devraient être également réévalués. Pour explorer cette problématique, j’ai rajouté un détecteur dans le Problematic Paper Screener afin de traquer les colosses aux pieds d’argile : les articles de bonne facture qui citent dans leur bibliographie un ou plusieurs articles désormais rétractés.
Parmi les 130 millions d’articles scientifiques parus dans le monde, il y en a plus de 800 000 qui citent au moins un article rétracté. Certains articles citent même jusqu’à 50 ou 60 publications rétractées ! Il convient de vérifier de nouveau la fiabilité de ces articles et de les rétracter si nécessaire. Ceci est d’autant plus crucial pour les publications concernant des sujets peu étudiés, tels que les maladies rares.
Force est de constater que les maisons d’éditions, responsables de la diffusion des articles acceptés, ne monitorent pas leur catalogue et ne mandatent pas ces réévaluations auprès de comités d’experts. Il serait pourtant techniquement possible de traquer toute rétractation de référence citée dans les articles publiés par une maison d’édition – ce que fait le Problematic Paper Screener, toutes maisons d’édition scientifique confondues.
Comment expliquer qu’une publication scientifique puisse contenir autant de citations d’articles rétractés ?
G. C. : Je parlais tout à l’heure des paper mills. Une des stratégies de ces entreprises est de vendre des articles bidon qu’ils fabriquent eux-mêmes, puis ils proposent à leurs clients de se citer les uns et les autres pour augmenter artificiellement l’impact de leurs publications.
L’idée est simple : si vous avez 50 clients, vous dites à chacun de citer un des autres, cela peut aller très vite et plus il y aura de clients, plus il sera difficile de traquer cette entente illicite, nommée « cartel de citations » dans la littérature. Notre travail de mise en lumière des articles bidon permet donc également d’identifier les clients potentiels des paper mills.
Comment voyez-vous la situation évoluer ? Votre travail permet-il une diminution du nombre de publications scientifiques problématiques ?
G. C. : Ce n’est pas évident, tout dépend de la fraude dont on parle. Par exemple, aujourd’hui, il ne faudrait pas être très malin pour utiliser la technique des expressions torturées, car nos détecteurs les repèrent aisément. Les gros éditeurs scientifiques (soutenant notamment le STM Integrity Hub les ont adoptés pour filtrer le flot des manuscrits soumis par les chercheurs. Le plagiat par synonymes diminue drastiquement.
Actuellement, l’IA générative est le problème majeur, car les textes générés par machine sont impossibles à différencier automatiquement des textes générés par les humains, sans avoir recours à des experts. Les utilisateurs d’IA générative trouvent des astuces pour déjouer les logiciels de détection d’IA générative. On ne peut donc pas quantifier cette fraude. Faute d’étude rigoureuse de ce phénomène, on ne peut parler que de « sentiment ».
Les scientifiques que je côtoie me disent suspecter des passages générés par IA dans les manuscrits qu’ils expertisent. Les ruptures de style ou les exposés trop superficiels sont révélateurs. Par ailleurs, quand ils reçoivent des rapports d’évaluation de leurs pairs (en grande majorité anonymes) à propos de leurs propres travaux, il peut arriver qu’ils aient le sentiment d’être floués : ces critiques ont-elles été générées par une machine ou rédigées par un expert ? Ce questionnement qui sème le trouble et la confiance est, selon moi, à la limite de rompre.
En parlant de confiance, on peut déplorer une sorte de méfiance généralisée vis-à-vis de la science, n’avez-vous pas peur que vos travaux alimentent celle-ci ?
G. C. : L’alternative serait de détecter ces fraudes « en interne » et de ne pas en parler, d’en faire un secret, de le garder pour nous, entre chercheurs. Mais c’est une très mauvaise idée puisqu’au contraire, quand on est scientifique, on se doit d’être transparent, de publier ce qu’on trouve et d’informer le public. Il ne faut pas se voiler la face, les chercheur forment un groupe social comme les autres : comme partout, il y a des tricheurs et des arnaqueurs.
Selon moi, tous les acteurs impliqués se doivent de faire la lumière sur ces fraudes : maisons d’édition, institutions, financeurs et chercheurs. Le but est d’en parler le plus possible pour sensibiliser nos collègues et les étudiants que l’on forme.
Guillaume Cabanac a reçu des financements du Conseil Européen de la Recherche (ERC), de l'Institut Universitaire de France (IUF) et de la Fondation Pierre Fabre. Il a conçu et administre le Problematic Paper Screener qui exploite des données fournies par Digital Science et PubPeer à titre gracieux.
25.06.2025 à 12:09
Gaël Buldgen, Docteur en astrophysique, spécialiste de physique solaire et stellaire, Université de Liège
Le Soleil est le seul lieu où la fusion nucléaire est stable dans notre système solaire. Cela fait des décennies que les scientifiques tentent de comprendre sa physique. Où en est-on aujourd’hui ?
Notre Soleil représente à lui seul plus de 99 % de la masse du système solaire. Sans lui, la vie sur Terre serait impossible. Au delà de fournir de l’énergie à la Terre, on peut aussi le considérer comme un laboratoire de physique fondamentale. L’étude de sa structure interne et de sa modélisation théorique permet de mettre en évidence les limitations de nos connaissances. Depuis bientôt 4,6 milliards d’années, notre Soleil est le seul lieu de réaction de fusion nucléaire stable du système solaire. C’est en effet par la fusion d’hydrogène en hélium qu’il produit son énergie et qu’il continuera à le faire pour encore 5 milliards d’années.
Depuis plusieurs décennies, des groupes de recherche de par le monde s’attachent à mieux révéler l’intérieur de notre étoile et à étudier les phénomènes physiques agissant dans ces conditions extrêmes. Les expertises sont variées, allant de physiciens et astrophysiciens européens, dont je fais partie, Russes et Japonais, en passant par des spécialistes de physique nucléaire du Los Alamos National Laboratory ou du CEA de Paris-Saclay. Ensemble, nous tentons de percer les mystères de notre étoile en révélant sa face cachée, sa structure interne. Nos outils comptent des observations astronomiques effectuées tant depuis le sol que l’espace, mais aussi des simulations numériques avancées de la structure et de l’évolution du Soleil, appelées simplement « modèles solaires » (au sens de modèle physique, tels les modèles utilisés en géophysique pour décrire la Terre).
Elles constituent la base théorique sur laquelle sont élaborés les modèles utilisés pour étudier toutes les autres étoiles de l’Univers. Notre Soleil sert de calibrateur pour la physique stellaire. En conséquence, changer de modèle solaire, c’est changer de point de référence pour toutes les étoiles.
Calculer un modèle solaire est un exercice d’équilibre pour un astrophysicien. Il faut bien choisir ses éléments constitutifs. On pense immédiatement à sa composition chimique (en masse : 73 % d’hydrogène, 25 % d’hélium et 2 % d’éléments plus lourds ; en nombre d’atomes : 92 % d’hydrogène, 7,8 % d’hélium, 0,2 % d’éléments plus lourds). Cependant, d’autres choix entrent en jeu. Il s’agit de modéliser l’ensemble des phénomènes physiques se produisant en son sein. Tous ces ingrédients constituent des éléments de physique fondamentale définissant notre vision du Soleil, son « modèle standard ». La première définition d’un modèle standard pour notre Soleil date de 1980 environ et est due à John Bahcall, un astrophysicien américain.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le modèle standard solaire a connu de grands succès, survivant à la « crise des neutrinos solaires ». Cette crise résultait de la détection de trois fois moins de neutrinos que prévu théoriquement. La divergence fut expliquée par une révision de la physique des neutrinos (récompensée par les prix Nobel en 2002 et 2015).
Le modèle standard solaire s’en trouva renforcé, devenant un élément clé de la théorie de l’évolution stellaire. Dans les années 2000, la révision de la composition chimique solaire a entraîné une nouvelle crise. Ces mesures furent réalisées à l’aide d’observations spectroscopiques, permettant d’identifier chaque élément chimique présent dans l’atmosphère solaire. L’amélioration des mesures spectroscopiques et des techniques d’analyse était à l’origine de cette révision.
Ces travaux, confirmés par la suite, menaient à une réduction de 30 % de l’abondance en masse de carbone et d’oxygène. Ce changement détruisit l’accord existant du modèle standard avec les mesures de neutrinos et les contraintes issues de l’étude des oscillations solaires, appelée héliosismologie. Comme en sismologie terrestre, qui se sert des ondes traversant notre planète pour en étudier l’intérieur, l’héliosismologie utilise les ondes acoustiques se propageant dans le Soleil pour en mesurer les conditions internes. Grâce aux oscillations solaires, on connaissait précisément certaines propriétés comme la masse volumique dans 95 % de l’intérieur de notre étoile.
La révision de la composition chimique du Soleil fut mal accueillie, car elle invalidait le modèle standard. Plusieurs groupes voulurent maintenir les valeurs du XXe siècle. La polémique enfla et de récentes mesures indépendantes par héliosismologie confirmèrent la réduction en oxygène, tout en maintenant les écarts observés dans les régions centrales.
L’explication des désaccords des modèles théoriques avec l’intérieur du Soleil est à chercher ailleurs… C’est dans ce contexte de débat intense que mon travail a commencé, il y a dix ans, durant ma thèse de doctorat. Je choisis d’adapter des outils numériques à ma disposition pour étudier la structure interne du Soleil. Ce qui devait être un petit détour au cours de ma thèse est devenu un projet majeur, en raison du regain d’intérêt pour l’héliosismologie et pour les modèles solaires.
Un modèle solaire ne se limite pas à sa composition chimique. Il fait intervenir une série d’éléments devant suivre les avancées de physique théorique et expérimentale. Nous savons que le Soleil produit son énergie par fusion d’hydrogène en hélium, les observations des neutrinos solaires l’ont confirmé de manière irréfutable. Cependant, la vitesse de ces réactions reste sujette à de petites corrections. Ces révisions sont minimes, mais le degré de précision quasi chirurgical avec lequel nous étudions le Soleil les rend significatives.
Un autre ingrédient clé des modèles solaires est l’opacité de la matière solaire, liée à sa capacité à absorber l’énergie du rayonnement. Comme dit plus haut, le Soleil génère son énergie par fusion nucléaire en son cœur. Cette énergie, avant de nous parvenir sur Terre, doit être transportée de l’intérieur du Soleil vers son atmosphère. Dans 98 % de sa masse, c’est le rayonnement à haute énergie (rayons X) qui s’en charge. Ainsi, si l’on change la « transparence » du milieu solaire, on change totalement la structure interne de notre étoile.
Dans le cas solaire, nous parlons de conditions extrêmes, quasi impossibles à reproduire sur Terre (températures de plusieurs millions de degrés, densités élevées). L’opacité a toujours joué un rôle clef en physique stellaire, ses révisions successives permirent de résoudre plusieurs crises par le passé. Chaque fois, les calculs théoriques avaient sous-estimé l’opacité. Rapidement, on envisagea qu’une nouvelle révision permettrait de « sauver » les modèles solaires. Dès 2009, les astrophysiciens s’attelèrent à estimer les modifications requises. Cependant, une des grandes difficultés résidait dans la connaissance de la composition chimique de l’intérieur solaire. En effet, notre étoile n’est pas statique. Au fil du temps, sa composition chimique évolue sous l’effet des réactions nucléaires au cœur et de la sédimentation. Ainsi, un atome d’oxygène à la surface du Soleil, plus lourd que son environnement, « tombera » vers les couches profondes, changeant les propriétés du plasma.
Ces questions sont liées à notre connaissance des conditions physiques internes du Soleil et donc à notre capacité à les mesurer.
La précision atteinte sur la masse volumique du milieu solaire est phénoménale, inférieure au centième de pourcent. Ces mesures très précises m’ont permis de développer des méthodes de détermination directe de l’absorption du plasma solaire, l’opacité tant recherchée.
Elles ont montré que l’opacité des modèles solaires actuels est inférieure aux mesures héliosismiques d’environ 10 %. Ces résultats ont confirmé indépendamment les mesures des Sandia National Laboratories (États-Unis), où des physiciens ont reproduit des conditions quasi solaires et mesuré la capacité d’absorption du plasma. En 2015, ces mesures avaient déjà montré des écarts significatifs entre théorie et expérience. Dix ans plus tard, elles sont confirmées par de nouvelles campagnes et des mesures indépendantes. La balle est désormais dans le camp des théoriciens, afin d’expliquer des différences préoccupantes qui révèlent les limites de notre compréhension de la physique dans les conditions extrêmes de notre étoile.
L’enjeu dépasse toutefois de loin notre vision de l’intérieur du Soleil. Depuis le début du XXIe siècle, de nombreuses missions sont consacrées à l’étude des étoiles et de leurs exoplanètes. Les techniques d’héliosismologie se sont naturellement exportées aux autres étoiles, menant au développement exponentiel de l’astérosismologie.
Pas moins de quatre missions majeures furent consacrées à cette discipline : CoRoT, Kepler, TESS et bientôt PLATO. Toutes visent à déterminer précisément les masses, rayons et âges des étoiles de notre galaxie, les modèles stellaires étant essentiels pour cartographier l’évolution de l’Univers. Cependant, toutes ces considérations sur la datation des objets cosmiques nous ramènent à l’infiniment proche et petit. Donner l’âge d’une étoile requiert de comprendre précisément les conditions physiques régissant son évolution.
Ainsi, savoir comment l’énergie est transportée en son sein est primordial pour comprendre comment, de sa naissance à sa mort, l’étoile évolue. L’opacité, régie par des interactions à l’échelle de l’Angström (10-10 m), est donc essentielle pour modéliser l’évolution des astres, à commencer par notre Soleil.
Gaël Buldgen a reçu des financements du FNRS (Fonds National de la Recherche Scientifique, Belgique) et du Fonds National Suisse (FNS).
25.06.2025 à 12:09
Andrew Hacket-Pain, Senior Lecturer, School of Environmental Sciences, University of Liverpool
Le solstice d’été semble jouer un rôle d’aide-mémoire arboricole. Les températures autour de cette période affectent le nombre de graines produites par les arbres.
Depuis la Préhistoire, les humains célèbrent le solstice d’été. Mais nous ne sommes pas la seule espèce à avoir remarqué que le 21 juin est un moment particulier. Des études montrent que c’est aussi un moment important pour les plantes.
Ainsi, des études récentes (dont une des miennes) suggèrent que les arbres puissent utiliser le jour le plus long de l’année comme un marqueur clé de leurs cycles de croissance et de reproduction. Comme si le solstice était un aide-mémoire arboricole.
Par exemple, les arbres qui poussent dans des régions froides ralentissent la création de nouvelles cellules de bois aux environs du solstice et concentrent leur énergie à finir des cellules déjà formées mais encore incomplètes. Ce qui permettrait d’avoir le temps d’achever la construction des cellules avant l’arrivée de l’hiver – dont les températures glaciales endommagent les cellules incomplètes, les rendant inutiles pour le transport de l’eau l’année suivante.
Il semble également que les arbres profitent du solstice pour préparer de l’automne, avec la « sénescence » de leurs feuilles. La sénescence permet à l’arbre de réabsorber les nutriments essentiels présents dans les feuilles avant qu’elles ne tombent. Ce processus doit arriver au bon moment : si la sénescence est trop précoce, la perte de feuille réduit la photosynthèse (et donc l’acquisition d’énergie qui sert à la croissance de l’arbre entier). Si la sénescence est trop tardive, les gelées d’automne détruisent les feuilles encore vertes, ce qui fait perdre à l’arbre les précieux nutriments qu’il y avait stockés.
Ainsi, des observations satellites des forêts et des expériences contrôlées dans des serres montrent que des températures élevées juste avant le solstice ont tendance à avancer le brunissement des feuilles à l’automne
À l’inverse, des températures élevées juste après le solstice semblent ralentir le processus de sénescence, ce qui allonge la période de transition entre les feuilles vertes et les feuilles entièrement brunes. Ce réglage fin permettrait aux arbres de prolonger la période de photosynthèse les années où les températures restent plus élevées et de ne pas manquer ces conditions favorables.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ces observations et leurs interprétations font cependant débat parmi les scientifiques.
En effet, du point de vue de l’évolution, le solstice ne serait peut-être pas le meilleur marqueur temporel de ces transitions dans le cycle annuel des arbres. Par exemple, dans les forêts du Grand Nord, les feuilles n’apparaissent pas avant le début du mois de juin, quelques jours seulement avant le solstice, et la saison de croissance peut se prolonger jusqu’en octobre. Dans ces forêts où certains arbres viennent à peine d’entamer leur croissance pour l’année, utiliser le solstice pour amorcer le processus de réduction progressive des activités ne semble guère avoir de sens.
Par contre, il existe un consensus plus large sur l’utilisation du solstice par les plantes pour synchroniser leur reproduction.
Chez de nombreuses plantes, en particulier les arbres des latitudes moyennes tempérées, le nombre de graines produites varie considérablement d’une année à l’autre, ce que l’on appelle le masting. Par exemple, un grand hêtre européen peut produire des centaines de milliers de graines lors d’une année exceptionnelle (une « masting year ») et renoncer totalement à la reproduction d’autres années.
La réduction de la production de graines par les hêtres, qui leur permet d’augmenter l’efficacité de leur reproduction, se fait souvent à l’échelle continentale, et par étapes.
Un petit papillon, Cydia fagiglandana (ou le carpocapse des faînes, en français – le faîne est le fruit du hêtre), pond ses œufs dans les fleurs de hêtre. Lorsque les larves éclosent, elles mangent et détruisent les graines en développement. L’alternance entre des années fastes en faînes et années de disette contribue à protéger les populations de hêtres de ces papillons.
Au Royaume-Uni par exemple, les hêtres perdent moins de 5 % de leurs graines à cause de Cydia. En effet, les cycles affament les papillons et réduisent leur population, qui attend les années fastes. Si les arbres sont désynchronisés dans ces cycles de forte et faible production de fruits, la perte de graines peut atteindre plus de 40 %.
Nous savons depuis des dizaines d’années que les années d’abondance se produisent après un été particulièrement chaud. En effet, les températures élevées augmentent la formation des bourgeons floraux, ce qui entraîne généralement une plus grande récolte de graines à l’automne.
Par contre, nous ne savons pas pourquoi ou comment les hêtres de toute l’Europe semblent utiliser la même fenêtre saisonnière (fin juin-début juillet) pour déterminer leur production de graines, quel que soit l’endroit où ils poussent en Europe. Comment un hêtre peut-il connaître la date ?
En 2024, en étudiant des dizaines de forêts à travers l’Europe, mon équipe a montré que ces arbres utilisent le solstice comme marqueur saisonnier : dès que les jours commencent à raccourcir après le solstice, les hêtres de toute l’Europe semblent percevoir simultanément la température.
Partout où les températures sont supérieures à la moyenne dans les semaines qui suivent le solstice, on peut s’attendre à une forte production de faînes l’année suivante, tandis que les conditions météorologiques des semaines précédant le solstice ne semblent pas avoir d’importance.
Comme le montrent les cartes météorologiques, les périodes de chaleur et de fraîcheur ont tendance à se produire simultanément sur de vastes zones.
Ceci permet aux hêtres de maximiser la synchronisation de leur reproduction, que ce soit en investissant dans une forte production (températures chaudes) ou en renonçant à la reproduction pendant un an (températures basses). L’utilisation d’un repère fixe comme le solstice est la clé de cette synchronisation et des avantages qui en découlent.
Désormais, nous collaborons avec une douzaine d’autres groupes européens pour tester cet effet sur différents sites, en manipulant la température de branches de hêtre avant et après le solstice. Les recherches en cours semblent indiquer que les gènes de floraison s’activent au moment du solstice d’été.
Enfin, des études sur les rythmes circadiens des plantes montrent que celles-ci possèdent des mécanismes moléculaires permettant de détecter de minuscules changements dans la durée du jour, et d’y répondre – ce serait la base de cette extraordinaire échelle de reproduction synchronisée.
Si le temps reste chaud au cours du mois qui vient, les hêtres de votre région produiront sans doute beaucoup de faînes à l’automne prochain – et il est bien probable que ce soit le cas dans le centre et le nord de l’Europe.
Andrew Hacket-Pain a reçu des financements de UK Research and Innovation, du Department for Environment, Food & Rural Affairs et du British Council.
25.06.2025 à 12:08
Niousha Shahidi, Full professor, data analysis, EDC Paris Business School
Un contrat avec franchise incite à ne pas prendre de risques – une manière pour les assurances de se garantir que leurs clients ne se reposent pas complètement sur elles. Ce sont les maths qui le disent.
Nous avons tous un contrat d’assurance contre des risques précis : assurance auto, assurance multirisque habitation (45,9 millions de contrats en 2023 en France)… Vous avez signé ce contrat d’assurance afin de vous couvrir des frais en cas de sinistre. Ce qui est inhabituel, avec les assurances, c’est que vous achetez « un produit » (contrat), mais vous le récupérez (les indemnités) que si vous subissez un sinistre. De plus, il est courant que l’assureur vous propose un contrat « avec franchise », c’est-à-dire qu’en cas de sinistre, une partie fixe des frais reste à votre charge.
Pourquoi les contrats « avec franchise » sont-ils si répandus ? Il existe plusieurs réponses.
Des chercheurs se sont intéressés au contrat optimal en modélisant mathématiquement la relation entre l’assureur et l’assuré. On dit qu’un contrat est optimal s’il n’existe pas d’autre contrat qui profiterait davantage à l’un (l’assuré ou l’assureur) sans détériorer la situation de l’autre.
Pour trouver le contrat qui maximise à la fois les préférences de l’assuré et de l’assureur, il faut résoudre un problème d’« optimisation ».
L’assureur est considéré comme neutre au risque, c’est-à-dire qu’il n’a pas de préférence entre une richesse dite « aléatoire » (impactée par un risque subi, mais incertain) et une richesse certaine égale à l’espérance de la richesse aléatoire.
Par contre, l’assuré est considéré comme risquophobe, c’est-à-dire que dans l’exemple précédent, il préfère la richesse certaine à la richesse aléatoire.
Dans ce contexte, des travaux de recherche ont montré que le contrat avec franchise est optimal. En effet, ce type de contrat permet à l’assuré risquophobe de réduire le risque puisqu’en cas de sinistre, il aura juste à payer la franchise. Si la franchise est nulle, le contrat neutralise alors complètement le risque puisqu’en payant juste la prime, l’assuré recevra une indemnité égale au dommage subi (potentiellement avec un plafond, mentionné dans le contrat) : on dit qu’il aura une richesse certaine.
Tous les quinze ours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
D’un point de vue pratique, la mise en place d’un contrat avec franchise représente plusieurs avantages pour l’assureur.
Tout d’abord, ce type de contrat réduit ses frais de gestion car les petites pertes (en dessous du montant de la franchise) ne sont plus traitées.
L’assuré est alors incité à faire un effort afin d’éviter les petites pertes qui resteraient à sa charge, ce qui permet de réduire le phénomène d’« aléa moral ». Ce dernier décrit une situation d’asymétrie d’information entre l’assureur et l’assuré. En effet, une fois le contrat d’assurance signé, l’assurance ne peut pas observer l’effort consenti par l’assuré pour éviter un risque (par exemple la vigilance au volant). Non seulement la mise en place de la franchise permet à l’assureur d’obliger l’assuré à faire un effort, elle lui permet aussi de détourner les individus à haut risque, qui cherchent souvent un contrat plus généreux que les individus à bas risques et qui sont prêts à payer une prime (même chère) afin de ne pas subir les petits risques.
Un autre problème d’asymétrie de l’information, connu sous le nom d’« antisélection » (ou sélection adverse) est alors soulevé. Dans ce contexte, l’assureur ne connaît pas le type (haut/bas risque) de l’assuré. Un individu à haut risque peut acheter un contrat destiné à un individu bas risque.
Si l’assureur ne propose que des contrats sans franchise, il risque d’avoir trop d’assurés à haut risque. L’assureur devra alors statistiquement faire face à un nombre important de sinistres (l’assureur par manque d’information se trouve avec les hauts risques alors qu’il aurait souhaité l’inverse), ce qui aboutit souvent à un déséquilibre entre le montant des primes perçues et le montant des indemnités versées. Il est donc important pour l’assureur de diversifier ses produits en proposant des contrats avec ou sans franchise.
Un contrat avec franchise est donc bien un optimum : l’assuré comme l’assureur a intérêt à éviter les petits sinistres. La franchise permet à l’assureur de faire des économies et en même temps de sélectionner ses clients. Le contrat choisi révèle votre « appétence au risque », que les assureurs classifient en types haut et bas risque !
Niousha Shahidi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.06.2025 à 17:30
Éric Collet, Professeur de Physique, expert en sciences des matériaux, Université de Rennes
Une nouvelle étude montre qu’il est possible de geler les positions des atomes qui constituent un matériau…, en le chauffant.
Ce concept ouvre la voie au développement de dispositifs innovants, tels que des capteurs piézoélectriques capables de fonctionner à température ambiante, sans avoir besoin de recourir à de très basses températures.
Lorsque l’eau liquide passe en dessous de 0 °C, les molécules d’eau gèlent leurs positions les unes par rapport aux autres, pour former de la glace. Dans l’immense majorité des matériaux, les atomes et les molécules gèlent quand la température baisse.
Mais, contrairement à l’intuition, nous avons découvert un matériau présentant un changement d’état magnétique, pour lequel des mesures de cristallographie par rayons X ont démontré que les positions des atomes gèlent… en chauffant !
Ceci nous a d’abord surpris, mais nous avons trouvé une explication, que nous détaillons dans notre récente publication.
Les positions des atomes se gèlent habituellement quand on abaisse sa température – c’est le cas, par exemple, quand l’eau gèle au congélateur ou encore quand du sucre fondu cristallise en refroidissant.
Ce phénomène existe aussi à l’état solide dans de nombreux matériaux. Même dans un solide, les atomes vibrent entre des positions équivalentes par symétrie (par exemple entre gauche et droite) – ils ne se figent dans une de ces positions que quand la température diminue.
Pour certains matériaux, comme le sucre ou les piézoélectriques utilisés sur les sonars ou capteurs pour l’échographie, les atomes sont gelés à température ambiante. Mais pour de nombreux matériaux moléculaires, ceci ne se produit qu’à -20 °C, -100 °C ou -200 °C, par exemple.
Le changement de symétrie associé à la mise en ordre des atomes qui se gèlent suivant certaines positions est illustré sur la figure ci-dessus.
À droite, les atomes sont désordonnés et vibrent à haute température. Il y a ici une symétrie miroir et les positions des atomes d’un côté du miroir sont équivalentes à celles de l’autre côté.
À basse température, les positions des atomes se gèlent. Par exemple, les atomes rouges s’approchent d’atomes bleus à droite et s’éloignent des atomes bleus à gauche. Ceci modifie certaines propriétés physiques de matériaux et, par exemple, des charges (+ et -) apparaissent en surface.
Si on appuie sur un tel matériau, les charges changent, et c’est ce qui est à la base des capteurs piézoélectriques, par exemple. Une simple pression, comme un son, peut moduler ces charges et être alors détectée. C’est ainsi que fonctionnent les dispositifs pour l’échographie ou les sonars dans les sous-marins, par exemple : l’onde sonore qui est réfléchie sur un objet est détectée par le capteur piézoélectrique au travers d’un signal électrique.
À lire aussi : Des aimants légers et performants grâce à la chimie moléculaire
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
D’autres matériaux sont aussi ferroélectriques. Il est alors possible de retourner les positions atomiques avec un champ électrique et donc d’inverser les charges. C’est ce dispositif qui est à la base des mémoires RAM ferroélectriques.
Malheureusement, pour de nombreux matériaux moléculaires, ce type de propriétés liées au changement de symétrie n’apparaissent qu’à basse température. Il faut alors refroidir les matériaux pour obtenir la propriété, parfois à -200 °C. Cette contrainte limite donc l’application de ces matériaux, car de nombreuses applications nécessitent des dispositifs fonctionnant à température ambiante, parce qu’il est trop complexe et coûteux d’intégrer des dispositifs de refroidissement.
Dans la majorité des matériaux, les atomes qui les constituent se mettent en mouvement avec l’élévation de température. Cette agitation thermique crée un désordre, qui se mesure par une grandeur thermodynamique appelée « entropie ».
Les lois de la physique stipulent que plus la température augmente, plus le désordre et donc l’entropie augmentent. Ainsi, le désordre est plus grand à haute température, avec les atomes agités, qu’à basse température où les atomes sont figés. À l’inverse, à basse température, le désordre et, donc, l’entropie diminuent, ainsi que la symétrie.
Dans notre étude, nous observons pourtant le phénomène inverse : le matériau que nous étudions est plus symétrique en dessous de -40 °C qu’au-dessus. En d’autres termes, les molécules sont sur des positions désordonnées droite/gauche à basse température et ordonnées à haute température et donc, ici, à température ambiante.
Ce phénomène est rendu possible grâce au « désordre électronique ».
En effet, dans le matériau étudié, les états à haute et basse température correspondent aussi à deux états magnétiques.
À basse température, le matériau est dans l’état appelé « diamagnétique », c’est-à-dire que les électrons vivent en couple et que leurs spins (leurs moments magnétiques) sont opposés – c’est une contrainte imposée par la mécanique quantique. Ceci correspond à un état électronique ordonné, car il n’y a qu’une configuration possible : un spin vers le haut, l’autre vers le bas.
À haute température, au contraire, le matériau est dans l’état « paramagnétique », c’est-à-dire que les électrons sont célibataires et leurs spins peuvent s’orienter librement, ce qui donne lieu à plusieurs configurations (quelques-uns vers le haut, les autres vers le bas, comme illustré par les flèches rouges sur la figure ci-dessus).
En chauffant, nous favorisons le désordre « électronique » (le grand nombre de configurations des spins). Ce désordre entre en compétition avec la mise en ordre des positions des atomes.
Le gain en entropie lié au désordre électronique (qui passe d’une seule configuration à cinq) est alors plus grand que le coût en entropie lié à la mise en ordre des atomes (de deux configurations à une seule). D’autres phénomènes viennent aussi contribuer à cette augmentation d’entropie.
Au final, l’entropie globale, incluant désordre atomique et électronique, augmente donc bien avec la température comme l’imposent les lois de la physique. C’est donc le désordre des électrons qui autorise de geler les positions des molécules.
Par conséquent, ce nouveau concept, combinant désordre électronique et ordre atomique, ouvre la voie au développement de nouveaux matériaux pour des dispositifs tels que des capteurs, des mémoires, des transducteurs ou des actionneurs fonctionnant à température ambiante, sans recours aux basses températures.
Eric Collet est membre de l'Institut Universitaire de France et de l'Academia Europaea
19.06.2025 à 18:07
Eugénie Hebrard, Directrice de recherche, Institut de recherche pour le développement (IRD)
Une nouvelle étude retrace l’évolution du virus de la panachure jaune du riz et explique comment le commerce, les échanges de semences et même la Première Guerre mondiale lui ont permis de se répandre à travers tout le continent africain. Ce virus peut causer entre 20 % et 80 % de pertes de rendement.
Le virus de la panachure jaune du riz est une menace majeure pour la production rizicole en Afrique. Cette maladie, présente dans plus de 25 pays, peut causer entre 20 % et 80 % de pertes de rendement selon les épidémies. Retracer l’histoire de la dispersion du virus en Afrique permet de comprendre les causes et les modalités de l’émergence de la maladie, aide à mettre en place des stratégies de contrôle et contribue à évaluer les risques de propagation vers d’autres régions du monde. Par une approche multidisciplinaire intégrant données épidémiologiques, virologiques, agronomiques et historiques, nous avons exploré les liens entre l’histoire de la culture du riz en Afrique de l’Est et la propagation de ce virus à large échelle depuis la seconde moitié du XIXe siècle. Ces travaux sur le RYMV (l’acronyme de son nom anglais : Rice yellow mottle virus) viennent d’être publiés dans la revue scientifique PLoS Pathogens.
Il s’agit de l’aboutissement d’un travail de longue haleine basé sur des collectes de feuilles symptomatiques sur le terrain, parfois difficile d’accès, menées par plusieurs équipes de virologues, co-auteurs de cet article. La détection du virus par diagnostic immunologique en laboratoire puis sa caractérisation par séquençage ont abouti à une collection représentative de 50 génomes entiers et de 335 séquences du gène de la capside virale (la coque protéique qui protège le génome) prélevés entre 1966 et 2020 sur deux millions de kilomètres carrés (Burundi, Éthiopie, Kenya, Malawi, Ouganda, République du Congo, Rwanda, Tanzanie). Une partie de ces échantillons avaient été caractérisée préalablement et conservée dans des herbiers et des congélateurs. C’est une collaboration multilatérale internationale basée sur la mise en commun de tous les résultats qui a abouti à cette étude globale de la phylodynamique du RYMV, c’est-à-dire de la dispersion et de l’évolution des différentes lignées génétiques virales. Les approches bio-informatiques utilisées pour analyser et visualiser les résultats ont nécessité des développements méthodologiques mis au point par plusieurs co-auteurs spécialistes de ces disciplines, et qui sont transposables à tous types de virus. Les résultats obtenus avec les séquences virales partielles ou entières convergent vers un même scénario. C’est en intégrant les connaissances des agronomes et des historiens, également co-auteurs de cet article que nous avons pu interpréter cette « remontée dans le temps ».
Beaucoup de virus de plantes sont transmis exclusivement par des insectes vecteurs dit piqueurs-suceurs comme les pucerons, qui en se nourrissant sur une plante malade, acquièrent le virus puis les réinjectent dans des plantes saines. Le RYMV, lui, est transmis par de multiples moyens, notamment :
grâce à l’intervention de coléoptères, insectes broyeurs qui n’ont pas de système d’injection de salive mais qui peuvent tout de même se contaminer mécaniquement en s’alimentant et qui se déplacent à courte distance ;
par des vaches ou d'autres animaux qui en broutant dans les champs de riz produisent des déjections dans lesquelles le virus reste infectieux ;
de manière passive par contact des feuilles ou des racines de plantes infectées où il se multiplie fortement.
Ces différents modes de transmission et de propagation du RYMV ne sont pas efficaces pour la transmission à longue distance. Or, le virus est présent sur tout le continent africain. C’est ce paradoxe que nous avons cherché à résoudre.
Le RYMV est apparu au milieu du XIXe siècle dans l’Eastern Arc Montains en Tanzanie, où la riziculture sur brûlis était pratiquée. Plusieurs contaminations du riz cultivé à partir de graminées sauvages infectées ont eu lieu, aboutissant à l’émergence des trois lignées S4, S5 et S6 du virus. Le RYMV a ensuite été rapidement introduit dans la grande vallée rizicole voisine de Kilombero et dans la région de Morogoro. Les graines récoltées, bien qu’indemnes de virus, sont contaminées par des débris de plantes, elles-mêmes infectées, qui subsistent dans les sacs de riz après le battage et le vannage du riz. Le RYMV, très stable, est en mesure de subsister ainsi pendant plusieurs années. La dispersion à longue distance du RYMV en Afrique de l’Est a été marquée par trois évènements majeurs, cohérents avec : l’introduction du riz le long des routes de commerce caravanier des côtes de l’Océan Indien en direction du lac Victoria dans la seconde moitié du XIXe siècle (I), avec les échanges de semences du lac Victoria vers le nord de l’Éthiopie dans la seconde moitié du XXe siècle (II) et, de manière inattendue, avec le transport du riz à la fin de la Première Guerre mondiale comme aliment de base des troupes, de la vallée du Kilombero vers le sud du lac Malawi (III). Les échanges de semences expliquent également la dispersion du virus de l’Afrique de l’Est vers l’Afrique de l’Ouest à la fin du XIXe siècle, et vers Madagascar à la fin du XXe siècle. En somme, la dispersion du RYMV est associée à un large spectre d’activités humaines, certaines insoupçonnées. Par conséquent, le RYMV, bien que non transmis directement par la semence ou par des insectes vecteurs très mobiles comme beaucoup de virus de plantes, a une grande capacité de dissémination. Ses paramètres de dispersion, estimés à partir de nos reconstructions dites phylogéographiques, sont similaires à ceux des virus zoonotiques très mobiles, des virus infectant les animaux qui peuvent créer des épidémies chez l’homme comme la rage.
En comparant la dispersion des trois lignées majeures présentes en Afrique de l’Est grâce aux nouveaux outils bio-informatiques développés dans cette étude, nous avons observé des dynamiques virales très contrastées. La lignée S4 a connu le plus grand succès épidémique avec une propagation précoce, rapide et généralisée. Elle a été découverte au sud du lac Victoria dans la seconde moitié du XIXe siècle puis a circulé autour du lac Victoria avant de se disperser vers le nord en Éthiopie, puis vers le sud au Malawi et enfin vers l’ouest en République du Congo, au Rwanda et au Burundi. La lignée S6, au contraire, est restée confinée à la vallée du Kilombero et dans la région de Morogoro pendant plusieurs décennies. Au cours des dernières décennies seulement, elle s’est propagée vers l’est de la Tanzanie, le sud-ouest du Kenya et les îles de Zanzibar et de Pemba. De façon inexpliquée, la lignée S5 est restée confinée dans la vallée du Kilombero et dans la région de Morogoro. Au cours des dernières décennies, on note un ralentissement des taux de dispersion de la plupart des souches virales issues des lignées S4 et S6 que nous n’expliquons pas encore.
En conclusion, notre étude multi-partenariale et multidisciplinaire met en évidence l’importance de la transmission humaine d’agents pathogènes de plantes et souligne le risque de transmission du RYMV, ainsi que celle d’autres phytovirus d’Afrique, vers d’autres continents. Nous étudions maintenant la dispersion et l’évolution du RYMV en Afrique de l’Ouest, en particulier de celle de lignées virales particulièrement préoccupantes car capables de se multiplier sur les variétés de riz, considérées résistantes au virus, compromettant ainsi les stratégies de contrôle.
Eugénie Hebrard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.06.2025 à 16:14
Julia Henning, PhD Candidate in Feline Behaviour, School of Animal and Veterinary Science, University of Adelaide
Vous êtes-vous déjà demandé si votre chat était capable de vous reconnaître ? Et si oui, comment peut-il vous distinguer des autres humains ?
Des recherches ont montré que seulement 54 % des chats pouvaient reconnaître les humains à partir de leur seul visage. Une étude publiée le 28 mai 2025 dans la revue scientifique PLOS One suggère que les chats sont capables de nous reconnaître à notre odeur. Cette faculté n’avait jamais été étudiée et nous renseigne sur les liens qui se tissent entre les humains et les chats.
Les chats ont souvent la triste réputation d’être distants ou indifférents aux personnes qui les entourent, mais un nombre croissant d’études démontre le contraire. On sait désormais que les chats apprennent les noms que nous leur donnons et que la plupart d’entre eux préfèrent l’interaction sociale humaine à la nourriture, un choix que même les chiens ont du mal à faire.
L’étude, réalisée par Yutaro Miyairi et ses collègues de l’Université d’agriculture de Tokyo, a porté sur la capacité de 30 chats à différencier leur propriétaire d’une personne inconnue en se basant uniquement sur l’odeur.
Pour cette étude, les scientifiques ont présenté à des chats des tubes en plastique contenant des cotons-tiges frottés sous l’aisselle, derrière l’oreille et entre les orteils soit de leur propriétaire, soit d’un humain qu’ils n’avaient jamais rencontré. À titre de contrôle, on a présenté des cotons-tiges vierges (donc sans odeur humaine) aux chats.
Les résultats ont montré que les chats ont passé plus de temps à renifler les tubes contenant l’odeur d’humains qu’ils ne connaissaient pas, par rapport au temps passé à renifler ceux de leur propriétaire ou du contrôle.
Un temps de reniflage plus court suggère que lorsque les chats rencontrent l’odeur de leur maître, ils la reconnaissent rapidement et passent à autre chose. En revanche, lorsqu’il s’agit de prélèvements effectués sur une personne inconnue, le chat renifle plus longtemps, utilisant son sens aigu de l’odorat pour recueillir des informations sur l’odeur.
Des comportements similaires ont déjà été observés : les chatons reniflent l’odeur des femelles inconnues plus longtemps que celle de leur propre mère, et les chats adultes reniflent les fèces des chats inconnus plus longtemps que celles des chats de leur groupe social. Les résultats de cette nouvelle étude pourraient indiquer que nous faisons également partie de ce groupe social.
L’étude a également révélé que les chats avaient tendance à renifler les odeurs familières avec leur narine gauche, tandis que les odeurs inconnues étaient plus souvent reniflées avec leur narine droite. Lorsque les chats se familiarisent avec une odeur après l’avoir reniflée pendant un certain temps, ils passent de la narine droite à la narine gauche.
Cette tendance a également été observée chez les chiens. Selon les recherches actuelles, cette préférence pour les narines pourrait indiquer que les chats traitent et classent les nouvelles informations en utilisant l’hémisphère droit de leur cerveau, tandis que l’hémisphère gauche prend le relais lorsqu’une réponse habituelle est établie.
Les chats s’appuient sur leur odorat pour recueillir des informations sur le monde qui les entoure et pour communiquer.
L’échange d’odeurs (par le frottement des joues et le toilettage mutuel) permet de reconnaître les chats du même cercle social, de maintenir la cohésion du groupe et d’identifier les chats non familiers ou d’autres animaux qui peuvent représenter une menace ou doivent être évités.
Les odeurs familières peuvent également être réconfortantes pour les chats, réduisant le stress et l’anxiété et créant un sentiment de sécurité dans leur environnement.
Lorsque vous revenez de vacances, si vous remarquez que votre chat est distant et agit comme si vous étiez un étranger, c’est peut-être parce que vous sentez une odeur étrangère. Essayez de prendre une douche en utilisant vos cosmétiques habituels et mettez vos vêtements de tous les jours. Les odeurs familières devraient vous aider, vous et votre chat, à retrouver plus rapidement votre ancienne dynamique.
N’oubliez pas que si votre chat passe beaucoup de temps à renifler quelqu’un d’autre, ce n’est pas parce qu’il le préfère. C’est probablement parce que votre odeur lui est familière et qu’elle lui demande moins de travail. Au lieu d’être nouvelle et intéressante, elle peut avoir un effet encore plus positif : aider votre chat à se sentir chez lui.
Julia Henning ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.06.2025 à 12:23
Matthew Shindell, Curator, Planetary Science and Exploration, Smithsonian Institution
Au croisement de la science et de l’imagination, l’astronome Camille Flammarion a utilisé cartes, romans et rêveries pour faire de Mars un miroir des aspirations humaines et un horizon possible pour l’avenir.
À l’heure de l’exploration robotique ambitieuse de Mars, et alors qu’une mission habitée vers la planète rouge semble de plus en plus probable, il est difficile d’imaginer qu’elle ait autrefois été un monde mystérieux, et inaccessible. Avant l’invention de la fusée, les astronomes qui souhaitaient explorer Mars au-delà de ce que leur permettait le télescope devaient recourir à leur imagination.
En tant qu’historien de l’espace et auteur du livre For the Love of Mars : A Human History of the Red Planet, je m’efforce de comprendre comment, à différentes époques et en divers endroits, les humains ont imaginé Mars.
La seconde moitié du XIXe siècle est une période particulièrement fascinante pour cela. À ce moment-là, Mars semblait prêt à livrer une partie de ses mystères. Les astronomes en apprenaient davantage sur la planète rouge, mais ils n’avaient toujours pas suffisamment d’informations pour savoir si elle abritait la vie – et si oui, de quel type.
Grâce à des télescopes plus puissants et à de nouvelles techniques d’impression, les astronomes commencèrent à appliquer les outils de la cartographie géographique pour créer les premières cartes détaillées de la surface de Mars, y inscrivant continents et mers, et parfois des formes que l’on pensait dues à une activité biologique. Mais comme il était encore difficile d’observer réellement ces reliefs martiens, ces cartes variaient beaucoup selon les auteurs.
C’est dans ce contexte qu’un scientifique de renom, aussi vulgarisateur passionné, a mêlé science et imagination pour explorer les possibilités de la vie sur un autre monde.
Parmi ces penseurs imaginatifs, on trouve Camille Flammarion, astronome parisien. En 1892, il publia la Planète Mars, une œuvre de référence qui demeure à ce jour un bilan complet de l’observation martienne jusqu’à la fin du XIXe siècle. Il y résuma toute la littérature publiée sur Mars depuis Galilée et affirma avoir examiné 572 dessins de la planète pour y parvenir.
Comme beaucoup de ses contemporains, Flammarion pensait que Mars, un monde plus ancien que la Terre ayant traversé les mêmes étapes évolutives, devait être un monde vivant. Mais il affirmait aussi, contrairement à beaucoup, que Mars, bien qu’ayant des similitudes avec la Terre, était un monde radicalement différent.
Ce sont précisément ces différences qui le fascinaient. Toute forme de vie martienne, pensait-il, serait adaptée à des conditions propres à Mars – une idée qui inspira H. G. Wells dans la Guerre des mondes (1898).
Mais Flammarion reconnaissait aussi combien il était difficile de cerner ces différences : « La distance est trop grande, notre atmosphère trop dense, nos instruments trop imparfaits », écrivait-il. Aucune carte, selon lui, ne pouvait être prise à la lettre, car chacun voyait et dessinait Mars à sa manière.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
Face à cette incertitude, Flammarion adoptait une position agnostique dans la Planète Mars quant à la nature exacte de la vie martienne. Il envisageait toutefois que si une vie intelligente existait sur Mars, elle devait être plus ancienne que l’humanité, et donc plus avancée : une civilisation unifiée, pacifique, technologiquement développée – un avenir qu’il souhaitait aussi pour la Terre.
« On peut espérer, écrivait-il, que puisque le monde martien est plus ancien que le nôtre, ses habitants soient plus sages et plus évolués que nous. Sans doute l’esprit de paix anime-t-il ce monde voisin. »
Mais comme il le soulignait souvent : « Le Connu est une minuscule île au milieu de l’océan de l’Inconnu » – une idée qu’il défendait dans la soixantaine de livres qu’il a publiés au cours de sa vie. C’est justement cet inconnu qui le fascinait.
Certains historiens voient surtout en Flammarion un vulgarisateur plus qu’un scientifique rigoureux. Cela ne doit cependant pas diminuer ses mérites. Pour lui, la science n’était pas une méthode ou un corpus figé : elle était le cœur naissant d’une nouvelle philosophie. Il prenait très au sérieux son travail de vulgarisation, qu’il voyait comme un moyen de tourner les esprits vers les étoiles.
En l’absence d’observations fiables ou de communication avec d’hypothétiques Martiens, il était prématuré de spéculer sur leur apparence. Et pourtant, Flammarion le fit – non pas dans ses travaux scientifiques, mais à travers plusieurs romans publiés tout au long de sa carrière.
Dans ces œuvres, il se rendait sur Mars en imagination, et observait sa surface. Contrairement à Jules Verne, qui imaginait des voyages facilités par la technologie, Flammarion préférait des voyages de l’âme.
Convaincu que l’âme humaine pouvait, après la mort, voyager dans l’espace contrairement au corps physique, il mit en scène des récits de rêves ou de visites d’esprits défunts. Dans Uranie (1889), l’âme de Flammarion se rend sur Mars en songe. Là, il retrouve son ami défunt Georges Spero, réincarné en un être lumineux, ailé et doté de six membres.
« Les organismes ne sauraient être terrestres sur Mars, pas plus qu’ils ne peuvent être aériens au fond des mers », écrit-il.
Plus tard dans le roman, l’âme de Spero vient visiter Flammarion sur Terre. Il lui révèle que la civilisation martienne, aidée par une atmosphère plus fine favorable à l’astronomie, a fait d’immenses progrès scientifiques. Pour Flammarion, la pratique de l’astronomie avait permis à la société martienne de progresser, et il rêvait d’un destin similaire pour la Terre.
Dans l’univers qu’il imagine, les Martiens vivent dans un monde intellectuel, débarrassé de la guerre, de la faim et des malheurs terrestres. Un idéal inspiré par l’histoire douloureuse de la France, marquée par la guerre franco-prussienne et le siège de Paris.
Aujourd’hui, le Mars de Flammarion nous rappelle que rêver d’un avenir sur la planète rouge, c’est autant chercher à mieux nous comprendre nous-mêmes et à interroger nos aspirations collectives qu’à développer les technologies nécessaires pour y parvenir.
La vulgarisation scientifique était pour Flammarion un moyen d’aider ses semblables, les pieds sur Terre, à comprendre leur place dans l’univers. Ils pourraient un jour rejoindre les Martiens qu’il avait imaginés – des figures symboliques qui, pas plus que les cartes de Mars qu’il avait étudiées dans la Planète Mars, ne devaient être prises au pied de la lettre. Son univers représentait ce que la vie pourrait devenir, dans des conditions idéales.
Matthew Shindell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.06.2025 à 17:32
Michael A. Little, Distinguished Professor Emeritus of Anthropology, Binghamton University, State University of New York
Suffit-il de calculer l’espérance de vie maximale d’un humain pour deviner combien de temps mettrait l’humanité à disparaître si l’on arrêtait de se reproduire ? Pas si simple répond l’anthropologue américain Michael A. Little dans cet article à destination des plus jeunes.
Très peu de personnes vivent au-delà d’un siècle. Ainsi, si plus personne n’avait d’enfants, il ne resterait probablement plus d’humains sur Terre dans 100 ans. Mais avant cela, la population commencerait à diminuer, à mesure que les personnes âgées mourraient sans qu’aucune nouvelle naissance ne vienne les remplacer. Même si toutes les naissances cessaient soudainement, ce déclin serait au départ progressif.
Mais peu à peu, il n’y aurait plus assez de jeunes pour assurer les tâches essentielles, ce qui provoquerait un effondrement rapide des sociétés à travers le monde. Certains de ces bouleversements mettraient à mal notre capacité à produire de la nourriture, à fournir des soins de santé et à accomplir tout ce dont dépend notre quotidien. La nourriture se ferait rare, même s’il y avait moins de bouches à nourrir.
En tant que professeur d’anthropologie ayant consacré ma carrière à l’étude des comportements humains, de la biologie et des cultures, je reconnais volontiers que ce scénario n’aurait rien de réjouissant. À terme, la civilisation s’effondrerait. Il est probable qu’il ne resterait plus grand monde d’ici 70 ou 80 ans, plutôt que 100, en raison de la pénurie de nourriture, d’eau potable, de médicaments et de tout ce qui est aujourd’hui facilement accessible et indispensable à la survie.
Il faut bien reconnaître qu’un arrêt brutal des naissances est hautement improbable, sauf en cas de catastrophe mondiale. Un scénario possible, exploré par l’écrivain Kurt Vonnegut dans son roman Galápagos, serait celui d’une maladie hautement contagieuse rendant infertiles toutes les personnes en âge de procréer.
Autre scénario : une guerre nucléaire dont personne ne sortirait vivant – un thème traité dans de nombreux films et livres effrayants. Beaucoup de ces œuvres de science-fiction mettent en scène des voyages dans l’espace. D’autres tentent d’imaginer un futur terrestre, moins fantaisiste, où la reproduction devient difficile, entraînant un désespoir collectif et la perte de liberté pour celles et ceux encore capables d’avoir des enfants.
Deux de mes livres préférés sur ce thème sont La Servante écarlate de l’autrice canadienne Margaret Atwood, et Les Fils de l’homme de l’écrivaine britannique P.D. James. Ce sont des récits dystopiques marqués par la souffrance humaine et le désordre. Tous deux ont d’ailleurs été adaptés en séries télévisées ou en films.
Dans les années 1960 et 1970, beaucoup s’inquiétaient au contraire d’une surpopulation mondiale, synonyme d’autres types de catastrophes. Ces craintes ont elles aussi nourri de nombreuses œuvres dystopiques, au cinéma comme en littérature.
Un exemple : la série américaine « The Last Man on Earth », une comédie postapocalyptique qui imagine ce qui pourrait se passer après qu’un virus mortel ait décimé la majeure partie de l’humanité.
La population mondiale continue résolument de croître, même si le rythme de cette croissance a ralenti. Les experts qui étudient les dynamiques démographiques estiment que le nombre total d’habitants atteindra un pic de 10 milliards dans les années 2080, contre 8 milliards aujourd’hui et 4 milliards en 1974.
La population des États-Unis s’élève actuellement à 342 millions, soit environ 200 millions de plus qu’au moment de ma naissance dans les années 1930. C’est une population importante, mais ces chiffres pourraient progressivement diminuer, aux États-Unis comme ailleurs, si le nombre de décès dépasse celui des naissances.
En 2024, environ 3,6 millions de bébés sont nés aux États-Unis, contre 4,1 millions en 2004. Dans le même temps, environ 3,3 millions de personnes sont décédées en 2022, contre 2,4 millions vingt ans plus tôt.
À mesure que ces tendances évoluent, l’un des enjeux essentiels sera de maintenir un équilibre viable entre jeunes et personnes âgées. En effet, ce sont souvent les jeunes qui font tourner la société : ils mettent en œuvre les idées nouvelles et produisent les biens dont nous dépendons.
Par ailleurs, de nombreuses personnes âgées ont besoin d’aide pour les gestes du quotidien, comme préparer à manger ou s’habiller. Et un grand nombre d’emplois restent plus adaptés aux moins de 65 ans qu’à ceux ayant atteint l’âge habituel de la retraite (plus tardif aux États-Unis).
Dans de nombreux pays, les femmes ont aujourd’hui moins d’enfants au cours de leur vie fertile qu’autrefois. Cette baisse est particulièrement marquée dans certains pays comme l’Inde ou la Corée du Sud.
Le recul des naissances observé actuellement s’explique en grande partie par le choix de nombreuses personnes de ne pas avoir d’enfants, ou d’en avoir moins que leurs parents. Ce type de déclin démographique peut rester gérable grâce à l’immigration en provenance d’autres pays, mais des préoccupations culturelles et politiques freinent souvent cette solution.
Parallèlement, de plus en plus d’hommes rencontrent des problèmes de fertilité, ce qui rend leur capacité à avoir des enfants plus incertaine. Si cette tendance s’aggrave, elle pourrait accélérer fortement le déclin de la population.
Notre espèce, Homo sapiens, existe depuis au moins 200 000 ans. C’est une très longue période, mais comme tous les êtres vivants sur Terre, nous sommes exposés au risque d’extinction.
Prenons l’exemple des Néandertaliens, proches parents d’Homo sapiens. Ils sont apparus il y a au moins 400 000 ans. Nos ancêtres humains modernes ont cohabité un temps avec eux, mais les Néandertaliens ont progressivement décliné jusqu’à disparaître il y a environ 40 000 ans.
Certaines recherches suggèrent que les humains modernes se sont montrés plus efficaces que les Néandertaliens pour assurer leur subsistance et se reproduire. Homo sapiens aurait ainsi eu plus d’enfants, ce qui a favorisé sa survie.
Si notre espèce venait à disparaître, cela pourrait ouvrir la voie à d’autres animaux pour prospérer sur Terre. Mais ce serait aussi une immense perte, car toute la richesse des réalisations humaines – dans les arts, les sciences, la culture – serait anéantie.
À mon sens, nous devons prendre certaines mesures pour assurer notre avenir sur cette planète. Cela passe par la lutte contre le changement climatique, la prévention des conflits armés, mais aussi par une prise de conscience de l’importance de préserver la diversité des espèces animales et végétales, qui est essentielle à l’équilibre de la vie sur Terre, y compris pour notre propre survie.
Michael A. Little ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.06.2025 à 12:35
Kaitlin Cook, DECRA Fellow, Department of Nuclear Physics and Accelerator Applications, Australian National University
L’enrichissement de l’uranium est au cœur des tensions autour du programme nucléaire iranien. Cette technologie, indispensable pour produire de l’électricité, peut aussi permettre de fabriquer des armes atomiques si elle atteint des niveaux de concentration élevés.
En fin de semaine dernière, Israël a ciblé trois des principales installations nucléaires de l’Iran – Natanz, Ispahan et Fordo – tuant plusieurs scientifiques nucléaires iraniens. Ces sites sont fortement fortifiés et en grande partie souterrains, et les rapports divergent quant aux dégâts réellement causés.
Natanz et Fordo sont les centres d’enrichissement de l’uranium en Iran, tandis qu’Ispahan fournit les matières premières. Toute détérioration de ces installations pourrait donc limiter la capacité de l’Iran à produire des armes nucléaires. Mais qu’est-ce que l’enrichissement de l’uranium, et pourquoi cela suscite-t-il des inquiétudes ?
Pour comprendre ce que signifie « enrichir » de l’uranium, il faut d’abord connaître un peu les isotopes de l’uranium et le principe de la fission nucléaire.
Toute matière est composée d’atomes, eux-mêmes constitués de protons, de neutrons et d’électrons. Le nombre de protons détermine les propriétés chimiques d’un atome et définit ainsi les différents éléments chimiques.
Les atomes comportent autant de protons que d’électrons. L’uranium, par exemple, possède 92 protons, tandis que le carbone en a six. Toutefois, un même élément peut présenter un nombre variable de neutrons, formant ainsi ce qu’on appelle des isotopes.
Cette différence importe peu dans les réactions chimiques, mais elle a un impact majeur dans les réactions nucléaires.
Quand on extrait de l’uranium du sol, il est constitué à 99,27 % d’uranium-238 (92 protons et 146 neutrons). Seul 0,72 % correspond à l’uranium-235, avec 92 protons et 143 neutrons (le
0,01 % restant correspond à un autre isotope, qui ne nous intéresse pas ici).
Pour les réacteurs nucléaires ou les armes, il faut modifier ces proportions isotopiques. Car parmi les deux principaux isotopes, seul l’uranium-235 peut soutenir une réaction en chaîne de fission nucléaire : un neutron provoque la fission d’un atome, libérant de l’énergie et d’autres neutrons, qui provoquent à leur tour d’autres fissions, et ainsi de suite.
Cette réaction en chaîne libère une quantité d’énergie énorme. Dans une arme nucléaire, cette réaction doit avoir lieu en une fraction de seconde pour provoquer une explosion. Tandis que dans une centrale nucléaire civile, cette réaction est contrôlée.
Aujourd’hui, les centrales produisent environ 9 % de l’électricité mondiale. Les réactions nucléaires ont aussi une importance vitale dans le domaine médical, via la production d’isotopes utilisés pour le diagnostic et le traitement de diverses maladies.
« Enrichir » de l’uranium consiste à augmenter la proportion d’uranium-235 dans l’élément naturel, en le séparant progressivement de l’uranium-238.
Il existe plusieurs techniques pour cela (certaines récemment développées en Australie), mais l’enrichissement commercial est actuellement réalisé via centrifugation, notamment dans les installations iraniennes.
Les centrifugeuses exploitent le fait que l’uranium-238 est environ 1 % plus lourd que l’uranium-235. Elles prennent l’uranium sous forme gazeuse et le font tourner à des vitesses vertigineuses, entre 50 000 et 70 000 tours par minute, les parois extérieures atteignant une vitesse de 400 à 500 mètres par seconde. C’est un peu comme une essoreuse à salade : l’eau (ici, l’uranium-238 plus lourd) est projetée vers l’extérieur, tandis que les feuilles (l’uranium-235 plus léger) restent plus au centre. Ce procédé n’est que partiellement efficace, donc il faut répéter l’opération des centaines de fois pour augmenter progressivement la concentration d’uranium-235.
La plupart des réacteurs civils fonctionnent avec de l’uranium faiblement enrichi, entre 3 % et 5 % d’uranium-235, ce qui suffit à entretenir une réaction en chaîne et produire de l’électricité.
Pour obtenir une réaction explosive, il faut une concentration bien plus élevée d’uranium-235 que dans les réacteurs civils. Techniquement, il est possible de fabriquer une arme avec de l’uranium enrichi à 20 % (on parle alors d’uranium hautement enrichi), mais plus le taux est élevé, plus l’arme peut être compacte et légère. Les États disposant de l’arme nucléaire utilisent généralement de l’uranium enrichi à environ 90 %, dit « de qualité militaire ».
Selon l’Agence internationale de l’énergie atomique (AIEA), l’Iran a enrichi d’importantes quantités d’uranium à 60 %. Or, il est plus facile de passer de 60 % à 90 % que de passer de 0,7 % à 60 %, car il reste alors moins d’uranium-238 à éliminer.
C’est ce qui rend la situation iranienne particulièrement préoccupante pour ceux qui redoutent que le pays produise des armes nucléaires. Et c’est pour cela que la technologie des centrifugeuses utilisée pour l’enrichissement est gardée secrète. D’autant que les mêmes centrifugeuses peuvent servir à la fois à fabriquer du combustible civil et à produire de l’uranium de qualité militaire.
Des inspecteurs de l’AIEA surveillent les installations nucléaires dans le monde entier pour vérifier le respect du traité mondial de non-prolifération nucléaire. Bien que l’Iran affirme n’enrichir l’uranium que pour des fins pacifiques, l’AIEA a estimé la semaine dernière que l’Iran avait violé ses engagements au titre de ce traité.
Kaitlin Cook reçoit des financements de l’Australian Research Council (Conseil australien de la recherche).
17.06.2025 à 12:34
Olivia Chevalier, Ingénieur de recherche, Institut Mines-Télécom Business School
Gérard Dubey, Sociologue, Institut Mines-Télécom Business School
Johann Herault, Maître-assistant en robotique bio-inspirée, Laboratoire des Sciences du Numérique de Nantes, IMT Atlantique – Institut Mines-Télécom
L’intelligence artificielle, aussi fascinante qu’elle puisse être, se cantonne largement au monde numérique. En d’autres termes, elle ne modèle pas directement la réalité physique. À moins d’être embarquée dans un objet capable d’agir sur le monde… comme un robot par exemple.
Des roboticiens et chercheurs en sciences sociales nous expliquent comment l’avènement de l’IA permet de changer la manière de penser les robots. En particulier, en leur permettant de mieux percevoir et d’interagir avec leur environnement.
En quelques décennies, les nouvelles méthodes informatiques regroupées sous l’appellation d’« intelligence artificielle » ont révolutionné le traitement automatisé de l’information. Certaines de ces méthodes s’inspirent du fonctionnement du cerveau, en reproduisant son architecture en réseau de neurones et les processus cognitifs humains tels que l’apprentissage.
En robotique, l’utilisation de telles approches laisse espérer des progrès rapides dans l’autonomisation des robots humanoïdes. L’essor de la vision par ordinateur, reposant sur ces nouvelles architectures de réseaux de neurones, a, par exemple, permis d’améliorer considérablement l’interaction des robots avec leur environnement, notamment pour éviter les obstacles et pour manipuler des objets. Néanmoins, une limite demeure aux avancées de l’IA en robotique : les robots humanoïdes peinent encore à atteindre la fluidité et la précision des mouvements humains, notamment en ce qui concerne la bipédie et la préhension.
En effet, la coordination des fonctions motrices nécessaires au mouvement ne se résume pas à une simple planification mécanique, comparable à une succession de coups dans une partie d’échecs. En réalité, le mouvement humain et, plus largement, le mouvement animal reposent sur un enchevêtrement complexe d’opérations et d’interactions impliquant des composantes internes à l’individu, telles que le contrôle moteur (l’équivalent de l’IA chez le robot), le système sensoriel ou la biomécanique, ainsi que des composantes externes, comme les interactions physiques avec l’environnement.
Par exemple, un joggeur amateur est capable de maintenir son regard globalement stable malgré les irrégularités du terrain et la fatigue, en tirant parti de propriétés passives du corps humain (de l’articulation plantaire au mouvement des hanches), de réflexes, ainsi que d’un contrôle moteur fin des muscles oculaires et cervicaux. Nos systèmes musculosquelettiques et nerveux ont ainsi évolué de manière conjointe pour relever les défis posés par des environnements hétérogènes et imprévisibles.
En comparaison, pour accomplir des tâches qui exigent un ajustement continu entre l’action et son objectif, les robots disposent d’un nombre limité d’actionneurs (en d’autres termes, de moteurs) et plus encore de capteurs.
Dans ce contexte de contraintes matérielles, peut-on réellement espérer que la puissance de calcul des IA et leurs capacités d’apprentissage suffisent à atteindre les performances motrices observées chez les humains et chez les animaux ?
L’approche dite « incarnée » prend justement le contrepied de l’approche purement calculatoire en ne dissociant pas les composantes algorithmiques et physiques du robot. Elle vise au contraire à explorer les synergies possibles entre le corps et le contrôle, entre les mécanismes passifs et actifs, pour qu’une « intelligence motrice » ou « incarnée » émerge aussi de ces interactions. Cet article examine ainsi les limites et perspectives des synergies entre l’intelligence artificielle, le robot et son environnement.
Rodney Brooks, ancien directeur du laboratoire d’IA au Massachusetts Institute of Technology (MIT), y a dirigé pendant des années un programme de recherche intitulé : « The Cog Project : Building a Humanoid Robot ». Brooks distingue deux phases dans l’histoire de la recherche en robotique. Au cours de la première phase (années 1970-1980), la recherche est fondée sur le fait que le programme du robot contient les données du milieu dans lequel il évolue, ou plutôt où il n’évolue pas. Lors de la seconde phase, à partir des années 1990, la recherche se fonde précisément sur l’interaction avec l’environnement.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce rapport dynamique à l’environnement permet de voir dans quelle mesure les robots se complexifient et s’auto-organisent, ou s’autonomisent au fil de l’histoire de la recherche en robotique. Comme le dit Brooks, « l’intelligence humanoïde requiert des interactions humanoïdes avec le monde ». Il s’agit par conséquent de développer des programmes capables de se modifier eux-mêmes en fonction des interactions avec l’environnement.
Les recherches de la seconde robotique visent donc à développer un « behaviour-based robot » (robot fondé sur un modèle comportemental), dont une des exigences intéresse notre propos : pour que l’action du robot soit proche de la nôtre, on doit entre autres la supposer « non planifiée ».
C’est, précisément, d’abord là que les progrès en IA se révèlent fructueux. Mais dans quelle mesure l’IA peut-elle permettre de réduire le fossé entre les comportements des robots et ceux, extrêmement complexes, qu’on cherche à leur faire reproduire ? Parce que l’IA joue un grand rôle dans la conception des robots, dans la fabrication des matériaux dont ils sont faits et évidemment dans la simulation et la modélisation, elle offre les moyens de cette approche incarnée.
Un des principaux objectifs de cette approche est l’autonomie des robots, c’est-à-dire leur capacité à prendre des décisions et à s’adapter à leur environnement.
Pour mieux comprendre ce point, on peut opposer l’approche physicaliste à celle de l’IA incarnée. Ainsi, l’approche traditionnelle (aussi qualifiée de « physicaliste » ou « objectiviste ») ne donne pas les moyens de savoir si une machine peut sentir ou comprendre, tandis l’approche de l’IA incarnée pose le problème de l’autonomie de la machine en des termes qui permettraient en principe de vérifier cette hypothèse de la possibilité pour une machine de sentir ou comprendre. En effet, en considérant, d’une part, que le tout – le corps – est plus que l’addition des parties (les composants) et, d’autre part, que les phénomènes qui nous intéressent (conscience phénoménale, compréhension, sensation, par exemple) sont le produit émergeant de ce tout immergé dans l’environnement, cette seconde approche offre les moyens de tester cette hypothèse.
La robotique souple (dans sa version bio-inspirée) semble ainsi plus apte que les autres approches robotiques évoquées ci-dessus à se rapprocher de cet objectif de l’approche incarnée. En effet, en s’inspirant des comportements des organismes biologiques et en essayant d’en reproduire certains aspects, elle vise à construire des robots qui s’adaptent au milieu et construisent leur autonomie dans leur interaction avec lui.
Le couplage de la robotique et de l’IA préfigure potentiellement un autre imaginaire du rapport entre humains et machines et de la technique à la nature que celui qui a prévalu à l’ère industrielle.
En effet, dès les années 1940, la théorie cybernétique, avec le concept d’« homéostasie » (autorégulation de l’organisme avec son milieu), aux sources de l’actuelle IA, était déjà une pensée de l’insertion des machines dans le milieu. L’association cybernétique entre capteurs et traitement du signal avait ouvert la voie au rapprochement de l’intelligence machinique (qu’on peut définir brièvement comme intelligence principalement régie par des algorithmes) avec celle des êtres vivants dans le monde naturel. L’autonomie des machines était toutefois toujours pensée sur le modèle de la capacité des organismes vivants à maintenir leurs équilibres internes en résistant aux perturbations de l’environnement, c’est-à-dire en accordant la priorité à tout ce qui permet de réduire ce « désordre » externe.
Les recherches actuelles en robotique semblent infléchir ce rapport en considérant que les perturbations du milieu représentent des potentialités et des ressources propres qui méritent d’être comprises et appréhendées en tant que telles.
Il ne s’agit pas seulement aujourd’hui d’insérer un robot dans un environnement neutre ou déjà connu par lui, mais de faire de cet environnement – imprévisible, souvent inconnu – un composant de son comportement. Ces recherches se concentrent ainsi sur les interactions du corps ou du système mécatronique avec le monde physique – c’est-à-dire avec les forces de contact et les processus de traitement de l’information mis en œuvre dans l’expérience sensible par les êtres vivants.
Soft robotique, robotique molle, bio-inspirée, intelligence incarnée sont des déclinaisons possibles de ces nouvelles approches et révèlent l’importance du rôle joué par l’IA dans l’ouverture de la robotique à d’autres problématiques que celles qui étaient traditionnellement les siennes, en apportant des éclairages ou en levant certains verrous scientifiques.
La nouvelle robotique ne fait donc pas que déboucher sur un renouveau de l’intérêt pour le vivant. Les conceptions de la machine dont elle est porteuse – une machine immergée dans son environnement, qui en dépend profondément – résonnent fortement avec les nouvelles approches du vivant en biologie qui définissent celui-ci principalement à partir de ses interactions. Le nouveau dialogue qui s’instaure entre robotique et biologie contribue ainsi à repenser les frontières qui séparent le vivant du non-vivant.
Dès lors, l’approche incarnée de la robotique pourrait-elle permettre de combler l’écart entre machine et vivant ?
Le projet ANR-19-CE33-0004 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Olivia Chevalier a reçu des financements du PEPR O2R
Gérard Dubey a reçu des financements du PEPR O2R.
Johann Hérault a reçu des financements de ANR (Project-ANR-19-CE33-0004) , du PEPR O2R et de la région Pays de La Loire.
15.06.2025 à 17:32
Paulomi (Polly) Burey, Professor in Food Science, University of Southern Queensland
Pourquoi certains œufs s’écalent facilement et d’autres non ? Une histoire de pH, de température et de chambre à air, répondent les scientifiques qui se sont penchés sur la question.
Nous sommes tous passés par là : essayer d’écaler un œuf dur, mais finir par le réduire en miettes tant la coquille s’accroche obstinément au blanc. Et ça peut être pire encore, quand l’œuf se retrouve couvert de petits morceaux de membrane.
Internet regorge d’astuces censées vous éviter ce désagrément mais plusieurs causes très différentes peuvent expliquer qu’un œuf soit difficile à « éplucher ». Heureusement, la science offre des stratégies pour contourner le problème.
Les œufs se composent d’une coquille dure et poreuse, d’une membrane coquillière externe et d’une membrane coquillière interne, du blanc d’œuf (ou albumen), et d’un jaune enveloppé d’une membrane. On trouve également une chambre à air entre les deux membranes, juste sous la coquille.
Dans les années 1960 et 1970, de nombreuses recherches ont été menées sur les facteurs influençant la facilité d’écalage des œufs après cuisson. L’un de ces facteurs est le pH du blanc d’œuf. Une étude des années 1960 a montré qu’un pH compris entre 8,7 et 8,9 — donc assez alcalin — facilitait l’épluchage des œufs.
La température de conservation joue également un rôle. Une étude de 1963 a révélé qu’un stockage à environ 22 °C donnait de meilleurs résultats en matière d’épluchage qu’un stockage à 13 °C, ou à des températures de réfrigérateur de 3 à 5 °C.
Il faut bien sûr garder à l’esprit qu’un stockage à température ambiante élevée augmente le risque de détérioration (NDLR : L’Anses recommande de conserver les œufs toujours à la même température afin d’éviter le phénomène de condensation d’eau à leur surface).
Les recherches ont également montré qu’un temps de stockage plus long avant cuisson — autrement dit des œufs moins frais — améliore la facilité d’épluchage.
Le fait que les œufs frais soient plus difficiles à éplucher est relativement bien connu. D’après les facteurs évoqués plus haut, plusieurs explications permettent de comprendre ce phénomène.
D’abord, dans un œuf frais, la chambre à air est encore très petite. En vieillissant, l’œuf perd lentement de l’humidité à travers sa coquille poreuse, ce qui agrandit la chambre à air à mesure que le reste du contenu se rétracte. Une chambre à air plus grande facilite le démarrage de l’épluchage.
Par ailleurs, même si le blanc d’œuf est déjà relativement alcalin au départ, son pH augmente encore avec le temps, ce qui contribue aussi à rendre l’écalage plus facile.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Plusieurs experts de la cuisson des œufs estiment que commencer avec de l’eau bouillante puis la ramener à un frémissement avant d’y déposer délicatement les œufs donne de meilleurs résultats. Il est alors recommandé d’utiliser des œufs à température ambiante pour éviter qu’ils ne se fissurent à cause d’un choc thermique. L’idée derrière cette méthode est qu’une exposition immédiate à une température élevée facilite la séparation entre la membrane, la coquille et le blanc d’œuf.
En outre, un démarrage à chaud favorise la dénaturation des protéines du blanc d’œuf (c’est-à-dire leur changement de structure sous l’effet de la chaleur), ce qui les incite à se lier entre elles plutôt qu’à adhérer à la membrane.
Après avoir fait bouillir les œufs pendant le temps désiré (généralement 3 à 5 minutes pour un jaune coulant, 6 à 7 minutes pour un jaune crémeux, et 12 à 15 minutes pour un œuf dur), on peut les plonger dans de l’eau glacée. Cela aide le blanc à se rétracter légèrement, facilitant ainsi l’épluchage.
Parmi les autres astuces suggérées pour faciliter l’écalage, on trouve l’ajout de sel dans l’eau bouillante, mais les résultats sont à nuancer. Une étude a montré que cela pouvait effectivement améliorer l’épluchage, mais que cet effet disparaissait après une période de stockage prolongée des œufs.
L’ajout d’acides et de bases a également démontré une certaine efficacité pour aider à retirer la coquille. Un brevet s’appuyant sur cette idée propose ainsi d’utiliser des substances agressives dans le but de dissoudre la coquille. Mais partant de ce principe, vous pourriez simplement tenter d’ajouter à l’eau de cuisson du bicarbonate de soude ou du vinaigre. En théorie, ce dernier devrait attaquer le carbonate de calcium de la coquille, facilitant ainsi son retrait. Quant au bicarbonate, étant alcalin, il devrait aider à détacher la membrane de la coquille.
Il existe plusieurs façons de cuire des œufs durs en dehors de l’ébullition classique. Parmi elles : la cuisson vapeur sous pression, la cuisson à l’air chaud (avec un air fryer), et même le micro-ondes.
Dans le cas de la cuisson vapeur, certains avancent que la vapeur d’eau traversant la coquille aiderait à décoller la membrane du blanc d’œuf, ce qui rendrait l’épluchage beaucoup plus facile.
Des recherches récentes ont porté sur la cuisson à l’air chaud d’autres aliments, mais on ne sait pas encore précisément comment ce mode de cuisson pourrait influencer la coquille et la facilité d’écalage des œufs.
Enfin, une fois vos œufs épluchés, évitez de jeter les coquilles à la poubelle. Elles peuvent servir à de nombreux usages : compost, répulsif naturel contre les limaces et escargots au jardin, petits pots biodégradables pour semis… ou même contribuer à des applications bien plus poussées, notamment dans la recherche sur le cancer.
Paulomi (Polly) Burey a reçu des financements du ministère australien de l'Éducation, qui a soutenu les recherches sur les coquilles d'œufs mentionnées à la fin de cet article.
11.06.2025 à 17:35
Raquel Rodriguez Suquet, Ingénieure d'applications d'Observation de la Terre, Centre national d’études spatiales (CNES)
Vincent Lonjou, expert applications spatiales, Centre national d’études spatiales (CNES)
Entre sa densité de population et ses richesses naturelles, le littoral est une zone stratégique, mais vulnérable aux événements extrêmes et à la montée du niveau de la mer. Pour mieux prévenir les risques d’inondations côtières, les « jumeaux numériques » allient imagerie spatiale, mesures de terrain et modélisations sophistiquées – afin de fournir des informations fiables aux particuliers et aux décideurs publics.
La zone littorale, située à l’interface entre la terre et la mer, est une bande dynamique et fragile qui englobe les espaces marins, côtiers et terrestres influencés par la proximité de l’océan. À l’échelle mondiale, elle concentre une forte densité de population, d’infrastructures et d’activités économiques (tourisme, pêche, commerce maritime), qui en font un espace stratégique mais vulnérable.
On estime qu’environ un milliard de personnes dans le monde et plus de 800 000 de personnes en France vivent dans des zones littorales basses, particulièrement exposées aux risques liés à la montée du niveau de la mer due au changement climatique et aux phénomènes météorologiques extrêmes. Les enjeux associés sont multiples : érosion côtière, submersions marines, perte de biodiversité, pollution, mais aussi pressions liées à la forte artificialisation du sol, due à la forte augmentation démographique et touristique. La gestion durable de la zone littorale représente un enjeu crucial en matière d’aménagement du territoire.
Dans le cadre de notre programme Space for Climate Observatory, au CNES, avec nos partenaires du BRGM et du LEGOS, nous créons des « jumeaux numériques » pour étudier les zones côtières dans un contexte de changement climatique et contribuer à leur adaptation.
À lire aussi : Pourquoi l’océan est-il si important pour le climat ?
Dans cet article, focus sur trois zones représentatives de trois sujets emblématiques des zones côtières : le recul du trait de côte en France métropolitaine, la submersion marine en Nouvelle-Calédonie (aujourd’hui liée aux tempêtes et aux cyclones, mais à l’avenir également affectée par l’élévation du niveau de la mer) et l’évolution des écosystèmes côtiers en termes de santé de la végétation, de risque d’inondation et de qualité de l’eau sur la lagune de Nokoué au Bénin.
Avec près de 20 000 kilomètres de côtes, la France est l’un des pays européens les plus menacés par les risques littoraux. Sa façade maritime très urbanisée attire de plus en plus d’habitants et concentre de nombreuses activités qui, comme la pêche ou le tourisme, sont très vulnérables à ce type de catastrophes. Ainsi, cinq millions d’habitants et 850 000 emplois sont exposés au risque de submersion marine et 700 hectares sont situés sous le niveau marin centennal, c’est-à-dire le niveau statistique extrême de pleine mer pour une période de retour de 100 ans) dans les départements littoraux.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le trait de côte désigne la frontière entre la terre et la mer. Cette limite se modifie continuellement sous l’action de facteurs naturels tels que les marées, les tempêtes, le dépôt de sédiments, les courants marins et les vagues. En France hexagonale, un quart du littoral est concerné par un recul du trait de côte (soit plus de 5 000 bâtiments menacés d’ici 2050) du fait de l’érosion côtière, aggravée par le changement climatique qui s’accompagne, entre autres, d’une élévation du niveau marin et de la puissance des tempêtes.
Grâce à la télédétection par satellites, notamment Sentinel-2 et Landsat, il est possible d’observer avec précision la position du trait de côte et d’analyser sa dynamique sur le long terme. Ces informations permettent de mieux comprendre les phénomènes d’érosion ou d’accrétion (à rebours du recul du trait de côte, son avancée est due en bonne partie au dépôt sédimentaire et concerne 10 % du littoral français), ainsi que les risques liés à ces évolutions.
En réponse à ces enjeux, un jumeau numérique du trait de côte est en cours de construction à l’échelle de la France. Cet outil permettra de « prendre le pouls » de la zone côtière en fournissant des données actualisées à échelle mensuelle et trimestrielle aux acteurs concernés, des mairies aux ministères, afin de faciliter la prise de décision pour une gestion durable et adaptée du littoral. Par exemple, les principaux leviers d’actions sont la mise en place d’infrastructures de protection potentiellement fondées sur la nature, des opérations d’ensablement ou d’enrochement ainsi que l’évolution des autorisations d’urbanisme pouvant aller jusqu’à la destruction de bâtiments existants.
À lire aussi : Climat : Pourquoi l’ouverture des données scientifiques est cruciale pour nos littoraux
La lagune de Nokoué au Bénin est représentative des systèmes lagunaires d’Afrique de l’Ouest : bordée d’une large population qui avoisine les 1,5 million de personnes, cette lagune constitue une ressource vivrière majeure pour les habitants de la région.
La lagune subit une importante variabilité naturelle, notamment aux échelles saisonnières sous l’influence de la mousson ouest-africaine. Ainsi, les zones périphériques sont inondées annuellement (en fonction de l’intensité des pluies), ce qui cause des dégâts matériels et humains importants. La lagune est aussi le cœur d’un écosystème complexe et fluctuant sous l’effet des variations hydrologiques, hydrobiologiques et hydrochimiques.
Là aussi, le changement climatique, avec la montée des eaux et l’augmentation de l’intensité des évènements hydrométéorologiques, contribue à faire de la lagune de Nokoué une zone particulièrement sensible.
Nous mettons en place un jumeau numérique de la lagune de Nokoué qui permettra de répondre aux besoins des acteurs locaux, par exemple la mairie, afin de lutter contre les inondations côtières en relation avec l’élévation du niveau de la mer, les marées et les événements météorologiques extrêmes.
En particulier, ce jumeau numérique permettra de modéliser la variabilité du niveau d’eau de la lagune en fonction du débit des rivières et de la topographie. Il géolocalisera l’emplacement des zones inondées en fonction du temps dans un contexte de crue — une capacité prédictive à court terme (quelques jours) appelée « what next ? »
Le jumeau numérique sera également en mesure de faire des projections de l’évolution du risque de crue sous l’effet du changement climatique, c’est-à-dire prenant en compte l’élévation du niveau de la mer et l’augmentation de l’intensité des pluies. Cette capacité prédictive sur le long terme, typiquement jusqu’à la fin du siècle, est appelée « what if ? »
Enfin, il permettra de modéliser et d’évaluer la qualité de l’eau de la lagune (par exemple sa salinité ou le temps de résidence de polluants). Par exemple, en période d’étiage, quand l’eau est au plus bas, la lagune étant connectée à l’océan, elle voit sa salinité augmenter de manière importante, bouleversant au passage l’équilibre de cet écosystème. Le riche écosystème actuel est en équilibre avec cette variation saisonnière mais des aménagements (barrages, obstruction du chenal de connexion à l'océan…) pourraient le mettre en péril.
L’élévation du niveau de la mer causée par le changement climatique, combinée aux marées et aux tempêtes, constitue un risque majeur pour les populations côtières à l’échelle mondiale dans les décennies à venir. Ce risque est « évolutif » — c’est-à-dire qu’il dépend de comment le climat évoluera dans le futur, notamment en fonction de notre capacité à atténuer les émissions de gaz à effet de serre.
Il est donc très important d’être capable de modéliser le risque de submersion marine et de projeter ce risque dans le futur en prenant en compte la diversité des scénarios d’évolution climatiques afin de supporter l’action publique au cours du temps, avec différentes stratégies d’adaptation ou d’atténuation : relocalisation de populations, modification du plan local d’urbanisme, création d’infrastructures de protection côtières qu’elles soient artificielles ou bien basées sur la nature.
La modélisation de la submersion marine nécessite une connaissance en 3D sur terre (du sol et du sursol, incluant bâtiments, infrastructures, végétation…), mais aussi – et surtout ! – sous l’eau : la bathymétrie. Si cette dernière est assez bien connue sur le pourtour de la France métropolitaine, où elle est mesurée par le Service hydrographique et océanographique de la marine (Shom), une grande partie des zones côtières en outre-mer est mal ou pas caractérisée.
En effet, le travail et le coût associé aux levés topobathymétriques in situ sont très élevés (supérieur à 1 000 euros par km2). À l’échelle du monde, la situation est encore pire puisque la très grande majorité des côtes n’est pas couverte par des mesures bathymétriques ou topographiques de qualité. Aujourd’hui, plusieurs techniques permettent de déterminer la bathymétrie par satellite en utilisant la couleur de l’eau ou le déplacement des vagues.
En Nouvelle-Calédonie, nous explorons le potentiel des satellites pour alimenter un jumeau numérique permettant de faire des modélisations de submersion marine. Nous nous concentrons dans un premier temps sur la zone de Nouméa, qui concentre la majeure partie de la population et des enjeux à l’échelle de l’île. Une première ébauche de jumeau numérique de submersion marine a ainsi été réalisée par le BRGM. Il permet par exemple d’évaluer la hauteur d’eau atteinte lors d’un évènement d’inondation et les vitesses des courants sur les secteurs inondés.
Dans un deuxième temps, nous étudierons la capacité à transposer notre approche sur une autre partie de l’île, en espérant ouvrir la voie à un passage à l’échelle globale des méthodes mises en place.
Vincent Lonjou a reçu des financements du CNES
Raquel Rodriguez Suquet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.06.2025 à 11:41
Glen Farivar, Lecturer in Power Electronics, The University of Melbourne
Pour désigner l’énergie consommée par un chargeur qui reste branché sans être utilisé, les Québécois ont un joli terme : l’« énergie vampire » ou « énergie fantôme ». Cette énergie est-elle un mythe ? Peut-on laisser les chargeurs branchés ? Y a-t-il d’autres risques – du vieillissement accéléré à la surchauffe, voire au départ de feu ?
Combien de chargeurs possédez-vous ? Nous sommes entourés d’appareils électroniques rechargeables : téléphones mobiles, ordinateurs portables, montres intelligentes, écouteurs, vélos électriques, etc.
Il y a peut-être un chargeur de téléphone branché à côté de votre lit, que vous ne prenez jamais la peine de le débrancher quand vous ne l’utilisez pas. Et un autre, d’ordinateur portable, près de votre bureau ?
Mais est-ce risqué ? Y a-t-il des coûts cachés liés au fait de laisser les chargeurs branchés en permanence ?
Bien sûr, tous les chargeurs sont différents. En fonction de leur application et de la puissance requise, leur structure interne peut varier et être très simple… ou très complexe.
Toutefois, un chargeur classique reçoit le courant alternatif (AC) de la prise murale et le convertit en courant continu (DC) à basse tension, qui est adapté à la batterie de votre appareil.
Pour comprendre la différence entre courant continu et alternatif, il faut considérer le flux d’électrons dans un fil. Dans un circuit à courant continu, les électrons se déplacent dans une seule direction et continuent de tourner dans le circuit. Dans un circuit à courant alternatif, les électrons ne circulent pas et se bougent successivement dans un sens puis dans l’autre.
La raison pour laquelle nous utilisons les deux types de courant remonte à l’époque où les inventeurs Thomas Edison et Nicola Tesla débattaient de savoir quel type de courant deviendrait la norme. In fine, aucun n’a vraiment eu le dessus, et aujourd’hui, nous sommes toujours coincés entre les deux. L’électricité est traditionnellement générée sous forme de courant alternatif (quand on utilise des bobines d’alternateurs), mais les appareils modernes et les batteries requièrent un courant continu. C’est pourquoi presque tous les appareils électriques sont équipés d’un convertisseur AC-DC.
Pour effectuer la conversion du courant alternatif en courant continu, un chargeur a besoin de plusieurs composants électriques : un transformateur, un circuit pour effectuer la conversion proprement dite, des éléments de filtrage pour améliorer la qualité de la tension continue de sortie, et un circuit de contrôle pour la régulation et la protection.
L’« énergie vampire », ou « énergie fantôme » – le terme utilisé par les Québécois pour désigner l’énergie consommée par un chargeur qui reste branché sans être utilisé – est bien réelle.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Si vous le laissez branché, un chargeur consommera continuellement une petite quantité d’énergie. Une partie de cette énergie est utilisée pour faire fonctionner les circuits de contrôle et de protection, tandis que le reste est perdu sous forme de chaleur.
Si l’on considère un petit chargeur individuel, l’énergie vampire – également connue sous le nom d’énergie de veille – est négligeable. Toutefois, si vous additionnez la consommation des chargeurs de tous les appareils de la maison, le gaspillage d’énergie peut devenir important au fil du temps. De plus, l’énergie de veille n’est pas l’apanage des chargeurs : d’autres appareils électroniques, comme les téléviseurs, consomment également un peu d’énergie lorsqu’ils sont en veille.
Selon le nombre d’appareils laissés branchés, cela peut représenter plusieurs kilowattheures au cours d’une année.
Ceci étant, les chargeurs modernes sont conçus pour minimiser la consommation d’énergie vampire, avec des composants de gestion de l’énergie intelligents, qui les maintiennent en veille jusqu’à ce qu’un appareil externe tente de tirer de l’énergie.
Les chargeurs s’usent au fil du temps lorsqu’ils sont traversés par un courant électrique, en particulier lorsque la tension du réseau électrique dépasse temporairement sa valeur nominale. Le réseau électrique est un environnement chaotique et diverses hausses de tension se produisent de temps à autre.
Exposer un chargeur à ce type d’événements peut raccourcir sa durée de vie. Si ce n’est pas vraiment un problème pour les appareils modernes, grâce aux améliorations sur leur conception et leur contrôle, il est particulièrement préoccupant pour les chargeurs bon marché et non certifiés. Ceux-ci ne présentent souvent pas les niveaux de protection appropriés aux surtensions, et peuvent constituer un risque d’incendie.
Bien que les chargeurs modernes soient généralement très sûrs et qu’ils ne consomment qu’un minimum d’énergie vampire, il n’est pas inutile de les débrancher de toute façon – quand c’est pratique.
En revanche, si un chargeur chauffe plus que d’habitude, fait du bruit, ou est endommagé d’une manière ou d’une autre, il est temps de le remplacer. Et il ne faut surtout pas le laisser branché.
Glen Farivar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.06.2025 à 11:39
François Gu, Post-doctorant, Massachusetts Institute of Technology (MIT)
Benjamin Guiselin, Maître de conférences en physique, Université de Montpellier
La foule intimide voire terrifie certaines personnes. Ses mouvements peuvent conduire à des drames. C’est pourquoi mieux les comprendre est essentiel. Une nouvelle étude démontre que ces mouvements ne sont pas chaotiques comme on pourrait l’imaginer, mais, au contraire, quasi circulaires et périodiques.
Vous avez déjà vécu l’expérience d’être au milieu d’une foule compacte dans un espace confiné : sur les quais du métro bondés à l’heure de pointe, devant un magasin pour la sortie du dernier livre d’une autrice à succès, ou encore devant la scène lors d’un concert. Au-delà de l’inconfort suscité par les contacts physiques fréquents involontaires avec vos voisins, ces situations semblent incontrôlables et potentiellement dangereuses : on se sent comme contraint de bouger selon un mouvement dicté par l’impatience ou la pression exercée par les autres. Mais quelle est véritablement la nature des mouvements des individus au sein d’une foule dense ? Et peut-on en comprendre l’origine, notamment afin d’anticiper des drames ?
Si l’on se fie à notre intuition, ces mouvements semblent aléatoires et imprévisibles. Pourtant, notre étude, menée au sein de l’équipe de Denis Bartolo, professeur à l’ENS Lyon, et récemment publiée dans la revue Nature, révèle un phénomène contre-intuitif : au lieu d’un chaos désordonné, la foule bouge collectivement selon un mouvement régulier et spontané. Au-delà d’une densité critique de quatre personnes par mètre carré (imaginez-vous à quatre personnes dans une cabine de douche !), et sans consigne extérieure, la foule adopte spontanément un mouvement quasi circulaire et périodique.
Notre premier défi, pour caractériser la dynamique des foules denses, était de taille : réaliser des expériences pour filmer, avec un bon angle de vue, la dynamique de centaines d’individus, tout en évitant les accidents. Il était donc évident qu’on ne pouvait pas faire cela dans notre laboratoire. L’opportunité idéale s’est présentée, quand Iker Zuriguel, professeur à l’Université de Navarre, nous a parlé des fêtes de San Fermín en Espagne. Chaque année, le 6 juillet, environ 5 000 personnes se rassemblent Plaza Consistorial, à Pampelune, pour la cérémonie du « Chupinazo », qui marque le début d’une semaine de fêtes. La densité atteint environ 6 personnes par mètre carré !
Cette place, qui mesure 50 mètres de long par 20 mètres de large, est délimitée par des immeubles de plusieurs étages, dont les balcons donnent une vue imprenable sur ce qui se passe sur la place. Nous avons filmé lors de quatre éditions avec huit caméras placées sur deux balcons les mouvements de la foule avec une très bonne résolution. Nous avons ainsi collecté un jeu de données unique au monde pour l’étude des foules denses.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Grâce à une technique utilisée, par exemple en aérodynamique, nous avons pu cartographier les vitesses de déplacement dans la foule, comme on suit des courants d’air autour d’un avion. Nous en avons extrait que tous les individus dans un rayon d’environ 10 mètres se déplaçaient dans la même direction.
Lors du « Chupinazo », la densité de personnes est très importante, de l’ordre de six personnes par mètre carré : il faut donc imaginer environ 500 personnes entraînées ensemble de façon spontanée, ce qui représente une masse de plusieurs dizaines de tonnes en mouvement.
Nous avons également montré que la direction du mouvement de cette masse tournait progressivement, avant de revenir à son point de départ, toutes les 18 secondes. Autrement dit, les individus ne se déplacent pas de manière chaotique, mais suivent des trajectoires quasi circulaires et périodiques.
Ce mouvement lent s’explique par le fait que ce ne sont pas des individus isolés qui bougent, mais plusieurs centaines, entraînés les uns avec les autres.
Enfin, nous avons observé que les mouvements circulaires oscillants de la foule se font autant dans le sens des aiguilles d’une montre que dans le sens inverse, alors même que la majorité des êtres humains sont droitiers ou qu’ils ont tendance à s’éviter par la droite dans les pays occidentaux. Les facteurs cognitifs et biologiques ne sont donc plus pertinents pour expliquer le déplacement des masses d’individus dans les foules denses qui sont entraînées dans des mouvements à très grande échelle.
Pour modéliser mathématiquement la dynamique d’une foule, constituée d’un ensemble de piétons, il apparaît naturel de considérer les individus comme des particules en interaction.
Prenez un piéton au sein de cette foule. Il subit des forces qui le mettent en mouvement. Ces forces peuvent avoir une origine physique – comme des forces de contact avec un mur ou un autre piéton – ou une origine cognitive – comme lorsqu’on cherche à éviter un autre piéton. Malheureusement, la modélisation mathématique de ces forces repose sur de nombreuses hypothèses invérifiables sur le comportement des individus, ce qui rend cette approche irréalisable.
Il n’est en réalité pas nécessaire de décrire la dynamique de chaque individu pour prédire la dynamique de la foule. Prenez l’écoulement de l’eau dans un tuyau : les lois de la physique permettent de prédire l’écoulement de l’eau, alors même que déterminer la force subie par une seule molécule d’eau dans cet écoulement s’avère impossible.
Nous avons donc déterminé l’équation qui décrirait le mouvement d’une masse d’individus entraînés tous ensemble, sans déterminer les lois qui régissent le mouvement d’un seul piéton. Notre démarche n’utilise que des principes fondamentaux de la physique (conservation de la masse, conservation de la quantité de mouvement) et ne fait aucune hypothèse comportementale sur le mouvement des individus. Elle nous a permis de construire un modèle mathématique dont la résolution a montré un excellent accord avec les observations expérimentales.
Nous avons également analysé des vidéos issues des caméras de surveillance de la Love Parade de 2010 à Duisbourg, en Allemagne. Bien que cette foule soit très différente de celle du « Chupinazo », nous y avons observé les mêmes oscillations collectives. Cela suggère que ce comportement de masse est universel, indépendamment du type d’événement ou du profil des participants.
Comme nous l’avons souligné précédemment, ces oscillations peuvent mettre en mouvement plusieurs dizaines de tonnes. Nous pensons qu’un tel déplacement non contrôlé de masse peut devenir dangereux. Lors du « Chupinazo », aucun accident n’a jamais été signalé, sans doute parce que l’événement est court (une à deux heures) et que les participants y viennent de leur plein gré, avec une certaine conscience des risques. Ce n’était pas le cas lors de la Love Parade de 2010, où un accident a causé des dizaines de morts et des centaines de blessés. Juste avant que l’accident ne se produise, nous avons détecté ces oscillations.
Cette détection peut se faire en temps réel, à partir d’une analyse directe et simple des caméras de vidéosurveillance. Et puisque cette dynamique est universelle, la même méthode pourrait être appliquée à d’autres foules. Ainsi, nos découvertes pourraient, dans le futur, inspirer le développement d’outils de détection et de prévention d’accidents de masse.
Ce travail a été soutenu par le Conseil européen de la recherche (ERC) dans le cadre du programme de recherche et d'innovation Horizon 2020 de l'Union européenne (convention de subvention numéro 101019141) (D.B.) et par la subvention numéro PID2020-114839GB-I00 soutenue par MCIN/AEI/10.13039/501100011033 (I.Z.).
Benjamin Guiselin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.06.2025 à 11:39
Éric Guilyardi, Directeur de recherche au CNRS, Laboratoire d’océanographie et du climat, LOCEAN, Institut Pierre-Simon Laplace, Sorbonne Université
Éric Guilyardi est océanographe et climatologue, spécialiste de modélisation climatique. Il s’intéresse tout particulièrement au phénomène climatique El Niño. Il a été auteur principal du 5e rapport du GIEC et a contribué au 6e. Il anime également une réflexion sur l’éthique de l’engagement public des scientifiques. Ce grand entretien, mené par Benoît Tonson, est l’occasion de mieux comprendre les liens entre l’océan et le climat et de réfléchir à la place du scientifique dans les médias et plus généralement dans la société, au moment où se tient la troisième Conférence des Nations unies sur l’océan (Unoc 3) à Nice.
The Conversation : Quels sont les liens entre le climat et l’océan ?
Éric Guilyardi : Le climat résulte de nombreuses interactions entre les composantes de ce que l’on appelle le « système Terre », dont l’atmosphère, l’océan, les surfaces continentales et la cryosphère (toutes les portions de la surface des mers ou terres émergées où l’eau est présente à l’état solide). L’océan est au cœur du système Terre car c’est son principal réservoir d’énergie. Les deux premiers mètres de l’océan contiennent en effet autant d’énergie que les 70 km de la colonne atmosphérique qui la surplombe ! Profond en moyenne de 4 000 mètres son immense inertie thermique en fait un gardien des équilibres climatiques. Par exemple, dans les régions au climat océanique, cette inertie se traduit par moins de variations de température, que ce soit dans une même journée ou à travers les saisons. L’océan est également un acteur des variations lentes du climat. Par exemple, le phénomène El Niño sur lequel je travaille, résulte d’interactions inter-annuelles entre l’océan et l’atmosphère qui font intervenir la mémoire lente de l’océan, située dans le Pacifique tropical ouest, vers 400 mètres de profondeur. Allant chercher une mémoire plus en profondeur, l’océan est également source de variations lentes qui influencent le climat depuis l’échelle décennale (mémoire vers 1 000 mètres de profondeur) jusqu’à des milliers d’années (entre 2 000 et 4 000 mètres).
L’océan joue un rôle fondamental dans le changement climatique, à la fois parce qu’il permet d’en limiter l’intensité, en absorbant à peu près un quart des émissions de carbone que l’activité humaine envoie dans l’atmosphère (via la combustion des énergies fossiles).
L’océan est donc notre allié, puisqu’il permet de limiter les impacts du changement climatique, mais il en subit également les conséquences. Sous l’effet de l’augmentation de la température, l’eau se dilate, elle prend plus de place et le niveau de la mer monte. La moitié de l’augmentation du niveau marin global (4 mm/an et environ 20 cm depuis 1900) est due à cette dilatation thermique. L’autre vient de la fonte des glaciers continentaux (en montagne, mais aussi de la fonte des calottes polaires en Antarctique et au Groenland).
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Dans le couple océan-atmosphère, l’atmosphère c’est un peu le partenaire nerveux, qui va vite : une dépression, qui se crée par exemple au nord du Canada, traverse l’Atlantique, arrive en Europe et disparaît au-dessus de la Sibérie aura une durée de vie de quelques semaines. Les structures équivalentes dans l’océan sont des tourbillons plus petits mais plus lents qui peuvent rester cohérents pendant des années, voire des dizaines d’années.
Vous avez commencé à évoquer El Niño, qu’est-ce que c’est ?
É. G. : Ce sont les pêcheurs sud-américains qui ont donné le nom d’El Niño a un courant chaud qui est présent tous les ans au moment de Noël le long des côtes du Pérou et du Chili (d’où « l’Enfant Jésus », El Niño en espagnol). Le reste de l’année, et en « année normale », des eaux froides et riches en nutriments remontent des profondeurs, faisant de cette région une des plus poissonneuses de la planète.
Mais certaines années, le courant chaud reste toute l’année – cela devient une année El Niño et la pêche s’arrête, un signal que l’on retrouve dans les registres de pêche depuis des siècles.
Alors qu’est-ce qu’il se passe ? Dans le pacifique, les années « normales » (Fig. 1), des alizés soufflent d’est en ouest. Ces vents font remonter des eaux froides venant des profondeurs à la fois le long de l’équateur, dans l’est, mais aussi le long des côtes du Pérou et du Chili. L’eau chaude des tropiques s’accumule à l’ouest, autour de l’Indonésie et du nord de l’Australie.
Certaines années, des anomalies peuvent perturber ce système. Cela peut venir d’une anomalie de température vers le centre du Pacifique, par exemple sous l’effet de coup de vent d’ouest, des vents qui vont contrer les alizés pendant un moment. Si on a moins de différence de température, on a moins d’alizés, donc moins de remontée d’eaux froides. De l’eau plus chaude va s’étendre dans l’est et amplifier l’anomalie initiale. Le système s’enraye, les alizés s’affaiblissent et des anomalies de température de plusieurs degrés Celsius apparaissent dans d’immenses régions du Pacifique central et du Pacifique Est. Ces perturbations vont durer un an et c’est ce que l’on appelle un événement El Niño.
Aujourd’hui, on comprend bien les mécanismes de base de ce phénomène, on sait prévoir les impacts pour le bassin pacifique ainsi que pour les nombreuses régions de la planète que El Niño influence. On sait que l’anomalie se produit à intervalles irréguliers (tous les trois à sept ans). Le dernier a eu lieu en 2023-2024.
On parle également de La Niña, qu’est-ce que c’est ?
É. G. : C’est la petite sœur d’El Niño, dont les impacts sont en miroir puisque l’on assiste à des anomalies froides dans le Pacifique central et Est, liées à des alizés plus forts, au lieu d’anomalies chaudes. On peut la décrire comme une année normale avec des alizés plus forts. Ce n’est pas un miroir parfait car El Niño a tendance à être plus fort et La Niña plus fréquent.
Depuis quand travaillez-vous sur ce sujet ?
É. G. : J’ai d’abord fait une thèse sur les échanges océan-atmosphère à partir du milieu des années 1990. À cette époque, il n’existait pas encore de modèle climatique global en France. On en avait un qui simulait l’atmosphère, et un autre, l’océan. Mon premier travail a donc consisté à « coupler » ces deux modèles. J’ai commencé à m’intéresser au phénomène El Niño lors d’un postdoctorat dans un laboratoire d’océanographie (le LODYC, ancêtre du LOCEAN). J’ai poursuivi mes recherches à l’université de Reading en Grande-Bretagne avec des spécialistes de l’atmosphère tropicale. En effet, pour comprendre El Niño, il faut s’intéresser à la fois à l’atmosphère et à l’océan. À cette époque, je développais des simulations informatiques et j’analysais comment ces simulations représentaient le phénomène El Niño.
On a vraiment assisté à de grandes avancées depuis les années 1990. Non seulement nous arrivons à représenter El Niño dans ces modèles, mais la prévision saisonnière opérationnelle permet aujourd’hui de prévoir El Niño six neuf mois à l’avance. C’est-à-dire qu’on a suffisamment bien compris les mécanismes et que nous disposons d’un réseau d’observation de qualité.
Une des découvertes à laquelle j’ai contribué, à la fois importante et étonnante, a été de démontrer le rôle prépondérant de l’atmosphère dans la définition des caractéristiques d’El Niño. Pendant longtemps, nous avons considéré qu’un phénomène qui arrive tous les 3 à 7 ans était principalement une question d’océan et d’océanographe, car liée à la mémoire lente de l’océan.
Grâce à des modèles toujours plus précis, nous nous sommes en fait rendu compte que l’atmosphère jouait un rôle dominant, en particulier à travers le rôle des vents, des flux de chaleur, de la convection atmosphérique et des nuages associés.
Pourquoi est-ce si important d’étudier ce phénomène en particulier ?
É. G. : El Niño est la principale anomalie interannuelle du climat à laquelle les sociétés et les écosystèmes doivent faire face. On a vu l’impact sur la pêche au Pérou ou au Chili. Aujourd’hui, la décision d’armer ou non les flottes de pêche de ces pays dépend des prévisions saisonnières d’El Niño, d’où leur importance.
Il y a d’autres impacts liés à ce que nous appelons des « téléconnections », c’est-à-dire des sortes de ponts atmosphériques qui connectent les anomalies du Pacifique tropical aux autres régions du globe, en particulier dans les tropiques. Par exemple, en Indonésie, une année El Niño particulièrement marquée peut diviser la récolte de riz par deux. Il y a aussi de nombreux impacts en l’Afrique, en particulier en Afrique de l’Est : des inondations pendant El Niño, des sécheresses pendant La Niña, avec des impacts humanitaires très sévères dans des pays déjà vulnérables. Les agences humanitaires utilisent aujourd’hui les prévisions saisonnières pour pouvoir anticiper ces événements extrêmes et leurs impacts. Il y a aussi des impacts en Californie, qui voit ses précipitations augmenter pendant El Niño et diminuer pendant La Niña, amplifiant les impacts de la sécheresse liée au changement climatique.
On lie souvent ces événements extrêmes au changement climatique, peut-on faire un lien direct entre El Niño et le changement climatique ?
É. G. : Il y a trois aspects à retenir sur les liens avec le changement climatique : l’un avéré, un autre qui est une question de recherche et enfin un aspect trompeur. Celui qui est avéré vient du fait qu’une atmosphère plus chaude contient plus d’humidité. Donc quand il pleut plus, il pleut encore plus du fait du réchauffement climatique. Pendant El Niño, il y a par exemple des précipitations intenses dans certaines régions qui étaient plutôt sèches, par exemple le Pacifique central ou les côtes du Pérou et du Chili. Il y en a d’autres en Afrique centrale et de l’est, comme nous l’avons vu aussi. Donc ces événements extrêmes vont être plus extrêmes du fait du réchauffement climatique. Ce premier aspect est bien documenté, en particulier dans les rapports du GIEC.
La seconde question qui se pose est de savoir si El Niño lui-même va changer. Est-ce que son intensité, sa fréquence, sa localisation vont évoluer ? Cela reste une question de recherche. Il y a une série d’études basées sur des résultats de modélisation qui suggère que la fréquence des événements les plus forts pourrait augmenter. Mais il faut rester prudent car ces simulations numériques, fiables à l’échelle saisonnière, ont encore des biais à plus long terme. Il reste de nombreuses questions dont la communauté scientifique s’empare avec énergie.
Enfin, l’aspect trompeur est de penser qu’El Niño accélère le changement climatique. C’est d’abord une confusion d’échelle de temps : El Niño modifie la température planétaire d’une année sur l’autre alors que le réchauffement la modifie dans le temps long (décennies). Ensuite, il est arithmétiquement compréhensible qu’El Niño modifie la température moyenne car le Pacifique tropical représente un quart de la surface de la planète. Mais cela ne veut pas dire que la température augmente de façon durable sur le reste du globe. La focalisation de la communication climatique sur la température moyenne annuelle et d’éventuels records une année particulière encourage cette confusion.
Comment prévoit-on El Niño ?
É. G. : Aujourd’hui les systèmes de prévisions opérationnels, par exemple à Météo-France ou au Centre européen de prévision à moyen terme en Europe ou à la NOAA aux USA, prévoient ce phénomène environ 6 à 9 mois à l’avance. Un réseau d’observation couvre le Pacifique tropical composé essentiellement de bouées fixes et dérivantes et de satellites. Ce réseau permet de mesurer la température, les courants et les autres paramètres qui vont permettre d’établir avec précision l’état actuel de l’océan qui est la base d’une prévision de qualité. On va ainsi pouvoir détecter l’accumulation de chaleur dans le Pacifique Ouest, qui se traduit par une anomalie de température de plusieurs degrés vers 300 mètres de profondeur, et qui est un précurseur d’El Niño.
Cette condition nécessaire n’est pas suffisante car il faut un déclencheur, en général une anomalie de vent d’Ouest en surface. Le fait que celle-ci soit plus difficile à prévoir explique la limite de prévisibilité à 6 à 9 mois.
Par exemple, en 2014, Le système était rechargé en chaleur en profondeur et les prévisions indiquaient une forte probabilité d’El Niño cette année-là… qui n’a pas eu lieu car l’atmosphère n’a pas déclenché l’événement. Il a fallu attendre 2015 pour avoir El Niño et évacuer cette chaleur accumulée vers les plus hautes latitudes.
Les enjeux de recherche actuels, issus des besoins de la société, sont de prévoir plus finement le type d’El Niño. Va-t-il être plutôt fort ou plutôt faible ? Sera-t-il localisé plutôt dans l’Est du Pacifique ou plutôt dans le centre ? Les enjeux de prévision sont importants puisque les impacts ne seront pas les mêmes.
On le voit, vos travaux ont un impact sur certaines grandes décisions politiques, vous avez fait partie des auteurs du cinquième rapport du GIEC, cela vous a également exposé au système médiatique, comment l’avez-vous vécu ?
É. G. : J’ai d’abord pensé qu’il était important de partager ce que nous scientifiques savons sur le changement climatique, donc j’y suis allé. Sans être forcément très préparé et cela a pu être un peu rock’n’roll au début ! Ensuite, grâce à des media training, j’ai mieux compris le monde des médias, qui a des codes et des temporalités très différents de ceux du monde de la recherche. Depuis, les sollicitations viennent en fait de toute part, elles ne sont pas que médiatiques. En ce qui me concerne, j’ai décidé de principalement m’investir dans l’éducation, à travers la présidence de l’Office for Climate Education, qui a pour mission d’accompagner les enseignants du primaire et du secondaire pour une éducation au climat de qualité et pour toutes et tous. C’est un engagement qui fait sens.
Je suis également engagé dans une réflexion sur le rôle du scientifique dans la société. Nous avons créé un groupe de réflexion éthique au sein de l’Institut Pierre-Simon Laplace pour échanger collectivement sur ces enjeux science-sociéte et les différentes postures possibles.
Cette réflexion était essentiellement individuelle ou faite entre deux portes dans les couloirs de nos laboratoires. Les enjeux sont tels que nous avons décidé de nous en emparer collectivement. Cela m’a amené å rejoindre le Comité d’éthique du CNRS pour lequel j’ai co-piloté un avis sur l’engagement public des chercheurs. « L’engagement public », c’est quand un chercheur s’exprime publiquement en tant que chercheur pour pousser à l’action (par exemple une biologiste qui dit « vaccinez-vous » ou un climatologue qui suggère de moins prendre l’avion). C’est donc différent de la médiation ou de la communication scientifique qui n’ont, en général, pas cet objectif « normatif ». L’engagement public ainsi défini ne fait pas partie de la fiche de poste des chercheurs, mais c’est important que des scientifiques puissent le faire. Car si ce n’est pas eux qui interviennent dans le débat public, ce sera peut-être des personnes avec moins d’expertise.
Mais n’est-ce pas un risque pour le chercheur de s’engager ainsi ?
É. G. : Si bien sûr ! Un risque pour sa réputation académique, pour l’image de son institution, voire même pour l’image de la recherche. Pour le faire de façon sûre et responsable, il faut donc avoir conscience des valeurs que porte un tel engagement et en faire état. Car l’expression publique, même d’un chercheur, n’est pas neutre. Les mots que l’on va choisir, le ton de sa voix, la façon de se présenter, portent un récit et donc des valeurs. Clarifier ces valeurs personnelles pour ne pas tromper son auditoire, le laissant croire à une prétendue neutralité, a aussi l’avantage de ne pas risquer d’être perçu comme militant.
C’est un travail d’acculturation nouveau pour notre communauté, que d’autres sciences pratiquent depuis plus longtemps, comme les sciences médicales. Nous devons collectivement mieux comprendre la société et ses ressorts pour n’être ni naïfs, ni instrumentalisés, et rester pertinents. Il faut par exemple être particulièrement vigilant avec des porteurs d’intérêts privés (entreprises, ONG, partis politiques) qui peuvent vouloir chercher une forme de légitimation de leur agenda auprès des chercheurs.
Qu’est-ce qui a changé dans votre pratique des médias après toutes ces réflexions ?
É. G. : Tout d’abord, j’interviens nettement moins dans les médias. Les journées n’ont que 24 heures et je me suis rendu compte que ma valeur ajoutée n’était pas très élevée, l’angle de l’interview étant la plupart du temps décidé à l’avance. De plus, la pression sur les journalistes rend l’expression d’une nuance très difficile. L’injonction à prendre parti entre deux positions extrêmes me semble stérile même si je comprends que cela puisse faire de l’audimat.
J’ai joué ce jeu pendant un temps, mais j’ai fini par me rendre compte que je participais à un récit essentiellement catastrophiste et que mes tentatives de nuances étaient vaines. Et je ne parle même pas des réseaux sociaux, avec leurs algorithmes conçus pour polariser, que je ne pratique donc pas. Ce type de récit d’alerte a sans doute eu son utilité mais je suis convaincu qu’il est aujourd’hui contre-productif. Je suis aussi de plus en plus gêné quand on me tend le micro pour me demander ce qu’il faudrait faire. On entend souvent le message : « on connaît les solutions mais on ne les met pas en œuvre parce que, soit l’on n’écoute pas assez les scientifiques, soit il y a des “méchantes” entreprises, soit il y a des politiques incompétents ». Mais je ne suis pas sûr qu’il y ait des solutions clairement identifiées. Pour moi, le défi environnemental (climat, biodiversité, pollution) est comme la démocratie ou les droits de l’Homme, il n’y pas de solutions mais une attention de tous les instants, une réflexion démocratique sur le monde que nous voulons, le niveau de risque acceptable, le niveau d’inégalités acceptable, etc. C’est une discussion essentiellement politique, au sens noble du terme, dans laquelle l’avis des scientifiques n’a pas plus de poids que celui de chaque citoyen. Trop donner la parole aux scientifiques (ce que vous faites dans cet interview !) c’est risquer de dépolitiser des enjeux essentiels et ouvrir la porte à un backlash des populations.
D’où l’importance de l’éducation, pour bien percevoir la complexité des enjeux, bien différencier les registres de connaissance (scientifique, croyances, valeurs…), comprendre les liens et l’articulation entre les différents défis, et éviter ainsi de tomber dans des visions étroites du monde ou de l’avenir, forcément angoissantes. Le sentiment simpliste qu’il y aurait des solutions peut aussi générer de la colère envers les dirigeants qui ne les mettraient, donc, pas en œuvre.
Que proposez-vous pour avancer ?
É. G. : Tout d’abord retrouver de la nuance, de la complexité, affirmer haut et fort qu’il n’y a pas que le climat et la température moyenne de la Terre dans la vie, apprendre à préparer l’avenir positivement. Il y a 17 objectifs du développement durable qui sont autant de sources de malheur humain. A mes yeux de citoyen, il n’y en a pas un qui serait plus important ou plus urgent que les autres. Les éventuelles priorités dépendent de la société que nous voulons, du niveau de risque acceptable et sont donc ancrées localement et culturellement. Regardez comment les différents pays ont fait des choix politiques très différents face au même virus pendant le Covid ! Placer le débat d’abord au niveau du monde que nous voulons, c’est faire un grand pas en avant, même si le chemin reste long.
On me traite souvent « d’optimiste » face à tous ces défis. Mais en fait, pour moi, la période que nous vivons est passionnante ! Nous sommes face à une transition majeure, rare dans l’histoire de l’humanité. Oui c’est vrai, et il ne faut pas se voiler la face, cette transition aura son lot de risques et de malheurs et il y a des intérêts du monde ancien qui résisteront longtemps et farouchement. Mais un nouveau monde de possibles s’ouvre à nous – c’est terriblement excitant, en particulier pour les jeunes !
Éric Guilyardi est coordinateur du projet METRO (Modulation d’ENSO par la variabilité intrasaisonnière dans le Pacifique tropical et impact du changement climatique) et dirige le projet ARCHANGE (Changement climatique et Arctique et circulation océanique globale), tous deux soutenus par l’Agence nationale de la recherche (ANR). L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Éric Guilyardi est membre du Comité d'éthique du CNRS et du Conseil scientifique de l'Éducation nationale. Il est aussi président de l'Office for Climate Education et expert auprès de l'UNESCO et de l'OCDE.
11.06.2025 à 11:34
Pascal Brioist, Professeur des Universités. Spécialiste de Léonard de Vinci, des sciences et des techniques à la Renaissance, de l'Angleterre du XVIe et du XVIIe siècle., Université de Tours
Léonard de Vinci est incontesté comme peintre et comme inventeur, depuis la Joconde jusqu’à ses machines volantes. Ce que l’on sait moins, c’est qu’il a aussi proposé de nombreuses contributions en sciences et, de façon toujours aussi éclectique, a touché à la physique, à la géologie et à la botanique de son temps. Ces contributions montrent comment l’artiste toscan a pu accéder à des connaissances pointues bien qu’il ait été exclu des circuits traditionnels de diffusion des connaissances, en particulier de l’université.
Considéré par le philosophe Pierre Duhem, en 1900, comme le chaînon manquant entre la Science médiévale et la Science moderne, Léonard de Vinci a été depuis parfois jugé incapable d’avoir eu accès aux savoirs scientifiques et d’avoir été un piètre savant. En effet, sa naissance illégitime l’empêcha de fréquenter l’université (celle-ci était interdite aux enfants illégitimes). Certains experts ont même essayé de le cantonner au rôle de technicien et sont allés jusqu’à critiquer les machines qu’il dessina en soulignant qu’elles étaient de simples reprises de celles de prédécesseurs ou en les qualifiant d’impossibles.
Aujourd’hui cependant, l’examen attentif des écrits du Toscan prouve qu’au contraire, celui-ci avait trouvé des biais pour avoir accès à la culture qui lui était refusée et, mieux encore, avait été capable de remettre en cause par l’expérience des savoirs scolastiques – en trouvant des savants qui pouvaient lui expliquer ce à quoi il n’avait pas accès directement, par exemple le mathématicien Luca Piacioli pour accéder à Euclide, ou le médecin de Pavie Marcantonio della Torres pour comprendre les idées de Galien.
Dans le domaine de la technologie, certes, il s’inspirait d’ingénieurs médiévaux comme l’architecte Filippo Brunelleschi ou les ingénieurs le Taccola et Francesco di Giorgio, mais il les dépassa en inventant une méthode de réduction en art de la mécanique (qui consiste à avoir une approche analytique de la mécanique en identifiant sur le papier tous les éléments simples, comme les engrenages, cames, échappements, ressorts, pour pouvoir composer des combinatoires agençant ces éléments de machines), en perfectionnant le dessin technique et en s’inspirant du vivant pour des machines volantes.
Ainsi, il est à l’origine de grandes percées dans les domaines multiples dans lesquels il excella – même si ses textes restèrent manuscrits jusqu’en 1883, ce qui l’empêcha de léguer ses découvertes.
Si l’on commence par la physique, celui qui n’avait été formé ni à l’aristotélisme, ni aux théories d’Archimède, fut tout de même capable, sur le tard, capable de se faire expliquer les principes de la science de l’antiquité (comme les quatre puissances de la nature : mouvements, poids, force et percussion) et de parcourir les traités de base en latin.
Ainsi, il était parfaitement au courant de la théorie de l’antipéristase et de celle, médiévale, de l’impetus. La première disait qu’un corps lancé continue à avancer parce que l’air qui est devant lui est propulsé derrière lui et alimente la poussée. Léonard récuse cette idée en acceptant le concept d’impetus : ce qui pousse le corps, c’est une qualité d’impulsion conférée au projectile. Léonard le démontre par une expérience où il tire avec une arquebuse dans une gourde (si l’antipéristase fonctionnait, l’eau de la gourde empêcherait la balle de poursuivre sa trajectoire, ce qui n’est pas le cas).
À propos d’un autre concept de physique, celui des frottements, Léonard prouve là encore par l’étude des faits que celui-ci est proportionnel non à la surface de contact mais au poids de l’objet.
Léonard, passionné par les tourbillons, explore aussi le champ de l’hydraulique et de l’aérodynamique, on lui doit l’intuition des turbulences, des vortex de surface et des vortex profonds, des tourbillons induits, etc.
À lire aussi : De la physique à la météo, une petite histoire de la turbulence
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Dans le domaine de l’optique, Léonard s’inspire du mathématicien, physicien et médecin du XIe siècle Alhazen, de son vrai nom Ibn al-Haytham, est un auquel on doit une théorie moderne de l’optique, incluant des réflexions physiologiques sur l’œil, et l’introduction des mathématiques dans les sciences physiques. Grâce à la traduction d’Erasmus Vitello – Vitellion en français, un moine de Silésie du XIVe siècle, commentateur d’Alhazen et auteur d’un traité de perspective –, il étudie l’œil et les rayons lumineux qu’il considère comme émis par l’objet pour créer dans la rétine des simulacres.
Il construit même une « boîte noire » (ou camera obscura, sorte de caméra primitive) pour simuler ce phénomène.
Excellent cartographe, Léonard est aussi un remarquable géologue qui théorise le rôle de l’eau dans l’érosion, comprend les empilements de couches géologiques et explique l’origine des fossiles.
Enfant élevé à la campagne, il s’intéresse aussi à la botanique, dessinant toutes sortes de plantes mais cherchant aussi les règles de leur croissance. Le tableau de la Vierge aux Rochers constitue un véritable herbier virtuel.
Le domaine de l’anatomie est assurément celui où le maître est allé le plus loin. À partir de nombreuses lectures, il perfectionne les méthodes de dissection en collaborant avec des médecins de Florence, de Pavie (comme le galéniste Marcantonio Della Torre) et de Rome, produisant des dessins du corps et de ses parties d’une précision ahurissante.
Mieux encore, il découvre par des expérimentations le principe de la circulation du sang en tourbillons dans les valves aortiques, propose des interprétations du fonctionnement du système uro-génital, du système respiratoire ou du système digestif et étudie les relations du fœtus et de la matrice.
Pour comprendre l’anatomie du cerveau, et le lien entre les sens et la mémoire, il coule de la cire dans les cavités cérébrales et découpe des crânes.
C’est peut-être dans les mathématiques que Léonard fut le plus faible, malgré sa collaboration avec le Franciscain Luca Pacioli pour lequel il dessine les polyèdres de la Divina Proportione. Il n’empêche que les mathématiques ne cessent de l’inspirer et qu’il est convaincu que la nature est animée par des règles géométriques et arithmétiques.
À lire aussi : « La recherche de la beauté est l’une des motivations principales du chercheur »
L’approche scientifique de Léonard l’amène à produire un certain nombre de traités aujourd’hui perdus mais auxquels il fait souvent allusion comme un traité sur l’eau, un traité sur le vol des oiseaux ou un traité sur les éléments de machines.
Si l’on n’a guère retenu les apports de Léonard dans les sciences, en revanche, son activité d’ingénieur et d’inventeur constitue un élément clé de sa légende.
Là encore, l’activité du Toscan témoigne d’une curiosité tous azimuts dans les arts mécaniques : grues et machines de chantiers, écluses et machines hydrauliques, machines textiles, machines de fonderie, pompes, machines de guerre, machines de théâtre, automates, machines volantes…
Le chimiste Marcelin Berthelot, au début du XXe siècle, fut le premier à s’apercevoir que bien des machines de Léonard étaient inspirées du Moyen Âge. Le principe du char d’assaut, par exemple, était déjà là dans le Bellifortis, de Konrad Kyeser (1366-1406), et bien des engins de siège proposés par Léonard de Vinci à Ludovic Sforza, dans une lettre de motivation, étaient décrits par Roberto Valturio en 1472 dans le De arte militari.
Le principe du parachute avait été aussi exposé dans un manuscrit siennois de la première moitié du XVe siècle.
En ce temps où la propriété intellectuelle n’est pas vraiment stabilisée, il est fréquent que les ingénieurs reprennent les idées de leurs prédécesseurs ou de leurs contemporains. Ainsi, une scie mécanique hydraulique d’ingénieurs siennois reprend des usages techniques de moines médiévaux, et Francesco di Giorgio des idées de Brunelleschi pour des navires à aubes.
Ainsi, les carnets de Léonard sont remplis de croquis d’engins de levage ou de bateaux à aubes de Brunelleschi, de moulins et d’engrenages de Francesco di Giorgio Martini ou encore de mécanismes d’horlogerie de Della Volpaia. Il n’est pas toujours facile d’attribuer l’invention d’une machine dessinée par Léonard à ce dernier car il copie ce qui l’entoure — ce qu’il concède volontiers, par exemple quand il dit qu’un dispositif anti-frottement pour les cloches lui a été suggéré par un serrurier allemand nommé Giulio Tedesco.
Certains chercheurs, hypercritiques, en ont conclu que Léonard n’avait jamais construit une seule machine. C’est aller trop vite en besogne car certaines machines sont attestées par plusieurs témoins – les ambassadeurs de Ferrare ou de Venise, ou encore des contemporains florentins : un lion automate, par exemple, un compteur d’eau, des ponts autoportants, des mécanismes de théâtre…
De plus, quand Léonard recommande à ses apprentis de se méfier des espions qui pourraient voir ses essais de machines volantes depuis le tambour de la cathédrale de Milan ou quand il reproche à des mécaniciens allemands d’avoir copié à Rome ses projets de miroirs incendiaires, il est évident qu’il parle d’artefacts concrets.
Pour autant, tous les schémas de projets n’ont pas nécessairement été réalisés ; ce que l’on devine lorsqu’on essaye de les reconstituer… et qu’ils ne fonctionnent pas (par exemple, les engrenages d’un char d’assaut qui feraient aller les roues arrière et avant de l’appareil en sens contraire).
De plus, des machines textiles (fileuses, métiers à tisser, batteuses de feuilles d’or, tondeuses de bérets) incroyablement sophistiquées présentent des problèmes de résistance des matériaux qui rendent leur survie improbable.
L’apport de Léonard de Vinci aux technologies est d’abord une approche méthodologique. Ainsi par exemple, dans son Traité des éléments de machines, le Toscan s’est attaché à réduire la mécanique en éléments simples (leviers, manivelles, vis, cames, ressorts, échappements, engrenages, etc.) pour pouvoir en mathématiser les effets et élaborer des combinatoires. Tout est alors question de timing, par exemple pour les fileuses automatiques, les métiers à tisser, les batteurs d’or, les machines à tailler les limes ou les polisseurs de miroirs. Vitesse et puissance fonctionnent en proportion inverse et le chercheur s’émerveille des vertus des vis et des engrenages.
Son autre apport est une élaboration nouvelle du dessin technique combinant vue de dessus, vue de profil, axonométries et éclatés.
Enfin, Léonard étonne par son investigation de domaines nouveaux, comme le vol, utilisant l’observation de la nature pour trouver des solutions mécaniques à des problèmes inédits.
Les limites du travail de Léonard sont évidentes – en mathématiques, par exemple – mais contrairement à ce que disent les critiques qui soulignent les déficiences de sa formation, elles l’amènent souvent à dépasser la tradition.
L’exposition « Léonard de Vinci et le biomimétisme, s’inspirer du vivant », dont Pascal Brioist est commissaire, est visible au Clos Lucé, à Amboise (Indre-et-Loire), du 7 juin au 10 septembre 2025.
Pour en savoir plus sur Léonard de Vinci et sa vie à contre-courant, le livre de Pascal Brioist Les Audaces de Léonard de Vinci, aux éditions Stock (2019).
Pascal Brioist a reçu des financements de la région Centre. J'ai reçu autrefois une APR pour un spectacle sur Marignan
10.06.2025 à 17:08
Mickael Bonnefoy, Chercheur CNRS à l'Institut de Planétologie et d'Astrophysique de Grenoble, Université Grenoble Alpes (UGA)
Une nouvelle étude, publiée aujourd’hui dans Nature, dévoile deux jeunes exoplanètes, dont l’une toujours en formation, au sein d’un système stellaire atypique.
Mickaël Bonnefoy, astrophysicien et co-auteur de l’étude, nous explique qui sont ces « bébés exoplanètes ».
Vous nous emmenez en voyage dans un système stellaire atypique, YSES-1. Pourquoi intrigue-t-il les scientifiques ?
M. B. : Le système YSES-1 est atypique dans le bestiaire exoplanétaire. Situé à plus de 300 années-lumière de nous, ce système 270 fois plus jeune que le système solaire se compose d’une étoile analogue à notre Soleil et de deux grosses planètes, respectivement de 14 et 6 fois la masse de Jupiter, qui est pourtant de loin la plus grosse planète du système solaire. Ces exoplanètes sont aussi très éloignées de leur étoile – sur des orbites 35 et 71 fois la distance Soleil-Jupiter.
Cette architecture exotique remet en perspective l’origine et les propriétés de notre propre système solaire. YSES-1 nous permet d’étudier les propriétés de plusieurs exoplanètes joviennes jeunes, des « bébés exoplanètes », au sein d’un seul et même système.
Les données du télescope spatial James-Webb (JWST) révèlent l’intrigante nature de ces deux gros « bébés exoplanètes », et montrent que la plus massive des deux est encore en train de se forme. C’est ce que notre collaboration internationale publie aujourd’hui dans Nature.
Quelles sont les observations que vous décrivez dans votre article ?
M. B. : Grâce au télescope spatial James-Webb, nous avons observé des poussières de silicates en suspension dans l’atmosphère de la planète la moins massive et la plus lointaine de l’étoile, YSES-1 c. Ces poussières ont été prédites il y a plusieurs décennies par les études théoriques, mais c’est seulement aujourd’hui, avec ce télescope spatial, que l’on peut les observer directement.
Nos données mettent également en évidence pour la première fois un disque autour de la planète la plus massive et la plus proche de l’étoile, YSES-1 b. Ce type de disque est bien différent des anneaux de Saturne. Il s’agit plutôt d’un « réservoir de matière » qui alimente l’atmosphère de cette planète toujours en train de se former.
C’est aussi le lieu de formation de possibles exolunes. Nous savons qu’il y a eu un disque de poussière similaire autour de Jupiter dans le passé, qui a donné naissance à ses lunes, dont Europe et Ganymède.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Quel était votre but en pointant le télescope James-Webb sur ce système stellaire, déjà bien connu ?
M. B. : Nous souhaitions initialement étudier l’atmosphère de ces deux planètes et mettre en évidence leurs différences physiques (masse, température) pour comprendre comment elles ont pu se former.
En étudiant le système YSES-1, très jeune (16,7 millions d’années), on espérait mieux comprendre les origines de notre propre système solaire (4,5 milliards d’années).
Mais vous avez observé quelque chose que vous n’aviez pas prévu d’observer initialement ?
M. B. : Absolument. Jusqu’au lancement du télescope James-Webb, nous ne pouvions étudier la lumière des exoplanètes au-delà de 5 micromètres du fait de l’absorption de l’atmosphère terrestre à ces longueurs d’onde depuis le sol.
Grâce à la nouvelle fenêtre observationnelle offerte par ce télescope spatial, nous pouvons étudier la signature spectroscopique de nombreuses molécules et particules en suspension dans l’atmosphère de ces exoplanètes.
Ici, nous avons pu révéler la présence d’un disque autour de la planète la plus massive du système, qui cause un excès de flux dans l’infrarouge mis en évidence par ces observations. Ce disque est le lieu de formation possible d’exolunes similaires à celles formées autour de Jupiter. Ce disque sert également de réservoir de matière pour former l’enveloppe gazeuse de la planète.
Est-ce que vous avez répondu à vos questions initiales ? Comprend-on mieux aujourd’hui comment un tel système a pu se former, avec ses planètes très massives et très lointaines de l’étoile ?
M. B. : Non, finalement, l’étude n’aborde pas ces points en détail, mais se focalise plus sur les propriétés de l’atmosphère de l’exoplanète YSES-1 c et du disque de l’exoplanète YSES-1 b.
Quelles sont les questions qui sont ouvertes par votre étude ?
M. B. : La découverte d’un disque autour d’une des planètes et son absence sur l’autre planète dans un système d’un âge donné pose la question de la chronologie de la formation de ces planètes. Se sont-elles formées en même temps ? Un disque existait-il dans le passé autour de l’exoplanète la moins massive ? Il reste la possibilité qu’un tel disque soit toujours présent, mais invisible dans les observations actuelles : ce serait le cas s’il émet au-delà des longueurs d’onde de nos observations.
De nouvelles observations avec le télescope James-Webb dans une gamme de longueurs d’onde au-delà de 12 micromètres seront nécessaires pour clarifier ces questions ouvertes.
À lire aussi : Le télescope James-Webb expliqué par ceux qui l’ont fait
Au-delà, cette étude permet de caractériser pour la première fois quantitativement les propriétés des nuages de poussière dans l’atmosphère d’une exoplanète jovienne jeune. De nouvelles observations du système au-delà de 12 micromètres permettront de préciser la composition de cette poussière, qui est sans doute faite de plusieurs types de grains.
Les projets FRAME et MIRAGES sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Mickael Bonnefoy a reçu des financements de l'Agence Nationale de la Recherche (bourses ANR-20-CE31-0012 et ANR-23-CE31-0006).
09.06.2025 à 14:40
Sabrina Speich, Professeure en océanographie et sciences du climat, École normale supérieure (ENS) – PSL
Quand on parle de réchauffement climatique, on pense souvent à l’air qui se réchauffe. Mais c’est l’océan qui, grâce aux courants marins et aux propriétés exceptionnelles de l’eau, a jusqu’à présent absorbé frontalement une grande partie du réchauffement. Avec l’accélération du changement climatique, la perte de biodiversité et la pollution omniprésente, les observations océaniques sont indispensables pour évaluer et préserver la santé des océans.
Au cours des trois dernières décennies, les développements technologiques et la coordination des observations de l’océan à l’échelle mondiale, sous l’égide de l’Unesco, ont révolutionné notre compréhension des processus océaniques, permettant des descriptions et des capacités de prévision robustes à l’échelle planétaire, régionale et côtière. Néanmoins, à l’heure où s’ouvre à Nice la troisième conférence internationale des Nations unies pour les océans (Unoc 3), il est urgent de pérenniser les moyens scientifiques de la surveillance de l’océan et de retisser les liens entre sciences et société.
Depuis les années 1960, le domaine de l’observation des océans a été transformé par d’importantes avancées technologiques et numériques. La transition vers une approche globale de surveillance de la santé de l’océan s’est fait grâce à l’émergence d’instruments in situ déployés en mer et de satellites qui permettent d’observer la Terre depuis l’espace, et grâce à l’amélioration des modèles numériques.
Progressivement, les scientifiques du monde entier ont su mettre l’océan à cœur ouvert. Aujourd’hui, les scientifiques sont unanimes : le changement climatique est bien en cours, et il a des conséquences dramatiques sur l’état de santé d’un océan qui a déjà absorbé 90 % de l’excès de chaleur et 26 % des émissions de CO₂ dus à nos activités humaines. Par exemple, une eau plus acide et plus chaude menace les écosystèmes marins comme les coraux, les coquillages et toute la chaîne alimentaire océanique.
Les scientifiques observent également que trois des neuf limites planétaires sont déjà franchies et que, parmi les dix principaux risques pour la décennie 2025-2035 à venir, quatre d’entre eux sont liés à l’environnement et à l’état de santé de l’océan.
Le système climatique, alimenté en énergie par le soleil, est principalement composé de réservoirs et de flux entre ces réservoirs. La planète Terre compte ainsi trois grands compartiments que sont l’atmosphère, les surfaces continentales et les océans. Les flux entre ces réservoirs sont principalement des flux de matières, d’énergie et de chaleur.
Les océans ne forment qu’un, connectés entre eux au pôle Sud par l’intermédiaire de l’anneau austral qui encercle le continent antarctique. Cet océan est l’unique enveloppe fluide de notre planète, couvrant plus des deux tiers de la surface du globe et représentant près de 96 % de l’eau disponible sur Terre. L’océan et l’atmosphère sont en contact permanent et les échanges air-mer se font principalement sur la base du cycle de l’eau, par exemple lors des précipitations ou de l’évaporation de l’eau de mer. Ces échanges continus permettent l’équilibre du système climatique par la redistribution des flux et l’installation des différentes conditions climatiques dans chaque région du monde.
En particulier, la chaleur et le CO2 atmosphériques sont absorbés par l’océan à l’interface air-mer, puis transportés et redistribués sur le globe grâce aux courants marins et à l’activité biologique marine. Cette circulation s’effectue dans chacun des bassins océaniques, du nord au sud et d’ouest en est. Mais elle est aussi verticale, entre la surface et les très grandes profondeurs marines. Sa profondeur moyenne de 3 800 mètres fait de l’océan un immense réservoir de chaleur doté d’une très forte inertie thermique, du fait des propriétés physiques de l’eau.
Par la capacité de ses courants marins à absorber, à transporter puis à stocker dans ses plus grandes profondeurs les signaux atmosphériques et les nombreux flux provenant des autres réservoirs, l’océan joue un rôle clé dans les mécanismes climatiques globaux et dans l’équilibre planétaire. Il est un des piliers du système climatique, de sorte que les scientifiques le qualifient de « thermostat de la planète ».
Pour comprendre le système climatique, les scientifiques se basent sur la combinaison de trois types d’observations océaniques :
les mesures in situ, collectées en mer et qui fournissent des données détaillées sur les couches sous-marines pour surveiller la variabilité des océans en profondeur et les changements à long terme ;
les observations par satellite, offrant une couverture spatiale étendue des premiers mètres de la surface océanique pour suivre l’élévation du niveau de la mer, la couleur des océans, la température et la salinité de surface ou encore la productivité primaire marine ;
les modèles numériques et l’assimilation des données qui synthétisent les observations afin de décrire l’évolution passée, présente et future des océans.
Aujourd’hui, les observations océaniques englobent un large éventail de paramètres physiques (température, salinité…), biogéochimiques (oxygène, carbone dissous…) et biologiques (phytoplancton, zooplancton…) essentiels à l’évaluation du climat, à la gestion des ressources marines et aux systèmes d’alerte précoce. Elles sont la seule source fiable d’informations sur l’état des océans et du climat, et viennent améliorer et valider les modèles numériques pour affiner leurs prévisions.
Le Global Ocean Observing System (GOOS), programme international créé au début des années 1990 après la deuxième Conférence mondiale sur le climat de Genève et le Sommet de la Terre à Rio de Janeiro, coordonne l’observation et la surveillance de l’océan à l’échelle de la planète. Son objectif est de mieux comprendre l’état de l’océan, prévoir son évolution et soutenir la prise de décisions face aux enjeux climatiques, environnementaux et sociétaux.
Il fonctionne comme un réseau mondial intégré d’observations océaniques, combinant des données issues de satellites, de bouées, de flotteurs profilants (comme le programme Argo), de navires et de stations côtières.
Les données collectées par le réseau d’observations coordonnées par GOOS sont gratuites et ouvertes, accessibles non seulement aux chercheuses et chercheurs, mais aussi aux actrices et acteurs de la société civile, aux entreprises, aux collectivités locales et à toute organisation impliquée dans la gestion ou la protection de l’océan. Ces informations sont essentielles pour surveiller la santé des écosystèmes marins, anticiper les événements extrêmes, soutenir les politiques climatiques et favoriser une économie bleue durable.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Un système complet d’observation des océans tel que le GOOS répond à de multiples besoins sociétaux.
Comme nous l’avons vu, l’océan modère le réchauffement climatique, atténuant par conséquent les phénomènes météorologiques extrêmes. En améliorant la prévision des vagues de chaleur marines, des ondes de tempête, des proliférations d’algues nuisibles et des tsunamis, le GOOS contribue à l’initiative « Alertes précoces pour tous », lancée en 2022 par les Nations unies. Son objectif est simple et ambitieux : que chaque personne sur Terre soit protégée par un système d’alerte précoce d’ici 2027, un système qui diffuse des alertes claires et accessibles pour donner le temps de se préparer à l’arrivée d’un événement extrême.
Alors que plus de 90 % du commerce mondial dépend du transport maritime, que la pêche et l’aquaculture font vivre des milliards de personnes, une surveillance renforcée soutient également une économie bleue durable. En particulier, la gestion écosystémique, la planification des usages des océans et l’exploitation durable des ressources marines garantissent la résilience des écosystèmes tout en favorisant la croissance économique – en miroir du quatorzième objectif de développement durable (ODD 14) des Nations unies, « Conserver et exploiter de manière durable les océans, les mers et les ressources marines aux fins du développement durable ».
Le GOOS actuel constitue une infrastructure essentielle pour suivre l’état de l’océan et informer les politiques publiques. Mais il reste encore insuffisant pour répondre pleinement aux besoins liés à l’action climatique, aux prévisions opérationnelles, aux jumeaux numériques de l’océan ou à la gestion durable des océans et de leurs ressources.
Les efforts futurs doivent viser à maintenir et à renforcer les systèmes d’observation existants, tout en les étendant pour couvrir de manière plus complète l’ensemble des dimensions physiques, biogéochimiques et biologiques de l’océan.
En priorité, il s’agira de :
développer les observations dans les zones jusqu’ici peu couvertes, notamment les observations en eaux profondes et polaires ;
renforcer les observations biogéochimiques et biologiques jusqu’ici moins nombreuses et peu systématiques ;
améliorer l’intégration des observations océaniques avec les services de prévision océaniques et climatiques afin de fournir des informations utiles et exploitables aux décideurs, aux acteurs économiques et aux communautés côtières.
Enfin, la pérennisation des financements pour les réseaux d’observation à long terme représente un défi majeur de la prochaine décennie. Sans un engagement durable, il sera difficile de maintenir, d’adapter et de faire évoluer ces infrastructures clés face à l’accélération des changements océaniques et climatiques.
Au-delà de la recherche et de la politique, il est essentiel de sensibiliser à l’océan pour que la société soit mieux informée et consciente des liens entre la santé des océans, la stabilité du climat et le bien-être humain.
Pour cela, des initiatives d’observation mondiale, par exemple Adopt-A-Float ou Ocean Observers, invitent élèves, étudiants et communautés à suivre les instruments océanographiques et à contribuer à la surveillance environnementale.
Plus globalement, ouvrir les portes des laboratoires et mettre la science à la portée de tous est urgent.
À ce titre, la collaboration entre experts-scientifiques et journalistes portant l’information auprès du grand public est un véritable enjeu, en particulier dans le contexte actuel d’une société à la fois surinformée, mal informée et parfois désinformée.
Alors que des milliers de scientifiques sont au chevet de la santé de l’océan 24 heures sur 24 et 7 jours sur 7, l’évolution continue du GOOS, guidée par les progrès scientifiques et par les besoins politiques, jouera un rôle essentiel dans la construction d’un avenir durable et résilient pour les océans. Un système d’observation véritablement mondial et inclusif, soutenu par une gouvernance collaborative et une allocation équitable des ressources, sera essentiel pour relever les défis et saisir les opportunités du XXIe siècle.
Cet article a été co-écrit avec Carole Saout-Grit, physicienne océanographe, directrice du bureau d’études GlazeO et directrice de publication du média Océans Connectés.
Les projets EUREC4A-OA et SAMOC sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Sabrina Speich, professeure à l'Ecole Normale Supérieure de Paris, a reçu des financements de l'ANR, de Europe Horizon 2020, Europe Horizon 2030, et de l'European research Council. Elle est co-présidente du comité d'experts Ocean Observations for Physics and Climate du Global Ocean Obsrving System et du Global Climate Observing System sous l'égide des Nations Unies, de l'International Science Council et de l'Organisation Météorologique Mondiale. Ce travail n'est pas rémunéré. Elle fait partie de plusieurs "scientific advisory boards" internationaux d'instituts de recherche.
08.06.2025 à 13:40
Anaïs Schmitt, Ingénieur de recherche, cheffe de projet expertise en gestion des données, La Rochelle Université
Dans les zones côtières – où les pressions sont fortes (érosion, submersion), les risques élevés (la majorité de la population mondiale y vit) et les enjeux de durabilité majeurs (ils abritent une biodiversité riche et unique remplissant de nombreuses fonctions essentielles à la vie) –, les problèmes concernent souvent un grand nombre d’acteurs aux objectifs variés. Leur permettre d’accéder à un socle commun de connaissances est impératif pour trouver des solutions efficaces pour tous et des compromis justes.
À l’heure de la Conférence des Nations unies sur l’océan, qui a lieu du 9 au 15 juin 2025 à Nice, les efforts en faveur de l’ouverture des données en France et en Europe sont d’autant plus urgents que les États-Unis, traditionnellement moteurs de la recherche mondiale, retirent de la circulation, sur exigence de l’administration Trump, des données importantes. Dans un monde confronté à des défis cruciaux, tels que l’adaptation au changement climatique ou la montée des extrémismes politiques, l’ouverture du savoir est une condition sine qua non de la coopération, du progrès et de la démocratie. La démocratisation de la science passe en premier lieu par l’accès aux connaissances, et il est aujourd’hui menacé.
La connaissance et sa diffusion sans limites sont fondamentales pour agir en faveur de la durabilité et la résilience de nos socioécosystèmes. Sans connaissances objectives, les préjugés prennent le pas sur la raison et mènent à des choix de développement généralement inefficaces, voire contre-productifs, ou injustes. Ce duel entre savoir et croyance, progressisme et obscurantisme, existe depuis longtemps mais il a certainement pris une nouvelle dimension avec l’essor d’internet et autres nouvelles technologies de télécommunication, et plus récemment de l’intelligence artificielle. Ces outils ont accéléré de manière exponentielle la production et la propagation aussi bien de la connaissance que de la désinformation. Et le combat est acharné.
Pour exemple, les récentes décisions de l’administration du président des États-Unis Donald Trump, qui en quelques mois a mis à mal la recherche américaine et par ricochet, la recherche mondiale, en coupant les financements sur des sujets jugés « sensibles », comme le changement climatique ou l’étude des genres. En particulier, des données associées à ces problématiques sont retirées progressivement de la circulation, notamment sur l’océan, et traditionnellement hébergées par les agences fédérales comme la NOAA (pour l’océan et l’atmosphère) et la NASA (pour l’espace).
À lire aussi : La destruction des données scientifiques aux États-Unis : un non-sens intellectuel, éthique mais aussi économique
Mais en termes d’accès à la connaissance, les États-Unis de Trump ne sont pas une exception, ni même les pays gouvernés par des régimes extrêmes. Même en France, de nombreuses affaires (sang contaminé, Mediator, chlordécone, tout récemment Nestlé, etc.) montrent que tout pouvoir peut être tenté, pour diverses raisons, de dissimuler des informations cruciales pour le bien commun.
Au-delà des scandales de désinformation, l’absence ou l’insuffisance d’information empêche toute prise de décision rationnelle et limite notre capacité à réduire notre impact sur les écosystèmes. Il est par exemple difficile de gérer durablement les pêcheries sans données sur l’évaluation des stocks de poissons et leur possible évolution avec le climat.
Dans ce contexte, la recherche scientifique a un rôle clé à jouer en tant que productrice de connaissances démontrées et objectives. Encore faut-il qu’elle adopte les bonnes pratiques pour rendre ces savoirs accessibles et utilisables.
Le mouvement de la science ouverte, initié au début des années 1990 par Paul Ginsparg et son archive ouverte arXiv, apparaît alors comme essentiel pour disséminer la connaissance et replacer la raison au cœur du fonctionnement de nos sociétés.
La science ouverte repose sur une idée simple : les connaissances issues de la recherche doivent être accessibles à tous, qu’il s’agisse de publications, données, outils, modèles ou méthodes. Cette transformation des pratiques scientifiques est une révolution silencieuse qui redéfinit les relations entre chercheurs, citoyens, entreprises et décideurs publics.
À lire aussi : La science ouverte : refaire circuler le savoir librement
Si on suit les plans de cloud européen pour la science ouverte (EOSC) et le Plan national pour la science ouverte, l’ouverture des données issues de la recherche financée sur fonds publics est obligatoire depuis 2016.
Pourtant, en 2023, seuls 25 % des publications françaises mentionnant des données produites signalent leur partage, 19 % pour les codes et logiciels. Plus généralement, 34 % des chercheurs ne publient jamais leurs données.
Si cette tendance est en légère hausse, une bonne partie des données produites dans les universités ne sont jamais archivées correctement et, trop souvent, dorment dans des disques durs.
La cause ? Un mélange non savant d’obstacles techniques, juridiques, économiques et culturels, à la fois individuels et collectifs. On y retrouve notamment un système d’évaluation de la recherche valorisant davantage les publications que le partage des données, et un mode de fonctionnement compétitif sur projet qui pousse à l’autovalorisation et l’autoprotection, dans le but de s’assurer un emploi pérenne, plutôt qu’à l’ouverture de ses travaux.
Le partage des données a beau être une pratique destinée à favoriser le progrès scientifique collectif, son adoption reste progressive et variable selon les disciplines. Afin d’y remédier, la recherche et les instances qui l’administrent doivent mettre en place de nouveaux mécanismes alignant intérêts individuels et collectifs.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
À titre d’exemple, le projet Urban & Coastal Lab — La Rochelle, initiative de La Rochelle Université, met en lumière ces tensions et opportunités. En grande partie focalisés sur les territoires littoraux, nous mettons en place un outil de gestion mutualisée des données, modèles, méthodes de la recherche, afin de favoriser l’interdisciplinarité et faciliter les collaborations entre chercheurs, ainsi qu’avec d’autres acteurs du territoire comme les collectivités et les citoyens…
Ce travail se heurte toutefois à des contraintes bien réelles et souvent terre à terre : manque de temps, compétences limitées en gestion de données, absence de reconnaissance institutionnelle, ou crainte du plagiat. L’ouverture est souvent perçue comme une charge supplémentaire, rarement valorisée dans la carrière académique.
À cela s’ajoute une asynchronie entre recherche et décision opérationnelles, publiques ou privées : les acteurs ont besoin de réponses immédiates, quand la recherche produit des données sur le temps long.
Ainsi, ce n’est pas simplement le projet, ni seulement ses motivations ou sa conduite, qui révèlent ces tensions et opportunités, mais bien le contexte plus global dans lequel il prend forme.
Infrastructures informatiques, services en ligne, espaces de stockage, documentations, coûts logistiques, financiers et énergétiques (par exemple pour rendre interopérables des fichiers volumineux), et on en passe — ouvrir la recherche a un coût matériel et financier.
Qui paie pour les serveurs ? Qui maintient les plates-formes ? Et comment garantir la qualité et la lisibilité des données pour qu’elles soient réellement réutilisables ?
Derrière l’acronyme FAIR (Findable, Accessible, Interoperable, Reusable), souvent cité comme donnant les principes fondamentaux de la science ouverte (trouvable, accessible, interopérable, réutilisable), se cache un travail complexe et conséquent d’annotation, de normalisation, de classification et de documentation.
C’est là qu’interviennent des outils comme les plans de gestion de données, devenus obligatoires dans certains appels à projets nationaux ou européens. Ils permettent d’anticiper les questions autour du cycle de vie des données, depuis leur collecte à leur partage en passant par leur formalisation et leur stockage. Cependant, ils sont souvent perçus comme une formalité administrative (pour ne pas dire contrainte), faute de formation et d’accompagnement adaptés, entre autres raisons.
Plusieurs leviers sont identifiés pour accélérer le mouvement de la science ouverte : modifier les critères d’évaluation de la recherche pour considérer le partage de données comme un indicateur clé de performance scientifique ; développer des formations pour que les chercheurs soient mieux outillés ; former des spécialistes en science ouverte (ingénieurs, analystes, informaticiens, archivistes, etc.) ; financer des infrastructures pérennes de stockage et de diffusion, interopérables entre disciplines ; et surtout, repenser le lien entre science et société, en facilitant l’accès aux données pour les citoyens, les autorités publiques, les collectivités, les ONG, les entreprises, etc. — en somme, tous celles et ceux qui souhaitent en apprendre plus sur le monde.
Les données scientifiques sont certes le fruit des travaux de recherche, mais leur utilité et leurs possibles champs de réutilisation dépassent la sphère académique. Les données issues de financements publics ne doivent pas être considérées comme un bien privé, mais comme un bien commun… sachant qu’elles doivent en même temps être protégées.
À cet effet, ouvrir ses données et les déposer sur des entrepôts ouverts est bien un moyen de les protéger et de se protéger. Cela permet de rendre publique leur origine (le travail des chercheurs est ainsi notoirement reconnu) et de leur associer des licences conditionnant leur utilisation (ce qui empêche leur détournement) et un doi (numéro d’identification unique pour les produits digitaux).
Le changement de paradigme vers la science ouverte doit être porté par les universités, soutenu par les financeurs et impulsé par les chercheurs eux-mêmes. Il s’agit de rendre la science ouverte plus attractive et valorisante.
Cet article a été co-écrit par Benoît Othoniel et Marine Regien, ingénieurs membres de l’équipe du projet.
Anaïs Schmitt a reçu des financements du MERS (COMP 2023-2025) et soutenu par le département de la Charente Maritime (CD17). Cet article a été rédigé avec le soutien de l’ensemble de l’équipe du projet UCLR, que nous remercions chaleureusement pour leur engagement et leur collaboration.
03.06.2025 à 15:59
Teresa Ubide, ARC Future Fellow and Associate Professor in Igneous Petrology/Volcanology, The University of Queensland
L’Etna, le plus grand volcan en activité d’Europe, situé en Sicile (Italie) et culminant à 3 324 mètres, est entré en éruption le lundi 2 juin 2025, heureusement sans danger pour la population selon les sources locales.
Lundi 2 juin matin (heure locale), le mont Etna, en Italie, s’est mis à cracher une énorme colonne de cendres, de gaz chauds et de fragments rocheux.
Un formidable panache de fumée exhalé par le plus grand volcan actif d’Europe, l’Etna en Sicile, s’est élevé sur plusieurs kilomètres dans le ciel.
Si l’explosion a produit un spectacle impressionnant, l’éruption n’a, à ce qu’il semble, fait ni victimes ni dégâts, et c’est tout juste si les vols en provenance ou en partance de l’île ont été perturbés. On a coutume de nommer les éruptions de l’Etna « éruptions stromboliennes » ; cependant, comme on le verra, ce terme ne s’applique pas forcément à ce récent événement.
L’éruption a commencé par une augmentation de la pression des gaz chauds contenus dans le volcan. Ce réchauffement a entraîné l’effondrement partiel d’un des cratères qui se trouvent au sommet de l’Etna.
Cet effondrement a déclenché ce qu’on appelle un « flux pyroclastique » : un panache de cendres, de gaz volcaniques et de fragments de roches qui jaillit des entrailles du volcan et se déplace à toute vitesse.
Ensuite, la lave s’est mise à couler sur les flancs de la montagne, dans trois directions différentes. Ces écoulements sont désormais en train de refroidir. Lundi soir, l’Institut national de géophysique et de volcanologie italien a annoncé que l’activité volcanique avait pris fin.
L’Etna est l’un des volcans les plus actifs du monde, donc cette éruption n’a rien d’exceptionnel.
Les volcanologues classent les éruptions en fonction de leur puissance explosive. Plus elles sont explosives, plus elles sont dangereuses, car elles évoluent plus vite et couvrent une zone plus importante.
Les plus bénignes sont celles qui se produisent à Hawaï (États-Unis), dans l’océan Pacifique. Vous en avez probablement vu les images : la lave coule mollement, comme léthargique, sur les pentes du volcan. Certes, elle abîme ce qui se trouve sur son chemin, mais le rayonnement en est relativement restreint.
Quand les éruptions se font plus explosives, en revanche, elles essaiment de la cendre et des fragments de roche à de plus grandes distances.
Tout en haut de l’échelle, on a les éruptions pliniennes, les plus explosives de toutes. On peut compter parmi elles la célèbre éruption du Vésuve, en l’an 79 de notre ère, qui fut décrite par Pline le Jeune. C’est elle qui a enseveli les villes romaines de Pompéi et d’Herculanum sous des mètres de cendres.
Lors d’une éruption plinienne, les gaz chauds, la cendre et les rochers peuvent être expulsés avec une telle violence et à une telle hauteur qu’ils atteignent la stratosphère – et lorsque le panache d’éruption retombe, les débris s’abattent sur la terre et peuvent causer des dégâts monstrueux sur une zone assez étendue.
Qu’en est-il des éruptions stromboliennes ? Ces éruptions relativement modérées empruntent leur nom au Stromboli, un autre volcan italien qui connaît une éruption mineure toutes les dix à vingt minutes.
Dans une éruption strombolienne, les éclats de roches et les braises peuvent parcourir des dizaines ou des centaines de mètres dans les airs, mais rarement davantage.
Le flux pyroclastique de l’éruption d’hier, sur l’Etna, s’est avéré doté d’une puissance explosive supérieure à cette moyenne – il ne s’agissait donc pas, au sens strict, d’une éruption strombolienne.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les éruptions volcaniques sont un peu comme le temps qu’il fait. Elles sont très difficiles à prédire avec précision, mais nous avons beaucoup progressé dans ce domaine. Pour comprendre le comportement futur d’un volcan, nous devons d’abord savoir ce qui se passe à l’intérieur à un moment X. On ne peut pas regarder dans le volcan directement, mais on dispose de mesures indirectes fiables.
Par exemple, que se passe-t-il avant que le magma d’éruption jaillisse des entrailles de la Terre ? En route vers la surface, le magma pousse des rochers et peut provoquer des tremblements de terre. En enregistrant les vibrations concomitantes, il nous est possible de suivre le trajet du magma jusqu’à la surface.
Le magma prêt à jaillir peut aussi provoquer un léger gonflement du terrain dans la région volcanique. Une affaire de quelques millimètres ou centimètres. L’observation attentive de ce phénomène, par exemple grâce à des satellites, nous permet de rassembler de précieuses informations sur une éruption à venir.
Certains volcans libèrent des gaz même en l’absence d’éruption stricto sensu. Il nous est possible d’analyser la composition chimique de ces gaz – si celle-ci se modifie, cela peut nous indiquer que le magma est de nouveau en route vers la surface.
Une fois qu’on a rassemblé toutes ces informations sur le fonctionnement interne d’un volcan, il est également indispensable de comprendre sa personnalité, pour savoir les analyser et comprendre ce qu’elles nous disent des éruptions à venir.
En tant que volcanologue, j’entends souvent dire qu’on a l’impression que les éruptions sont plus nombreuses de nos jours qu’autrefois. Ce n’est pas le cas.
Ce qui se produit, je l’explique à ceux qui m’interrogent sur le sujet, c’est que nous disposons désormais de meilleurs systèmes de mesure et d’un système médiatique mondialisé très actif. Donc on apprend systématiquement l’existence des éruptions – on en voit même des photos.
La surveillance est extrêmement importante. Nous avons la chance que de nombreux volcans – dans des pays comme l’Italie, les États-Unis, l’Indonésie et la Nouvelle-Zélande – soient équipés d’excellents systèmes de surveillance.
Cette surveillance permet aux autorités locales de prévenir la population en cas d’éruption imminente. Pour le visiteur ou le touriste venu admirer ces merveilles naturelles que sont les volcans, écouter ces avertissements est crucial.
Teresa Ubide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
02.06.2025 à 15:56
Devi Veytia, Dr, École normale supérieure (ENS) – PSL
Adrien Comte, Chargé de recherche, Institut de recherche pour le développement (IRD)
Frédérique Viard, Directrice de recherche en biologie marine, Université de Montpellier
Jean-Pierre Gattuso, Research Professor, CNRS, Iddri, Sorbonne Université
Laurent Bopp, Research Professor, CNRS, École normale supérieure (ENS) – PSL
Marie Bonnin, Research Director in marine environmental law, Institut de recherche pour le développement (IRD)
Yunne Shin, Chercheuse en écologie marine, Institut de recherche pour le développement (IRD)
Dans quelques jours, la troisième Conférence des Nations unies sur l’océan (Unoc 3) se tiendra en France, à Nice (Alpes-Maritimes). Elle réunira des dirigeants, des décideurs, des scientifiques et des parties prenantes du monde entier dans le but « d’accélérer l’action et de mobiliser tous les acteurs pour conserver et utiliser durablement l’océan », avec à la clé, peut-être, un « accord de Nice » qui serait constitué d’une déclaration politique négociée à l’ONU et de déclarations volontaires — c’est, du moins, l’objectif des organisateurs, la France et le Costa Rica.
Pour soutenir ces décisions, des informations scientifiques sont indispensables – quel est le statut des recherches dans le monde et, en France, pour exploiter les solutions que l’océan peut offrir face à la crise climatique ?
La France joue un rôle essentiel pour progresser vers l’objectif de conserver et utiliser durablement l’océan, puisqu’avec la deuxième plus grande zone économique exclusive du monde, elle détient une grande partie du pouvoir d’orientation concernant l’utilisation des ressources océaniques.
Cependant, remplir un mandat aussi nécessaire qu’ambitieux d’accélération et de mobilisation de l’action ne sera pas simple. Les discussions de l’Unoc 3 se dérouleront dans un contexte où l’océan est confronté à des défis sans précédent dans l’histoire de l’humanité, notamment en raison des impacts de plus en plus prégnants du changement climatique.
Ces effets se manifestent avec une intensité croissante dans toutes les régions du monde, de la surface aux eaux les plus profondes de l’océan Austral autour du continent antarctique aux zones côtières densément peuplées où les risques climatiques s’accumulent, affectant notamment les pêcheries.
Les options fondées sur l’océan pour atténuer le changement climatique (par exemple en utilisant des énergies renouvelables marines qui limitent l’émission de gaz à effet de serre) et s’adapter à ses impacts (par exemple en construisant des digues) sont essentielles.
Pour optimiser leur déploiement, une synthèse exhaustive et objective des données scientifiques est indispensable. En effet, une évaluation incomplète des preuves disponibles pourrait en effet conduire à des conclusions biaisées, mettant en avant certaines options comme particulièrement adaptées tout en négligeant leurs effets secondaires ou des lacunes critiques dans les connaissances.
Au milieu de ce maelström de défis, quelle est la contribution de la France à la recherche et au déploiement d’options fondées sur l’océan ?
Grâce à une étude de 45 000 articles publiés entre 1934 à 2023, nous montrons que les chercheurs français publient une part importante des recherches scientifiques mondiales sur les options d’adaptation, mais qu’il reste néanmoins de nombreux leviers d’actions.
Par exemple, l’expertise scientifique française pourrait être développée au service de recherches sur l’adaptation des petits États insulaires en développement, qui sont particulièrement vulnérables au changement climatique. Par ailleurs, il conviendrait d’amplifier les recherches sur les options d’atténuation, par exemple dans le domaine des énergies marines renouvelables.
L’océan couvre 70 % de la surface de la Terre et a absorbé 30 % des émissions humaines de dioxyde de carbone. Pourtant, jusqu’à récemment, il était négligé dans la lutte contre le changement climatique.
Aujourd’hui, de nombreuses options fondées sur l’océan émergent dans les dialogues entre scientifiques, décideurs politiques et citoyens. Ces « options fondées sur l’océan » concernent des actions qui :
atténuent le changement climatique et ses effets en utilisant les écosystèmes océaniques et côtiers pour réduire les émissions de gaz à effet de serre atmosphériques ; il s’agit ici par exemple d’interventions utilisant l’océan pour la production d’énergie renouvelable ;
soutiennent l’adaptation des communautés et des écosystèmes côtiers aux impacts toujours croissants du changement climatique ; la gestion des pêches et la restauration des écosystèmes mais aussi la construction d’infrastructures protégeant les côtes des submersions font partie de ces options.
L’un des rôles clés de la science est de fournir une synthèse impartiale des données scientifiques pour éclairer les décisions. Cependant, l’explosion du nombre de publications scientifiques rend de plus en plus difficile, voire impossible, de réaliser ces évaluations de manière exhaustive.
C’est là qu’interviennent l’intelligence artificielle (IA) et les grands modèles de langage, qui ont déjà un succès notable, depuis les robots conversationnels aux algorithmes de recherche sur Internet.
Dans un travail de recherche en cours d’évaluation, nous avons étendu ces nouvelles applications de l’IA à l’interface science-politique, en utilisant un grand modèle de langage pour analyser la contribution de la France dans le paysage de la recherche sur les options fondées sur l’océan. Grâce à ce modèle, nous avons classé environ 45 000 articles scientifiques et dédiés aux options fondées sur l’océan.
Au niveau mondial, nous constatons que la recherche est inégalement répartie puisque 80 % des articles portent sur les options d’atténuation. Les auteurs de travaux de recherche affiliés à la France jouent ici un rôle important, car ils sont parmi les principaux contributeurs des travaux dédiés aux options d’adaptation.
Cette priorité de la recherche sur l’adaptation est également présente dans les travaux des chercheurs affiliés à des institutions de petits États insulaires en développement, qui présentent un risque élevé de dangers côtiers exacerbés par le changement climatique, avec les évènements climatiques extrêmes et l’élévation du niveau de la mer.
L’impact de la recherche française s’étend bien au-delà de ses frontières, suscitant l’intérêt via les réseaux sociaux et les médias traditionnels à travers l’Europe, l’Amérique du Nord et l’Australie.
À mesure que l’accès à l’information et aux plateformes de diffusion accroît la portée et l’influence de l’opinion publique dans l’élaboration des politiques, il devient crucial non seulement de communiquer, mais aussi d’impliquer d’autres acteurs afin de traduire la science en dispositions réglementaires et, à terme, en actions concrètes.
Cette évolution, de l’idée à l’action, est une progression classique dans le cycle de vie d’une intervention. D’abord, un problème ou un impact potentiel est identifié, ce qui motive la recherche scientifique à en étudier les causes et à développer des solutions pour y répondre. Une fois cette étape franchie, l’intervention peut être intégrée dans la législation, incitant ainsi les parties prenantes à agir. Mais ce processus est-il applicable aux options fondées sur l’océan, ou y a-t-il des obstacles supplémentaires à considérer ?
Nous avons étudié cette situation en France pour deux options technologiques prêtes à être déployées et d’ores et déjà mises en œuvre : les énergies marines renouvelables, proposées pour atténuer le changement climatique, et les infrastructures construites et technologies d’adaptation sociétales face à la montée du niveau des mers.
Concernant les énergies marines renouvelables – une intervention jugée efficace à l’atténuation du changement climatique et dont les risques sont bien documentés et modérés –, le déploiement en France semble lent au regard du reste du monde (ligne en pointillé dans la figure ci-dessous).
En revanche, les leviers d’actions en faveur des infrastructures d’adaptation sociétales semblent plus mobilisés face aux pressions croissantes exercées par les risques climatiques côtiers.
Ainsi, nous constatons qu’à mesure que l’élévation du niveau de la mer s’accentue et, par conséquent, entraîne un besoin croissant de protections côtières, la recherche, la législation et l’action (représentée par le nombre de communes françaises exposées aux risques côtiers bénéficiant d’un plan de prévention des risques naturels (PPRN)) augmentent également, en particulier après 2010.
En résumé, concernant les énergies marines renouvelables, la France accuse un certain retard dans le passage de l’idée à l’action par rapport au reste du monde. Cela pourrait s’expliquer par une priorité accordée à d’autres mesures d’atténuation (par exemple, l’énergie nucléaire). Cependant, nous ne devrions pas nous limiter à une ou à quelques options dans l’objectif d’accroître notre potentiel d’atténuation global. La France a la possibilité d’investir davantage dans les recherches et actions d’atténuation.
La France affiche un très bon bilan en matière de recherche et de mise en œuvre d’options d’adaptation au changement climatique. Par ailleurs, sur ce type d’options, nous avons constaté un besoin global de recherche dans les pays en développement exposés aux risques côtiers — ce qui pourrait ouvrir de nouvelles opportunités, pour les institutions de recherche françaises, en termes de soutien à la recherche et de renforcement de leurs capacités dans ces domaines.
Alors que nous approchons de l’Unoc 3 – un moment critique pour la prise de décision – une chose est claire : il n’y a pas une seule solution mais des choix sont nécessaires ; il est donc essentiel de trouver les moyens d’évaluer et de synthétiser rapidement les preuves scientifiques pour éclairer nos actions d’aujourd’hui, ainsi que proposer de nouvelles pistes de recherche en amont des actions innovantes de demain.
Devi Veytia a reçu des financements du Programme Prioritaire de Recherche (PPR) « Océan et Climat », porté par le CNRS et l’Ifremer.
Frédérique Viard a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).
Jean-Pierre Gattuso a reçu des financements de Comission européenne, Fondation Prince Albert II de Monaco.
Laurent Bopp est Membre du Conseil Scientifique de la Plateforme Ocean-Climat. Il a reçu des financements de recherche dans le cadre de projet de mécennat de la société Chanel et de de Schmidt Sciences.
Marie Bonnin a reçu des financements de l'Agence Nationale de la Recherche (ANR) et de l'Europe (programme Horizon Europe).
Yunne Shin a reçu des financements de l'Europe (programme Horizon Europe)
Adrien Comte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.