URL du flux RSS

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

30.07.2025 à 16:25

Les Néandertaliens auraient-ils accompagné leur viande d’une bonne quantité d’asticots ?

Melanie Beasley, Assistant Professor of Anthropology, Purdue University
De nouvelles recherches soulignent le rôle des asticots comme un supplément nutritif facilement accessible dans le régime alimentaire des Hominini.
Texte intégral (1927 mots)
Les larves de mouches peuvent se nourrir d’animaux en décomposition. Melanie M. Beasley

Les asticots étaient-ils un mets de base du régime alimentaire des Néandertaliens ? Cela expliquerait pourquoi ces derniers présentent des taux d’azote-15 dignes d’hypercarnivores.


Pendant longtemps, les scientifiques ont pensé que les Néandertaliens étaient de grands consommateurs de viande. Des analyses chimiques de leurs restes semblaient indiquer qu’ils en mangeaient autant que des prédateurs de haut niveau comme les lions ou les hyènes. Mais en réalité, les Hominini – c’est-à-dire les Néandertaliens, notre espèce, et d’autres parents proches aujourd’hui éteints – ne sont pas des carnivores spécialisés. Ce sont plutôt des omnivores, qui consomment aussi de nombreux aliments d’origine végétale.

Il est possible pour les humains de survivre avec un régime très carnivore. De fait, plusieurs groupes de chasseurs-cueilleurs traditionnels du Nord, comme les Inuits, ont pu survivre principalement grâce aux aliments d’origine animale. Mais les Hominini ne peuvent tout simplement pas tolérer de grandes quantités de protéines comme les grands carnivores. Chez l’humain, un excès prolongé de protéines sans une quantité suffisante d’autres nutriments peut entraîner une intoxication protéique – un état débilitant, voire mortel, historiquement appelé « famine du lapin ».

Alors, comment expliquer les signatures chimiques retrouvées dans les os de Néandertaliens, qui suggèrent qu’ils mangeaient énormément de viande sans problème apparent ?

Je suis anthropologue et j’étudie l’alimentation de nos lointains ancêtres grâce à des éléments comme l’azote. De nouvelles recherches que mes collègues et moi avons menées suggèrent qu’un ingrédient secret dans le régime des Néandertaliens pourrait expliquer ces signatures chimiques : les asticots.

Les rapports isotopiques renseignent sur ce qu’un animal a mangé

Les proportions d’éléments spécifiques retrouvées dans les os d’un animal permettent d’avoir un aperçu de son alimentation. Les isotopes sont des formes alternatives d’un même élément, dont la masse diffère légèrement. L’azote possède deux isotopes stables : l’azote-14 (le plus courant) et l’azote-15 (plus lourd et plus rare). On note leur rapport sous la forme δ15N, mesuré en « pour mille ».

À mesure que l’on monte dans la chaîne alimentaire, les organismes ont relativement plus d’azote-15 en eux. L’herbe, par exemple, a une valeur de δ15N très faible. Un herbivore, lui, accumule l’azote-15 qu’il consomme en mangeant de l’herbe, de sorte que son propre corps a une valeur de δ15N légèrement plus élevée. Les animaux carnivores ont le ratio d’azote le plus élevé dans un réseau alimentaire ; l’azote-15 de leurs proies se concentre dans leur corps.

En analysant les rapports d’isotopes stables de l’azote, nous pouvons reconstruire les régimes alimentaires des Néandertaliens et des premiers Homo sapiens durant la fin du Pléistocène, qui s’étendait de 11 700 à 129 000 ans avant notre ère (av. n. è.). Les fossiles provenant de différents sites racontent la même histoire : ces Hominini ont des valeurs de δ15N élevées. Ces valeurs les placeraient typiquement au sommet de la chaîne alimentaire, aux côtés des hypercarnivores tels que les lions des cavernes et les hyènes, dont le régime alimentaire est composé à plus de 70 % de viande.

Mais peut-être y avait-il quelque chose d’autre dans leur alimentation qui gonfle ces valeurs ?

Découvrir le menu des Néandertaliens

Notre suspicion s’est portée sur les asticots, qui pouvaient être une source différente d’azote-15 enrichi dans le régime alimentaire des Néandertaliens. Les asticots, qui sont les larves de mouches, peuvent être une source de nourriture riche en graisses. Ils sont inévitables après avoir tué un autre animal, facilement collectables en grande quantité et bénéfiques sur le plan nutritionnel.

Pour explorer cette possibilité, nous avons utilisé un ensemble de données qui avait été initialement créé dans un but très différent : un projet d’anthropologie médico-légale axé sur la manière dont l’azote pourrait aider à estimer le temps écoulé depuis la mort.

J’avais initialement collecté des échantillons contemporains de tissu musculaire et des asticots associés au Centre d’anthropologie médico-légale de l’Université du Tennessee, à Knoxville, pour comprendre comment les valeurs d’azote évoluent pendant la décomposition après la mort.

Bien que ces données soient pensées pour aider dans des enquêtes actuelles sur des morts, nous les avons, nous, réutilisées pour tester une hypothèse très différente. Nous avons ainsi trouvé que les valeurs des isotopes stables de l’azote augmentent modestement à mesure que le tissu musculaire se décompose, allant de -0,6 permil à 7,7 permil.

Cette augmentation est plus marquée dans les asticots eux-mêmes, qui se nourrissent de ce tissu en décomposition : de 5,4 permil à 43,2 permil. Pour mettre ces valeurs en perspective, les scientifiques estiment que les valeurs de δ15N des herbivores du Pléistocène varient entre 0,9 permil et 11,2 permil. On enregistre pour les asticots des mesures pouvant être presque quatre fois plus hautes.

Notre recherche suggère que les valeurs élevées de δ15N observées chez les Hominini du Pléistocène tardif pourraient être gonflées par une consommation tout au long de l’année de mouches larvaires enrichies en 15N trouvées dans des aliments d’animaux séchés, congelés ou stockés.

Les pratiques culturelles influencent l’alimentation

En 2017, mon collègue John Speth a suggéré que les valeurs élevées de δ15N chez les Néandertaliens étaient dues à la consommation de viande putréfiée ou en décomposition, en se basant sur des preuves historiques et culturelles des régimes alimentaires chez les chasseurs-cueilleurs de l’Arctique.

Traditionnellement, les peuples autochtones considéraient presque universellement les aliments d’animaux entièrement putréfiés et infestés de mouches larvaires comme des mets très recherchés, et non comme des rations de survie. En fait, de nombreux peuples laissaient régulièrement et, souvent intentionnellement, les aliments d’origine animale se décomposer au point où ils grouillaient de mouches larvaires et, dans certains cas, commençaient même à se liquéfier.

Cette nourriture en décomposition émettait inévitablement une puanteur si intense que les premiers explorateurs européens, les trappeurs et les missionnaires en étaient dégoûtés. Pourtant, les peuples autochtones considéraient ces aliments comme bons à manger, voire comme une gourmandise. Lorsqu’on leur demandait comment ils pouvaient tolérer cette odeur nauséabonde, ils répondaient simplement : « Nous ne mangeons pas l’odeur. »

Des pratiques culturelles des Néandertaliens similaires pourraient bien être la clé de l’énigme de leurs valeurs élevées de δ15N. Les Hominini anciens coupaient, stockaient, conservaient, cuisaient et cultivaient une grande variété de produits. Toutes ces pratiques enrichissaient leur régime alimentaire paléolithique avec des aliments sous des formes que les carnivores non-Hominini ne consomment pas. Des recherches montrent que les valeurs de δ15N sont plus élevées pour les aliments cuits, pour les tissus musculaires putréfiés provenant de spécimens terrestres et aquatiques et, selon notre étude, pour les larves de mouches se nourrissant de tissus en décomposition.

Les valeurs élevées de δ15N des asticots associées aux aliments animaux putréfiés aident à expliquer comment les Néandertaliens ont pu inclure une grande variété d’autres aliments nutritifs au-delà de la simple viande, tout en affichant des valeurs de δ15N typiques de celles des hypercarnivores.

Nous suspectons que les valeurs élevées de δ15N observées chez les Néandertaliens reflètent la consommation régulière de tissus animaux gras et de contenus d’estomac fermentés, beaucoup étant à l’état semi-putride ou putride, ainsi que le bonus inévitable des mouches larvaires vivantes et mortes enrichies en 15N.

Ce qui reste encore inconnu

Les asticots sont une ressource riche en graisses, dense en nutriments, ubiquitaire et facilement disponible, et tant les Néandertaliens que les premiers Homo sapiens, tout comme les chasseurs-cueilleurs modernes, auraient tiré profit de leur pleine exploitation. Mais nous ne pouvons pas affirmer que les mouches larvaires seules expliquent pourquoi les Néandertaliens ont de telles valeurs élevées de δ15N dans leurs restes.

Plusieurs questions concernant ce régime alimentaire ancien restent sans réponse. Combien d’asticots une personne devait-elle consommer pour expliquer une augmentation des valeurs de δ15N au-delà des valeurs attendues dues à la consommation de viande seule ? Comment les bienfaits nutritionnels de la consommation de mouches larvaires changent-ils en fonction du temps de stockage des aliments ? Des études expérimentales supplémentaires sur les variations des valeurs de δ15N des aliments transformés, stockés et cuits selon les pratiques traditionnelles autochtones pourraient nous aider à mieux comprendre les pratiques alimentaires de nos ancêtres.

The Conversation

Melanie Beasley a reçu un financement de la Haslam Foundation pour cette recherche.

30.07.2025 à 15:20

Séisme au Kamtchatka : que sait-on de l’un des dix plus puissants tremblements de terre jamais enregistrés ?

Dee Ninis, Earthquake Scientist, Monash University
John Townend, Professor of Geophysics, Te Herenga Waka — Victoria University of Wellington
Le séisme au Kamtchatka est le plus puissant sur Terre depuis 2011. Il est dans une zone sismique qui a été très active ces derniers mois.
Texte intégral (1924 mots)

Mercredi 30 juillet vers 11 h 30 heure locale, un séisme de magnitude 8,8 a frappé la côte de la péninsule du Kamtchatka à l’extrême est de la Russie. La région est le siège d’une activité sismique depuis plusieurs mois, et des dizaines de répliques ont déjà eu lieu autour de ce séisme. Des alertes au tsunami ont été lancées rapidement tout autour du Pacifique – et certaines ont déjà pu être levées.


Avec une profondeur d’environ 20 kilomètres, ce puissant séisme, qui figure parmi les dix plus forts jamais enregistrés et le plus important au monde depuis 2011, a causé des dégâts matériels et fait des blessés dans la plus grande ville voisine, Petropavlovsk-Kamtchatski, située à seulement 119 kilomètres de l’épicentre.

Des alertes au tsunami et des évacuations ont été déclenchées en Russie, au Japon et à Hawaï, et des avis ont été émis pour les Philippines, l’Indonésie et même la Nouvelle-Zélande et le Pérou.

Toute la région du Pacifique est très exposée à des séismes puissants et aux tsunamis qui en résultent, car elle est située dans la « ceinture de feu », une zone d’activité sismique et volcanique intense. Les dix séismes les plus puissants jamais enregistrés dans l’histoire moderne se sont tous produits dans la ceinture de feu.

Voici pourquoi la tectonique des plaques rend cette partie du monde si instable.

Pourquoi le Kamtchatka est-il touché par des séismes aussi violents ?

Au large de la péninsule du Kamtchatka se trouve la fosse des Kouriles, une frontière tectonique où la plaque Pacifique est poussée sous la plaque d’Okhotsk.

Alors que les plaques tectoniques se déplacent continuellement les unes par rapport aux autres, l’interface entre les plaques tectoniques est souvent « bloquée ». La tension liée au mouvement des plaques s’accumule jusqu’à dépasser la résistance de l’interface, puis se libère sous la forme d’une rupture soudaine : un séisme.

En raison de la grande superficie de l’interface aux frontières des plaques, tant en longueur qu’en profondeur, la rupture peut s’étendre sur de vastes zones à la frontière des plaques. Cela donne lieu à certains des séismes les plus importants et potentiellement les plus destructeurs au monde.

Un autre facteur qui influe sur la fréquence et l’intensité des séismes dans les zones de subduction est la vitesse à laquelle les deux plaques se déplacent l’une par rapport à l’autre.

Dans le cas du Kamtchatka, la plaque Pacifique se déplace à environ 75 millimètres par an par rapport à la plaque d’Okhotsk. Il s’agit d’une vitesse relativement élevée pour des plaques tectoniques, ce qui explique que les séismes y sont plus fréquents que dans d’autres zones de subduction. En 1952, un séisme de magnitude 9,0 s’est produit dans la même zone de subduction, à environ 30 kilomètres seulement du séisme de magnitude 8,8 d’aujourd’hui.

Parmi les autres exemples de séismes à la frontière d’une plaque en subduction, on peut citer le séisme de magnitude 9,1 qui a frappé la région de Tohoku au Japon en 2011 et le séisme de magnitude 9,3 qui a frappé Sumatra et les îles Andaman en Indonésie le 26 décembre 2004. Ces deux séismes ont débuté à une profondeur relativement faible et ont provoqué une rupture de la limite des plaques jusqu’à la surface.

Ils ont soulevé un côté du fond marin par rapport à l’autre, déplaçant toute la colonne d’eau de l’océan située au-dessus et provoquant des tsunamis dévastateurs. Dans le cas du séisme de Sumatra, la rupture du fond marin s’est produite sur une longueur d’environ 1 400 kilomètres.

Capture d'écran du site USGS
Capture d'écran du site USGS (United States Geological Survey) montrant les différentes plaques tectoniques du Pacifique (délimitées en rouge) et l'épicentre du séisme, matérialisé par une étoile. USGS, CC BY

Que va-t-il se passer maintenant ?

Au moment où nous écrivons ces lignes, environ six heures après le séisme, 35 répliques d’une magnitude supérieure à 5,0 ont déjà été enregistrées, selon le service de surveillance sismique états-unien (l’United States Geological Survey, USGS).

Les répliques se produisent lorsque les tensions dans la croûte terrestre se redistribuent après le séisme principal. Elles sont souvent d’une magnitude inférieure d’un point à celle du séisme principal. Dans le cas du séisme d’aujourd’hui, cela signifie que des répliques d’une magnitude supérieure à 7,5 sont possibles.


À lire aussi : Pourquoi il y a des séismes en cascade en Turquie et en Syrie


Pour un séisme de cette ampleur, les répliques peuvent se poursuivre pendant des semaines, voire des mois, mais leur magnitude et leur fréquence diminuent généralement avec le temps.

Le séisme d’aujourd’hui a également provoqué un tsunami qui a déjà touché les communautés côtières de la péninsule du Kamtchatka, des îles Kouriles, et d’Hokkaido au Japon.

Au cours des prochaines heures, le tsunami se propagera à travers le Pacifique, atteignant Hawaï environ six heures après le séisme et se poursuivant jusqu’au Chili et au Pérou. [ndlt : à l’heure où nous effectuons cette traduction, les alertes à Hawaï ont été réduites, et annulées aux Philippines. Les vagues ont atteint la côte ouest des États-Unis, jusqu’à un mètre de hauteur en Californie et dans l’Oregon.]

Les spécialistes des tsunamis continueront d’affiner leurs modèles des effets du tsunami au fur et à mesure de sa propagation, et les autorités de la protection civile fourniront des conseils faisant autorité sur les effets locaux attendus.


À lire aussi : Alertes aux séismes et tsunamis : comment gagner de précieuses secondes


Quelles leçons peut-on tirer de ce séisme pour d’autres régions du monde ?

Heureusement, les séismes d’une telle ampleur sont rares. Cependant, leurs effets au niveau local et à l’échelle mondiale peuvent être dévastateurs.

Outre sa magnitude, plusieurs aspects du séisme qui a frappé le Kamtchatka aujourd’hui en feront un sujet de recherche particulièrement important.

Par exemple, la région a connu une activité sismique très intense ces derniers mois et un séisme de magnitude 7,4 s’est produit le 20 juillet. L’influence de cette activité antérieure sur la localisation et le moment du séisme d’aujourd’hui sera un élément crucial de ces recherches.

Tout comme le Kamtchatka et le nord du Japon, la Nouvelle-Zélande est située au-dessus d’une zone de subduction, et même de deux zones de subduction. La plus grande, la zone de subduction de Hikurangi, s’étend au large de la côte est de l’île du Nord.

D’après les caractéristiques de cette interface tectonique et les archives géologiques des séismes passés, la zone de subduction de Hikurangi est susceptible de produire des séismes de magnitude 9. Cela ne s’est jamais produit dans l’histoire, mais si cela arrivait, cela provoquerait un tsunami.

La menace d’un séisme majeur dans une zone de subduction n’est jamais écartée. Le séisme qui s’est produit aujourd’hui au Kamtchatka est un rappel important pour tous ceux qui vivent dans des zones sismiques de rester prudents et de tenir compte des avertissements des autorités de protection civile.

The Conversation

Dee Ninis travaille au Seismology Research Centre, est vice-présidente de l’Australian Earthquake Engineering Society et membre du comité de la Geological Society of Australia – Victoria Division.

John Townend reçoit des financements des fonds Marsden et Catalyst de la Royal Society Te Apārangi, de la Natural Hazards Commission Toka Tū Ake et du ministère néo-zélandais des Entreprises, de l’Innovation et de l’Emploi. Il est ancien président et directeur de la Seismological Society of America ainsi que président de la New Zealand Geophysical Society.

28.07.2025 à 15:54

Où est le centre de l’Univers ?

Rob Coyne, Teaching Professor of Physics, University of Rhode Island
Puisque l’Univers est en expansion, cela veut-il dire qu’il est parti d’un point précis, où il aurait été tout contracté ? Eh bien non. Un physicien nous explique.
Texte intégral (2352 mots)
Dans l’Univers, il y a quatre dimensions : longueur, largeur, hauteur… et temps. Scaliger/iStock/NASA via Getty Images Plus

Puisque l’Univers est en expansion, cela veut-il dire qu’il est parti d’un point précis, où il aurait été tout contracté ? Eh bien non ! Un physicien nous explique.


Il y a environ un siècle, les scientifiques s’efforçaient de concilier ce qui semblait être une contradiction dans la théorie de la relativité générale d’Albert Einstein.

Publiée en 1915 et déjà largement acceptée dans le monde entier par les physiciens et les mathématiciens, cette théorie supposait que l’Univers était statique, c’est-à-dire immuable et immobile. En bref, Einstein pensait que l’Univers d’aujourd’hui avait la même taille et la même forme que dans le passé.

Puis, lorsque les astronomes ont observé des galaxies lointaines dans le ciel nocturne à l’aide de puissants télescopes, ils ont constaté que l’Univers était loin d’être immuable. Bien au contraire, les nouvelles observations suggéraient que l’Univers était en expansion.

Les scientifiques se sont rapidement rendu compte que la théorie d’Einstein ne stipulait pas que l’Univers devait être statique – elle pouvait tout à fait décrire un Univers en expansion. En utilisant les outils mathématiques que ceux fournis par la théorie d’Einstein, les scientifiques ont créé de nouveaux modèles, qui, eux, montraient que l’Univers était dynamique et en évolution.

J’ai passé des dizaines d’années à essayer de comprendre la relativité générale, y compris dans le cadre de mon travail actuel en tant que professeur de physique, puisque je donne des cours sur le sujet. Je sais que l’idée d’un Univers en perpétuelle expansion peut sembler intimidante, et qu’une partie du défi conceptuel auquel nous sommes tous confrontés ici consiste à dépasser notre intuition de la façon dont les choses fonctionnent.

Par exemple, s’il est difficile d’imaginer que quelque chose d’aussi grand que l’Univers n’a pas de centre… la physique dit que c’est la réalité.

L’espace entre les galaxies

Tout d’abord, définissons ce que l’on entend par « expansion ». Sur Terre, « expansion » signifie que quelque chose grossit. Et en ce qui concerne l’Univers, c’est vrai, en quelque sorte.

L’expansion peut également signifier que « tout s’éloigne de nous », ce qui est également vrai en ce qui concerne l’Univers. Il suffit de pointer un télescope sur des galaxies lointaines pour constater qu’elles semblent toutes s’éloigner de nous. En outre, plus elles sont éloignées, plus elles semblent se déplacer rapidement. Et elles semblent également s’éloigner les unes des autres.

Il est donc plus exact de dire que tout ce qui existe dans l’Univers s’éloigne de tout le reste, en même temps.

Cette idée est subtile mais essentielle. Il est facile d’imaginer la création de l’univers comme un feu d’artifice qui explose : ça commence par un Big Bang, puis toutes les galaxies de l’Univers s’envolent dans toutes les directions à partir d’un point central.

Mais cette analogie n’est pas correcte. Non seulement elle implique à tort que l’expansion de l’Univers a commencé à partir d’un point unique, ce qui n’est pas le cas, mais elle suggère également que ce sont les galaxies qui se déplacent, ce qui n’est pas tout à fait exact non plus.

Ce ne sont pas tant les galaxies qui s’éloignent les unes des autres : c’est l’espace entre les galaxies, le tissu de l’Univers lui-même, qui s’agrandit au fur et à mesure que le temps passe.

En d’autres termes, ce ne sont pas vraiment les galaxies elles-mêmes qui se déplacent dans l’Univers ; c’est plutôt l’Univers lui-même qui les transporte plus loin à mesure qu’il s’étend.

Une analogie courante consiste à imaginer que l’on colle des points sur la surface d’un ballon. Lorsque vous insufflez de l’air dans le ballon, celui-ci se dilate. Comme les points sont collés à la surface du ballon, ils s’éloignent les uns des autres. Bien qu’ils semblent se déplacer, les points restent en fait exactement à l’endroit où vous les avez placés, et la distance qui les sépare s’accroît simplement en raison de l’expansion du ballon.

split screen of a green balloon with red dots and a squiggle on the surface, lightly inflated and then much more blown up
L’espace entre les point s’agrandit. NASA/JPL-Caltech, CC BY

Imaginez maintenant que les points sont des galaxies et que le ballon est le tissu de l’Univers, et vous commencerez à voir ce dont il s’agit ici.

Malheureusement, si cette analogie est un bon début, elle ne permet pas non plus de comprendre les détails.

La quatrième dimension

Pour toute analogie, il est important de comprendre ses limites. Certains défauts sont évidents : un ballon est assez petit pour tenir dans votre main, ce qui n’est pas le cas de l’Univers. Un autre défaut est plus subtil. Le ballon est composé de deux parties : sa surface en latex et son intérieur rempli d’air.

Ces deux parties du ballon sont décrites différemment dans le langage mathématique. La surface du ballon est bidimensionnelle. Si vous marchez dessus, vous pouvez vous déplacer vers l’avant, l’arrière, la gauche ou la droite, mais vous ne pouvez pas vous déplacer vers le haut ou le bas sans quitter la surface.

On pourrait croire que nous nommons ici quatre directions – avant, arrière, gauche et droite –, mais il ne s’agit que de mouvements le long de deux axes de base : d’un côté à l’autre et d’avant en arrière. Ces deux axes, longueur et largeur, rendent la surface bidimensionnelle.

L’intérieur du ballon, en revanche, est tridimensionnel. Vous pouvez donc vous déplacer librement dans toutes les directions : en longueur et en largeur, mais aussi vers le haut ou vers le bas – ce qui constitue un troisième axe, la hauteur.

C’est là que réside la confusion. Ce que nous considérons comme le « centre » du ballon est un point situé quelque part à l’intérieur du ballon, dans l’espace rempli d’air qui se trouve sous la surface.

Mais dans cette analogie, l’Univers ressemble davantage à la surface en latex du ballon. L’intérieur du ballon, rempli d’air, n’a pas d’équivalent dans notre Univers, et nous ne pouvons donc pas utiliser cette partie de l’analogie – seule la surface compte.

Un ballon violet gonflé sur fond bleu
Vous essayez de comprendre comment fonctionne l’Univers ? Commencez par contempler un ballon. Kristopher_K/iStock via Getty Images Plus

Demander « Où est le centre de l’Univers ? », c’est un peu comme demander « Où est le centre de la surface du ballon ? » Il n’y en a tout simplement pas. Vous pourriez voyager le long de la surface du ballon dans n’importe quelle direction, aussi longtemps que vous le souhaitez, et vous n’atteindriez jamais un endroit que vous pourriez appeler son centre parce que vous ne quitteriez jamais la surface.

De la même manière, vous pourriez voyager dans n’importe quelle direction dans l’Univers et vous ne trouveriez jamais son centre, car, tout comme la surface du ballon, il n’en a tout simplement pas.

Si cela peut être si difficile à comprendre, c’est en partie à cause de la façon dont l’Univers est décrit dans le langage mathématique. La surface du ballon a deux dimensions, et l’intérieur du ballon en a trois, mais l’Univers existe en quatre dimensions. Parce qu’il ne s’agit pas seulement de la façon dont les choses se déplacent dans l’espace, mais aussi de la façon dont elles se déplacent dans le temps.

Notre cerveau est conçu pour penser à l’espace et au temps séparément. Mais dans l’Univers, l’espace et le temps sont imbriqués en un seul tissu, appelé « espace-temps ». Cette unification modifie le fonctionnement de l’Univers, par rapport à ce que prévoit notre intuition.

Et cette explication ne répond même pas à la question de savoir comment quelque chose peut être en expansion infinie – les scientifiques tentent toujours de comprendre ce qui est à l’origine de cette expansion.

En nous interrogeant sur le centre de l’Univers, nous nous heurtons donc aux limites de notre intuition. La réponse que nous trouvons (tout est en expansion partout et en même temps) nous donne un aperçu de l’étrangeté et de la beauté de notre Univers.

The Conversation

Rob Coyne a reçu des financements de la National Aeronautics and Space Administration (NASA) et de la US National Science Foundation (NSF).

24.07.2025 à 20:05

La majorité de la pêche industrielle dans les aires marines protégées échappe à toute surveillance

Raphael Seguin, Doctorant en écologie marine, en thèse avec l'Université de Montpellier et BLOOM, Université de Montpellier
David Mouillot, Professeur en écologie, laboratoire MARBEC, Université de Montpellier
La majorité des aires marines protégées dans le monde n’offre que peu de protection face à la pêche industrielle, qui échappe souvent à toute surveillance publique.
Texte intégral (3398 mots)

Les aires marines protégées sont-elles vraiment efficaces pour protéger la vie marine et la pêche artisanale ? Alors que, à la suite de l’Unoc-3, des États comme la France ou la Grèce annoncent la création de nouvelles aires, une étude, parue ce 24 juillet dans la revue Science, montre que la majorité de ces zones reste exposée à la pêche industrielle, dont une large part échappe à toute surveillance publique. Une grande partie des aires marines ne respecte pas les recommandations scientifiques et n’offre que peu, voire aucune protection pour la vie marine.


La santé de l’océan est en péril, et par extension, la nôtre aussi. L’océan régule le climat et les régimes de pluie, il nourrit plus de trois milliards d’êtres humains et il soutient nos traditions culturelles et nos économies.

Historiquement, c’est la pêche industrielle qui est la première source de destruction de la vie marine : plus d’un tiers des populations de poissons sont surexploitées, un chiffre probablement sous-estimé, et les populations de grands poissons ont diminué de 90 à 99 % selon les régions.

À cela s’ajoute aujourd’hui le réchauffement climatique, qui impacte fortement la plupart des écosystèmes marins, ainsi que de nouvelles pressions encore mal connues, liées au développement des énergies renouvelables en mer, de l’aquaculture et de l’exploitation minière.

Les aires marines protégées, un outil efficace pour protéger l’océan et l’humain

Face à ces menaces, nous disposons d’un outil éprouvé pour protéger et reconstituer la vie marine : les aires marines protégées (AMP). Le principe est simple : nous exploitons trop l’océan, nous devons donc définir certaines zones où réguler, voire interdire, les activités impactantes pour permettre à la vie marine de se régénérer.

Les AMP ambitionnent une triple efficacité écologique, sociale et climatique. Elles permettent le rétablissement des écosystèmes marins et des populations de poissons qui peuvent s’y reproduire. Certaines autorisent uniquement la pêche artisanale, ce qui crée des zones de non-concurrence protégeant des méthodes plus respectueuses de l’environnement et créatrices d’emplois. Elles permettent aussi des activités de loisirs, comme la plongée sous-marine. Enfin, elles protègent des milieux qui stockent du CO2 et contribuent ainsi à la régulation du climat.

Trois photos : en haut à gauche, un banc de poissons ; en bas à gauche, un herbier marin ; à droite, trois hommes sur une plage tire une barque à l’eau
Les aires marines protégées permettent le rétablissement des populations de poissons, protègent des habitats puits de carbone comme les herbiers marins et peuvent protéger des activités non industrielles comme la pêche artisanale ou la plongée sous-marine. Jeff Hester, Umeed Mistry, Hugh Whyte/Ocean Image Bank, Fourni par l'auteur

Dans le cadre de l’accord mondial de Kunming-Montréal signé lors de la COP 15 de la biodiversité, les États se sont engagés à protéger 30 % de l’océan d’ici 2030. Officiellement, plus de 9 % de la surface des océans est aujourd’hui sous protection.

Pour être efficaces, toutes les AMP devraient, selon les recommandations scientifiques, soit interdire la pêche industrielle et exclure toutes les activités humaines, soit en autoriser certaines d’entre elles, comme la pêche artisanale ou la plongée sous-marine, en fonction du niveau de protection. Or, en pratique, une grande partie des AMP ne suivent pas ces recommandations et n’excluent pas les activités industrielles qui sont les plus destructrices pour les écosystèmes marins, ce qui les rend peu, voire pas du tout, efficaces.

Réelle protection ou outil de communication ?

En effet, pour atteindre rapidement les objectifs internationaux de protection et proclamer leur victoire politique, les gouvernements créent souvent de grandes zones protégées sur le papier, mais sans réelle protection effective sur le terrain. Par exemple, la France affirme protéger plus de 33 % de ses eaux, mais seuls 4 % d’entre elles bénéficient de réglementations et d’un niveau de protection réellement efficace, dont seulement 0,1 % dans les eaux métropolitaines.

Lors du Sommet de l’ONU sur l’océan qui s’est tenu à Nice en juin 2025, la France, qui s’oppose par ailleurs à une réglementation européenne visant à interdire le chalutage de fond dans les AMP, a annoncé qu’elle labelliserait 4 % de ses eaux métropolitaines en protection forte et qu’elle y interdirait le chalutage. Le problème, c’est que la quasi-totalité de ces zones se situe dans des zones profondes… où le chalutage de fond est déjà interdit.

La situation est donc critique : dans l’Union européenne, 80 % des aires marines protégées en Europe n’interdisent pas les activités industrielles. Pis, l’intensité de la pêche au chalutage de fond est encore plus élevée dans ces zones qu’en dehors. Dans le monde, la plupart des AMP autorisent la pêche, et seulement un tiers des grandes AMP sont réellement protégées.

De plus, l’ampleur réelle de la pêche industrielle dans les AMP reste largement méconnue à l’échelle mondiale. Notre étude s’est donc attachée à combler en partie cette lacune.

La réalité de la pêche industrielle dans les aires protégées

Historiquement, il a toujours été très difficile de savoir où et quand vont pêcher les bateaux. Cela rendait le suivi de la pêche industrielle et de ses impacts très difficile pour les scientifiques. Il y a quelques années, l’ONG Global Fishing Watch a publié un jeu de données basé sur le système d’identification automatique (AIS), un système initialement conçu pour des raisons de sécurité, qui permet de connaître de manière publique et transparente la position des grands navires de pêche dans le monde. Dans l’Union européenne, ce système est obligatoire pour tous les navires de plus de 15 mètres.

Le problème, c’est que la plupart des navires de pêche n’émettent pas tout le temps leur position via le système AIS. Les raisons sont diverses : ils n’y sont pas forcément contraints, le navire peut se trouver dans une zone où la réception satellite est médiocre, et certains l’éteignent volontairement pour masquer leur activité.

Pour combler ce manque de connaissance, Global Fishing Watch a combiné ces données AIS avec des images satellites du programme Sentinel-1, sur lesquelles il est possible de détecter des navires. On distingue donc les navires qui sont suivis par AIS, et ceux qui ne le sont pas, mais détectés sur les images satellites.

Carte du monde sur fond noir représentant les bateaux transmettant leur position GPS et ceux qui ne l’émettent pas
Global Fishing Watch a analysé des millions d’images satellite radar afin de déterminer l’emplacement des navires qui restent invisibles aux systèmes de surveillance publics. Sur cette carte de 2022 sont indiqués en jaune les navires qui émettent leur position GPS publiquement via le système AIS, et en orange ceux qui ne l’émettent pas mais qui ont été détectés via les images satellites. Global Fishing Watch, Fourni par l'auteur

Les aires sont efficaces, mais parce qu’elles sont placées là où peu de bateaux vont pêcher au départ

Notre étude s’intéresse à la présence de navires de pêche suivis ou non par AIS dans plus de 3 000 AMP côtières à travers le monde entre 2022 et 2024. Durant cette période, deux tiers des navires de pêche industrielle présents dans les AMP n’étaient pas suivis publiquement par AIS, une proportion équivalente à celle observée dans les zones non protégées. Cette proportion variait d’un pays à l’autre, mais des navires de pêche non suivis étaient également présents dans les aires marines protégées de pays membres de l’UE, où l’émission de la position via l’AIS est pourtant obligatoire.

Entre 2022 et 2024, nous avons détecté des navires de pêche industrielle dans la moitié des AMP étudiées. Nos résultats, conformes à une autre étude publiée dans le même numéro de la revue Science, montrent que la présence de navires de pêche industrielle était en effet plus faible dans les AMP réellement protégées, les rares qui interdisent toute activité d’extraction. C’est donc une bonne nouvelle : lorsque les réglementations existent et qu’elles sont efficacement gérées, les AMP excluent efficacement la pêche industrielle.

En revanche, nous avons tenté de comprendre les facteurs influençant la présence ou l’absence de navires de pêche industrielle dans les AMP : s’agit-il du niveau de protection réel ou de la localisation de l’AMP, de sa profondeur ou de sa distance par rapport à la côte ? Nos résultats indiquent que l’absence de pêche industrielle dans une AMP est plus liée à son emplacement stratégique – zones très côtières, reculées ou peu productives, donc peu exploitables – qu’à son niveau de protection. Cela révèle une stratégie opportuniste de localisation des AMP, souvent placées dans des zones peu pêchées afin d’atteindre plus facilement les objectifs internationaux.

Exemple de détections de navires de pêche industrielle suivis par AIS (en bleu) ou non suivis (en beige), le long de la côte atlantique française, à partir des données de l’ONG Global Fishing Watch. Les délimitations des aires marines protégées, selon la base de données WDPA, sont en blanc. Les images satellites du programme Sentinel-1 servent de fond de carte. Raphael Seguin/Université de Montpellier, Fourni par l'auteur

Une pêche méconnue et sous-estimée

Enfin, une question subsistait : une détection de navire de pêche sur une image satellite signifie-t-elle pour autant que le navire est en train de pêcher, ou bien est-il simplement en transit ? Pour y répondre, nous avons comparé le nombre de détections de navires par images satellites dans une AMP à son activité de pêche connue, estimée par Global Fishing Watch à partir des données AIS. Si les deux indicateurs sont corrélés, et que le nombre de détections de navires sur images satellites est relié à un plus grand nombre d’heures de pêche, cela implique qu’il est possible d’estimer la part de l’activité de pêche « invisible » à partir des détections non suivies par AIS.

Nous avons constaté que les deux indicateurs étaient très corrélés, ce qui montre que les détections par satellites constituent un indicateur fiable de l’activité de pêche dans une AMP. Cela révèle que la pêche industrielle dans les AMP est bien plus importante qu’estimée jusqu’à présent, d’au moins un tiers selon nos résultats. Pourtant, la plupart des structures de recherche, de conservation, ONG ou journalistes se fondent sur cette seule source de données publiques et transparentes, qui ne reflète qu’une part limitée de la réalité.

De nombreuses interrogations subsistent encore : la résolution des images satellites nous empêche de voir les navires de moins de 15 mètres et rate une partie importante des navires entre 15 et 30 mètres. Nos résultats sous-estiment donc la pêche industrielle dans les aires protégées et éludent complètement les petits navires de moins de 15 mètres de long, qui peuvent également être considérés comme de la pêche industrielle, notamment s’ils en adoptent les méthodes, comme le chalutage de fond. De plus, les images satellites utilisées couvrent la plupart des eaux côtières, mais pas la majeure partie de la haute mer. Les AMP insulaires ou éloignées des côtes ne sont donc pas incluses dans cette étude.

Vers une véritable protection de l’océan

Nos résultats rejoignent ceux d’autres études sur le sujet et nous amènent à formuler trois recommandations.

D’une part, la quantité d’aires marines protégées ne fait pas leur qualité. Les définitions des AMP doivent suivre les recommandations scientifiques et interdire la pêche industrielle, faute de quoi elles ne devraient pas être considérées comme de véritables AMP. Ensuite, les AMP doivent aussi être situées dans des zones soumises à la pression de la pêche, pas seulement dans des zones peu exploitées. Enfin, la surveillance des pêcheries doit être renforcée et plus transparente, notamment en généralisant l’usage de l’AIS à l’échelle mondiale.

À l’avenir, grâce à l’imagerie satellite optique à haute résolution, nous pourrons également détecter les plus petits navires de pêche, afin d’avoir une vision plus large et plus complète des activités de pêche dans le monde.

Pour l’heure, l’urgence est d’aligner les définitions des aires marines protégées avec les recommandations scientifiques et d’interdire systématiquement les activités industrielles à l’intérieur de ces zones, pour construire une véritable protection de l’océan.

The Conversation

Raphael Seguin est membre de l'association BLOOM.

David Mouillot a reçu des financements de l'ANR.

22.07.2025 à 16:33

Voir la planète respirer depuis l’espace, ou comment mesurer les gaz à effet de serre par satellite

Carole Deniel, Responsable des programmes de composition atmosphérique et Climat, Centre national d’études spatiales (CNES)
François-Marie Bréon, Physicien-climatologue, chercheur au Laboratoire des sciences du climat et de l’environnement, Université Paris-Saclay
La mission MicroCarb va mesurer le CO2 dans l’atmosphère terrestre. Elle décolle le 25 juillet depuis Kourou.
Texte intégral (2958 mots)
Les activités humaines dégagent du CO<sub>2</sub>. Mais les arbres, les tourbières et les autres écosystèmes sont aussi capables d’en rejeter ou d’en stocker. ©CNES/ill. Oliver Sattler, 2021, Fourni par l'auteur

La quantité de CO2 dans l’atmosphère varie à cause des activités humaines, mais aussi en réponse au fonctionnement des écosystèmes, comme les arbres, qui absorbent et émettent du CO2 en respirant.

Grâce aux satellites, on peut ainsi voir la planète « respirer ». La nouvelle mission MicroCarb du Cnes doit décoller le 25 juillet de Guyane et vient rejoindre d’autres programmes pour suivre de près ce facteur important du changement climatique.


Les satellites sont devenus des outils indispensables pour suivre l’évolution du climat. En effet, les mesures denses et continues de la teneur en CO2 permettent d’identifier les sites d’émission ou au contraire d’absorption par les écosystèmes et les activités humaines.

Avec le lancement de la mission MicroCarb, qui est consacrée à la mesure précise de la concentration du CO2 atmosphérique, la France va apporter une contribution inédite à l’amélioration de notre connaissance du cycle du carbone.

Le rôle du CO₂ dans l’effet de serre

Le dioxyde de carbone (CO2) est le principal moteur du changement climatique actuel. Sa concentration dans l’atmosphère a fortement augmenté depuis le début de l’ère industrielle, à cause de la combustion des énergies fossiles et des changements d’usage des terres (en particulier la déforestation).

Ce gaz joue un rôle fondamental dans l’effet de serre, le phénomène naturel par lequel certains gaz atmosphériques absorbent une partie du rayonnement infrarouge émis par la Terre. Le CO2 contribue ainsi à réchauffer la surface. Si cet effet est indispensable à la vie sur notre planète, son amplification par les activités humaines entraîne les modifications du climat dont nous ressentons déjà les conséquences et qui vont encore s’accentuer.


À lire aussi : « Dis-moi, pourquoi il y a le réchauffement climatique ? »



Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le changement climatique entraîne déjà des impacts majeurs : élévation du niveau des mers, intensification des événements extrêmes, réduction des glaciers, modification des régimes de précipitations, et bouleversements pour les écosystèmes et les sociétés humaines.

Le cycle du carbone : des mécanismes d’échange entre les écosystèmes déstabilisés par les émissions issues des activités humaines

Mais au-delà de son rôle moteur du changement climatique, le CO2 intervient aussi dans des rétroactions complexes au sein du cycle du carbone.

Malheureusement, les perturbations sur le cycle du carbone interrogent. Aujourd’hui, environ 55 % des émissions de CO2 sont absorbés naturellement par les océans (où il se dissout) et par la végétation terrestre (via la photosynthèse), qui jouent le rôle de « puits de carbone ». Cette absorption atténue partiellement l’accumulation du CO2 dans l’atmosphère. Or, ces puits de carbone (océan et végétation) sont sensibles au changement climatique lui-même, ce qui conduit donc à des « rétroactions » entre climat et cycle du carbone.

foret et zone humide
Les forêts et les tourbières absorbent et stockent le dioxyde de carbone, mais le changement climatique affecte leur capacité à mitiger ainsi l’effet de ce gaz à effet de serre. Juan Davila, Unsplash, CC BY

À lire aussi : La mission Biomass, un satellite pour mieux comprendre comment les forêts stockent (et émettent) du carbone


Par exemple, quelles seront les conséquences s’ils deviennent moins efficaces du fait, par exemple, de la sécheresse récurrente qui atténue la capacité d’une forêt à absorber le carbone, ou d’autres impacts négatifs du changement climatique sur les écosystèmes ? De même, le réchauffement climatique entraîne des conditions favorables aux incendies, qui peuvent ainsi devenir des sources additionnelles et significatives de CO2 vers l’atmosphère.

Les États signataires de l’accord de Paris (2015) se sont engagés à réduire leurs émissions dans le but de limiter le réchauffement climatique à moins de 2 °C, et même de rester aussi proche que possible de 1,5 °C. En 2024, les objectifs apparaissent difficiles à atteindre car, même si les émissions de certains pays ont commencé à décroître, les émissions continuent de croître globalement.

Dans ce cadre, il apparaît nécessaire, d’une part, de disposer d’un système indépendant pour suivre les émissions de CO2 aux échelles nationales et, d’autre part, de suivre l’évolution des flux naturels en réponse au changement climatique. Cela passe par une observation dense et continue des concentrations atmosphériques de CO2.

Mesurer les absorptions et émissions de carbone à l’échelle planétaire est un défi technique

Aujourd’hui, on mesure la concentration atmosphérique de CO2 proche de la surface, sur une centaine de stations très inégalement réparties sur la Terre. La série de données la plus iconique est celle de Mauna Loa, au sommet d’une des îles de l’archipel d’Hawaï, qui décrit la composition atmosphérique en continu depuis 1958. Depuis, plusieurs réseaux d’observation ont été mis en place et regroupés pour l’Europe dans le programme ICOS en 2015.

Quelques campagnes de mesures spécifiques apportent, par ailleurs, une description résolue sur la verticale depuis la surface jusqu’à près de 30 kilomètres d’altitude.

Malgré ces observations, la densité d’observations reste très insuffisante pour les objectifs scientifiques et sociétaux décrits ci-dessus. C’est pourquoi les satellites apportent un complément nécessaire, avec une mesure certes moins précise que celles des observations in situ, mais avec une densité très largement supérieure.

décollage de Véga-C
Le lanceur léger européen décollera dans la nuit du 25 au 26 juillet 2025 du Centre spatial guyanais pour placer en orbite les satellites d’observation français MicroCarb et CO3D (ici pris en photo lors du décollage avec la mission Biomass à bord). ©CNES/ESA/Optique Vidéo CSG/S. Martin, 2025, Fourni par l'auteur

Une dynamique internationale depuis quinze ans

Dans les rapports internationaux intergouvernementaux GEO (intergovernmental Group on Earth Observations) ou des agences spatiales du CEOS (Committee on Earth Observation Satellites), les groupes d’experts sont unanimes pour reconnaître le besoin de mesure de CO2 depuis l’espace.

Ainsi, la Jaxa (Japon) puis la Nasa (États-Unis) se sont lancé, dès 2009, dans la mesure du CO2 depuis l’espace.

Depuis quelques années, la Chine dispose également d’un programme spécifique ambitieux, avec de nombreux capteurs utilisant diverses technologies déjà en orbite, mais dont malheureusement les données restent très peu distribuées à la communauté internationale (communication entre agences).

En Europe, la Commission européenne a étendu son programme spatial de surveillance environnementale opérationnelle (appelé Copernicus, dont l’implémentation a été confiée à l’Agence spatiale européenne, l’ESA) – dont les missions de surveillance du CO₂ atmosphérique sont une priorité. Ainsi, les données de la mission européenne CO2M sont attendues d’ici fin 2027 pour permettre de mieux surveiller depuis l’espace les émissions anthropiques de CO2 grâce à une résolution spatiale de quatre kilomètres carrés et une fauchée de plus de 200 kilomètres permettant d’obtenir une image des panaches issus des émissions intenses localisées.

Avec le lancement prévu cet été de sa mission MicroCarb, développée en collaboration avec l’Agence spatiale du Royaume-Uni et la Commission européenne, le Centre national d’études spatiales (Cnes) va ouvrir la voie en Europe à des données précises de concentration de CO2.

La mission MicroCarb

MicroCarb est un microsatellite d’environ 200 kilogrammes équipé d’un spectromètre. Celui-ci mesure le rayonnement solaire réfléchi par la surface terrestre, après une double traversée dans l’atmosphère. La mesure à très haute résolution spectrale permet d’identifier les raies d’absorption du CO2, dont les intensités peuvent être reliées à la quantité de CO2 dans l’atmosphère.

Avec des outils sophistiqués qui prennent en compte l’ensemble de la physique de l’interaction entre le rayonnement solaire et les molécules de l’atmosphère, on peut en déduire une estimation de la concentration atmosphérique de CO2 avec une précision d’environ 0,25 % sur une surface d’environ 40 kilomètres carrés.

simulation du mode exploratoire pour observer les villes
Le satellite Microcarb va tester un nouveau mode de fonctionnement, qui permet de zoomer fortement pour avoir une résolution de l’ordre de 2 x 2 kilomètres carrés. Cette fonctionnalité est dite exploratoire. ©CNES, Fourni par l'auteur

Le satellite est sur une orbite héliosynchrone pour faire des mesures autour de midi, ce qui permet d’avoir un éclairement solaire d’une intensité nécessaire à la mesure. Cette mission va donc assurer une continuité avec les missions précédentes, en particulier celle de la Nasa dont la poursuite semble fortement compromise suite au budget prévisionnel du gouvernement Trump pour 2026, notamment pour les sciences de la Terre.

Par ailleurs, le spectromètre de MicroCarb est fondé sur un concept optique innovant par sa compacité permise par l’utilisation d’un seul détecteur pour l’ensemble des canaux de mesures et d’une bande spectrale inédite pour l’amélioration de la précision de mesure. En fonction des performances de MicroCarb, ces innovations pourraient être reprises pour les prochaines missions déjà en préparation.

The Conversation

Carole Deniel travaille à l'Agence Spatiale Francaise, le CNES.

François-Marie Bréon est Responsable Scientifique de la mission MicroCarb. Il est professeur invité au Collège de France sur l'année universitaire 2024-2025. Par ailleurs, il a une implication citoyenne en tant que vice-président et porte-parole de l'Association Française pour l'Information Scientifique (Afis).

16 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞