ACCÈS LIBRE UNE Politique International Environnement Technologies Culture
04.08.2025 à 16:24
Mars : la planète rouge se pare de vert durant la nuit
Texte intégral (2818 mots)

Sur la planète Mars, il y a des lumières qui dansent dans la nuit, un peu comme les aurores boréales sur Terre. On peut aujourd’hui les observer dans différentes couleurs, depuis l’orbite ou à la surface de la planète rouge… et vert, donc.
Mars, la planète rouge, n’est finalement pas uniquement rouge.
Durant la nuit, la planète se pare de lumières vertes, certaines semblables aux aurores boréales ou australes se produisant sur Terre. Ces lueurs sont si intenses qu’elles pourraient être observées à l’œil nu par de futurs astronautes en orbite ou à la surface de Mars. Mais outre les aurores, les astronautes pourront également voir un autre phénomène lumineux nocturne appelé « nightglow », ce que l’on pourrait traduire par « lueur nocturne ».
Aurores et lueurs nocturnes martiennes étaient bien connues dans l’ultraviolet et l’infrarouge, principalement grâce aux missions Mars Express (depuis 2003) et MAVEN (depuis 2013). Mais c’est depuis 2023 seulement que nous avons pu les détecter dans le domaine du visible, grâce à la mission ExoMars de l’Agence spatiale européenne (ESA) et aux observations du rover Perseverance de la NASA.
Ces observations ouvrent la voie à de futures études avec des instruments conçus dans le domaine de visible, plus simples, plus légers et moins onéreux que ceux conçus pour observer les ultraviolets. En particulier, le nightglow doit nous apprendre davantage sur la dynamique et de la composition de l’atmosphère martienne ; tandis que les aurores nous renseignent sur les interactions entre le vent solaire et la planète rouge… et vert.
Aurore ou « nightglow » ?
Même si ces deux types d’émission lumineuse, aurore et nightglow, produisent des lueurs dans l’atmosphère, les processus en jeu sont complètement différents.
Les aurores sont le résultat de l’interaction de particules énergétiques venant de l’espace avec les atomes ou molécules de l’atmosphère neutre de la planète, par exemple l’azote ou l’oxygène sur Terre, et le CO2 sur Mars. Sur Terre, les aurores se forment près des pôles, car c’est là que convergent les lignes du champ magnétique terrestre que suivent les électrons du vent solaire.
Mais sur Mars, la réalité est bien plus complexe, car le noyau de la planète Mars ne génère pas de champ magnétique comme celui de la planète Terre. C’est d’ailleurs pour cette raison que la communauté scientifique ne s’attendait pas à trouver d’aurores dans l’atmosphère martienne, jusqu’à la découverte d’émissions aurorales ultraviolettes, en 2005, avec l’instrument SPICAM de Mars Express (ESA).
À lire aussi : D’où viennent les aurores boréales, et pourquoi sont-elles si différentes sur Jupiter?
Le nightglow se forme différemment, par une suite de réactions « photochimiques ». Du côté de la planète où il fait jour, les molécules naturellement présentes dans l’atmosphère sont dissociées par les photons émis par le Soleil. Par exemple, les photons peuvent casser une molécule de CO2 en atomes de carbone et d’oxygène. Les atomes nouvellement créés sont transportés par la circulation atmosphérique provoquée par une différence de température, vers le côté nuit, où il fait beaucoup plus froid. Les atomes se recombinent alors pour reformer une molécule. La molécule se trouve cette fois dans un état excité : elle va émettre de la lumière à une longueur d’onde caractéristique en revenant à son état fondamental. C’est cette émission que l’on appelle nightglow.
Les sources de ces émissions lumineuses (aurores et nightglow) étant différentes, elles nous permettent d’étudier différents paramètres de l’atmosphère, à différents endroits et différentes altitudes de l’atmosphère.
Les aurores de Mars vues depuis l’orbite
Grâce à l’instrument SPICAM de Mars Express, notre équipe a pu observer une vingtaine d’aurores sur Mars. Toutes se situaient aux endroits où le champ magnétique résiduel piégé dans la roche à la surface de Mars est le plus fort – une région s’étend principalement dans l’hémisphère Sud, entre 120° et 250° de longitude.

À cet endroit, les lignes de champ magnétique forment des arcs qui agissent comme des boucliers contre les particules énergétiques, un peu comme un mini champ magnétique terrestre.
Entre deux arcades, les lignes de champ sont ouvertes et forment des sortes de canyons, dans lesquels les électrons venant du vent solaire se précipitent et interagissent avec les atomes et molécules neutres de l’atmosphère, principalement dioxyde de carbone et oxygène. Ces atomes et molécules se retrouvent alors dans un état excité instable et, lorsqu’ils se désexcitent pour retrouver dans leur état fondamental, émettent des photons à des longueurs d’onde bien caractéristiques. C’est ainsi que l’on trouvera principalement des émissions de monoxyde de carbone (CO), dioxyde de carbone ionisé (CO2+) et oxygène (O) dans l’ultraviolet et des émissions d’oxygène dans l’ultraviolet lointain. Ces émissions se produisent à environ 135 kilomètres d’altitude.
Depuis 2013, grâce aux instruments IUVS de la mission MAVEN de la NASA et EMUS à bord d’Emirates Mars Mission bien plus sensibles que SPICAM, nous sommes constamment surpris !
En effet, nous savons désormais que des émissions aurorales se produisent également en dehors de la zone de fort champ magnétique résiduel. Elles sont moins intenses, mais beaucoup plus fréquentes dans l’hémisphère Nord, par exemple.
D’autres types d’aurores ont également été observés : des aurores sinueuses, avec une forme de serpent dont la longueur peut couvrir tout un hémisphère en se déplaçant très rapidement, ou encore des aurores diffuses qui peuvent recouvrir toute la face nocturne de la planète ! Ces aurores diffuses se produisent plus bas en altitude, à environ 60 kilomètres à 80 kilomètres. Elles se produisent assez rarement car elles nécessitent la présence d’évènements SEP (pour Solar Energetic Particle) durant lesquels les particules émises par le Soleil, principalement des protons, se retrouvent fortement accélérées.
Aurores et activité solaire sont donc intimement liées. Les aurores martiennes peuvent avoir, comme sur Terre, des endroits de formation privilégiés, mais sont globalement très variables et assez difficilement prévisibles.
Observer des aurores depuis la surface de Mars
Nous savons que l’une des émissions aurorales précédemment observées dans l’UV (les atomes d’oxygène excités émettant à 297 nanomètres) possède une contrepartie dans le domaine du visible – il s’agit de la raie de l’oxygène à 557 nanomètres, qui donne sa couleur verte aux aurores terrestres. Cette composante devrait également être observable dans l’atmosphère martienne.
Et c’est l’exploit qu’a réalisé l’équipe du rover Perseverance en détectant la première aurore visible dans le ciel martien en mars 2024. L’équipe a guetté l’apparition d’évènements SEP au niveau du Soleil pour commander à distance au rover d’observer le ciel durant les nuits correspondantes. Une stratégie fructueuse, puisque l’émission à 557 nanomètres a été détectée par le spectromètre de Perseverance ! C’est donc la première fois qu’une image d’une aurore a été prise depuis le sol d’une planète autre que celui de la Terre.
L’intensité de cet évènement aurait probablement été trop faible pour pouvoir être perceptible par un œil humain, mais d’autres aurores, plus intenses, pourraient tout à fait être détectées à l’œil nu par de futurs astronautes à la surface ou en orbite autour de Mars.
Le « nightglow » de Mars serait visible par de futurs astronautes
Dans le cas de Mars, les photons émis par le Soleil interagissent avec les molécules de CO2 majoritairement présentes dans l’atmosphère martienne (~96 %), principalement au niveau du pôle d’été, éclairé et échauffé par le Soleil.
Les molécules de CO2 sont alors dissociées et les atomes d’oxygène sont transportés vers le pôle d’hiver plongé dans la nuit et le froid, par ce que l’on appelle la circulation été-hiver. Là, les atomes d’oxygène se recombinent pour former une molécule de O2 dans un état excité, qui émet alors une émission lumineuse à une longueur d’onde caractéristique en retournant à son état fondamental. C’est cette émission, que l’on observe dans la nuit polaire martienne d’hiver, que l’on appelle nightglow.

Ce nightglow a d’abord été observé dans l’infrarouge, à 1,27 micromètre, à partir de l’orbite martienne, par la mission MRO (pour Mars Reconnaissance Orbiter), lancée en 2005, par la NASA.
Mais c’est en 2023 que cette émission de l’oxygène a été observée pour la toute première fois dans le domaine du visible, à environ 50 kilomètres d’altitude. Contrairement aux aurores, variables et difficilement prévisibles, le nightglow est très homogène dans le temps et dans l’espace.
De plus, son intensité est telle que de futurs astronautes n’auraient aucune difficulté à observer un ciel vert au-dessus du pôle d’hiver lors d’une belle nuit étoilée.
Les futures missions
Grâce à ces avancées majeures dans le domaine du visible, nous savons désormais qu’il nous est possible de continuer d’étudier l’atmosphère de Mars en utilisant des instruments plus simples, plus légers et moins onéreux en utilisant le domaine visible plutôt que celui de l’ultraviolet.
C’est ce que nous voulons faire avec la caméra aurorale M-AC à bord de M-MATISSE, une mission que nous avons proposée à l’Agence spatiale européenne (ESA) et qui est actuellement en phase de sélection. Deux orbiteurs emporteraient à leur bord différents instruments pour analyser l’environnement de Mars, ainsi qu’une caméra avec un filtre pour observer les émissions vertes autour de 557 nanomètres.
Grâce à M-AC, nous pourrions photographier et prendre des vidéos des aurores martiennes avec une résolution et une sensibilité jamais atteintes auparavant. Si elle est acceptée par l’ESA, cette mission devrait être lancée en 2037 en direction de la planète rouge… et vert !

Lauriane Soret a reçu des financements du F.R.S.-FNRS.
03.08.2025 à 18:19
Climatisation : quelles alternatives au quotidien, quelles recherches pour le futur ?
Texte intégral (1755 mots)
Dans un contexte de réchauffement climatique accéléré, la climatisation apparaît comme une réponse évidente à la multiplication des épisodes de chaleur extrême. Pourtant, généraliser la climatisation dite « de confort » – c’est-à-dire en dehors des cas de besoin médical ou professionnel strict – n’est ni pertinente d’un point de vue environnemental ni tenable sur les plans économique et social. Car rafraîchir nos intérieurs à coups de kilowatt-heures, c’est souvent aggraver la chaleur à l’extérieur du local ou bâtiment climatisé, et creuser encore davantage les inégalités entre ceux qui peuvent se payer la fraîcheur et les autres.
L’été 2024 a battu de nouveaux records, et notamment de températures. Selon Santé publique France, 3 700 décès ont été liés à la chaleur, et plus de 17 000 passages aux urgences enregistrés. Alors que les canicules deviennent plus fréquentes, la question de la climatisation revient avec insistance dans le débat public. Faut-il équiper systématiquement nos logements, écoles, bureaux ? Pour beaucoup, la climatisation semble une solution simple et immédiate. Mais elle soulève de sérieux enjeux.
De fait, la climatisation est parfois indispensable. Pour les publics vulnérables (personnes âgées, jeunes enfants, personnes malades) ou pour certains métiers exposés (travailleurs du bâtiment, métiers en environnement confiné ou bruyant, opérateurs manipulant des machines dégageant de la chaleur), elle peut littéralement sauver des vies. On peut également citer la climatisation nécessaire pour les data centers ou dans les musées afin de préserver les œuvres. Mais pour le reste de la population, on parle de « climatisation de confort », dont la pertinence mérite d’être interrogée.
Si la recherche avance sur des innovations technologiques vers des systèmes moins énergivores et plus efficaces, ils ne pourront remplacer une réflexion globale sur notre rapport au confort thermique. La climatisation peut être un outil utile, parfois vital. Mais elle ne doit pas devenir une fuite en avant.
À l’heure du changement climatique, la question n’est pas de bannir la climatisation, mais de repenser nos façons de vivre et nos actions afin qu’elles restent soutenables, équitables et vraiment efficaces.
Pourquoi la climatisation peut poser problème
D’abord sur le plan énergétique. D’après l’Agence de la transition écologique (Ademe), un logement équipé d’une climatisation consomme en moyenne 304 kilowatts-heures par an pour la climatisation, une valeur qui grimpe à 482 kilowatts-heures dans le sud-est de la France. L’impact carbone reste limité grâce au mix électrique français majoritairement bas carbone, mais la facture, elle, est bien réelle : selon EDF, une climatisation peut augmenter de 15 % la consommation d’électricité d’un foyer en été, soit de 76 à 120 euros par an au tarif réglementé.
Ensuite, la généralisation de la climatisation creuse des inégalités sociales. La précarité énergétique d’été est de plus en plus présente en France. Dans de nombreux quartiers populaires, où les logements sont mal isolés, la climatisation est soit absente, soit assurée par des équipements peu performants, souvent bon marché et énergivores (les climatisations mobiles achetées dans un supermarché, par exemple).
Autrement dit, climatiser une « bouilloire thermique » mal conçue revient parfois à climatiser… l’extérieur. Le service rendu est faible, mais la facture salée.
Et pendant ce temps, les rejets de chaleur de ces appareils contribuent à accentuer la température extérieure, aggravant l’îlot de chaleur dans le cas des villes, notamment.
C’est l’un des paradoxes de la climatisation : comme un réfrigérateur, elle rafraîchit d’un côté mais rejette de la chaleur de l’autre. Plus on climatise, plus on chauffe ailleurs : la chaleur rejetée égale à l’énergie pour refroidir additionnée à l’énergie électrique consommée. À Paris, une étude menée par Météo France et le Conservatoire national des arts et métiers (Cnam) dans le cadre du projet Clim2 a montré que les rejets de chaleur des climatiseurs pouvaient faire grimper la température de plusieurs degrés à deux mètres du sol.
Quelles alternatives à la climatisation au quotidien ?
Alors, faut-il renoncer à la fraîcheur ? Pas nécessairement. Des alternatives existent et peuvent répondre efficacement aux besoins de confort thermique, tout en étant bien moins énergivores.
Le programme Climeco, porté par l’Association française du froid (AFF), a ainsi publié un guide d’« écogestes » pour limiter le recours à la climatisation, initialement destiné aux territoires ultramarins, mais parfaitement transposable à d’autres territoires.
Parmi ces gestes simples : limiter les apports de chaleur (en fermant les volets, en réduisant l’usage d’appareils électriques), ne pas régler la température de la climatisation trop bas, choisir un équipement adapté à ses besoins, ou encore entretenir régulièrement son appareil. Mais l’un des conseils les plus efficaces reste : rafraîchir sans climatiser.
Cela passe par des solutions dites passives, comme la ventilation naturelle. Ouvrir les fenêtres la nuit ou tôt le matin, lorsque l’air extérieur est plus frais, permet d’abaisser significativement la température intérieure. Certes, cette stratégie se heurte parfois à un sentiment d’insécurité ou à des contraintes d’environnement sonore, en particulier dans les logements en rez-de-chaussée ou en zone dense.
Côté solutions actives, les ventilateurs ont largement fait leurs preuves. Contrairement à la climatisation, ils ne refroidissent pas l’air, mais créent un courant d’air qui favorise l’évaporation de la sueur, renforçant la sensation de fraîcheur. Certains modèles sont équipés de brumisateurs ou d’humidificateurs, efficaces surtout dans les climats secs.
Les ventilateurs de plafond, ou brasseurs d’air en plafonnier se révèlent particulièrement performants : silencieux, peu gourmands en énergie, ils assurent un brassage homogène de l’air, même à basse vitesse, et sont bien adaptés à un usage nocturne.
Ces équipements, bien choisis et bien utilisés, constituent une alternative crédible et accessible à la climatisation de confort dans une réflexion plus large, qui inclue végétalisation, isolation, protections solaires et optimisation de l’aération : une approche plus systémique que la seule réponse technologique, quand cela est possible.
À lire aussi : Des villes vertes et bleues pour supporter un climat plus chaud
Trop souvent, les appareils de climatisation sont surdimensionnés, mal installés ou mal entretenus. Le rôle du professionnel est de dimensionner correctement le système en fonction des besoins réels (on ne choisit pas une voiture de course pour aller chercher son pain !), d’optimiser l’installation, et de garantir un fonctionnement efficace dans le temps.
Les recherches sur la clim du futur
La recherche, de son côté, avance sur plusieurs fronts.
Les industriels et laboratoires travaillent sur des fluides frigorigènes alternatifs ayant un faible pouvoir de réchauffement global (abrégé PRG, c’est un indicateur qui permet de comparer l’impact du réchauffement climatique d’un gaz à effet de serre à une référence, le CO2, sur cent ans), pour remplacer les fluides actuels aujourd’hui très encadrés par la réglementation européenne F-Gas.
On développe aussi des systèmes hybrides, combinant climatisation et récupération de chaleur au niveau du condenseur (l’équivalent de la façade arrière d’un réfrigérateur ménager) pour des applications de réseaux thermiques, par exemple, ou des dispositifs de rafraîchissement par évaporation, moins énergivores.
D’autres axes visent à augmenter l’efficacité énergétique des machines de climatisation – en améliorant les échangeurs thermiques, les compresseurs ou la régulation intelligente – afin de produire plus de froid pour une même quantité d’électricité.
Les projets Analyse de méthodes asymptotiques robustes pour la simulation numérique en mécanique (ARAMIS) et Évaporateur compact pour systèmes à sorption (Ecoss) sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

Brice Trémeac est membre et administrateur de l'association française du froid industriel (Aff) et est membre de l'Institut international du froid (IIF). Il a reçu des financements de l'ANR (ANR-12-BS01-0021, ANR-11-SEED-0007), de l'Ademe, France2030 ainsi que différentes entreprises privées dans le cadre de projets de recherche.
31.07.2025 à 14:49
Des déchets de crevette pour une électronique plus écoresponsable ?
Texte intégral (2166 mots)
Avec l’explosion du numérique, des objets connectés et de l’intelligence artificielle, la production de composants électroniques poursuit sa croissance. La fabrication de ces composants recourt à des techniques de fabrication complexes qui ont pour objet de sculpter la matière à l’échelle de quelques micromètres à quelques nanomètres, soit environ l’équivalent du centième au millième du diamètre d’un cheveu.
L’impact environnemental de ces procédés de fabrication est aujourd’hui estimé entre 360 et 600 mégatonnes équivalent CO2 par an dans le monde. Les chercheurs visent à réduire cet impact en s’attaquant aux différentes étapes de fabrication des produits électroniques.
Les procédés de fabrication en microélectronique requièrent l’emploi de matériaux et solvants pétrosourcés – c’est-à-dire issus de ressources fossiles comme le pétrole. Et certains de ces matériaux comportent des composés chimiques classés comme mutagènes, cancérigènes ou reprotoxiques. Pour des raisons économiques, réglementaires, écologiques et de sécurité, les acteurs du domaine soulignent leur volonté d’accentuer le développement de procédés plus respectueux de l’environnement et moins toxiques. De plus, les projections sur la raréfaction du pétrole imposent d’explorer des matériaux alternatifs aux matériaux pétrosourcés – un domaine que l’on appelle la « chimie verte ».
Dans ce contexte, différents matériaux biosourcés (à savoir, des matériaux issus partiellement ou totalement de la biomasse) et hydrosolubles sont étudiés comme une alternative aux matériaux pétrosourcés. Par exemple, la protéine de la soie ou les protéines du blanc d’œuf, deux matériaux appartenant à la famille des polymères (matériaux constitués de molécules de tailles importantes, aussi appelées « macromolécules ») ont été proposés comme résine de lithographie. Cependant, ces polymères biosourcés possèdent des limitations pratiques par exemple être en compétition avec l’alimentation humaine pour ce qui concerne le blanc d’œuf.
À lire aussi : Comment rendre l’électronique plus soutenable ?
Dans nos travaux, nous explorons le potentiel du chitosane, un matériau polymère naturel produit aujourd’hui à l’échelle industrielle à partir de la chitine, que l’on extrait principalement de déchets agroalimentaires, comme les carapaces de crevettes et de crabes, les endosquelettes de seiches et de calmars, et certains champignons.
Nous avons montré que le chitosane est compatible avec une ligne de production pilote semi-industrielle de microélectronique. L’analyse du cycle de vie du procédé que nous proposons montre une réduction potentielle de 50 % de l’impact environnemental par rapport aux résines conventionnelles lors de la réalisation d’étapes de lithographie-gravure similaires.
La lithographie, processus clé de la fabrication des composants électroniques
Par exemple, aujourd’hui, la fabrication d’un transistor nécessite plusieurs centaines d’étapes (entre 300 et 1 000 par puce suivant la nature du composant).
Parmi ces étapes, les étapes de lithographie permettent de dessiner les motifs des composants à l’échelle micro et nanométrique. Ce sont celles qui nécessitent le plus de produits chimiques actuellement pétrosourcés et pour certains toxiques.
La lithographie consiste à recouvrir la plaque de silicium avec une couche de résine sensible à la lumière ou à un faisceau d’électrons – comme une pellicule photographique – de manière à y inscrire des motifs de quelques micromètres à quelques nanomètres par interaction localisée du faisceau avec la matière. En optique, plusieurs longueurs d’onde sont utilisées selon la taille des motifs souhaités.
Plus la longueur d’onde est petite, plus la taille des motifs inscriptibles est petite, et on peut aujourd’hui atteindre des résolutions de moins de 5 nanomètres avec une lumière de longueur d’onde de 13,5 nanomètres, afin de répondre à la demande de miniaturisation des composants électroniques, correspondant à la loi de Moore. Celle-ci stipule que le nombre de transistors sur un circuit intégré double environ tous les deux ans, entraînant une augmentation exponentielle des performances des microprocesseurs tout en réduisant leur coût unitaire.
In fine, lors de l’étape de développement – encore une fois comme un terme emprunté à la photographie argentique, c’est la différence de solubilité entre les zones de la résine qui ont été exposées ou non à l’irradiation ultraviolette ou d’électrons qui permet de créer des ouvertures de géométrie définie à travers la résine de chitosane. Là où la résine disparaît, on accède au substrat de silicium (ou autre couche/matériau sous-jacente). On peut ainsi le graver ou y déposer d’autres matériaux (métaux, diélectriques et semiconducteurs), la résine restante jouant alors le rôle de masque de protection temporaire pour les zones non traitées.
Le chitosane, une solution bio pour la résine
Comme mentionné précédemment, le chitosane est produit à partir de la chitine, le deuxième polymère naturel le plus abondant sur Terre (après la cellulose), mais il peut aussi être produit par des procédés de biotechnologies. En plus d’être un matériau renouvelable, il est biocompatible, non écotoxique, biodégradable et soluble en milieu aqueux légèrement acide.
Au milieu de tous ces avantages, son grand intérêt pour la micro- et la nanofabrication est qu’il peut former des films minces, c’est-à-dire des couches de très faibles épaisseurs. Le chitosane peut donc être facilement étalé sur le substrat en silicium pour remplacer la résine pétrosourcée.
Dans le cadre de plusieurs projets de recherche, nous avons démontré que le chitosane était compatible avec toute la gamme des techniques de lithographie : lithographie électronique, optique (193 nanomètres et 248 nanomètres) et même en nanoimpression. Cette dernière technique consiste à presser directement le film de chitosane avec un tampon chauffé possédant des motifs de tailles submicrométriques.
Le chitosane change de structure quand il est irradié
Nous avons mis en évidence que, sous une exposition à des faisceaux d’électrons ou de lumière, une réduction de la longueur des macromolécules du chitosane se produit du fait de la rupture de certaines liaisons chimiques, selon un processus de « dépolymérisation partielle ».
Ceci a pour conséquence de rendre la zone irradiée de la résine soluble dans l’eau pure alors que les zones non touchées par le faisceau restent insolubles.
Au final, les performances de la résine en chitosane sont proches des résines commerciales en conditions environnementales contrôlées (salles blanches de microélectronique), et ce, d’autant mieux sous atmosphère à faible teneur en dioxygène et/ou à faible taux d’humidité relative, des conditions qui peuvent être contrôlées en salle blanche.
Les motifs ont été transférés avec succès par gravure dans la silice et le silicium pour atteindre des motifs de moins de 50 nanomètres en écriture électronique.
L’amélioration de la résolution constitue un axe de recherche en cours dans notre consortium pour atteindre les standards des résines de référence d’autant plus que l’industrie est en quête de solutions alternatives aux résines classiques pour répondre aux enjeux environnementaux, économiques et technologiques actuels. Les résines biosourcées peuvent être une réelle alternative à partir du moment où elles permettront d’atteindre les résolutions obtenues par les résines classiques, à savoir quelques nanomètres.
À lire aussi : Vos appareils électroniques sont-ils obsolètes de plus en plus rapidement ?
L’expertise que nous avons construite au cours des années, dans le cadre notamment du projet ANR Lithogreen, a permis à notre consortium de laboratoires français d’intégrer le projet européen Horizon Europe Resin Green avec des visées de développement en lithographie optique sur toute la gamme de 365 nanomètres à 13,5 nanomètres et en lithographie électronique à haute résolution — ce qui permettrait d’atteindre des résolutions comparables à celles obtenues actuellement avec les résines pétrosourcées.
Le projet Lithogreen ANR-19-CE43-0009 a été soutenu par l’Agence Nationale de la Recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

Yann Chevolot a reçu des financements de l'ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l'initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'initiative commune Chips JU. L'Union européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.
Didier Léonard a reçu des financements de l'ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l'initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'initiative commune Chips JU. L'Union européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.
SERVIN Isabelle a reçu des financements pour le projet ANR Lithogreen
Jean-Louis Leclercq a reçu a reçu des financements de l'ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l'initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'initiative commune Chips JU. L'Union européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.
Olivier Soppera a reçu des financements de l'ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l'initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union européenne ou de l'initiative commune Chips JU. L'Union européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.
Stéphane Trombotto a reçu des financements de l'ANR pour le projet Lithogreen (ANR-19-CE43-0009) et de l'Union Européenne et Chips JU pour le projet Resin Green (https://resingreen.eu). Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l'Union Européenne ou Chips JU. L'Union Européenne et l'autorité chargée de l'octroi des subventions ne peuvent être tenues pour responsables de ces opinions.
30.07.2025 à 16:25
Les Néandertaliens auraient-ils accompagné leur viande d’une bonne quantité d’asticots ?
Texte intégral (1927 mots)

Les asticots étaient-ils un mets de base du régime alimentaire des Néandertaliens ? Cela expliquerait pourquoi ces derniers présentent des taux d’azote-15 dignes d’hypercarnivores.
Pendant longtemps, les scientifiques ont pensé que les Néandertaliens étaient de grands consommateurs de viande. Des analyses chimiques de leurs restes semblaient indiquer qu’ils en mangeaient autant que des prédateurs de haut niveau comme les lions ou les hyènes. Mais en réalité, les Hominini – c’est-à-dire les Néandertaliens, notre espèce, et d’autres parents proches aujourd’hui éteints – ne sont pas des carnivores spécialisés. Ce sont plutôt des omnivores, qui consomment aussi de nombreux aliments d’origine végétale.
Il est possible pour les humains de survivre avec un régime très carnivore. De fait, plusieurs groupes de chasseurs-cueilleurs traditionnels du Nord, comme les Inuits, ont pu survivre principalement grâce aux aliments d’origine animale. Mais les Hominini ne peuvent tout simplement pas tolérer de grandes quantités de protéines comme les grands carnivores. Chez l’humain, un excès prolongé de protéines sans une quantité suffisante d’autres nutriments peut entraîner une intoxication protéique – un état débilitant, voire mortel, historiquement appelé « famine du lapin ».
Alors, comment expliquer les signatures chimiques retrouvées dans les os de Néandertaliens, qui suggèrent qu’ils mangeaient énormément de viande sans problème apparent ?
Je suis anthropologue et j’étudie l’alimentation de nos lointains ancêtres grâce à des éléments comme l’azote. De nouvelles recherches que mes collègues et moi avons menées suggèrent qu’un ingrédient secret dans le régime des Néandertaliens pourrait expliquer ces signatures chimiques : les asticots.
Les rapports isotopiques renseignent sur ce qu’un animal a mangé
Les proportions d’éléments spécifiques retrouvées dans les os d’un animal permettent d’avoir un aperçu de son alimentation. Les isotopes sont des formes alternatives d’un même élément, dont la masse diffère légèrement. L’azote possède deux isotopes stables : l’azote-14 (le plus courant) et l’azote-15 (plus lourd et plus rare). On note leur rapport sous la forme δ15N, mesuré en « pour mille ».
À mesure que l’on monte dans la chaîne alimentaire, les organismes ont relativement plus d’azote-15 en eux. L’herbe, par exemple, a une valeur de δ15N très faible. Un herbivore, lui, accumule l’azote-15 qu’il consomme en mangeant de l’herbe, de sorte que son propre corps a une valeur de δ15N légèrement plus élevée. Les animaux carnivores ont le ratio d’azote le plus élevé dans un réseau alimentaire ; l’azote-15 de leurs proies se concentre dans leur corps.
En analysant les rapports d’isotopes stables de l’azote, nous pouvons reconstruire les régimes alimentaires des Néandertaliens et des premiers Homo sapiens durant la fin du Pléistocène, qui s’étendait de 11 700 à 129 000 ans avant notre ère (av. n. è.). Les fossiles provenant de différents sites racontent la même histoire : ces Hominini ont des valeurs de δ15N élevées. Ces valeurs les placeraient typiquement au sommet de la chaîne alimentaire, aux côtés des hypercarnivores tels que les lions des cavernes et les hyènes, dont le régime alimentaire est composé à plus de 70 % de viande.
Mais peut-être y avait-il quelque chose d’autre dans leur alimentation qui gonfle ces valeurs ?
Découvrir le menu des Néandertaliens
Notre suspicion s’est portée sur les asticots, qui pouvaient être une source différente d’azote-15 enrichi dans le régime alimentaire des Néandertaliens. Les asticots, qui sont les larves de mouches, peuvent être une source de nourriture riche en graisses. Ils sont inévitables après avoir tué un autre animal, facilement collectables en grande quantité et bénéfiques sur le plan nutritionnel.
Pour explorer cette possibilité, nous avons utilisé un ensemble de données qui avait été initialement créé dans un but très différent : un projet d’anthropologie médico-légale axé sur la manière dont l’azote pourrait aider à estimer le temps écoulé depuis la mort.
J’avais initialement collecté des échantillons contemporains de tissu musculaire et des asticots associés au Centre d’anthropologie médico-légale de l’Université du Tennessee, à Knoxville, pour comprendre comment les valeurs d’azote évoluent pendant la décomposition après la mort.
Bien que ces données soient pensées pour aider dans des enquêtes actuelles sur des morts, nous les avons, nous, réutilisées pour tester une hypothèse très différente. Nous avons ainsi trouvé que les valeurs des isotopes stables de l’azote augmentent modestement à mesure que le tissu musculaire se décompose, allant de -0,6 permil à 7,7 permil.
Cette augmentation est plus marquée dans les asticots eux-mêmes, qui se nourrissent de ce tissu en décomposition : de 5,4 permil à 43,2 permil. Pour mettre ces valeurs en perspective, les scientifiques estiment que les valeurs de δ15N des herbivores du Pléistocène varient entre 0,9 permil et 11,2 permil. On enregistre pour les asticots des mesures pouvant être presque quatre fois plus hautes.
Notre recherche suggère que les valeurs élevées de δ15N observées chez les Hominini du Pléistocène tardif pourraient être gonflées par une consommation tout au long de l’année de mouches larvaires enrichies en 15N trouvées dans des aliments d’animaux séchés, congelés ou stockés.
Les pratiques culturelles influencent l’alimentation
En 2017, mon collègue John Speth a suggéré que les valeurs élevées de δ15N chez les Néandertaliens étaient dues à la consommation de viande putréfiée ou en décomposition, en se basant sur des preuves historiques et culturelles des régimes alimentaires chez les chasseurs-cueilleurs de l’Arctique.
Traditionnellement, les peuples autochtones considéraient presque universellement les aliments d’animaux entièrement putréfiés et infestés de mouches larvaires comme des mets très recherchés, et non comme des rations de survie. En fait, de nombreux peuples laissaient régulièrement et, souvent intentionnellement, les aliments d’origine animale se décomposer au point où ils grouillaient de mouches larvaires et, dans certains cas, commençaient même à se liquéfier.
Cette nourriture en décomposition émettait inévitablement une puanteur si intense que les premiers explorateurs européens, les trappeurs et les missionnaires en étaient dégoûtés. Pourtant, les peuples autochtones considéraient ces aliments comme bons à manger, voire comme une gourmandise. Lorsqu’on leur demandait comment ils pouvaient tolérer cette odeur nauséabonde, ils répondaient simplement : « Nous ne mangeons pas l’odeur. »
Des pratiques culturelles des Néandertaliens similaires pourraient bien être la clé de l’énigme de leurs valeurs élevées de δ15N. Les Hominini anciens coupaient, stockaient, conservaient, cuisaient et cultivaient une grande variété de produits. Toutes ces pratiques enrichissaient leur régime alimentaire paléolithique avec des aliments sous des formes que les carnivores non-Hominini ne consomment pas. Des recherches montrent que les valeurs de δ15N sont plus élevées pour les aliments cuits, pour les tissus musculaires putréfiés provenant de spécimens terrestres et aquatiques et, selon notre étude, pour les larves de mouches se nourrissant de tissus en décomposition.
Les valeurs élevées de δ15N des asticots associées aux aliments animaux putréfiés aident à expliquer comment les Néandertaliens ont pu inclure une grande variété d’autres aliments nutritifs au-delà de la simple viande, tout en affichant des valeurs de δ15N typiques de celles des hypercarnivores.
Nous suspectons que les valeurs élevées de δ15N observées chez les Néandertaliens reflètent la consommation régulière de tissus animaux gras et de contenus d’estomac fermentés, beaucoup étant à l’état semi-putride ou putride, ainsi que le bonus inévitable des mouches larvaires vivantes et mortes enrichies en 15N.
Ce qui reste encore inconnu
Les asticots sont une ressource riche en graisses, dense en nutriments, ubiquitaire et facilement disponible, et tant les Néandertaliens que les premiers Homo sapiens, tout comme les chasseurs-cueilleurs modernes, auraient tiré profit de leur pleine exploitation. Mais nous ne pouvons pas affirmer que les mouches larvaires seules expliquent pourquoi les Néandertaliens ont de telles valeurs élevées de δ15N dans leurs restes.
Plusieurs questions concernant ce régime alimentaire ancien restent sans réponse. Combien d’asticots une personne devait-elle consommer pour expliquer une augmentation des valeurs de δ15N au-delà des valeurs attendues dues à la consommation de viande seule ? Comment les bienfaits nutritionnels de la consommation de mouches larvaires changent-ils en fonction du temps de stockage des aliments ? Des études expérimentales supplémentaires sur les variations des valeurs de δ15N des aliments transformés, stockés et cuits selon les pratiques traditionnelles autochtones pourraient nous aider à mieux comprendre les pratiques alimentaires de nos ancêtres.

Melanie Beasley a reçu un financement de la Haslam Foundation pour cette recherche.
30.07.2025 à 15:20
Séisme au Kamtchatka : que sait-on de l’un des dix plus puissants tremblements de terre jamais enregistrés ?
Texte intégral (1924 mots)
Mercredi 30 juillet vers 11 h 30 heure locale, un séisme de magnitude 8,8 a frappé la côte de la péninsule du Kamtchatka à l’extrême est de la Russie. La région est le siège d’une activité sismique depuis plusieurs mois, et des dizaines de répliques ont déjà eu lieu autour de ce séisme. Des alertes au tsunami ont été lancées rapidement tout autour du Pacifique – et certaines ont déjà pu être levées.
Avec une profondeur d’environ 20 kilomètres, ce puissant séisme, qui figure parmi les dix plus forts jamais enregistrés et le plus important au monde depuis 2011, a causé des dégâts matériels et fait des blessés dans la plus grande ville voisine, Petropavlovsk-Kamtchatski, située à seulement 119 kilomètres de l’épicentre.
Des alertes au tsunami et des évacuations ont été déclenchées en Russie, au Japon et à Hawaï, et des avis ont été émis pour les Philippines, l’Indonésie et même la Nouvelle-Zélande et le Pérou.
Toute la région du Pacifique est très exposée à des séismes puissants et aux tsunamis qui en résultent, car elle est située dans la « ceinture de feu », une zone d’activité sismique et volcanique intense. Les dix séismes les plus puissants jamais enregistrés dans l’histoire moderne se sont tous produits dans la ceinture de feu.
Voici pourquoi la tectonique des plaques rend cette partie du monde si instable.
Pourquoi le Kamtchatka est-il touché par des séismes aussi violents ?
Au large de la péninsule du Kamtchatka se trouve la fosse des Kouriles, une frontière tectonique où la plaque Pacifique est poussée sous la plaque d’Okhotsk.
Alors que les plaques tectoniques se déplacent continuellement les unes par rapport aux autres, l’interface entre les plaques tectoniques est souvent « bloquée ». La tension liée au mouvement des plaques s’accumule jusqu’à dépasser la résistance de l’interface, puis se libère sous la forme d’une rupture soudaine : un séisme.
En raison de la grande superficie de l’interface aux frontières des plaques, tant en longueur qu’en profondeur, la rupture peut s’étendre sur de vastes zones à la frontière des plaques. Cela donne lieu à certains des séismes les plus importants et potentiellement les plus destructeurs au monde.
Un autre facteur qui influe sur la fréquence et l’intensité des séismes dans les zones de subduction est la vitesse à laquelle les deux plaques se déplacent l’une par rapport à l’autre.
Dans le cas du Kamtchatka, la plaque Pacifique se déplace à environ 75 millimètres par an par rapport à la plaque d’Okhotsk. Il s’agit d’une vitesse relativement élevée pour des plaques tectoniques, ce qui explique que les séismes y sont plus fréquents que dans d’autres zones de subduction. En 1952, un séisme de magnitude 9,0 s’est produit dans la même zone de subduction, à environ 30 kilomètres seulement du séisme de magnitude 8,8 d’aujourd’hui.
Parmi les autres exemples de séismes à la frontière d’une plaque en subduction, on peut citer le séisme de magnitude 9,1 qui a frappé la région de Tohoku au Japon en 2011 et le séisme de magnitude 9,3 qui a frappé Sumatra et les îles Andaman en Indonésie le 26 décembre 2004. Ces deux séismes ont débuté à une profondeur relativement faible et ont provoqué une rupture de la limite des plaques jusqu’à la surface.
Ils ont soulevé un côté du fond marin par rapport à l’autre, déplaçant toute la colonne d’eau de l’océan située au-dessus et provoquant des tsunamis dévastateurs. Dans le cas du séisme de Sumatra, la rupture du fond marin s’est produite sur une longueur d’environ 1 400 kilomètres.

Que va-t-il se passer maintenant ?
Au moment où nous écrivons ces lignes, environ six heures après le séisme, 35 répliques d’une magnitude supérieure à 5,0 ont déjà été enregistrées, selon le service de surveillance sismique états-unien (l’United States Geological Survey, USGS).
Les répliques se produisent lorsque les tensions dans la croûte terrestre se redistribuent après le séisme principal. Elles sont souvent d’une magnitude inférieure d’un point à celle du séisme principal. Dans le cas du séisme d’aujourd’hui, cela signifie que des répliques d’une magnitude supérieure à 7,5 sont possibles.
À lire aussi : Pourquoi il y a des séismes en cascade en Turquie et en Syrie
Pour un séisme de cette ampleur, les répliques peuvent se poursuivre pendant des semaines, voire des mois, mais leur magnitude et leur fréquence diminuent généralement avec le temps.
Le séisme d’aujourd’hui a également provoqué un tsunami qui a déjà touché les communautés côtières de la péninsule du Kamtchatka, des îles Kouriles, et d’Hokkaido au Japon.
Au cours des prochaines heures, le tsunami se propagera à travers le Pacifique, atteignant Hawaï environ six heures après le séisme et se poursuivant jusqu’au Chili et au Pérou. [ndlt : à l’heure où nous effectuons cette traduction, les alertes à Hawaï ont été réduites, et annulées aux Philippines. Les vagues ont atteint la côte ouest des États-Unis, jusqu’à un mètre de hauteur en Californie et dans l’Oregon.]
Les spécialistes des tsunamis continueront d’affiner leurs modèles des effets du tsunami au fur et à mesure de sa propagation, et les autorités de la protection civile fourniront des conseils faisant autorité sur les effets locaux attendus.
À lire aussi : Alertes aux séismes et tsunamis : comment gagner de précieuses secondes
Quelles leçons peut-on tirer de ce séisme pour d’autres régions du monde ?
Heureusement, les séismes d’une telle ampleur sont rares. Cependant, leurs effets au niveau local et à l’échelle mondiale peuvent être dévastateurs.
Outre sa magnitude, plusieurs aspects du séisme qui a frappé le Kamtchatka aujourd’hui en feront un sujet de recherche particulièrement important.
Par exemple, la région a connu une activité sismique très intense ces derniers mois et un séisme de magnitude 7,4 s’est produit le 20 juillet. L’influence de cette activité antérieure sur la localisation et le moment du séisme d’aujourd’hui sera un élément crucial de ces recherches.
Tout comme le Kamtchatka et le nord du Japon, la Nouvelle-Zélande est située au-dessus d’une zone de subduction, et même de deux zones de subduction. La plus grande, la zone de subduction de Hikurangi, s’étend au large de la côte est de l’île du Nord.
D’après les caractéristiques de cette interface tectonique et les archives géologiques des séismes passés, la zone de subduction de Hikurangi est susceptible de produire des séismes de magnitude 9. Cela ne s’est jamais produit dans l’histoire, mais si cela arrivait, cela provoquerait un tsunami.
La menace d’un séisme majeur dans une zone de subduction n’est jamais écartée. Le séisme qui s’est produit aujourd’hui au Kamtchatka est un rappel important pour tous ceux qui vivent dans des zones sismiques de rester prudents et de tenir compte des avertissements des autorités de protection civile.

Dee Ninis travaille au Seismology Research Centre, est vice-présidente de l’Australian Earthquake Engineering Society et membre du comité de la Geological Society of Australia – Victoria Division.
John Townend reçoit des financements des fonds Marsden et Catalyst de la Royal Society Te Apārangi, de la Natural Hazards Commission Toka Tū Ake et du ministère néo-zélandais des Entreprises, de l’Innovation et de l’Emploi. Il est ancien président et directeur de la Seismological Society of America ainsi que président de la New Zealand Geophysical Society.