URL du flux RSS

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

17.06.2025 à 17:32

Combien de temps l’humanité survivrait-elle si l’on arrêtait de faire des enfants ?

Michael A. Little, Distinguished Professor Emeritus of Anthropology, Binghamton University, State University of New York
Si la population humaine cessait de se reproduire, il ne faudrait sans doute que 70 à 80 ans pour que notre espèce ne soit rayée de la surface du globe.
Texte intégral (1694 mots)
Pas d'inquiétude à ce stade : la population continue de croître. Sean Gallup/Getty Images

Suffit-il de calculer l’espérance de vie maximale d’un humain pour deviner combien de temps mettrait l’humanité à disparaître si l’on arrêtait de se reproduire ? Pas si simple répond l’anthropologue américain Michael A. Little dans cet article à destination des plus jeunes.


Très peu de personnes vivent au-delà d’un siècle. Ainsi, si plus personne n’avait d’enfants, il ne resterait probablement plus d’humains sur Terre dans 100 ans. Mais avant cela, la population commencerait à diminuer, à mesure que les personnes âgées mourraient sans qu’aucune nouvelle naissance ne vienne les remplacer. Même si toutes les naissances cessaient soudainement, ce déclin serait au départ progressif.

Un effondrement des sociétés

Mais peu à peu, il n’y aurait plus assez de jeunes pour assurer les tâches essentielles, ce qui provoquerait un effondrement rapide des sociétés à travers le monde. Certains de ces bouleversements mettraient à mal notre capacité à produire de la nourriture, à fournir des soins de santé et à accomplir tout ce dont dépend notre quotidien. La nourriture se ferait rare, même s’il y avait moins de bouches à nourrir.

En tant que professeur d’anthropologie ayant consacré ma carrière à l’étude des comportements humains, de la biologie et des cultures, je reconnais volontiers que ce scénario n’aurait rien de réjouissant. À terme, la civilisation s’effondrerait. Il est probable qu’il ne resterait plus grand monde d’ici 70 ou 80 ans, plutôt que 100, en raison de la pénurie de nourriture, d’eau potable, de médicaments et de tout ce qui est aujourd’hui facilement accessible et indispensable à la survie.

L’élément déclencheur : une catastrophe mondiale

Il faut bien reconnaître qu’un arrêt brutal des naissances est hautement improbable, sauf en cas de catastrophe mondiale. Un scénario possible, exploré par l’écrivain Kurt Vonnegut dans son roman Galápagos, serait celui d’une maladie hautement contagieuse rendant infertiles toutes les personnes en âge de procréer.

Autre scénario : une guerre nucléaire dont personne ne sortirait vivant – un thème traité dans de nombreux films et livres effrayants. Beaucoup de ces œuvres de science-fiction mettent en scène des voyages dans l’espace. D’autres tentent d’imaginer un futur terrestre, moins fantaisiste, où la reproduction devient difficile, entraînant un désespoir collectif et la perte de liberté pour celles et ceux encore capables d’avoir des enfants.

Deux de mes livres préférés sur ce thème sont La Servante écarlate de l’autrice canadienne Margaret Atwood, et Les Fils de l’homme de l’écrivaine britannique P.D. James. Ce sont des récits dystopiques marqués par la souffrance humaine et le désordre. Tous deux ont d’ailleurs été adaptés en séries télévisées ou en films.

Dans les années 1960 et 1970, beaucoup s’inquiétaient au contraire d’une surpopulation mondiale, synonyme d’autres types de catastrophes. Ces craintes ont elles aussi nourri de nombreuses œuvres dystopiques, au cinéma comme en littérature.

Un exemple : la série américaine « The Last Man on Earth », une comédie postapocalyptique qui imagine ce qui pourrait se passer après qu’un virus mortel ait décimé la majeure partie de l’humanité.

The Last Man on Earth est une série télévisée américaine, à la fois postapocalyptique et comique, qui imagine ce qui pourrait se passer après qu’un virus mortel ait anéanti la majorité de la population mondiale.

En route vers les 10 milliards d’habitants

La population mondiale continue résolument de croître, même si le rythme de cette croissance a ralenti. Les experts qui étudient les dynamiques démographiques estiment que le nombre total d’habitants atteindra un pic de 10 milliards dans les années 2080, contre 8 milliards aujourd’hui et 4 milliards en 1974.

La population des États-Unis s’élève actuellement à 342 millions, soit environ 200 millions de plus qu’au moment de ma naissance dans les années 1930. C’est une population importante, mais ces chiffres pourraient progressivement diminuer, aux États-Unis comme ailleurs, si le nombre de décès dépasse celui des naissances.

En 2024, environ 3,6 millions de bébés sont nés aux États-Unis, contre 4,1 millions en 2004. Dans le même temps, environ 3,3 millions de personnes sont décédées en 2022, contre 2,4 millions vingt ans plus tôt.

À mesure que ces tendances évoluent, l’un des enjeux essentiels sera de maintenir un équilibre viable entre jeunes et personnes âgées. En effet, ce sont souvent les jeunes qui font tourner la société : ils mettent en œuvre les idées nouvelles et produisent les biens dont nous dépendons.

Par ailleurs, de nombreuses personnes âgées ont besoin d’aide pour les gestes du quotidien, comme préparer à manger ou s’habiller. Et un grand nombre d’emplois restent plus adaptés aux moins de 65 ans qu’à ceux ayant atteint l’âge habituel de la retraite (plus tardif aux États-Unis).

Taux de natalité en baisse

Dans de nombreux pays, les femmes ont aujourd’hui moins d’enfants au cours de leur vie fertile qu’autrefois. Cette baisse est particulièrement marquée dans certains pays comme l’Inde ou la Corée du Sud.

Le recul des naissances observé actuellement s’explique en grande partie par le choix de nombreuses personnes de ne pas avoir d’enfants, ou d’en avoir moins que leurs parents. Ce type de déclin démographique peut rester gérable grâce à l’immigration en provenance d’autres pays, mais des préoccupations culturelles et politiques freinent souvent cette solution.

Parallèlement, de plus en plus d’hommes rencontrent des problèmes de fertilité, ce qui rend leur capacité à avoir des enfants plus incertaine. Si cette tendance s’aggrave, elle pourrait accélérer fortement le déclin de la population.

La disparition des Néandertaliens

Notre espèce, Homo sapiens, existe depuis au moins 200 000 ans. C’est une très longue période, mais comme tous les êtres vivants sur Terre, nous sommes exposés au risque d’extinction.

Prenons l’exemple des Néandertaliens, proches parents d’Homo sapiens. Ils sont apparus il y a au moins 400 000 ans. Nos ancêtres humains modernes ont cohabité un temps avec eux, mais les Néandertaliens ont progressivement décliné jusqu’à disparaître il y a environ 40 000 ans.

Certaines recherches suggèrent que les humains modernes se sont montrés plus efficaces que les Néandertaliens pour assurer leur subsistance et se reproduire. Homo sapiens aurait ainsi eu plus d’enfants, ce qui a favorisé sa survie.

Si notre espèce venait à disparaître, cela pourrait ouvrir la voie à d’autres animaux pour prospérer sur Terre. Mais ce serait aussi une immense perte, car toute la richesse des réalisations humaines – dans les arts, les sciences, la culture – serait anéantie.

À mon sens, nous devons prendre certaines mesures pour assurer notre avenir sur cette planète. Cela passe par la lutte contre le changement climatique, la prévention des conflits armés, mais aussi par une prise de conscience de l’importance de préserver la diversité des espèces animales et végétales, qui est essentielle à l’équilibre de la vie sur Terre, y compris pour notre propre survie.

The Conversation

Michael A. Little ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

17.06.2025 à 12:35

Qu’est-ce que l’enrichissement de l’uranium et comment sert-il à fabriquer des bombes nucléaires ?

Kaitlin Cook, DECRA Fellow, Department of Nuclear Physics and Accelerator Applications, Australian National University
L’uranium a des usages civils qui n’ont rien à voir avec les armes. Pour fabriquer une bombe, il faut que l’uranium soit beaucoup plus concentré.
Texte intégral (1258 mots)
Quand on extrait de l’uranium du sol, il est composé à 99,27 % d'uranium-238. RHJPhtotos/Shutterstock

L’enrichissement de l’uranium est au cœur des tensions autour du programme nucléaire iranien. Cette technologie, indispensable pour produire de l’électricité, peut aussi permettre de fabriquer des armes atomiques si elle atteint des niveaux de concentration élevés.


En fin de semaine dernière, Israël a ciblé trois des principales installations nucléaires de l’Iran – Natanz, Ispahan et Fordo – tuant plusieurs scientifiques nucléaires iraniens. Ces sites sont fortement fortifiés et en grande partie souterrains, et les rapports divergent quant aux dégâts réellement causés.

Natanz et Fordo sont les centres d’enrichissement de l’uranium en Iran, tandis qu’Ispahan fournit les matières premières. Toute détérioration de ces installations pourrait donc limiter la capacité de l’Iran à produire des armes nucléaires. Mais qu’est-ce que l’enrichissement de l’uranium, et pourquoi cela suscite-t-il des inquiétudes ?

Pour comprendre ce que signifie « enrichir » de l’uranium, il faut d’abord connaître un peu les isotopes de l’uranium et le principe de la fission nucléaire.

Qu’est-ce qu’un isotope ?

Toute matière est composée d’atomes, eux-mêmes constitués de protons, de neutrons et d’électrons. Le nombre de protons détermine les propriétés chimiques d’un atome et définit ainsi les différents éléments chimiques.

Les atomes comportent autant de protons que d’électrons. L’uranium, par exemple, possède 92 protons, tandis que le carbone en a six. Toutefois, un même élément peut présenter un nombre variable de neutrons, formant ainsi ce qu’on appelle des isotopes.

Cette différence importe peu dans les réactions chimiques, mais elle a un impact majeur dans les réactions nucléaires.

La différence entre l’uranium-238 et l’uranium-235

Quand on extrait de l’uranium du sol, il est constitué à 99,27 % d’uranium-238 (92 protons et 146 neutrons). Seul 0,72 % correspond à l’uranium-235, avec 92 protons et 143 neutrons (le

0,01 % restant correspond à un autre isotope, qui ne nous intéresse pas ici).

Pour les réacteurs nucléaires ou les armes, il faut modifier ces proportions isotopiques. Car parmi les deux principaux isotopes, seul l’uranium-235 peut soutenir une réaction en chaîne de fission nucléaire : un neutron provoque la fission d’un atome, libérant de l’énergie et d’autres neutrons, qui provoquent à leur tour d’autres fissions, et ainsi de suite.

Cette réaction en chaîne libère une quantité d’énergie énorme. Dans une arme nucléaire, cette réaction doit avoir lieu en une fraction de seconde pour provoquer une explosion. Tandis que dans une centrale nucléaire civile, cette réaction est contrôlée.

Aujourd’hui, les centrales produisent environ 9 % de l’électricité mondiale. Les réactions nucléaires ont aussi une importance vitale dans le domaine médical, via la production d’isotopes utilisés pour le diagnostic et le traitement de diverses maladies.

Qu’est-ce que l’enrichissement de l’uranium ?

« Enrichir » de l’uranium consiste à augmenter la proportion d’uranium-235 dans l’élément naturel, en le séparant progressivement de l’uranium-238.

Il existe plusieurs techniques pour cela (certaines récemment développées en Australie), mais l’enrichissement commercial est actuellement réalisé via centrifugation, notamment dans les installations iraniennes.

Les centrifugeuses exploitent le fait que l’uranium-238 est environ 1 % plus lourd que l’uranium-235. Elles prennent l’uranium sous forme gazeuse et le font tourner à des vitesses vertigineuses, entre 50 000 et 70 000 tours par minute, les parois extérieures atteignant une vitesse de 400 à 500 mètres par seconde. C’est un peu comme une essoreuse à salade : l’eau (ici, l’uranium-238 plus lourd) est projetée vers l’extérieur, tandis que les feuilles (l’uranium-235 plus léger) restent plus au centre. Ce procédé n’est que partiellement efficace, donc il faut répéter l’opération des centaines de fois pour augmenter progressivement la concentration d’uranium-235.

La plupart des réacteurs civils fonctionnent avec de l’uranium faiblement enrichi, entre 3 % et 5 % d’uranium-235, ce qui suffit à entretenir une réaction en chaîne et produire de l’électricité.

Quel niveau d’enrichissement est nécessaire pour une arme nucléaire ?

Pour obtenir une réaction explosive, il faut une concentration bien plus élevée d’uranium-235 que dans les réacteurs civils. Techniquement, il est possible de fabriquer une arme avec de l’uranium enrichi à 20 % (on parle alors d’uranium hautement enrichi), mais plus le taux est élevé, plus l’arme peut être compacte et légère. Les États disposant de l’arme nucléaire utilisent généralement de l’uranium enrichi à environ 90 %, dit « de qualité militaire ».

Selon l’Agence internationale de l’énergie atomique (AIEA), l’Iran a enrichi d’importantes quantités d’uranium à 60 %. Or, il est plus facile de passer de 60 % à 90 % que de passer de 0,7 % à 60 %, car il reste alors moins d’uranium-238 à éliminer.

C’est ce qui rend la situation iranienne particulièrement préoccupante pour ceux qui redoutent que le pays produise des armes nucléaires. Et c’est pour cela que la technologie des centrifugeuses utilisée pour l’enrichissement est gardée secrète. D’autant que les mêmes centrifugeuses peuvent servir à la fois à fabriquer du combustible civil et à produire de l’uranium de qualité militaire.

Des inspecteurs de l’AIEA surveillent les installations nucléaires dans le monde entier pour vérifier le respect du traité mondial de non-prolifération nucléaire. Bien que l’Iran affirme n’enrichir l’uranium que pour des fins pacifiques, l’AIEA a estimé la semaine dernière que l’Iran avait violé ses engagements au titre de ce traité.

The Conversation

Kaitlin Cook reçoit des financements de l’Australian Research Council (Conseil australien de la recherche).

17.06.2025 à 12:34

Robots bio-inspirés : quand l’IA s’ancre dans le réel

Olivia Chevalier, Ingénieur de recherche, Institut Mines-Télécom Business School
Gérard Dubey, Sociologue, Institut Mines-Télécom Business School
Johann Herault, Maître-assistant en robotique bio-inspirée, Laboratoire des Sciences du Numérique de Nantes, IMT Atlantique – Institut Mines-Télécom
L’intelligence artificielle permet de rapprocher le comportement des robots de celui des humains – à condition de les immerger réellement dans leur environnement.
Texte intégral (2012 mots)

L’intelligence artificielle, aussi fascinante qu’elle puisse être, se cantonne largement au monde numérique. En d’autres termes, elle ne modèle pas directement la réalité physique. À moins d’être embarquée dans un objet capable d’agir sur le monde… comme un robot par exemple.

Des roboticiens et chercheurs en sciences sociales nous expliquent comment l’avènement de l’IA permet de changer la manière de penser les robots. En particulier, en leur permettant de mieux percevoir et d’interagir avec leur environnement.


En quelques décennies, les nouvelles méthodes informatiques regroupées sous l’appellation d’« intelligence artificielle » ont révolutionné le traitement automatisé de l’information. Certaines de ces méthodes s’inspirent du fonctionnement du cerveau, en reproduisant son architecture en réseau de neurones et les processus cognitifs humains tels que l’apprentissage.

En robotique, l’utilisation de telles approches laisse espérer des progrès rapides dans l’autonomisation des robots humanoïdes. L’essor de la vision par ordinateur, reposant sur ces nouvelles architectures de réseaux de neurones, a, par exemple, permis d’améliorer considérablement l’interaction des robots avec leur environnement, notamment pour éviter les obstacles et pour manipuler des objets. Néanmoins, une limite demeure aux avancées de l’IA en robotique : les robots humanoïdes peinent encore à atteindre la fluidité et la précision des mouvements humains, notamment en ce qui concerne la bipédie et la préhension.

En effet, la coordination des fonctions motrices nécessaires au mouvement ne se résume pas à une simple planification mécanique, comparable à une succession de coups dans une partie d’échecs. En réalité, le mouvement humain et, plus largement, le mouvement animal reposent sur un enchevêtrement complexe d’opérations et d’interactions impliquant des composantes internes à l’individu, telles que le contrôle moteur (l’équivalent de l’IA chez le robot), le système sensoriel ou la biomécanique, ainsi que des composantes externes, comme les interactions physiques avec l’environnement.

Par exemple, un joggeur amateur est capable de maintenir son regard globalement stable malgré les irrégularités du terrain et la fatigue, en tirant parti de propriétés passives du corps humain (de l’articulation plantaire au mouvement des hanches), de réflexes, ainsi que d’un contrôle moteur fin des muscles oculaires et cervicaux. Nos systèmes musculosquelettiques et nerveux ont ainsi évolué de manière conjointe pour relever les défis posés par des environnements hétérogènes et imprévisibles.

En comparaison, pour accomplir des tâches qui exigent un ajustement continu entre l’action et son objectif, les robots disposent d’un nombre limité d’actionneurs (en d’autres termes, de moteurs) et plus encore de capteurs.

Dans ce contexte de contraintes matérielles, peut-on réellement espérer que la puissance de calcul des IA et leurs capacités d’apprentissage suffisent à atteindre les performances motrices observées chez les humains et chez les animaux ?

L’approche dite « incarnée » prend justement le contrepied de l’approche purement calculatoire en ne dissociant pas les composantes algorithmiques et physiques du robot. Elle vise au contraire à explorer les synergies possibles entre le corps et le contrôle, entre les mécanismes passifs et actifs, pour qu’une « intelligence motrice » ou « incarnée » émerge aussi de ces interactions. Cet article examine ainsi les limites et perspectives des synergies entre l’intelligence artificielle, le robot et son environnement.

Vers des robots autonomes : deux phases dans l’histoire de la robotique

Rodney Brooks, ancien directeur du laboratoire d’IA au Massachusetts Institute of Technology (MIT), y a dirigé pendant des années un programme de recherche intitulé : « The Cog Project : Building a Humanoid Robot ». Brooks distingue deux phases dans l’histoire de la recherche en robotique. Au cours de la première phase (années 1970-1980), la recherche est fondée sur le fait que le programme du robot contient les données du milieu dans lequel il évolue, ou plutôt où il n’évolue pas. Lors de la seconde phase, à partir des années 1990, la recherche se fonde précisément sur l’interaction avec l’environnement.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Ce rapport dynamique à l’environnement permet de voir dans quelle mesure les robots se complexifient et s’auto-organisent, ou s’autonomisent au fil de l’histoire de la recherche en robotique. Comme le dit Brooks, « l’intelligence humanoïde requiert des interactions humanoïdes avec le monde ». Il s’agit par conséquent de développer des programmes capables de se modifier eux-mêmes en fonction des interactions avec l’environnement.

La seconde robotique, ou comment les systèmes d’IA peuvent rendre les robots plus autonomes

Les recherches de la seconde robotique visent donc à développer un « behaviour-based robot » (robot fondé sur un modèle comportemental), dont une des exigences intéresse notre propos : pour que l’action du robot soit proche de la nôtre, on doit entre autres la supposer « non planifiée ».

C’est, précisément, d’abord là que les progrès en IA se révèlent fructueux. Mais dans quelle mesure l’IA peut-elle permettre de réduire le fossé entre les comportements des robots et ceux, extrêmement complexes, qu’on cherche à leur faire reproduire ? Parce que l’IA joue un grand rôle dans la conception des robots, dans la fabrication des matériaux dont ils sont faits et évidemment dans la simulation et la modélisation, elle offre les moyens de cette approche incarnée.

Un des principaux objectifs de cette approche est l’autonomie des robots, c’est-à-dire leur capacité à prendre des décisions et à s’adapter à leur environnement.

Pour mieux comprendre ce point, on peut opposer l’approche physicaliste à celle de l’IA incarnée. Ainsi, l’approche traditionnelle (aussi qualifiée de « physicaliste » ou « objectiviste ») ne donne pas les moyens de savoir si une machine peut sentir ou comprendre, tandis l’approche de l’IA incarnée pose le problème de l’autonomie de la machine en des termes qui permettraient en principe de vérifier cette hypothèse de la possibilité pour une machine de sentir ou comprendre. En effet, en considérant, d’une part, que le tout – le corps – est plus que l’addition des parties (les composants) et, d’autre part, que les phénomènes qui nous intéressent (conscience phénoménale, compréhension, sensation, par exemple) sont le produit émergeant de ce tout immergé dans l’environnement, cette seconde approche offre les moyens de tester cette hypothèse.

La robotique souple (dans sa version bio-inspirée) semble ainsi plus apte que les autres approches robotiques évoquées ci-dessus à se rapprocher de cet objectif de l’approche incarnée. En effet, en s’inspirant des comportements des organismes biologiques et en essayant d’en reproduire certains aspects, elle vise à construire des robots qui s’adaptent au milieu et construisent leur autonomie dans leur interaction avec lui.

Un autre imaginaire du rapport entre humains et machines

Le couplage de la robotique et de l’IA préfigure potentiellement un autre imaginaire du rapport entre humains et machines et de la technique à la nature que celui qui a prévalu à l’ère industrielle.

En effet, dès les années 1940, la théorie cybernétique, avec le concept d’« homéostasie » (autorégulation de l’organisme avec son milieu), aux sources de l’actuelle IA, était déjà une pensée de l’insertion des machines dans le milieu. L’association cybernétique entre capteurs et traitement du signal avait ouvert la voie au rapprochement de l’intelligence machinique (qu’on peut définir brièvement comme intelligence principalement régie par des algorithmes) avec celle des êtres vivants dans le monde naturel. L’autonomie des machines était toutefois toujours pensée sur le modèle de la capacité des organismes vivants à maintenir leurs équilibres internes en résistant aux perturbations de l’environnement, c’est-à-dire en accordant la priorité à tout ce qui permet de réduire ce « désordre » externe.

Les recherches actuelles en robotique semblent infléchir ce rapport en considérant que les perturbations du milieu représentent des potentialités et des ressources propres qui méritent d’être comprises et appréhendées en tant que telles.

Il ne s’agit pas seulement aujourd’hui d’insérer un robot dans un environnement neutre ou déjà connu par lui, mais de faire de cet environnement – imprévisible, souvent inconnu – un composant de son comportement. Ces recherches se concentrent ainsi sur les interactions du corps ou du système mécatronique avec le monde physique – c’est-à-dire avec les forces de contact et les processus de traitement de l’information mis en œuvre dans l’expérience sensible par les êtres vivants.

Soft robotique, robotique molle, bio-inspirée, intelligence incarnée sont des déclinaisons possibles de ces nouvelles approches et révèlent l’importance du rôle joué par l’IA dans l’ouverture de la robotique à d’autres problématiques que celles qui étaient traditionnellement les siennes, en apportant des éclairages ou en levant certains verrous scientifiques.

La nouvelle robotique ne fait donc pas que déboucher sur un renouveau de l’intérêt pour le vivant. Les conceptions de la machine dont elle est porteuse – une machine immergée dans son environnement, qui en dépend profondément – résonnent fortement avec les nouvelles approches du vivant en biologie qui définissent celui-ci principalement à partir de ses interactions. Le nouveau dialogue qui s’instaure entre robotique et biologie contribue ainsi à repenser les frontières qui séparent le vivant du non-vivant.

Dès lors, l’approche incarnée de la robotique pourrait-elle permettre de combler l’écart entre machine et vivant ?


Le projet ANR-19-CE33-0004 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Olivia Chevalier a reçu des financements du PEPR O2R

Gérard Dubey a reçu des financements du PEPR O2R.

Johann Hérault a reçu des financements de ANR (Project-ANR-19-CE33-0004) , du PEPR O2R et de la région Pays de La Loire.

15.06.2025 à 17:32

Existe-t-il une méthode scientifique pour éplucher parfaitement un œuf dur ?

Paulomi (Polly) Burey, Professor in Food Science, University of Southern Queensland
Avec quelques « hacks » appuyés sur des raisonnements scientifiques, adieu la galère de l’œuf qui ne s’épluche pas correctement.
Texte intégral (2246 mots)

Pourquoi certains œufs s’écalent facilement et d’autres non ? Une histoire de pH, de température et de chambre à air, répondent les scientifiques qui se sont penchés sur la question.


Nous sommes tous passés par là : essayer d’écaler un œuf dur, mais finir par le réduire en miettes tant la coquille s’accroche obstinément au blanc. Et ça peut être pire encore, quand l’œuf se retrouve couvert de petits morceaux de membrane.

Internet regorge d’astuces censées vous éviter ce désagrément mais plusieurs causes très différentes peuvent expliquer qu’un œuf soit difficile à « éplucher ». Heureusement, la science offre des stratégies pour contourner le problème.

Facteurs influençant la facilité d’écalage d’un œuf

Les œufs se composent d’une coquille dure et poreuse, d’une membrane coquillière externe et d’une membrane coquillière interne, du blanc d’œuf (ou albumen), et d’un jaune enveloppé d’une membrane. On trouve également une chambre à air entre les deux membranes, juste sous la coquille.

Visuel de coupe d’un œuf
Coquille calcaire ; 2. Membrane coquillière externe ; 3. Membrane coquillière interne ; 4. Chalaze ; 5. Blanc d’œuf (ou albumen) externe (fluide) ; 6. Blanc d’œuf (ou albumen) intermédiaire (visqueux) ; 7. Peau du jaune d’œuf ; 8. Jaune d’œuf (ou vitellus) formé ; 9. Point blanc puis embryon ; 10. Jaune d’œuf (ou vitellus) jaune ;11. Jaune d’œuf (ou vitellus) blanc ; 12. Blanc d’œuf (ou albumen) interne (fluide) ; 13. Chalaze ; 14. Chambre à air ; 15. Cuticule. Horst Frank/Wikicommon, CC BY-NC

Dans les années 1960 et 1970, de nombreuses recherches ont été menées sur les facteurs influençant la facilité d’écalage des œufs après cuisson. L’un de ces facteurs est le pH du blanc d’œuf. Une étude des années 1960 a montré qu’un pH compris entre 8,7 et 8,9 — donc assez alcalin — facilitait l’épluchage des œufs.

La température de conservation joue également un rôle. Une étude de 1963 a révélé qu’un stockage à environ 22 °C donnait de meilleurs résultats en matière d’épluchage qu’un stockage à 13 °C, ou à des températures de réfrigérateur de 3 à 5 °C.

Il faut bien sûr garder à l’esprit qu’un stockage à température ambiante élevée augmente le risque de détérioration (NDLR : L’Anses recommande de conserver les œufs toujours à la même température afin d’éviter le phénomène de condensation d’eau à leur surface).

Les recherches ont également montré qu’un temps de stockage plus long avant cuisson — autrement dit des œufs moins frais — améliore la facilité d’épluchage.

Une boîte d’œufs sur une table
Plus les œufs sont vieux, plus ils pourraient être faciles à écaler. Caroline Attwood/Unsplash

Conseil n°1 : éviter les œufs frais

Le fait que les œufs frais soient plus difficiles à éplucher est relativement bien connu. D’après les facteurs évoqués plus haut, plusieurs explications permettent de comprendre ce phénomène.

D’abord, dans un œuf frais, la chambre à air est encore très petite. En vieillissant, l’œuf perd lentement de l’humidité à travers sa coquille poreuse, ce qui agrandit la chambre à air à mesure que le reste du contenu se rétracte. Une chambre à air plus grande facilite le démarrage de l’épluchage.

Par ailleurs, même si le blanc d’œuf est déjà relativement alcalin au départ, son pH augmente encore avec le temps, ce qui contribue aussi à rendre l’écalage plus facile.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Conseil n°2 : la température de l’eau

Plusieurs experts de la cuisson des œufs estiment que commencer avec de l’eau bouillante puis la ramener à un frémissement avant d’y déposer délicatement les œufs donne de meilleurs résultats. Il est alors recommandé d’utiliser des œufs à température ambiante pour éviter qu’ils ne se fissurent à cause d’un choc thermique. L’idée derrière cette méthode est qu’une exposition immédiate à une température élevée facilite la séparation entre la membrane, la coquille et le blanc d’œuf.

En outre, un démarrage à chaud favorise la dénaturation des protéines du blanc d’œuf (c’est-à-dire leur changement de structure sous l’effet de la chaleur), ce qui les incite à se lier entre elles plutôt qu’à adhérer à la membrane.

Après avoir fait bouillir les œufs pendant le temps désiré (généralement 3 à 5 minutes pour un jaune coulant, 6 à 7 minutes pour un jaune crémeux, et 12 à 15 minutes pour un œuf dur), on peut les plonger dans de l’eau glacée. Cela aide le blanc à se rétracter légèrement, facilitant ainsi l’épluchage.

Des œufs dans de l’eau bouillante dans une casserole sur une cuisinière à gaz
Commencer la cuisson dans de l’eau bouillante peut faciliter l’épluchage, surtout si l’on plonge les œufs dans de l’eau glacée ensuite. Max4ᵉ Photo/Shutterstock

Conseil n°3 (pas obligatoire) : ajouter des ingrédients à l’eau

Parmi les autres astuces suggérées pour faciliter l’écalage, on trouve l’ajout de sel dans l’eau bouillante, mais les résultats sont à nuancer. Une étude a montré que cela pouvait effectivement améliorer l’épluchage, mais que cet effet disparaissait après une période de stockage prolongée des œufs.

L’ajout d’acides et de bases a également démontré une certaine efficacité pour aider à retirer la coquille. Un brevet s’appuyant sur cette idée propose ainsi d’utiliser des substances agressives dans le but de dissoudre la coquille. Mais partant de ce principe, vous pourriez simplement tenter d’ajouter à l’eau de cuisson du bicarbonate de soude ou du vinaigre. En théorie, ce dernier devrait attaquer le carbonate de calcium de la coquille, facilitant ainsi son retrait. Quant au bicarbonate, étant alcalin, il devrait aider à détacher la membrane de la coquille.

Bonus : quelques méthodes de cuisson alternatives

Il existe plusieurs façons de cuire des œufs durs en dehors de l’ébullition classique. Parmi elles : la cuisson vapeur sous pression, la cuisson à l’air chaud (avec un air fryer), et même le micro-ondes.

Dans le cas de la cuisson vapeur, certains avancent que la vapeur d’eau traversant la coquille aiderait à décoller la membrane du blanc d’œuf, ce qui rendrait l’épluchage beaucoup plus facile.

Des recherches récentes ont porté sur la cuisson à l’air chaud d’autres aliments, mais on ne sait pas encore précisément comment ce mode de cuisson pourrait influencer la coquille et la facilité d’écalage des œufs.

Enfin, une fois vos œufs épluchés, évitez de jeter les coquilles à la poubelle. Elles peuvent servir à de nombreux usages : compost, répulsif naturel contre les limaces et escargots au jardin, petits pots biodégradables pour semis… ou même contribuer à des applications bien plus poussées, notamment dans la recherche sur le cancer.

The Conversation

Paulomi (Polly) Burey a reçu des financements du ministère australien de l'Éducation, qui a soutenu les recherches sur les coquilles d'œufs mentionnées à la fin de cet article.

11.06.2025 à 17:35

Trois littoraux où les jumeaux numériques pourraient permettre de mieux maîtriser les conséquences des inondations

Raquel Rodriguez Suquet, Ingénieure d'applications d'Observation de la Terre, Centre national d’études spatiales (CNES)
Vincent Lonjou, expert applications spatiales, Centre national d’études spatiales (CNES)
Les « jumeaux numériques » allient imagerie spatiale, mesures de terrain et modélisations sophistiquées – afin de fournir des informations fiables aux particuliers et aux décideurs publics. Zoom sur trois régions littorales.
Texte intégral (4026 mots)
Un jumeau numérique de la région de Nouméa est en cours d’élaboration. ©BRGM, Fourni par l'auteur

Entre sa densité de population et ses richesses naturelles, le littoral est une zone stratégique, mais vulnérable aux événements extrêmes et à la montée du niveau de la mer. Pour mieux prévenir les risques d’inondations côtières, les « jumeaux numériques » allient imagerie spatiale, mesures de terrain et modélisations sophistiquées – afin de fournir des informations fiables aux particuliers et aux décideurs publics.


La zone littorale, située à l’interface entre la terre et la mer, est une bande dynamique et fragile qui englobe les espaces marins, côtiers et terrestres influencés par la proximité de l’océan. À l’échelle mondiale, elle concentre une forte densité de population, d’infrastructures et d’activités économiques (tourisme, pêche, commerce maritime), qui en font un espace stratégique mais vulnérable.

Le niveau moyen global des mers de 1993 à 2025 et la densité de population sur le littoral métropolitain par façade maritime de 1962 à 2020 par kilomètre carré sur le littoral. Données des missions TopEx/Poseidon, Jason-1, Jason-2, Jason-3 et Sentinel-6MF (source AVISO, gauche) et source MTECT, Fourni par l'auteur

On estime qu’environ un milliard de personnes dans le monde et plus de 800 000 de personnes en France vivent dans des zones littorales basses, particulièrement exposées aux risques liés à la montée du niveau de la mer due au changement climatique et aux phénomènes météorologiques extrêmes. Les enjeux associés sont multiples : érosion côtière, submersions marines, perte de biodiversité, pollution, mais aussi pressions liées à la forte artificialisation du sol, due à la forte augmentation démographique et touristique. La gestion durable de la zone littorale représente un enjeu crucial en matière d’aménagement du territoire.

Dans le cadre de notre programme Space for Climate Observatory, au CNES, avec nos partenaires du BRGM et du LEGOS, nous créons des « jumeaux numériques » pour étudier les zones côtières dans un contexte de changement climatique et contribuer à leur adaptation.


À lire aussi : Pourquoi l’océan est-il si important pour le climat ?


Dans cet article, focus sur trois zones représentatives de trois sujets emblématiques des zones côtières : le recul du trait de côte en France métropolitaine, la submersion marine en Nouvelle-Calédonie (aujourd’hui liée aux tempêtes et aux cyclones, mais à l’avenir également affectée par l’élévation du niveau de la mer) et l’évolution des écosystèmes côtiers en termes de santé de la végétation, de risque d’inondation et de qualité de l’eau sur la lagune de Nokoué au Bénin.

Le trait de côte est en recul en France hexagonale

Avec près de 20 000 kilomètres de côtes, la France est l’un des pays européens les plus menacés par les risques littoraux. Sa façade maritime très urbanisée attire de plus en plus d’habitants et concentre de nombreuses activités qui, comme la pêche ou le tourisme, sont très vulnérables à ce type de catastrophes. Ainsi, cinq millions d’habitants et 850 000 emplois sont exposés au risque de submersion marine et 700 hectares sont situés sous le niveau marin centennal, c’est-à-dire le niveau statistique extrême de pleine mer pour une période de retour de 100 ans) dans les départements littoraux.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Le trait de côte désigne la frontière entre la terre et la mer. Cette limite se modifie continuellement sous l’action de facteurs naturels tels que les marées, les tempêtes, le dépôt de sédiments, les courants marins et les vagues. En France hexagonale, un quart du littoral est concerné par un recul du trait de côte (soit plus de 5 000 bâtiments menacés d’ici 2050) du fait de l’érosion côtière, aggravée par le changement climatique qui s’accompagne, entre autres, d’une élévation du niveau marin et de la puissance des tempêtes.

des cartes avec des prévisions
Le recul du trait de côte à Hendaye dans les Pyrénées-Atlantiques (gauche) et la probabilité de l’occurrence d’eau. Bergsma et al. 2024, Fourni par l'auteur

Grâce à la télédétection par satellites, notamment Sentinel-2 et Landsat, il est possible d’observer avec précision la position du trait de côte et d’analyser sa dynamique sur le long terme. Ces informations permettent de mieux comprendre les phénomènes d’érosion ou d’accrétion (à rebours du recul du trait de côte, son avancée est due en bonne partie au dépôt sédimentaire et concerne 10 % du littoral français), ainsi que les risques liés à ces évolutions.

En réponse à ces enjeux, un jumeau numérique du trait de côte est en cours de construction à l’échelle de la France. Cet outil permettra de « prendre le pouls » de la zone côtière en fournissant des données actualisées à échelle mensuelle et trimestrielle aux acteurs concernés, des mairies aux ministères, afin de faciliter la prise de décision pour une gestion durable et adaptée du littoral. Par exemple, les principaux leviers d’actions sont la mise en place d’infrastructures de protection potentiellement fondées sur la nature, des opérations d’ensablement ou d’enrochement ainsi que l’évolution des autorisations d’urbanisme pouvant aller jusqu’à la destruction de bâtiments existants.

Les jumeaux numériques pour le littoral

    Aujourd’hui, les jumeaux numériques jouent un rôle clé dans l’amélioration de notre compréhension de l’hydrologie des bassins versants, de la dynamique des inondations et de l’évolution des zones côtières, qu’il s’agisse d’événements passés ou de la situation actuelle. Les données spatiales vont y occuper une place croissante: elles permettent de suivre l’évolution des territoires sur le long terme et de manière régulière, d’alimenter les modèles avec des informations précises et continues, et d’analyser les impacts à grande échelle. Les données spatiales sont particulièrement utiles pour observer les changements dans les zones peu accessibles ou mal instrumentées.

    Les jumeaux numériques contiennent également des capacités de modélisation qui, couplées aux données, permettent d’évaluer l’impact du climat futur ainsi que d’évaluer les meilleures solutions d’adaptation. Dans les années à venir, ces outils d’aide à la décision vont devenir incontournables pour les acteurs de la gestion des risques, de l’aménagement du territoire et de l’adaptation au changement climatique.


À lire aussi : Climat : Pourquoi l’ouverture des données scientifiques est cruciale pour nos littoraux


Risques d’inondations et qualité de l’eau à la lagune de Nokoué au Bénin

La lagune de Nokoué au Bénin est représentative des systèmes lagunaires d’Afrique de l’Ouest : bordée d’une large population qui avoisine les 1,5 million de personnes, cette lagune constitue une ressource vivrière majeure pour les habitants de la région.

cases dépassant de l’eau
La crue exceptionnelle de 2010 du lac Nokoué (sud du Bénin). André O. Todjé, Fourni par l'auteur

La lagune subit une importante variabilité naturelle, notamment aux échelles saisonnières sous l’influence de la mousson ouest-africaine. Ainsi, les zones périphériques sont inondées annuellement (en fonction de l’intensité des pluies), ce qui cause des dégâts matériels et humains importants. La lagune est aussi le cœur d’un écosystème complexe et fluctuant sous l’effet des variations hydrologiques, hydrobiologiques et hydrochimiques.

Là aussi, le changement climatique, avec la montée des eaux et l’augmentation de l’intensité des évènements hydrométéorologiques, contribue à faire de la lagune de Nokoué une zone particulièrement sensible.

Nous mettons en place un jumeau numérique de la lagune de Nokoué qui permettra de répondre aux besoins des acteurs locaux, par exemple la mairie, afin de lutter contre les inondations côtières en relation avec l’élévation du niveau de la mer, les marées et les événements météorologiques extrêmes.

imagerie satellite et modèles
La lagune de Nokoué vue par satellite (gauche) et la bathymétrie et maillage du modèle hydrodynamique SYMPHONIE. Sentinel-2 (gauche) et LEGOS/IRD/CNRS (droite), Fourni par l'auteur

En particulier, ce jumeau numérique permettra de modéliser la variabilité du niveau d’eau de la lagune en fonction du débit des rivières et de la topographie. Il géolocalisera l’emplacement des zones inondées en fonction du temps dans un contexte de crue — une capacité prédictive à court terme (quelques jours) appelée « what next ? »

Le jumeau numérique sera également en mesure de faire des projections de l’évolution du risque de crue sous l’effet du changement climatique, c’est-à-dire prenant en compte l’élévation du niveau de la mer et l’augmentation de l’intensité des pluies. Cette capacité prédictive sur le long terme, typiquement jusqu’à la fin du siècle, est appelée « what if ? »

Enfin, il permettra de modéliser et d’évaluer la qualité de l’eau de la lagune (par exemple sa salinité ou le temps de résidence de polluants). Par exemple, en période d’étiage, quand l’eau est au plus bas, la lagune étant connectée à l’océan, elle voit sa salinité augmenter de manière importante, bouleversant au passage l’équilibre de cet écosystème. Le riche écosystème actuel est en équilibre avec cette variation saisonnière mais des aménagements (barrages, obstruction du chenal de connexion à l'océan…) pourraient le mettre en péril.

Un démonstrateur de jumeau numérique consacré à la submersion marine en Nouvelle-Calédonie

L’élévation du niveau de la mer causée par le changement climatique, combinée aux marées et aux tempêtes, constitue un risque majeur pour les populations côtières à l’échelle mondiale dans les décennies à venir. Ce risque est « évolutif » — c’est-à-dire qu’il dépend de comment le climat évoluera dans le futur, notamment en fonction de notre capacité à atténuer les émissions de gaz à effet de serre.

Il est donc très important d’être capable de modéliser le risque de submersion marine et de projeter ce risque dans le futur en prenant en compte la diversité des scénarios d’évolution climatiques afin de supporter l’action publique au cours du temps, avec différentes stratégies d’adaptation ou d’atténuation : relocalisation de populations, modification du plan local d’urbanisme, création d’infrastructures de protection côtières qu’elles soient artificielles ou bien basées sur la nature.

La modélisation de la submersion marine nécessite une connaissance en 3D sur terre (du sol et du sursol, incluant bâtiments, infrastructures, végétation…), mais aussi – et surtout ! – sous l’eau : la bathymétrie. Si cette dernière est assez bien connue sur le pourtour de la France métropolitaine, où elle est mesurée par le Service hydrographique et océanographique de la marine (Shom), une grande partie des zones côtières en outre-mer est mal ou pas caractérisée.

En effet, le travail et le coût associé aux levés topobathymétriques in situ sont très élevés (supérieur à 1 000 euros par km2). À l’échelle du monde, la situation est encore pire puisque la très grande majorité des côtes n’est pas couverte par des mesures bathymétriques ou topographiques de qualité. Aujourd’hui, plusieurs techniques permettent de déterminer la bathymétrie par satellite en utilisant la couleur de l’eau ou le déplacement des vagues.

3 cartes
Le jumeau numérique de la région de Nouméa : génération du maillage à partir de la bathymétrie et de la topographie (gauche) ; projection climatique avec calcul de hauteur d’eau par submersion (centre) ; bâtiments impactés (droite). BRGM, C. Coulet, V. Mardhel, M. Vendé-Leclerc (2023) — Caractérisation de l’aléa submersion marine sur Grand Nouméa en Nouvelle-Calédonie. Rapport final — Méthodologie générale V1. BRGM/RP-72483-FR, 88 p., et Résultats Nouméa V1. BRGM/RP-72923-FR, 48 p, Fourni par l'auteur

En Nouvelle-Calédonie, nous explorons le potentiel des satellites pour alimenter un jumeau numérique permettant de faire des modélisations de submersion marine. Nous nous concentrons dans un premier temps sur la zone de Nouméa, qui concentre la majeure partie de la population et des enjeux à l’échelle de l’île. Une première ébauche de jumeau numérique de submersion marine a ainsi été réalisée par le BRGM. Il permet par exemple d’évaluer la hauteur d’eau atteinte lors d’un évènement d’inondation et les vitesses des courants sur les secteurs inondés.

Dans un deuxième temps, nous étudierons la capacité à transposer notre approche sur une autre partie de l’île, en espérant ouvrir la voie à un passage à l’échelle globale des méthodes mises en place.

The Conversation

Vincent Lonjou a reçu des financements du CNES

Raquel Rodriguez Suquet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

16 / 25

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Monde Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌞