18.06.2025 à 12:23
Matthew Shindell, Curator, Planetary Science and Exploration, Smithsonian Institution
Au croisement de la science et de l’imagination, l’astronome Camille Flammarion a utilisé cartes, romans et rêveries pour faire de Mars un miroir des aspirations humaines et un horizon possible pour l’avenir.
À l’heure de l’exploration robotique ambitieuse de Mars, et alors qu’une mission habitée vers la planète rouge semble de plus en plus probable, il est difficile d’imaginer qu’elle ait autrefois été un monde mystérieux, et inaccessible. Avant l’invention de la fusée, les astronomes qui souhaitaient explorer Mars au-delà de ce que leur permettait le télescope devaient recourir à leur imagination.
En tant qu’historien de l’espace et auteur du livre For the Love of Mars : A Human History of the Red Planet, je m’efforce de comprendre comment, à différentes époques et en divers endroits, les humains ont imaginé Mars.
La seconde moitié du XIXe siècle est une période particulièrement fascinante pour cela. À ce moment-là, Mars semblait prêt à livrer une partie de ses mystères. Les astronomes en apprenaient davantage sur la planète rouge, mais ils n’avaient toujours pas suffisamment d’informations pour savoir si elle abritait la vie – et si oui, de quel type.
Grâce à des télescopes plus puissants et à de nouvelles techniques d’impression, les astronomes commencèrent à appliquer les outils de la cartographie géographique pour créer les premières cartes détaillées de la surface de Mars, y inscrivant continents et mers, et parfois des formes que l’on pensait dues à une activité biologique. Mais comme il était encore difficile d’observer réellement ces reliefs martiens, ces cartes variaient beaucoup selon les auteurs.
C’est dans ce contexte qu’un scientifique de renom, aussi vulgarisateur passionné, a mêlé science et imagination pour explorer les possibilités de la vie sur un autre monde.
Parmi ces penseurs imaginatifs, on trouve Camille Flammarion, astronome parisien. En 1892, il publia la Planète Mars, une œuvre de référence qui demeure à ce jour un bilan complet de l’observation martienne jusqu’à la fin du XIXe siècle. Il y résuma toute la littérature publiée sur Mars depuis Galilée et affirma avoir examiné 572 dessins de la planète pour y parvenir.
Comme beaucoup de ses contemporains, Flammarion pensait que Mars, un monde plus ancien que la Terre ayant traversé les mêmes étapes évolutives, devait être un monde vivant. Mais il affirmait aussi, contrairement à beaucoup, que Mars, bien qu’ayant des similitudes avec la Terre, était un monde radicalement différent.
Ce sont précisément ces différences qui le fascinaient. Toute forme de vie martienne, pensait-il, serait adaptée à des conditions propres à Mars – une idée qui inspira H. G. Wells dans la Guerre des mondes (1898).
Mais Flammarion reconnaissait aussi combien il était difficile de cerner ces différences : « La distance est trop grande, notre atmosphère trop dense, nos instruments trop imparfaits », écrivait-il. Aucune carte, selon lui, ne pouvait être prise à la lettre, car chacun voyait et dessinait Mars à sa manière.
Tous les quinze jours, nos auteurs plongent dans le passé pour y trouver de quoi décrypter le présent. Et préparer l’avenir. Abonnez-vous gratuitement dès aujourd’hui !
Face à cette incertitude, Flammarion adoptait une position agnostique dans la Planète Mars quant à la nature exacte de la vie martienne. Il envisageait toutefois que si une vie intelligente existait sur Mars, elle devait être plus ancienne que l’humanité, et donc plus avancée : une civilisation unifiée, pacifique, technologiquement développée – un avenir qu’il souhaitait aussi pour la Terre.
« On peut espérer, écrivait-il, que puisque le monde martien est plus ancien que le nôtre, ses habitants soient plus sages et plus évolués que nous. Sans doute l’esprit de paix anime-t-il ce monde voisin. »
Mais comme il le soulignait souvent : « Le Connu est une minuscule île au milieu de l’océan de l’Inconnu » – une idée qu’il défendait dans la soixantaine de livres qu’il a publiés au cours de sa vie. C’est justement cet inconnu qui le fascinait.
Certains historiens voient surtout en Flammarion un vulgarisateur plus qu’un scientifique rigoureux. Cela ne doit cependant pas diminuer ses mérites. Pour lui, la science n’était pas une méthode ou un corpus figé : elle était le cœur naissant d’une nouvelle philosophie. Il prenait très au sérieux son travail de vulgarisation, qu’il voyait comme un moyen de tourner les esprits vers les étoiles.
En l’absence d’observations fiables ou de communication avec d’hypothétiques Martiens, il était prématuré de spéculer sur leur apparence. Et pourtant, Flammarion le fit – non pas dans ses travaux scientifiques, mais à travers plusieurs romans publiés tout au long de sa carrière.
Dans ces œuvres, il se rendait sur Mars en imagination, et observait sa surface. Contrairement à Jules Verne, qui imaginait des voyages facilités par la technologie, Flammarion préférait des voyages de l’âme.
Convaincu que l’âme humaine pouvait, après la mort, voyager dans l’espace contrairement au corps physique, il mit en scène des récits de rêves ou de visites d’esprits défunts. Dans Uranie (1889), l’âme de Flammarion se rend sur Mars en songe. Là, il retrouve son ami défunt Georges Spero, réincarné en un être lumineux, ailé et doté de six membres.
« Les organismes ne sauraient être terrestres sur Mars, pas plus qu’ils ne peuvent être aériens au fond des mers », écrit-il.
Plus tard dans le roman, l’âme de Spero vient visiter Flammarion sur Terre. Il lui révèle que la civilisation martienne, aidée par une atmosphère plus fine favorable à l’astronomie, a fait d’immenses progrès scientifiques. Pour Flammarion, la pratique de l’astronomie avait permis à la société martienne de progresser, et il rêvait d’un destin similaire pour la Terre.
Dans l’univers qu’il imagine, les Martiens vivent dans un monde intellectuel, débarrassé de la guerre, de la faim et des malheurs terrestres. Un idéal inspiré par l’histoire douloureuse de la France, marquée par la guerre franco-prussienne et le siège de Paris.
Aujourd’hui, le Mars de Flammarion nous rappelle que rêver d’un avenir sur la planète rouge, c’est autant chercher à mieux nous comprendre nous-mêmes et à interroger nos aspirations collectives qu’à développer les technologies nécessaires pour y parvenir.
La vulgarisation scientifique était pour Flammarion un moyen d’aider ses semblables, les pieds sur Terre, à comprendre leur place dans l’univers. Ils pourraient un jour rejoindre les Martiens qu’il avait imaginés – des figures symboliques qui, pas plus que les cartes de Mars qu’il avait étudiées dans la Planète Mars, ne devaient être prises au pied de la lettre. Son univers représentait ce que la vie pourrait devenir, dans des conditions idéales.
Matthew Shindell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.06.2025 à 17:32
Michael A. Little, Distinguished Professor Emeritus of Anthropology, Binghamton University, State University of New York
Suffit-il de calculer l’espérance de vie maximale d’un humain pour deviner combien de temps mettrait l’humanité à disparaître si l’on arrêtait de se reproduire ? Pas si simple répond l’anthropologue américain Michael A. Little dans cet article à destination des plus jeunes.
Très peu de personnes vivent au-delà d’un siècle. Ainsi, si plus personne n’avait d’enfants, il ne resterait probablement plus d’humains sur Terre dans 100 ans. Mais avant cela, la population commencerait à diminuer, à mesure que les personnes âgées mourraient sans qu’aucune nouvelle naissance ne vienne les remplacer. Même si toutes les naissances cessaient soudainement, ce déclin serait au départ progressif.
Mais peu à peu, il n’y aurait plus assez de jeunes pour assurer les tâches essentielles, ce qui provoquerait un effondrement rapide des sociétés à travers le monde. Certains de ces bouleversements mettraient à mal notre capacité à produire de la nourriture, à fournir des soins de santé et à accomplir tout ce dont dépend notre quotidien. La nourriture se ferait rare, même s’il y avait moins de bouches à nourrir.
En tant que professeur d’anthropologie ayant consacré ma carrière à l’étude des comportements humains, de la biologie et des cultures, je reconnais volontiers que ce scénario n’aurait rien de réjouissant. À terme, la civilisation s’effondrerait. Il est probable qu’il ne resterait plus grand monde d’ici 70 ou 80 ans, plutôt que 100, en raison de la pénurie de nourriture, d’eau potable, de médicaments et de tout ce qui est aujourd’hui facilement accessible et indispensable à la survie.
Il faut bien reconnaître qu’un arrêt brutal des naissances est hautement improbable, sauf en cas de catastrophe mondiale. Un scénario possible, exploré par l’écrivain Kurt Vonnegut dans son roman Galápagos, serait celui d’une maladie hautement contagieuse rendant infertiles toutes les personnes en âge de procréer.
Autre scénario : une guerre nucléaire dont personne ne sortirait vivant – un thème traité dans de nombreux films et livres effrayants. Beaucoup de ces œuvres de science-fiction mettent en scène des voyages dans l’espace. D’autres tentent d’imaginer un futur terrestre, moins fantaisiste, où la reproduction devient difficile, entraînant un désespoir collectif et la perte de liberté pour celles et ceux encore capables d’avoir des enfants.
Deux de mes livres préférés sur ce thème sont La Servante écarlate de l’autrice canadienne Margaret Atwood, et Les Fils de l’homme de l’écrivaine britannique P.D. James. Ce sont des récits dystopiques marqués par la souffrance humaine et le désordre. Tous deux ont d’ailleurs été adaptés en séries télévisées ou en films.
Dans les années 1960 et 1970, beaucoup s’inquiétaient au contraire d’une surpopulation mondiale, synonyme d’autres types de catastrophes. Ces craintes ont elles aussi nourri de nombreuses œuvres dystopiques, au cinéma comme en littérature.
Un exemple : la série américaine « The Last Man on Earth », une comédie postapocalyptique qui imagine ce qui pourrait se passer après qu’un virus mortel ait décimé la majeure partie de l’humanité.
La population mondiale continue résolument de croître, même si le rythme de cette croissance a ralenti. Les experts qui étudient les dynamiques démographiques estiment que le nombre total d’habitants atteindra un pic de 10 milliards dans les années 2080, contre 8 milliards aujourd’hui et 4 milliards en 1974.
La population des États-Unis s’élève actuellement à 342 millions, soit environ 200 millions de plus qu’au moment de ma naissance dans les années 1930. C’est une population importante, mais ces chiffres pourraient progressivement diminuer, aux États-Unis comme ailleurs, si le nombre de décès dépasse celui des naissances.
En 2024, environ 3,6 millions de bébés sont nés aux États-Unis, contre 4,1 millions en 2004. Dans le même temps, environ 3,3 millions de personnes sont décédées en 2022, contre 2,4 millions vingt ans plus tôt.
À mesure que ces tendances évoluent, l’un des enjeux essentiels sera de maintenir un équilibre viable entre jeunes et personnes âgées. En effet, ce sont souvent les jeunes qui font tourner la société : ils mettent en œuvre les idées nouvelles et produisent les biens dont nous dépendons.
Par ailleurs, de nombreuses personnes âgées ont besoin d’aide pour les gestes du quotidien, comme préparer à manger ou s’habiller. Et un grand nombre d’emplois restent plus adaptés aux moins de 65 ans qu’à ceux ayant atteint l’âge habituel de la retraite (plus tardif aux États-Unis).
Dans de nombreux pays, les femmes ont aujourd’hui moins d’enfants au cours de leur vie fertile qu’autrefois. Cette baisse est particulièrement marquée dans certains pays comme l’Inde ou la Corée du Sud.
Le recul des naissances observé actuellement s’explique en grande partie par le choix de nombreuses personnes de ne pas avoir d’enfants, ou d’en avoir moins que leurs parents. Ce type de déclin démographique peut rester gérable grâce à l’immigration en provenance d’autres pays, mais des préoccupations culturelles et politiques freinent souvent cette solution.
Parallèlement, de plus en plus d’hommes rencontrent des problèmes de fertilité, ce qui rend leur capacité à avoir des enfants plus incertaine. Si cette tendance s’aggrave, elle pourrait accélérer fortement le déclin de la population.
Notre espèce, Homo sapiens, existe depuis au moins 200 000 ans. C’est une très longue période, mais comme tous les êtres vivants sur Terre, nous sommes exposés au risque d’extinction.
Prenons l’exemple des Néandertaliens, proches parents d’Homo sapiens. Ils sont apparus il y a au moins 400 000 ans. Nos ancêtres humains modernes ont cohabité un temps avec eux, mais les Néandertaliens ont progressivement décliné jusqu’à disparaître il y a environ 40 000 ans.
Certaines recherches suggèrent que les humains modernes se sont montrés plus efficaces que les Néandertaliens pour assurer leur subsistance et se reproduire. Homo sapiens aurait ainsi eu plus d’enfants, ce qui a favorisé sa survie.
Si notre espèce venait à disparaître, cela pourrait ouvrir la voie à d’autres animaux pour prospérer sur Terre. Mais ce serait aussi une immense perte, car toute la richesse des réalisations humaines – dans les arts, les sciences, la culture – serait anéantie.
À mon sens, nous devons prendre certaines mesures pour assurer notre avenir sur cette planète. Cela passe par la lutte contre le changement climatique, la prévention des conflits armés, mais aussi par une prise de conscience de l’importance de préserver la diversité des espèces animales et végétales, qui est essentielle à l’équilibre de la vie sur Terre, y compris pour notre propre survie.
Michael A. Little ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
17.06.2025 à 12:35
Kaitlin Cook, DECRA Fellow, Department of Nuclear Physics and Accelerator Applications, Australian National University
L’enrichissement de l’uranium est au cœur des tensions autour du programme nucléaire iranien. Cette technologie, indispensable pour produire de l’électricité, peut aussi permettre de fabriquer des armes atomiques si elle atteint des niveaux de concentration élevés.
En fin de semaine dernière, Israël a ciblé trois des principales installations nucléaires de l’Iran – Natanz, Ispahan et Fordo – tuant plusieurs scientifiques nucléaires iraniens. Ces sites sont fortement fortifiés et en grande partie souterrains, et les rapports divergent quant aux dégâts réellement causés.
Natanz et Fordo sont les centres d’enrichissement de l’uranium en Iran, tandis qu’Ispahan fournit les matières premières. Toute détérioration de ces installations pourrait donc limiter la capacité de l’Iran à produire des armes nucléaires. Mais qu’est-ce que l’enrichissement de l’uranium, et pourquoi cela suscite-t-il des inquiétudes ?
Pour comprendre ce que signifie « enrichir » de l’uranium, il faut d’abord connaître un peu les isotopes de l’uranium et le principe de la fission nucléaire.
Toute matière est composée d’atomes, eux-mêmes constitués de protons, de neutrons et d’électrons. Le nombre de protons détermine les propriétés chimiques d’un atome et définit ainsi les différents éléments chimiques.
Les atomes comportent autant de protons que d’électrons. L’uranium, par exemple, possède 92 protons, tandis que le carbone en a six. Toutefois, un même élément peut présenter un nombre variable de neutrons, formant ainsi ce qu’on appelle des isotopes.
Cette différence importe peu dans les réactions chimiques, mais elle a un impact majeur dans les réactions nucléaires.
Quand on extrait de l’uranium du sol, il est constitué à 99,27 % d’uranium-238 (92 protons et 146 neutrons). Seul 0,72 % correspond à l’uranium-235, avec 92 protons et 143 neutrons (le
0,01 % restant correspond à un autre isotope, qui ne nous intéresse pas ici).
Pour les réacteurs nucléaires ou les armes, il faut modifier ces proportions isotopiques. Car parmi les deux principaux isotopes, seul l’uranium-235 peut soutenir une réaction en chaîne de fission nucléaire : un neutron provoque la fission d’un atome, libérant de l’énergie et d’autres neutrons, qui provoquent à leur tour d’autres fissions, et ainsi de suite.
Cette réaction en chaîne libère une quantité d’énergie énorme. Dans une arme nucléaire, cette réaction doit avoir lieu en une fraction de seconde pour provoquer une explosion. Tandis que dans une centrale nucléaire civile, cette réaction est contrôlée.
Aujourd’hui, les centrales produisent environ 9 % de l’électricité mondiale. Les réactions nucléaires ont aussi une importance vitale dans le domaine médical, via la production d’isotopes utilisés pour le diagnostic et le traitement de diverses maladies.
« Enrichir » de l’uranium consiste à augmenter la proportion d’uranium-235 dans l’élément naturel, en le séparant progressivement de l’uranium-238.
Il existe plusieurs techniques pour cela (certaines récemment développées en Australie), mais l’enrichissement commercial est actuellement réalisé via centrifugation, notamment dans les installations iraniennes.
Les centrifugeuses exploitent le fait que l’uranium-238 est environ 1 % plus lourd que l’uranium-235. Elles prennent l’uranium sous forme gazeuse et le font tourner à des vitesses vertigineuses, entre 50 000 et 70 000 tours par minute, les parois extérieures atteignant une vitesse de 400 à 500 mètres par seconde. C’est un peu comme une essoreuse à salade : l’eau (ici, l’uranium-238 plus lourd) est projetée vers l’extérieur, tandis que les feuilles (l’uranium-235 plus léger) restent plus au centre. Ce procédé n’est que partiellement efficace, donc il faut répéter l’opération des centaines de fois pour augmenter progressivement la concentration d’uranium-235.
La plupart des réacteurs civils fonctionnent avec de l’uranium faiblement enrichi, entre 3 % et 5 % d’uranium-235, ce qui suffit à entretenir une réaction en chaîne et produire de l’électricité.
Pour obtenir une réaction explosive, il faut une concentration bien plus élevée d’uranium-235 que dans les réacteurs civils. Techniquement, il est possible de fabriquer une arme avec de l’uranium enrichi à 20 % (on parle alors d’uranium hautement enrichi), mais plus le taux est élevé, plus l’arme peut être compacte et légère. Les États disposant de l’arme nucléaire utilisent généralement de l’uranium enrichi à environ 90 %, dit « de qualité militaire ».
Selon l’Agence internationale de l’énergie atomique (AIEA), l’Iran a enrichi d’importantes quantités d’uranium à 60 %. Or, il est plus facile de passer de 60 % à 90 % que de passer de 0,7 % à 60 %, car il reste alors moins d’uranium-238 à éliminer.
C’est ce qui rend la situation iranienne particulièrement préoccupante pour ceux qui redoutent que le pays produise des armes nucléaires. Et c’est pour cela que la technologie des centrifugeuses utilisée pour l’enrichissement est gardée secrète. D’autant que les mêmes centrifugeuses peuvent servir à la fois à fabriquer du combustible civil et à produire de l’uranium de qualité militaire.
Des inspecteurs de l’AIEA surveillent les installations nucléaires dans le monde entier pour vérifier le respect du traité mondial de non-prolifération nucléaire. Bien que l’Iran affirme n’enrichir l’uranium que pour des fins pacifiques, l’AIEA a estimé la semaine dernière que l’Iran avait violé ses engagements au titre de ce traité.
Kaitlin Cook reçoit des financements de l’Australian Research Council (Conseil australien de la recherche).
17.06.2025 à 12:34
Olivia Chevalier, Ingénieur de recherche, Institut Mines-Télécom Business School
Gérard Dubey, Sociologue, Institut Mines-Télécom Business School
Johann Herault, Maître-assistant en robotique bio-inspirée, Laboratoire des Sciences du Numérique de Nantes, IMT Atlantique – Institut Mines-Télécom
L’intelligence artificielle, aussi fascinante qu’elle puisse être, se cantonne largement au monde numérique. En d’autres termes, elle ne modèle pas directement la réalité physique. À moins d’être embarquée dans un objet capable d’agir sur le monde… comme un robot par exemple.
Des roboticiens et chercheurs en sciences sociales nous expliquent comment l’avènement de l’IA permet de changer la manière de penser les robots. En particulier, en leur permettant de mieux percevoir et d’interagir avec leur environnement.
En quelques décennies, les nouvelles méthodes informatiques regroupées sous l’appellation d’« intelligence artificielle » ont révolutionné le traitement automatisé de l’information. Certaines de ces méthodes s’inspirent du fonctionnement du cerveau, en reproduisant son architecture en réseau de neurones et les processus cognitifs humains tels que l’apprentissage.
En robotique, l’utilisation de telles approches laisse espérer des progrès rapides dans l’autonomisation des robots humanoïdes. L’essor de la vision par ordinateur, reposant sur ces nouvelles architectures de réseaux de neurones, a, par exemple, permis d’améliorer considérablement l’interaction des robots avec leur environnement, notamment pour éviter les obstacles et pour manipuler des objets. Néanmoins, une limite demeure aux avancées de l’IA en robotique : les robots humanoïdes peinent encore à atteindre la fluidité et la précision des mouvements humains, notamment en ce qui concerne la bipédie et la préhension.
En effet, la coordination des fonctions motrices nécessaires au mouvement ne se résume pas à une simple planification mécanique, comparable à une succession de coups dans une partie d’échecs. En réalité, le mouvement humain et, plus largement, le mouvement animal reposent sur un enchevêtrement complexe d’opérations et d’interactions impliquant des composantes internes à l’individu, telles que le contrôle moteur (l’équivalent de l’IA chez le robot), le système sensoriel ou la biomécanique, ainsi que des composantes externes, comme les interactions physiques avec l’environnement.
Par exemple, un joggeur amateur est capable de maintenir son regard globalement stable malgré les irrégularités du terrain et la fatigue, en tirant parti de propriétés passives du corps humain (de l’articulation plantaire au mouvement des hanches), de réflexes, ainsi que d’un contrôle moteur fin des muscles oculaires et cervicaux. Nos systèmes musculosquelettiques et nerveux ont ainsi évolué de manière conjointe pour relever les défis posés par des environnements hétérogènes et imprévisibles.
En comparaison, pour accomplir des tâches qui exigent un ajustement continu entre l’action et son objectif, les robots disposent d’un nombre limité d’actionneurs (en d’autres termes, de moteurs) et plus encore de capteurs.
Dans ce contexte de contraintes matérielles, peut-on réellement espérer que la puissance de calcul des IA et leurs capacités d’apprentissage suffisent à atteindre les performances motrices observées chez les humains et chez les animaux ?
L’approche dite « incarnée » prend justement le contrepied de l’approche purement calculatoire en ne dissociant pas les composantes algorithmiques et physiques du robot. Elle vise au contraire à explorer les synergies possibles entre le corps et le contrôle, entre les mécanismes passifs et actifs, pour qu’une « intelligence motrice » ou « incarnée » émerge aussi de ces interactions. Cet article examine ainsi les limites et perspectives des synergies entre l’intelligence artificielle, le robot et son environnement.
Rodney Brooks, ancien directeur du laboratoire d’IA au Massachusetts Institute of Technology (MIT), y a dirigé pendant des années un programme de recherche intitulé : « The Cog Project : Building a Humanoid Robot ». Brooks distingue deux phases dans l’histoire de la recherche en robotique. Au cours de la première phase (années 1970-1980), la recherche est fondée sur le fait que le programme du robot contient les données du milieu dans lequel il évolue, ou plutôt où il n’évolue pas. Lors de la seconde phase, à partir des années 1990, la recherche se fonde précisément sur l’interaction avec l’environnement.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Ce rapport dynamique à l’environnement permet de voir dans quelle mesure les robots se complexifient et s’auto-organisent, ou s’autonomisent au fil de l’histoire de la recherche en robotique. Comme le dit Brooks, « l’intelligence humanoïde requiert des interactions humanoïdes avec le monde ». Il s’agit par conséquent de développer des programmes capables de se modifier eux-mêmes en fonction des interactions avec l’environnement.
Les recherches de la seconde robotique visent donc à développer un « behaviour-based robot » (robot fondé sur un modèle comportemental), dont une des exigences intéresse notre propos : pour que l’action du robot soit proche de la nôtre, on doit entre autres la supposer « non planifiée ».
C’est, précisément, d’abord là que les progrès en IA se révèlent fructueux. Mais dans quelle mesure l’IA peut-elle permettre de réduire le fossé entre les comportements des robots et ceux, extrêmement complexes, qu’on cherche à leur faire reproduire ? Parce que l’IA joue un grand rôle dans la conception des robots, dans la fabrication des matériaux dont ils sont faits et évidemment dans la simulation et la modélisation, elle offre les moyens de cette approche incarnée.
Un des principaux objectifs de cette approche est l’autonomie des robots, c’est-à-dire leur capacité à prendre des décisions et à s’adapter à leur environnement.
Pour mieux comprendre ce point, on peut opposer l’approche physicaliste à celle de l’IA incarnée. Ainsi, l’approche traditionnelle (aussi qualifiée de « physicaliste » ou « objectiviste ») ne donne pas les moyens de savoir si une machine peut sentir ou comprendre, tandis l’approche de l’IA incarnée pose le problème de l’autonomie de la machine en des termes qui permettraient en principe de vérifier cette hypothèse de la possibilité pour une machine de sentir ou comprendre. En effet, en considérant, d’une part, que le tout – le corps – est plus que l’addition des parties (les composants) et, d’autre part, que les phénomènes qui nous intéressent (conscience phénoménale, compréhension, sensation, par exemple) sont le produit émergeant de ce tout immergé dans l’environnement, cette seconde approche offre les moyens de tester cette hypothèse.
La robotique souple (dans sa version bio-inspirée) semble ainsi plus apte que les autres approches robotiques évoquées ci-dessus à se rapprocher de cet objectif de l’approche incarnée. En effet, en s’inspirant des comportements des organismes biologiques et en essayant d’en reproduire certains aspects, elle vise à construire des robots qui s’adaptent au milieu et construisent leur autonomie dans leur interaction avec lui.
Le couplage de la robotique et de l’IA préfigure potentiellement un autre imaginaire du rapport entre humains et machines et de la technique à la nature que celui qui a prévalu à l’ère industrielle.
En effet, dès les années 1940, la théorie cybernétique, avec le concept d’« homéostasie » (autorégulation de l’organisme avec son milieu), aux sources de l’actuelle IA, était déjà une pensée de l’insertion des machines dans le milieu. L’association cybernétique entre capteurs et traitement du signal avait ouvert la voie au rapprochement de l’intelligence machinique (qu’on peut définir brièvement comme intelligence principalement régie par des algorithmes) avec celle des êtres vivants dans le monde naturel. L’autonomie des machines était toutefois toujours pensée sur le modèle de la capacité des organismes vivants à maintenir leurs équilibres internes en résistant aux perturbations de l’environnement, c’est-à-dire en accordant la priorité à tout ce qui permet de réduire ce « désordre » externe.
Les recherches actuelles en robotique semblent infléchir ce rapport en considérant que les perturbations du milieu représentent des potentialités et des ressources propres qui méritent d’être comprises et appréhendées en tant que telles.
Il ne s’agit pas seulement aujourd’hui d’insérer un robot dans un environnement neutre ou déjà connu par lui, mais de faire de cet environnement – imprévisible, souvent inconnu – un composant de son comportement. Ces recherches se concentrent ainsi sur les interactions du corps ou du système mécatronique avec le monde physique – c’est-à-dire avec les forces de contact et les processus de traitement de l’information mis en œuvre dans l’expérience sensible par les êtres vivants.
Soft robotique, robotique molle, bio-inspirée, intelligence incarnée sont des déclinaisons possibles de ces nouvelles approches et révèlent l’importance du rôle joué par l’IA dans l’ouverture de la robotique à d’autres problématiques que celles qui étaient traditionnellement les siennes, en apportant des éclairages ou en levant certains verrous scientifiques.
La nouvelle robotique ne fait donc pas que déboucher sur un renouveau de l’intérêt pour le vivant. Les conceptions de la machine dont elle est porteuse – une machine immergée dans son environnement, qui en dépend profondément – résonnent fortement avec les nouvelles approches du vivant en biologie qui définissent celui-ci principalement à partir de ses interactions. Le nouveau dialogue qui s’instaure entre robotique et biologie contribue ainsi à repenser les frontières qui séparent le vivant du non-vivant.
Dès lors, l’approche incarnée de la robotique pourrait-elle permettre de combler l’écart entre machine et vivant ?
Le projet ANR-19-CE33-0004 est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Olivia Chevalier a reçu des financements du PEPR O2R
Gérard Dubey a reçu des financements du PEPR O2R.
Johann Hérault a reçu des financements de ANR (Project-ANR-19-CE33-0004) , du PEPR O2R et de la région Pays de La Loire.
15.06.2025 à 17:32
Paulomi (Polly) Burey, Professor in Food Science, University of Southern Queensland
Pourquoi certains œufs s’écalent facilement et d’autres non ? Une histoire de pH, de température et de chambre à air, répondent les scientifiques qui se sont penchés sur la question.
Nous sommes tous passés par là : essayer d’écaler un œuf dur, mais finir par le réduire en miettes tant la coquille s’accroche obstinément au blanc. Et ça peut être pire encore, quand l’œuf se retrouve couvert de petits morceaux de membrane.
Internet regorge d’astuces censées vous éviter ce désagrément mais plusieurs causes très différentes peuvent expliquer qu’un œuf soit difficile à « éplucher ». Heureusement, la science offre des stratégies pour contourner le problème.
Les œufs se composent d’une coquille dure et poreuse, d’une membrane coquillière externe et d’une membrane coquillière interne, du blanc d’œuf (ou albumen), et d’un jaune enveloppé d’une membrane. On trouve également une chambre à air entre les deux membranes, juste sous la coquille.
Dans les années 1960 et 1970, de nombreuses recherches ont été menées sur les facteurs influençant la facilité d’écalage des œufs après cuisson. L’un de ces facteurs est le pH du blanc d’œuf. Une étude des années 1960 a montré qu’un pH compris entre 8,7 et 8,9 — donc assez alcalin — facilitait l’épluchage des œufs.
La température de conservation joue également un rôle. Une étude de 1963 a révélé qu’un stockage à environ 22 °C donnait de meilleurs résultats en matière d’épluchage qu’un stockage à 13 °C, ou à des températures de réfrigérateur de 3 à 5 °C.
Il faut bien sûr garder à l’esprit qu’un stockage à température ambiante élevée augmente le risque de détérioration (NDLR : L’Anses recommande de conserver les œufs toujours à la même température afin d’éviter le phénomène de condensation d’eau à leur surface).
Les recherches ont également montré qu’un temps de stockage plus long avant cuisson — autrement dit des œufs moins frais — améliore la facilité d’épluchage.
Le fait que les œufs frais soient plus difficiles à éplucher est relativement bien connu. D’après les facteurs évoqués plus haut, plusieurs explications permettent de comprendre ce phénomène.
D’abord, dans un œuf frais, la chambre à air est encore très petite. En vieillissant, l’œuf perd lentement de l’humidité à travers sa coquille poreuse, ce qui agrandit la chambre à air à mesure que le reste du contenu se rétracte. Une chambre à air plus grande facilite le démarrage de l’épluchage.
Par ailleurs, même si le blanc d’œuf est déjà relativement alcalin au départ, son pH augmente encore avec le temps, ce qui contribue aussi à rendre l’écalage plus facile.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Plusieurs experts de la cuisson des œufs estiment que commencer avec de l’eau bouillante puis la ramener à un frémissement avant d’y déposer délicatement les œufs donne de meilleurs résultats. Il est alors recommandé d’utiliser des œufs à température ambiante pour éviter qu’ils ne se fissurent à cause d’un choc thermique. L’idée derrière cette méthode est qu’une exposition immédiate à une température élevée facilite la séparation entre la membrane, la coquille et le blanc d’œuf.
En outre, un démarrage à chaud favorise la dénaturation des protéines du blanc d’œuf (c’est-à-dire leur changement de structure sous l’effet de la chaleur), ce qui les incite à se lier entre elles plutôt qu’à adhérer à la membrane.
Après avoir fait bouillir les œufs pendant le temps désiré (généralement 3 à 5 minutes pour un jaune coulant, 6 à 7 minutes pour un jaune crémeux, et 12 à 15 minutes pour un œuf dur), on peut les plonger dans de l’eau glacée. Cela aide le blanc à se rétracter légèrement, facilitant ainsi l’épluchage.
Parmi les autres astuces suggérées pour faciliter l’écalage, on trouve l’ajout de sel dans l’eau bouillante, mais les résultats sont à nuancer. Une étude a montré que cela pouvait effectivement améliorer l’épluchage, mais que cet effet disparaissait après une période de stockage prolongée des œufs.
L’ajout d’acides et de bases a également démontré une certaine efficacité pour aider à retirer la coquille. Un brevet s’appuyant sur cette idée propose ainsi d’utiliser des substances agressives dans le but de dissoudre la coquille. Mais partant de ce principe, vous pourriez simplement tenter d’ajouter à l’eau de cuisson du bicarbonate de soude ou du vinaigre. En théorie, ce dernier devrait attaquer le carbonate de calcium de la coquille, facilitant ainsi son retrait. Quant au bicarbonate, étant alcalin, il devrait aider à détacher la membrane de la coquille.
Il existe plusieurs façons de cuire des œufs durs en dehors de l’ébullition classique. Parmi elles : la cuisson vapeur sous pression, la cuisson à l’air chaud (avec un air fryer), et même le micro-ondes.
Dans le cas de la cuisson vapeur, certains avancent que la vapeur d’eau traversant la coquille aiderait à décoller la membrane du blanc d’œuf, ce qui rendrait l’épluchage beaucoup plus facile.
Des recherches récentes ont porté sur la cuisson à l’air chaud d’autres aliments, mais on ne sait pas encore précisément comment ce mode de cuisson pourrait influencer la coquille et la facilité d’écalage des œufs.
Enfin, une fois vos œufs épluchés, évitez de jeter les coquilles à la poubelle. Elles peuvent servir à de nombreux usages : compost, répulsif naturel contre les limaces et escargots au jardin, petits pots biodégradables pour semis… ou même contribuer à des applications bien plus poussées, notamment dans la recherche sur le cancer.
Paulomi (Polly) Burey a reçu des financements du ministère australien de l'Éducation, qui a soutenu les recherches sur les coquilles d'œufs mentionnées à la fin de cet article.
11.06.2025 à 17:35
Raquel Rodriguez Suquet, Ingénieure d'applications d'Observation de la Terre, Centre national d’études spatiales (CNES)
Vincent Lonjou, expert applications spatiales, Centre national d’études spatiales (CNES)
Entre sa densité de population et ses richesses naturelles, le littoral est une zone stratégique, mais vulnérable aux événements extrêmes et à la montée du niveau de la mer. Pour mieux prévenir les risques d’inondations côtières, les « jumeaux numériques » allient imagerie spatiale, mesures de terrain et modélisations sophistiquées – afin de fournir des informations fiables aux particuliers et aux décideurs publics.
La zone littorale, située à l’interface entre la terre et la mer, est une bande dynamique et fragile qui englobe les espaces marins, côtiers et terrestres influencés par la proximité de l’océan. À l’échelle mondiale, elle concentre une forte densité de population, d’infrastructures et d’activités économiques (tourisme, pêche, commerce maritime), qui en font un espace stratégique mais vulnérable.
On estime qu’environ un milliard de personnes dans le monde et plus de 800 000 de personnes en France vivent dans des zones littorales basses, particulièrement exposées aux risques liés à la montée du niveau de la mer due au changement climatique et aux phénomènes météorologiques extrêmes. Les enjeux associés sont multiples : érosion côtière, submersions marines, perte de biodiversité, pollution, mais aussi pressions liées à la forte artificialisation du sol, due à la forte augmentation démographique et touristique. La gestion durable de la zone littorale représente un enjeu crucial en matière d’aménagement du territoire.
Dans le cadre de notre programme Space for Climate Observatory, au CNES, avec nos partenaires du BRGM et du LEGOS, nous créons des « jumeaux numériques » pour étudier les zones côtières dans un contexte de changement climatique et contribuer à leur adaptation.
À lire aussi : Pourquoi l’océan est-il si important pour le climat ?
Dans cet article, focus sur trois zones représentatives de trois sujets emblématiques des zones côtières : le recul du trait de côte en France métropolitaine, la submersion marine en Nouvelle-Calédonie (aujourd’hui liée aux tempêtes et aux cyclones, mais à l’avenir également affectée par l’élévation du niveau de la mer) et l’évolution des écosystèmes côtiers en termes de santé de la végétation, de risque d’inondation et de qualité de l’eau sur la lagune de Nokoué au Bénin.
Avec près de 20 000 kilomètres de côtes, la France est l’un des pays européens les plus menacés par les risques littoraux. Sa façade maritime très urbanisée attire de plus en plus d’habitants et concentre de nombreuses activités qui, comme la pêche ou le tourisme, sont très vulnérables à ce type de catastrophes. Ainsi, cinq millions d’habitants et 850 000 emplois sont exposés au risque de submersion marine et 700 hectares sont situés sous le niveau marin centennal, c’est-à-dire le niveau statistique extrême de pleine mer pour une période de retour de 100 ans) dans les départements littoraux.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Le trait de côte désigne la frontière entre la terre et la mer. Cette limite se modifie continuellement sous l’action de facteurs naturels tels que les marées, les tempêtes, le dépôt de sédiments, les courants marins et les vagues. En France hexagonale, un quart du littoral est concerné par un recul du trait de côte (soit plus de 5 000 bâtiments menacés d’ici 2050) du fait de l’érosion côtière, aggravée par le changement climatique qui s’accompagne, entre autres, d’une élévation du niveau marin et de la puissance des tempêtes.
Grâce à la télédétection par satellites, notamment Sentinel-2 et Landsat, il est possible d’observer avec précision la position du trait de côte et d’analyser sa dynamique sur le long terme. Ces informations permettent de mieux comprendre les phénomènes d’érosion ou d’accrétion (à rebours du recul du trait de côte, son avancée est due en bonne partie au dépôt sédimentaire et concerne 10 % du littoral français), ainsi que les risques liés à ces évolutions.
En réponse à ces enjeux, un jumeau numérique du trait de côte est en cours de construction à l’échelle de la France. Cet outil permettra de « prendre le pouls » de la zone côtière en fournissant des données actualisées à échelle mensuelle et trimestrielle aux acteurs concernés, des mairies aux ministères, afin de faciliter la prise de décision pour une gestion durable et adaptée du littoral. Par exemple, les principaux leviers d’actions sont la mise en place d’infrastructures de protection potentiellement fondées sur la nature, des opérations d’ensablement ou d’enrochement ainsi que l’évolution des autorisations d’urbanisme pouvant aller jusqu’à la destruction de bâtiments existants.
À lire aussi : Climat : Pourquoi l’ouverture des données scientifiques est cruciale pour nos littoraux
La lagune de Nokoué au Bénin est représentative des systèmes lagunaires d’Afrique de l’Ouest : bordée d’une large population qui avoisine les 1,5 million de personnes, cette lagune constitue une ressource vivrière majeure pour les habitants de la région.
La lagune subit une importante variabilité naturelle, notamment aux échelles saisonnières sous l’influence de la mousson ouest-africaine. Ainsi, les zones périphériques sont inondées annuellement (en fonction de l’intensité des pluies), ce qui cause des dégâts matériels et humains importants. La lagune est aussi le cœur d’un écosystème complexe et fluctuant sous l’effet des variations hydrologiques, hydrobiologiques et hydrochimiques.
Là aussi, le changement climatique, avec la montée des eaux et l’augmentation de l’intensité des évènements hydrométéorologiques, contribue à faire de la lagune de Nokoué une zone particulièrement sensible.
Nous mettons en place un jumeau numérique de la lagune de Nokoué qui permettra de répondre aux besoins des acteurs locaux, par exemple la mairie, afin de lutter contre les inondations côtières en relation avec l’élévation du niveau de la mer, les marées et les événements météorologiques extrêmes.
En particulier, ce jumeau numérique permettra de modéliser la variabilité du niveau d’eau de la lagune en fonction du débit des rivières et de la topographie. Il géolocalisera l’emplacement des zones inondées en fonction du temps dans un contexte de crue — une capacité prédictive à court terme (quelques jours) appelée « what next ? »
Le jumeau numérique sera également en mesure de faire des projections de l’évolution du risque de crue sous l’effet du changement climatique, c’est-à-dire prenant en compte l’élévation du niveau de la mer et l’augmentation de l’intensité des pluies. Cette capacité prédictive sur le long terme, typiquement jusqu’à la fin du siècle, est appelée « what if ? »
Enfin, il permettra de modéliser et d’évaluer la qualité de l’eau de la lagune (par exemple sa salinité ou le temps de résidence de polluants). Par exemple, en période d’étiage, quand l’eau est au plus bas, la lagune étant connectée à l’océan, elle voit sa salinité augmenter de manière importante, bouleversant au passage l’équilibre de cet écosystème. Le riche écosystème actuel est en équilibre avec cette variation saisonnière mais des aménagements (barrages, obstruction du chenal de connexion à l'océan…) pourraient le mettre en péril.
L’élévation du niveau de la mer causée par le changement climatique, combinée aux marées et aux tempêtes, constitue un risque majeur pour les populations côtières à l’échelle mondiale dans les décennies à venir. Ce risque est « évolutif » — c’est-à-dire qu’il dépend de comment le climat évoluera dans le futur, notamment en fonction de notre capacité à atténuer les émissions de gaz à effet de serre.
Il est donc très important d’être capable de modéliser le risque de submersion marine et de projeter ce risque dans le futur en prenant en compte la diversité des scénarios d’évolution climatiques afin de supporter l’action publique au cours du temps, avec différentes stratégies d’adaptation ou d’atténuation : relocalisation de populations, modification du plan local d’urbanisme, création d’infrastructures de protection côtières qu’elles soient artificielles ou bien basées sur la nature.
La modélisation de la submersion marine nécessite une connaissance en 3D sur terre (du sol et du sursol, incluant bâtiments, infrastructures, végétation…), mais aussi – et surtout ! – sous l’eau : la bathymétrie. Si cette dernière est assez bien connue sur le pourtour de la France métropolitaine, où elle est mesurée par le Service hydrographique et océanographique de la marine (Shom), une grande partie des zones côtières en outre-mer est mal ou pas caractérisée.
En effet, le travail et le coût associé aux levés topobathymétriques in situ sont très élevés (supérieur à 1 000 euros par km2). À l’échelle du monde, la situation est encore pire puisque la très grande majorité des côtes n’est pas couverte par des mesures bathymétriques ou topographiques de qualité. Aujourd’hui, plusieurs techniques permettent de déterminer la bathymétrie par satellite en utilisant la couleur de l’eau ou le déplacement des vagues.
En Nouvelle-Calédonie, nous explorons le potentiel des satellites pour alimenter un jumeau numérique permettant de faire des modélisations de submersion marine. Nous nous concentrons dans un premier temps sur la zone de Nouméa, qui concentre la majeure partie de la population et des enjeux à l’échelle de l’île. Une première ébauche de jumeau numérique de submersion marine a ainsi été réalisée par le BRGM. Il permet par exemple d’évaluer la hauteur d’eau atteinte lors d’un évènement d’inondation et les vitesses des courants sur les secteurs inondés.
Dans un deuxième temps, nous étudierons la capacité à transposer notre approche sur une autre partie de l’île, en espérant ouvrir la voie à un passage à l’échelle globale des méthodes mises en place.
Vincent Lonjou a reçu des financements du CNES
Raquel Rodriguez Suquet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.