04.04.2026 à 17:33
Comment Taïwan en est venu à dominer l’industrie mondiale des semi-conducteurs
Texte intégral (2067 mots)
La puissance technologique de Taïwan dans les semi-conducteurs joue aujourd’hui un rôle clé dans les équilibres géopolitiques mondiaux. Derrière ce « bouclier de silicium » se cache une stratégie industrielle patiemment bâtie depuis plus de cinquante ans.
Une entreprise, Taiwan Semiconductor Manufacturing Company (TSMC), produit à elle seule plus de 90 % des semi-conducteurs les plus avancés au monde. Des puces essentielles aux smartphones, à l’intelligence artificielle, au calcul haute performance et aux systèmes militaires de pointe.
La domination de Taïwan dans les puces les plus avancées constitue un véritable point d’étranglement pour l’économie mondiale. Quelques jours ou semaines d’arrêt de leur production suffiraient à affecter l’approvisionnement et les prix de nombreux produits dans le monde. La situation est comparable à la manière dont les perturbations actuelles du transport maritime dans le golfe Persique, liées à la guerre avec l’Iran, affectent les marchés dépendants du pétrole à l’échelle mondiale.
La suprématie taïwanaise dans la fabrication de semi-conducteurs a transformé l’île en ce que je décris dans mes recherches comme une « superpuissance de niche ». Elle exerce une influence mondiale disproportionnée en contrôlant une industrie stratégiquement indispensable.
Taïwan n’est pas arrivé par hasard à cette position. Dans les années 1970, des technocrates taïwanais ont compris que le pays ne pouvait pas encore rivaliser avec les leaders mondiaux de l’électronique. L’un d’eux était Kwoh-Ting Li, alors ministre de l’Économie, souvent considéré comme le « père du miracle économique taïwanais ».
À l’époque, Taïwan ne disposait ni du capital financier ni des compétences technologiques nécessaires pour rivaliser avec les leaders du secteur comme le Japon et les États-Unis. Plutôt que de chercher à dominer l’ensemble de l’industrie des semi-conducteurs, de la conception jusqu’à la production, les responsables politiques taïwanais ont donc choisi de développer des compétences dans la fabrication de précision. Il s’agit de l’étape la plus exigeante sur le plan opérationnel dans la chaîne de valeur des semi-conducteurs.
Fondé en 1973 par le gouvernement taïwanais, l’Industrial Technology Research Institute a soigneusement acquis des technologies de fabrication des semi-conducteurs grâce à des accords de licence conclus avec l’entreprise américaine aujourd’hui disparue Radio Corporation of America (RCA). L’institut a ensuite formé toute une génération d’ingénieurs taïwanais.
Le moment charnière date de 1987, lorsque Morris Chang a fondé TSMC dont nous parlions en introduction. Ingénieur formé aux États-Unis, Chang avait passé plusieurs décennies au sein de la multinationale américaine spécialisée dans les semi-conducteurs Texas Instruments. Il a alors imaginé ce que l’on appelle aujourd’hui le modèle de la « pure-play foundry », le modèle de fonderie taïwanais.
Plutôt que de concevoir et de fabriquer ses propres puces sous sa marque, TSMC s’est spécialisé dans la fabrication de puces pour d’autres entreprises. Ce choix stratégique a été déterminant, car il a rassuré les entreprises américaines et européennes du secteur des semi-conducteurs en leur montrant que TSMC n’entrerait pas en concurrence avec elles. Cela a permis à de grandes entreprises technologiques comme Qualcomm, puis plus tard Nvidia, d’externaliser la production de leurs puces à Taïwan sans craindre de fuite de propriété intellectuelle ni de rivalité stratégique.
L’industrie taïwanaise des semi-conducteurs s’est développée au sein du Parc scientifique de Hsinchu, un grand pôle industriel situé au sud de la capitale taïwanaise, Taipei. Au début des années 1990, le parc de Hsinchu accueillait plus de 140 entreprises de fabrication de puces et employait environ 30 000 personnes. La puissance de ce cluster a attiré de nombreux ingénieurs taïwanais installés aux États-Unis, contribuant à faire de Taïwan le leader mondial de la production de semi-conducteurs avancés.
Le « bouclier de silicium »
La domination de Taïwan dans les semi-conducteurs a joué un rôle manifeste dans la protection de l’île face à sa menace existentielle — le risque d'invasion chinoise. Ce phénomène a été explicitement évoqué en 2021 dans un article publié dans la revue Foreign Affairs, dans lequel l’ancienne présidente taïwanaise Tsai Ing-wen affirmait que l’industrie des semi-conducteurs de Taïwan constituait un « bouclier de silicium ».
Selon elle, la dépendance de l’économie mondiale à l’égard des puces avancées fabriquées à Taïwan signifie que les perturbations provoquées par une invasion chinoise entraîneraient des conséquences économiques catastrophiques à l’échelle mondiale. Les alliés de Taïwan seraient donc contraints de venir à sa défense.
La politique chinoise
Ces dernières années, le « bouclier de silicium » de Taïwan est toutefois menacé. Depuis le début, en 2020, des restrictions américaines sur l’exportation vers la Chine d’équipements avancés de fabrication de puces, Pékin a accéléré ses efforts pour développer des capacités nationales de production de semi-conducteurs. Les investissements dans l’industrie chinoise des puces ont fortement augmenté.
Les semi-conducteurs ont constitué l’un des points faibles de la stratégie Made in China 2025, par laquelle les dirigeants chinois entendaient transformer leur pays en superpuissance de la tech. Et si la Chine n’a pas atteint ses objectifs en matière de localisation de la production de semi-conducteurs et de part de marché mondiale, manquant les objectifs fixés pour 2025, des fabricants chinois de puces comme HiSilicon et Semiconductor Manufacturing International Corporation gagnent du terrain. Une proposition présentée en mars par treize dirigeants de l’industrie chinoise des semi-conducteurs fixe pour objectif d’atteindre 80 % d’autosuffisance d’ici à 2030. Aujourd’hui, elle se situe autour de 33 %.
Les efforts aux États-Unis
Dans le même temps, Washington cherche à rapatrier la production de semi-conducteurs sur le sol américain. Des initiatives lancées sous l’administration Biden, comme le Chips and Science Act, ont créé des incitations pour soutenir l’immense site de production de TSMC en Arizona, ouvert en 2022 dans le cadre des efforts des États-Unis pour renforcer leur production nationale de puces.
Ces incitations accordées à TSMC comprenaient jusqu’à 6,6 milliards de dollars (environ 5,7 milliards d'euros) d’investissements directs ainsi que d’importants crédits d’impôt. TSMC a initialement engagé 65 milliards de dollars (56 milliards d'euros) dans ce projet, l’administration Trump annonçant en mars 2025 que l’entreprise augmenterait encore ses investissements aux États-Unis de 100 milliards de dollars supplémentaires (86 milliards d'euros).
Elon Musk a de son côté récemment annoncé des projets d’installations d'unités de production de puces avancées au Texas pour ses deux entreprises, Tesla et SpaceX. Face aux inquiétudes du milliardaire selon lesquelles des entreprises comme TSMC ne produisent pas le volume de puces dont ses sociétés ont besoin, le projet baptisé « Terafab » vise à regrouper toutes les étapes de la production de semi-conducteurs sous un même toit. Son coût est estimé autour de 21 milliards d'euros. D’autres entreprises investissent également dans la fabrication de puces aux États-Unis, notamment Micron, Texas Instruments et Intel.
Difficile de reproduire le modèle taïwanais
Malgré les efforts des États-Unis et de la Chine, reproduire l’écosystème industriel de Taïwan reste difficile. Cela exige non seulement du capital et des équipements, mais aussi un savoir-faire accumulé sur plusieurs décennies, ainsi que des réseaux de fournisseurs très denses et une main-d’œuvre d’ingénieurs sans équivalent.
TSMC a d'ailleurs rencontré des difficultés à recruter des talents en Arizona et a dû faire venir par avion des milliers de travailleurs depuis Taïwan afin d’améliorer les compétences des équipes locales. Et tandis que TSMC produit désormais des semi-conducteurs à la pointe de la technologie à l’échelle de 2 nanomètres, les objectifs chinois d’autosuffisance visent plutôt à disposer d’« équipements entièrement produits sur le territoire national » pour les générations de puces moins avancées, de 7 et 14 nanomètres.
Or ma différence entre les puces de 2 nm et celles de 7 nm est considérable : elles offrent environ 45 % de performances supplémentaires tout en consommant 75 % d’énergie en moins. Les puces les plus fines sont utilisées pour des applications de pointe comme l’intelligence artificielle avancée, tandis que les puces plus larges sont employées dans une gamme plus étendue d’appareils électroniques, comme les smartphones, les processeurs d’ordinateurs et les automobiles.
L’histoire des semi-conducteurs à Taïwan est, au fond, celle d’une remarquable clairvoyance stratégique. En choisissant de se spécialiser dans la fabrication plutôt que dans la conception, en s’insérant dans les réseaux technologiques dominés par les États-Unis et en développant une expertise de classe mondiale dans les procédés industriels, Taïwan a transformé une vulnérabilité structurelle en véritable puissance structurelle.
Grâce à sa domination dans les semi-conducteurs, Taïwan apparaît comme l’exemple par excellence d’une superpuissance de niche. Mais l’histoire montre que le statut de superpuissance, même dans un domaine spécifique, n’est jamais permanent. La frontière technologique se déplace, les rivaux apprennent et les alliés prennent leurs précautions.
Pour Taïwan, rester indispensable à l’économie mondiale exigera donc non seulement de conserver une avance technologique. Il faudra aussi orchestrer avec soin les fondements politiques, financiers et humains qui ont rendu possible, initialement, son « bouclier de silicium ».
Robyn Klingler-Vidra a reçu une subvention de recherche de la Chiang Ching-kuo Foundation entre 2019 et 2023. Cette subvention a financé une recherche sur la formation et les parcours professionnels des responsables des politiques d’innovation en Asie du Nord-Est depuis l’après-guerre. L’étude a été publiée dans la revue World Development en avril 2025 et est disponible ici : https://www.sciencedirect.com/science/article/pii/S0305750X25000646
03.04.2026 à 16:26
Un million de satellites ? La nouvelle ruée vers l’orbite inquiète scientifiques et juristes
Texte intégral (2131 mots)

Des dizaines de milliers de satellites sont déjà en orbite, et plus d’un million sont envisagés. Cette industrialisation du ciel pourrait bouleverser l’observation astronomique, la navigation et certaines traditions culturelles, sans que ces impacts soient réellement pris en compte par la régulation.
Le 30 janvier 2026, SpaceX a déposé une demande auprès de la Federal Communications Commission (FCC) des États-Unis pour déployer une mégaconstellation pouvant compter jusqu’à un million de satellites, constellation destinée à alimenter des centres de données dans l’espace.
Le projet prévoit des satellites opérant entre 500 et 2 000 kilomètres d’altitude en orbite terrestre basse. Certaines de ces orbites sont conçues pour bénéficier d’une exposition quasi permanente au soleil. Le public peut d’ailleurs actuellement soumettre des commentaires sur cette proposition.
La demande déposée par SpaceX n’est que la dernière en date d’une série de projets de mégaconstellations de satellites. Satellites qui remplissent généralement une fonction unique et ont une durée de vie relativement courte, d’environ cinq ans avant d’être remplacés.
En février 2026, environ 14 000 d’entre eux étaient déjà en orbite. Dans le même temps, 1,23 million de satellites supplémentaires sont en projet. La procédure d’autorisation de ces satellites repose presque exclusivement sur les informations techniques, très limitées, que les entreprises qui les produisent fournissent aux régulateurs. Les conséquences culturelles, spirituelles – et une grande partie des impacts environnementaux de ces objets – restent largement ignorées. Pourtant, elles devraient faire partie de l’évaluation.
Le ciel nocturne va profondément changer
À cette échelle de croissance, le ciel nocturne sera durablement transformé à l’échelle mondiale, et ce pour des générations.
Les satellites en orbite terrestre basse réfléchissent la lumière du soleil pendant environ deux heures après le coucher du soleil et avant son lever. Malgré des efforts d’ingénierie visant à réduire leur luminosité, ces satellites – parfois de la taille d’un camion – apparaissent dans le ciel nocturne comme des points lumineux en mouvement. Les projections montrent que les futurs satellites vont considérablement accroître cette pollution lumineuse.
En 2021, des astronomes estimaient que, d’ici moins d’une décennie, un point lumineux sur quinze dans le ciel nocturne serait un satellite en mouvement. Cette estimation ne prenait pourtant en compte que les 65 000 satellites de mégaconstellations proposés à l’époque.
Une fois qu’un million d’entre eux seront déployés, les conséquences pour le ciel nocturne pourraient être difficiles à inverser. Si la durée de vie moyenne d’un satellite n’est que d’environ cinq ans, les entreprises conçoivent ces mégaconstellations pour être remplacées et étendues en permanence. Le résultat : une présence industrielle continue dans le ciel nocturne.
Tout cela provoque un « syndrome du glissement de référence » (shifting baseline syndrome) appliqué à l’espace : chaque nouvelle génération finit par considérer comme normal un ciel nocturne de plus en plus dégradé. Les satellites qui se croisent dans le ciel deviennent la norme.
Pour la première fois dans l’histoire de l’humanité, ce glissement de référence signifie que les enfants d’aujourd’hui ne grandiront pas avec le même ciel nocturne que celui qu’ont connu toutes les générations précédentes.
Houston, nous avons un « méga » problème…
Le volume colossal de satellites envisagés suscite des inquiétudes de toutes parts. Les astronomes redoutent notamment les reflets lumineux intenses et les émissions radio qui risquent de perturber les observations du ciel.
Dans l’industrie aussi, les alarmes se multiplient : gestion du trafic orbital, risques de collision, coordination internationale. Contrairement à l’aviation, il n’existe toujours pas de système unifié de gestion du trafic spatial.
Les mégaconstellations augmentent aussi le risque de syndrome de Kessler, une réaction en chaîne de collisions potentiellement incontrôlable. On compte déjà 50 000 débris en orbite d’au moins dix centimètres. Si les satellites cessaient toute manœuvre d’évitement, les dernières données montrent qu’une collision majeure surviendrait en moyenne tous les 3,8 jours.
Les préoccupations culturelles sont également nombreuses. La pollution lumineuse générée par les satellites risque d’affecter les usages autochtones du ciel nocturne liés à des traditions orales anciennes, à la navigation, à la chasse ou encore à des pratiques spirituelles.
Le lancement d’un si grand nombre de satellites nécessite par ailleurs d’énormes quantités de carburants fossiles, ce qui peut endommager la couche d’ozone. Une fois leur mission terminée, ces satellites sont conçus pour brûler dans l’atmosphère. Ce procédé soulève une autre inquiétude environnementale : le dépôt de grandes quantités de métaux dans la stratosphère, susceptibles de provoquer une dégradation de l’ozone et d’autres réactions chimiques potentiellement nocives.
Tout cela soulève aussi des questions juridiques. En vertu du droit spatial international, ce sont les États – et non les entreprises – qui sont responsables des dommages causés par leurs objets spatiaux.
Les juristes spécialisés dans le droit de l’espace tentent désormais de déterminer si ce cadre juridique peut réellement permettre de tenir les entreprises ou les particuliers responsables. La question devient d’autant plus pressante que les risques de dégâts matériels, de morts ou de dommages environnementaux irréversibles augmentent.
Les failles dans la régulation ne peuvent plus être ignorées
Aujourd’hui, les règles qui encadrent les projets de satellites sont essentiellement techniques : elles portent par exemple sur les fréquences radio utilisées. Au niveau national, les autorités se concentrent surtout sur la sécurité des lancements, la limitation des impacts environnementaux sur Terre et la responsabilité en cas d’accident.
Ce que ces réglementations ne prennent pas en compte, en revanche, c’est l’effet qu’auraient des centaines de milliers de satellites lumineux sur le ciel nocturne – pour la recherche scientifique, la navigation, les transmissions et cérémonies autochtones…
Ces effets ne relèvent ni des atteintes environnementales « classiques », ni de simples questions d’ingénierie. Ce sont des impacts culturels qui échappent largement aux cadres de régulation actuels. C’est pourquoi le monde aurait besoin d’une évaluation de l’impact sur les « ciels nocturnes », comme le proposent les juristes spécialisés en droit spatial Gregory Radisic et Natalie Gillespie.
L’objectif serait de mettre en place une méthode systématique pour identifier, documenter et réellement prendre en compte l’ensemble des effets d’une constellation de satellites avant son déploiement.
Comment fonctionnerait une telle évaluation ?
La première étape consisterait à recueillir des données auprès de l’ensemble des parties prenantes. Astronomes – amateurs comme professionnels –, scientifiques de l’atmosphère, chercheurs en environnement, spécialistes des questions culturelles, communautés concernées et acteurs industriels apporteraient chacun leur point de vue.
Ensuite, il serait essentiel de modéliser les effets cumulés des satellites. Les évaluations devraient analyser comment ces constellations modifieront la visibilité du ciel nocturne et la luminosité du ciel, la congestion orbitale et le risque de victimes au sol.
Troisièmement, il faudrait définir des critères clairs pour déterminer dans quels cas la préservation d’un ciel dégagé est essentielle – pour la recherche scientifique, la navigation, l’enseignement, les pratiques culturelles ou encore le patrimoine commun de l’humanité.
Quatrièmement, l’évaluation devrait prévoir des mesures d’atténuation : réduction de la luminosité des satellites, modification des orbites ou ajustement du déploiement afin d’en limiter les dommages. Elle pourrait aussi inclure des incitations à utiliser le moins de satellites possible pour un projet donné.
Enfin, les conclusions devraient être transparentes, pouvoir faire l’objet d’un examen indépendant et être directement prises en compte dans les décisions d’autorisation et les politiques publiques.
Ce n’est pas un outil de veto
Cette évaluation de l’impact sur les ciels nocturnes ne vise pas à bloquer le développement spatial. Elle permet plutôt de clarifier les arbitrages et d’améliorer la prise de décision. Elle peut conduire à privilégier dès la des satellites réduisant la luminosité et les interférences visuelles, à choisir des configurations orbitales limitant l’impact culturel, à des consultations plus précoces et plus approfondies, ainsi qu’à une meilleure prise en compte des dimensions culturelles lorsque les dommages ne peuvent être évités.
Surtout, elle garantit que les communautés concernées par les constellations de satellites ne découvrent pas leur existence une fois les autorisations déjà accordées – lorsque des points lumineux commencent à traverser leur ciel.
La question n’est plus de savoir si le ciel nocturne va changer : il est déjà en train de changer. Le moment est venu pour les gouvernements et les institutions internationales de mettre en place des règles équitables, avant que ces transformations ne deviennent irréversibles.
Gregory Radisic est affilié à l’International Institute of Space Law ainsi qu’à l’Institute on Space Law and Ethics de l’organisation For All Moonkind Inc.
Samantha Lawler reçoit des financements du Natural Sciences and Engineering Research Council of Canada. Elle est également fellow de l’Outer Space Institute.
01.04.2026 à 11:14
Décoloniser notre rapport aux animaux pour inventer un nouveau rapport au monde
Texte intégral (3503 mots)
L’humain s’est placé au-dessus de toutes les autres espèces animales. Comment changer notre relation avec elles pour sortir d’une logique de domination et aller vers des formes de coexistence et de coopération ?
Chaque année, des milliards d’animaux sont élevés, transportés et abattus pour répondre aux besoins alimentaires, scientifiques ou industriels des sociétés humaines. Cette utilisation intensive du vivant pose une double question. Elle est d’abord éthique, car elle implique la souffrance et la mise à mort d’êtres vivants sensibles. Elle est aussi environnementale et sanitaire : la déforestation pour l’élevage intensif, la pollution conséquente et la proximité accrue entre espèces favorisent les déséquilibres écologiques et l’émergence de maladies.
Le concept de One Health (une seule santé) et la crise du Covid-19 rappellent que la santé humaine dépend étroitement de celle des animaux et des écosystèmes. Ces crises ne sont pas indépendantes. Elles révèlent un même rapport au vivant, fondé sur l’exploitation et la mise à distance physique et émotionnelle. Comprendre ce rapport est une condition nécessaire pour le transformer.
Une domination héritée : spécisme et colonisation
Les recherches en éthologie ont profondément renouvelé notre regard sur les animaux. De nombreuses espèces manifestent des émotions, des capacités d’apprentissage, des formes de coopération et des relations sociales complexes. Chez certains primates, mais aussi chez des éléphants, des corvidés ou des cétacés, on observe des comportements qui suggèrent des formes de conscience, d’empathie, de culture et de deuil.
Pourquoi, malgré ces connaissances, continuons-nous à exploiter les animaux à grande échelle ? Une partie de la réponse tient à notre héritage culturel. Les sociétés occidentales modernes se sont construites sur une séparation entre l’humain et le reste du vivant, associée à une hiérarchisation qui place l’homme au sommet.
Le concept de « spécisme », inventé par Richard Ryder en 1970, désigne cette discrimination fondée sur l’espèce. Il conduit à considérer que les intérêts des humains priment systématiquement sur ceux des autres êtres qui souffrent tout autant. Dans sa structure, ce mécanisme n’est pas sans analogie avec le racisme ou le sexisme : il repose sur une différence érigée en critère de domination.
Le spécisme décrit cependant avant tout une attitude morale, un biais cognitif et éthique dans la manière dont nous évaluons les intérêts des différentes espèces. La notion de « colonisation animale », que je développe dans Décoloniser notre rapport aux animaux (Odile Jacob, 2026), cherche à aller plus loin en désignant les structures concrètes qui organisent et perpétuent cette domination.
Là où le spécisme interroge les représentations, la colonisation animale pointe les dispositifs institutionnels, économiques et culturels qui les rendent opératoires : les animaux sont appropriés, contrôlés, transformés en ressources économiques et symboliques. Le droit les protège partiellement en tant qu’êtres vivants sensibles, tout en les maintenant dans le régime des biens. L’économie en fait des marchandises et tend à invisibiliser les violences qui leur sont infligées. Ces dimensions se renforcent mutuellement et stabilisent un système de domination qui dépasse la seule question des représentations pour s’incarner dans des pratiques, des lois et des rapports de pouvoir.
D’autres ontologies du vivant
Cette manière de penser n’est pourtant pas universelle. De nombreuses sociétés non occidentales, comme les Achuar d’Amazonie, les aborigènes d’Australie ou les Japonais, envisagent les relations entre humains et non-humains autrement. Plutôt que de séparer radicalement les êtres, elles insistent sur les continuités, les interdépendances et les relations.
Les travaux de l’anthropologie, en particulier de Philippe Descola (les Lances du crépuscule, 1993) ou de Bruno Latour (Enquête sur les modes d’existence, 2012), ont ainsi montré l’existence de différentes « ontologies », c’est-à-dire des manières de définir et de se représenter ce qui existe et comment les êtres sont liés. Ces sociétés ou ethnies sont, par exemple, animistes et attribuent aux animaux une intériorité – autrement dit une vie intérieure faite d’intentions, d’émotions, de perceptions et de subjectivité propre, comparable à celle que nous reconnaissons aux humains – ou les considèrent comme des partenaires inscrits dans des réseaux de relations.
Sans idéaliser ces perspectives, elles offrent des ressources pour sortir d’une vision strictement utilitariste du vivant. Elles invitent à penser une coexistence fondée non sur la domination, mais sur la réciprocité et l’attention aux interdépendances.
Transformer nos pratiques quotidiennes
Décoloniser notre rapport aux animaux suppose d’abord de transformer nos pratiques les plus ordinaires. L’alimentation constitue un levier central : réduire la consommation de produits animaux permet de limiter à la fois la souffrance animale et l’impact environnemental.
Au-delà, il s’agit de repenser la manière dont nous partageons les espaces. L’urbanisation a longtemps exclu les autres espèces. Une approche « zooinclusive » développée par la chercheuse Émilie Dardenne propose au contraire d’intégrer leurs besoins dans la conception des villes : favoriser la présence d’oiseaux, d’insectes ou de petits mammifères, aménager des continuités écologiques ou encore adapter les bâtiments pour accueillir d’autres formes de vie.
Cette approche trouve déjà des traductions concrètes. Certaines villes européennes, comme Vienne, Bruxelles ou Londres, ont ainsi intégré des nichoirs et des gîtes à chauves-souris dans les façades de bâtiments rénovés. D’autres ont aménagé des passages fauniques sous les axes routiers pour permettre les déplacements des mammifères sauvages, ou encore maintenu des toitures végétalisées favorisant la biodiversité des pollinisateurs. À Singapour, la politique des « corridors verts » cherche explicitement à reconnecter des fragments d’habitats naturels au sein du tissu urbain. En France, la trame verte et bleue, inscrite dans la législation depuis le Grenelle de l’environnement, constitue une tentative institutionnelle d’intégrer ces continuités écologiques à l’échelle du territoire.
Ces transformations ne relèvent pas seulement de choix individuels, mais aussi de décisions collectives en matière d’aménagement et de politiques publiques.
Repenser la conservation de la faune sauvage
La protection des animaux sauvages s’inscrit souvent dans une logique de gestion : il s’agit de réguler, contrôler, parfois éliminer certaines populations jugées problématiques. Les carnivores sont particulièrement visés. En France, le loup cristallise les tensions entre éleveurs et défenseurs de la nature depuis son retour naturel dans les Alpes dans les années 1990. En Afrique, le lion fait l’objet de conflits similaires : lorsqu’il s’attaque au bétail des communautés rurales, il est perçu comme une menace directe pour la survie économique des familles, ce qui conduit à des empoisonnements ou des abattages, parfois tolérés voire encouragés par les autorités locales.
Les grands herbivores ne sont pas épargnés : en Afrique australe et orientale, les éléphants, dont les populations se sont reconstituées dans certaines zones protégées, provoquent des destructions massives de cultures, écrasent des habitations, tuent des êtres humains. Ces conflits humains-éléphants poussent des communautés à réclamer des abattages, voire à tolérer le braconnage comme seule réponse à une menace perçue comme existentielle. Le braconnage lui-même, souvent présenté uniquement sous l’angle criminel, s’alimente parfois de cette exaspération locale, même s’il est également structuré par des réseaux internationaux aux enjeux économiques considérables. Cette approche gestionnaire prolonge, sous d’autres formes, une relation de domination du vivant, ce que l’historien Guillaume Blanc nomme un nouveau colonialisme vert : des décisions prises depuis l’extérieur, au nom de la nature, sans tenir compte des réalités vécues par les populations locales.
Décoloniser la conservation consiste à reconnaître davantage l’autonomie des animaux, leur « souveraineté sauvage », comme la définissent les philosophes Donaldson et Kymlicka, et à respecter leurs habitats. Cela implique de passer d’une logique de contrôle à une logique de coexistence, en cherchant des formes de médiation entre les intérêts humains et non humains. Des initiatives de terrain, comme le projet Cibel dans la forêt du bassin du Congo, montrent qu’il est possible de concilier activités humaines et présence de la faune sauvage, à condition d’accepter la complexité de ces relations.
Décoloniser les sciences
La science elle-même n’échappe pas à ces enjeux. Les animaux y sont souvent considérés comme des objets d’étude ou des modèles expérimentaux. Intégrer leur « agentivité animale », c’est-à-dire leur capacité à agir et à influencer les situations, conduit à repenser les protocoles de recherche vers une coopération humain – non humain plutôt que vers des sacrifices animaux.
En primatologie, par exemple, certaines approches cherchent à limiter les contraintes imposées aux animaux et à mieux prendre en compte leurs comportements spontanés. Lancée par l’éthologue Tetsuro Matsuzawa, cette approche d’observation participante est une collaboration humanimale. Plus largement, le développement de méthodes alternatives permet de réduire le recours à l’expérimentation animale. Décoloniser les sciences ne signifie pas renoncer à la recherche, mais en interroger les présupposés et les finalités des utilisations animales.
L’expérimentation animale constitue un point de tension majeur. Si certains travaux sont justifiés par des enjeux de santé, d’autres apparaissent plus discutables au regard des souffrances infligées. Des outils comme le « cube de Bateson » proposent d’évaluer les recherches en fonction de leurs bénéfices attendus, de leur probabilité de réussite et des dommages causés aux animaux. Mais dans la pratique, la réflexion éthique reste souvent limitée. Décoloniser l’expérimentation suppose de renforcer ces exigences, de développer des alternatives et de questionner la légitimité même de certaines recherches.
Vers une coexistence
Décoloniser notre rapport aux animaux, c’est finalement transformer en profondeur notre manière d’habiter le monde. Il ne s’agit pas de supprimer toute relation avec eux, mais de sortir d’une logique de domination pour aller vers des formes de coexistence et de coopération, ce qui est nommé le « capital animal ». Les animaux ne sont plus de simples matériaux pour manger ou se vêtir, mais sont des aides sociales, des passeurs culturels (ils nous transmettent des informations sur notre environnement) et des managers écosystémiques (ils nous aident à gérer nos écosystèmes).
Ce changement est à la fois éthique, écologique et politique. Il implique de reconnaître que les humains ne sont pas extérieurs au vivant, mais en font partie. Dans un contexte de crises multiples, repenser nos relations avec les autres espèces apparaît non comme un luxe, mais comme une nécessité pour la survie de tous dont l’humanité.
Cédric Sueur est l'auteur de l'ouvrage « Décoloniser notre rapport aux animaux » publié aux Editions Odile Jacob dont l'article fait mention.
01.04.2026 à 11:14
L’ADN a parlé : la culture de la vigne en France date de plus de 4 000 ans
Texte intégral (1246 mots)
Des pépins de raisin retrouvés sur des sites archéologiques peuvent sembler anodins. Pourtant, l’analyse de leur ADN donne accès à l’histoire plurimillénaire de la vigne cultivée.
Nous avons séquencé le génome de pépins vieux de plusieurs millénaires, révélant une histoire déjà entrevue par l’archéologie : celle de l’introduction de la viticulture en France, des échanges de cépages à l’échelle européenne et de pratiques agricoles anciennes qui ont laissé des traces jusqu’à aujourd’hui.
Nos résultats, publiés tout récemment dans Nature communications, montrent notamment que certains cépages emblématiques, comme le pinot noir variété phare de Bourgogne, étaient déjà présents au Moyen Âge.
Comment avons-nous analysé l’ADN de pépins de raisin vieux de 4 000 ans ?
L’histoire de la vigne s’est longtemps appuyée sur l’étude morphologique des pépins. Cette puissante approche a permis de distinguer de grandes tendances, notamment sur le caractère sauvage ou domestique des pépins, et retracer les débuts de la viticulture.
Cependant, certaines questions restaient difficiles à trancher : origine géographique des cépages, relations de parenté, ou encore les modes de multiplication (croisement ou reproduction clonale) et circulation des plants. L’ADN ancien pouvant être préservé au cœur même des pépins apporte ici une aide particulièrement décisive, comme témoin des relations entre les vignes du passé et celles d’aujourd’hui.
Nous avons ainsi analysé 49 pépins provenant de différents sites archéologiques, majoritairement français, et couvrant près de 4 000 ans, de l’âge du Bronze à la fin du Moyen Âge. Ces pépins gorgés d’eau ont été préservés dans des contextes spécifiques, humides, ayant contribué à une bonne préservation de leur ADN.
L’ADN a été extrait dans le laboratoire spécialisé en ADN ancien du Centre d’anthropobiologie et de génomique de Toulouse, conçu pour isoler et manipuler les molécules aussi rares que dégradées qui ont traversé les époques dans les restes archéologiques. Cet ADN ancien a pu être décrypté grâce à des technologies de séquençage de pointe jusqu’à en lire la totalité de l’information génétique, soit ici un texte génétique d’environ 500 millions de lettres.
Ces données permettent d’établir les relations génétiques entre individus, d’identifier les origines des cépages et de retrouver les techniques de propagations passées : soit par croisement, mélangeant des variétés d’origine ou de qualités distinctes ; soit par reproduction clonale (par bouturage, marcottage ou greffe) pour maintenir à l’identique dans le temps une variété qui leur était particulièrement précieuse.
Notre découverte prouve l’ancienneté de la viticulture
Les premières vignes cultivées apparaissent en France aux alentours de -600 avant notre ère, avec le développement des échanges méditerranéens, notamment du vin. Elles coexistent avec des vignes sauvages locales, et des croisements entre ces deux types contribuent à la diversité des cépages.
Les analyses génétiques confirment également l’existence de circulations à longue distance dès cette période. Des influences venues d’Ibérie, des Balkans ou du Proche-Orient témoignent des échanges des plants et de savoir-faire à l’échelle de la Méditerranée et, plus généralement, de l’Europe.
Autre point important : la multiplication clonale apparaît comme une pratique ancienne et commune, déjà en place dès l’âge du Fer. Elle a permis de maintenir certaines variétés d’intérêt sur de longues périodes et de les diffuser sur de longues distances.
C’est dans ce cadre que nous avons identifié un pépin médiéval considéré comme étant génétiquement identique au pinot noir actuel, illustrant la continuité de certains cépages sur plusieurs siècles.
Quelles perspectives pour ces recherches ?
L’apport de l’ADN ancien ne se limite pas à confirmer des scénarios existants : il ouvre aussi de nouvelles pistes.
En combinant données anciennes et modernes, il devient possible d’aller plus loin dans la caractérisation des vignes du passé. Des approches récentes permettraient par exemple d’inférer certaines caractéristiques des raisins anciens, comme la couleur des baies ou certains traits liés au goût.
Ces méthodes pourraient aussi permettre de mieux comprendre les adaptations des cépages aux environnements du passé, ou encore les choix opérés par les sociétés anciennes dans leurs pratiques agricoles.
À terme, ces recherches contribuent à mieux documenter la diversité génétique de la vigne et son évolution, un enjeu important dans le contexte actuel de changements climatiques.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Rémi Noraz a reçu des financements de l'ANR MICA (ANR-22-CE27-0026).
01.04.2026 à 11:13
Eau, biosignature et éclair : ce que nous a appris le rover Perseverance après cinq ans sur Mars
Texte intégral (2812 mots)

Depuis cinq ans, le rover Perseverance nous en apprend plus sur la géologie de Mars, et ainsi sur les anciennes conditions de la Planète rouge. Aurait-elle pu abriter la vie par le passé ? Les études se succèdent, la dernière en date venant de sortir en mars 2026. On dresse le bilan des découvertes permises par SuperCam, l’un des instruments principaux du rover.
Le 18 février 2026, nous avons fêté les cinq ans de l’atterrissage du rover Perseverance sur Mars, dans le cratère de Jezero. À la suite du succès du précédent rover Curiosity, qui explore toujours la Planète rouge depuis son atterrissage en août 2012, la Nasa a lancé la mission « Mars 2020 ». Après plus de six mois de voyage, Perseverance se pose sur Mars avec en son bord de nombreux instruments, dont le nôtre, appelé SuperCam. C’est le début d’une nouvelle ère d’exploration martienne : la recherche de potentielles traces de vie ancienne et la collecte d’échantillons qui devraient un jour revenir sur Terre !
Bien sûr, nous nous intéressons aussi à la géologie et au climat de Mars. Le cratère Jezero n’a pas été sélectionné par hasard comme site d’atterrissage : les observations orbitales y montrent un ancien delta de rivière très bien préservé, ainsi que des signatures de carbonates, des minéraux qui se forment lorsque des roches interagissent avec de l’eau et du CO₂. Ce sont donc de précieux témoins des conditions qui régnaient lors de leur apparition sur Mars. Ces observations orbitales démontrent donc que l’eau a joué un rôle important dans l’histoire de ce site.
Sur Terre, les environnements des lacs et des deltas sont aussi les meilleurs pour piéger et préserver des molécules organiques, qui se retrouvent mélangées aux sédiments très fins transportés par la rivière, puis enfouies dans le delta où ils se déposent. Le site de Jezero fournit donc l’enregistrement d’un environnement passé propice à la conservation de molécules organiques et est, de ce fait, un bon endroit pour chercher des conditions favorables à l’émergence de la vie.
Durant les trois premiers mois de la mission, chacun des instruments et des sous-systèmes du rover ont pu se mettre en marche et commencer à fournir de précieuses informations. En particulier, cette période est marquée par le premier vol historique du drone Ingenuity, le 19 avril 2021. Ce démonstrateur technologique a prouvé la faisabilité de vols motorisés dans l’atmosphère ténue de Mars, ouvrant alors une nouvelle dimension de l’exploration martienne.
Explorer le fond d’un ancien lac martien
Parmi les sept instruments embarqués par Perseverance, on trouve SuperCam, qui constitue la « tête » du rover. Il a été développé en collaboration entre la France et les États-Unis. Cet instrument combine plusieurs spectromètres, des appareils capables d’analyser la composition chimique et minéralogique de la surface de Mars. En plus des spectromètres, SuperCam embarque une caméra, afin de documenter le contexte géologique des lieux où sont réalisées les analyses, et un microphone, qui permet d’étudier l’atmosphère de Mars. En France, nous sommes 13 instituts impliqués dans cette aventure martienne.
Très rapidement après l’atterrissage, SuperCam a acquis un panorama d’une butte, nommée Kodiak, qui nous a permis de confirmer la nature du delta dans Jezero, à savoir qu’il est formé de sédiments charriés par une rivière se jetant dans un lac. Un tel système permet de reconstruire l’histoire passée de l’eau dans cette région. Ces observations nous ont montré que le niveau du lac fluctuait, mais qu’il s’agissait d’un lac fermé la plupart du temps, c’est-à-dire sans cours d’eau qui en ressort, contrairement à ce que les observations orbitales avaient suggéré auparavant.
Quinze mois plus tard, Perseverance est arrivé au pied du delta dont l’exploration a confirmé ces premières observations et a permis de mieux comprendre l’évolution du lac au cours du temps. Plus récemment, sur la bordure du cratère, SuperCam a découvert du quartz pour la première fois de manière certaine sur Mars ! Le quartz n’est pas rare lorsqu’il est observé dans une roche magmatique, du granite par exemple. Mais dans le cas de cette observation, le contexte est très différent, sans relation avec du volcanisme. Cette roche est probablement liée à un impact de météorite qui aurait facilité la circulation et la remontée d’eau chaude en fracturant la roche, créant un système hydrothermal et des conditions propices à la formation de quartz.
Entre la première photographie de Kodiak et l’arrivée au delta, la première campagne scientifique a débuté en juin 2021 en explorant deux types d’environnements géologiques du fond du cratère. Perseverance a d’abord trouvé des roches volcaniques. Pour se repérer sur Mars, les géologues donnent des noms informels aux zones étudiées. Ainsi la première formation de roches volcaniques a été appelée « Màaz ». Il s’agit d’une succession de coulées de lave à la surface. La seconde (appelée « Seítah ») correspond à un cumulât d’olivines, des roches constituées de gros grains obtenus en cristallisant un minéral, l’olivine, en profondeur sous la surface. Ces roches ont été très peu altérées par l’eau.
Les modèles suggèrent que ces deux environnements géologiques ne proviennent pas de la même source magmatique, mais de deux volcans différents ou de deux chambres magmatiques différentes sous un même volcan. Des échantillons de ces roches, s’ils reviennent sur Terre, nous permettront de dater ces terrains et de mieux comprendre leur mise en place par rapport à la formation du lac présent sur le site.
Mars, anciennement habitable, voire habitée ?
C’est en bordure de cet ancien lac que Perseverance a détecté, en 2024, les carbonates dont nous parlions plus haut, en grande quantité, confirmant les détections orbitales. Il est important de déterminer leur abondance in situ, car ces sédiments ont pu piéger le carbone de l’atmosphère, qui devait être plus épaisse dans le passé. L’analyse minutieuse de ces roches nous a permis de comprendre leur processus de formation : il s’agirait de roches magmatiques ayant longuement interagi avec l’eau du lac et du système hydrothermal, enrichie par le CO2 dissout dans l’eau.
La prise en compte de ce processus dans le cycle du carbone martien donne une nouvelle perspective au devenir du carbone et de l’habitabilité passée de cette planète. En effet, la communauté recherchait jusque-là des carbonates similaires aux calcaires des anciens fonds océaniques terrestres. Or, comme nous l’avons vu, les observations de Perseverance montrent qu’un autre processus de formation des carbonates a eu lieu sur Mars. Il faut donc le prendre en compte pour étudier le cycle du carbone martien et son influence sur les conditions climatiques passées, lesquelles déterminent combien de temps l’eau a pu rester liquide à la surface de Mars, qui en est dépourvue aujourd’hui. La présence d’eau étant nécessaire pour rendre la planète habitable, c’est ce qui rend cette découverte importante.
C’est d’ailleurs dans le même secteur, dans la vallée de l’ancienne rivière se déversant dans le lac, que Perseverance a détecté des traces potentielles de biosignatures. La présence simultanée de matière organique et de phosphate et sulfure de fer rappelle des réactions chimiques qui, sur Terre, sont parfois utilisées par les microorganismes dans des processus biologiques. Seule l’analyse sur Terre de ces échantillons pourra trancher sur l’origine de ces composés et répondre à la question de l’habitabilité passée de Mars.
Une étude récente, menée grâce au radar à bord du rover, a pu mettre en évidence la présence d’un environnement fluvial enfoui sous le delta actuel, démontrant que de l’eau circulait déjà il y a plus de 3,7 milliards d’années. Ces observations sont particulièrement importantes pour l’habitabilité passée de la planète et les recherches de biosignatures anciennes.
Écouter l’atmosphère sur une autre planète
Perseverance, depuis cinq ans, a aussi scruté l’atmosphère martienne. SuperCam et un autre instrument, MastCam-Z ont observé une aurore diffuse, comme une aurore boréale, mais qui ne se limite pas aux pôles, pour la première fois depuis la surface martienne. Mais c’est le microphone de SuperCam qui s’est nous a permis de sonder l’atmosphère de la planète, en dressant pour la première fois le paysage sonore martien. Ces écoutes permettent de déduire des propriétés importantes de l’atmosphère comme la vitesse du son qui varie selon la nature de l’atmosphère. Les bruits enregistrés sont aussi sensibles à la turbulence atmosphérique, ce qui permet d’étudier ces petits flux d’air proche de la surface.
Toujours grâce au microphone, nous avons récemment pu mettre en évidence des décharges électriques, de sortes de petits éclairs qui apparaissent dans des tourbillons qui soulèvent la poussière dans l’atmosphère. Cette détection permet d’apporter de nouvelles informations, car la dynamique des poussières dans l’atmosphère influe sur sa température et donc sur le climat. Ces petits éclairs pourraient aussi jouer un rôle insoupçonné dans la chimie atmosphérique et à la surface, par exemple en interagissant avec les composants chlorés pour former de nouvelles molécules, ou en cassant certaines molécules déjà existantes.
Après 43 km parcourus, et près de 1 500 roches martiennes analysées par SuperCam, Perseverance est désormais sorti du cratère de Jezero et explore sa bordure. Cette région expose des terrains vieux de plus de 3,8 milliards d’années, c’est-à-dire antérieurs à l’impact qui a formé le cratère, voire même à la formation du grand bassin régional Isidis dans lequel il se trouve. Ces roches sont les plus anciennes jamais étudiées in situ par un rover martien et offrent donc une fenêtre unique sur les premiers millions d’années de l’histoire de Mars. Les analyses en cours devraient révéler les conditions environnementales qui régnaient sur la planète rouge à cette époque reculée. Jezero tient bien ses promesses en termes de richesses des terrains, et de nombreuses découvertes nous attendent encore !
Agnès Cousin a reçu des financements du CNES, pour le projet Mars2020/SuperCam. Son laboratoire de recherche (IRAP) a aussi pour tutelle l'université de Toulouse et le CNES.
Olivier Gasnault a reçu des financements du CNES pour le projet Mars2020/SuperCam ; il est salarié du CNRS. Son laboratoire de recherche (IRAP) a aussi pour tutelle l'université de Toulouse.
Magali Bouyssou et Valérie Mousset ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
01.04.2026 à 10:45
L’intelligence en essaim, de la nature aux algorithmes
Texte intégral (2037 mots)
Fourmis, étourneaux, lucioles… sans centre de décision unique, ces collectifs accomplissent des tâches complexes à partir d’informations strictement locales. Ils convergent vers de bons trajets, se synchronisent, se déplacent en nuées denses sans collision. Pour cela, il suffit en fait de règles simples, combinées à des rétroactions, où l’action de chaque individu modifie légèrement l’environnement ou l’état du groupe et où cette modification influence en retour les actions suivantes. Cette logique inspire aujourd’hui des algorithmes pour piloter des systèmes distribués, des robots aux réseaux de capteurs, par exemple.
On associe spontanément l’intelligence à un organe central, un cerveau, une tour de contrôle, un « grand modèle » qui verrait tout et déciderait pour tous. Pourtant, une bonne partie du vivant fait exactement l’inverse. Il n’y a pas de contrôle centralisé et, malgré tout, on observe des comportements collectifs remarquables.
Un murmure d’étourneaux au crépuscule forme des nuages mouvants, fluides, sans collisions apparentes. Une colonne de fourmis en quête de nourriture trouve des chemins efficaces sans vision globale. Certaines espèces de lucioles finissent par clignoter ensemble, comme si un métronome invisible donnait le tempo.
Dans ces exemples, la nature coordonne sans commander. Le point commun n’est pas l’absence de hiérarchie au sens social (une fourmilière a des rôles), mais l’absence de calcul et de prise de décision centralisés. La coordination émerge de règles locales, de signaux partagés, d’interactions et de rétroactions. C’est l’intuition au cœur de l’intelligence en essaim (swarm intelligence), obtenir un comportement global cohérent à partir de règles locales simples. Un algorithme en essaim en est la traduction informatique : une population d’agents simples explore collectivement une solution sans contrôleur central, à partir d’informations locales et de boucles de rétroaction.
Pour comprendre ce qui se passe, un bon réflexe en science est de chercher si un même schéma se dégage : une règle locale donne un effet global, qui peut être traduit au sein d’une algorithmique… et déboucher sur un usage concret.
Passons en revue trois cas significatifs : trois mécanismes simples observés dans la nature, qui ont donné trois familles d’algorithmes.
La trace des fourmis et des termites, ou la « stigmergie »
Règle locale. Un individu modifie son environnement en laissant une trace chimique, une structure, un marquage.
Effet global. Les actions futures sont orientées par ces traces ainsi certaines pistes se renforcent, d’autres disparaissent. C’est une communication indirecte, via l’environnement, qui a été appelée stigmergie pour expliquer la coordination chez les termites.
Traduction algorithmique. Cette idée a été reprise en informatique, notamment pour les algorithmes de type « colonie de fourmis ».
Usage concret. Optimiser des trajets, répartir des flux, résoudre des problèmes combinatoires. Pour cela, on explore plusieurs solutions, puis on renforce progressivement les meilleures (un peu comme si les bonnes pistes « sentaient plus fort » au fil des itérations).
Nuance utile : la reine n’est pas un « chef calculateur ». Elle a un rôle biologique central, la reproduction, mais la décision (au sens algorithmique) reste distribuée : aucune entité ne détient le plan d’ensemble.
Le mouvement des oiseaux et des poissons, ou le « flocking » (ou agrégation)
Règle locale. Je m’aligne avec mes voisins, je garde une distance de sécurité, je reste dans le groupe.
Effet global. Des formations fluides, adaptatives, robustes aux perturbations.
Traduction algorithmique. En informatique, le modèle « Boids » a popularisé l’idée qu’un mouvement collectif réaliste peut émerger de quelques règles de voisinage simples.
Ce que la recherche a affiné. Pour les étourneaux, une idée clé est que l’interaction semble surtout topologique, c’est-à-dire que chaque oiseau « suit » un nombre à peu près constant de voisins (plutôt qu’une distance fixe), ce qui aide à garder la cohésion quand la densité varie brutalement (attaque d’un prédateur, par exemple).
Usage concret. Modéliser des foules, coordonner des robots, concevoir des contrôleurs distribués qui restent stables quand l’environnement bouge vite ou encore faire voler des essaims de drones autonomes en formation serrée sans GPS centralisé, comme l’ont démontré des équipes de recherche récentes.
Battre à l’unisson, ou la synchronisation collective des lucioles
Règle locale. J’ai une horloge interne. Si je vois mon voisin clignoter, je l’ajuste légèrement.
Effet global. Petit à petit, les ajustements se propagent et le groupe se synchronise.
Traduction algorithmique. C’est la logique des oscillateurs couplés : un cadre mathématique classique (famille des oscillateurs de « Kuramoto ») pour expliquer comment un ensemble d’unités faiblement couplées peut finir par battre à l’unisson.
Ancrage biologique. Des travaux de synthèse sur la synchronisation des lucioles décrivent les mécanismes, les hypothèses et les limites de ce phénomène dans le vivant.
Usage concret. Ce principe est utile chaque fois qu’un grand nombre d’objets doivent agir ensemble au bon moment, sans chef d’orchestre. Par exemple, dans un réseau de capteurs dispersés dans une forêt pour détecter un départ de feu, il faut que les appareils se réveillent, mesurent et transmettent leurs données de façon coordonnée afin d’économiser leur batterie et de ne pas saturer les communications. Le même mécanisme peut aussi servir à faire travailler ensemble une flotte de petits robots ou de drones qui doivent avancer au même rythme malgré des échanges imparfaits. L’idée générale est simple : obtenir un comportement collectif synchronisé même lorsque chaque unité ne dispose que d’une information locale et de signaux parfois bruités.
Rendre visible l’émergence : mettre le collectif en scène
Les modèles d’essaim se présentent souvent sous forme d’équations et de simulations, comme dans la vidéo ci-dessus. Mais on les comprend parfois mieux… en les voyant « vivre ». Dans les projets de médiation LED it be et Arduiciole, des collaborations entre fab Lab et laboratoire de recherche où nous utilisons des matrices de LED, d’objets lumineux ou des ballons gonflés à l’hélium, chaque lumière suit une règle locale simple : clignoter, attendre, se caler sur ses voisins, ou réagir à une « trace » dans son environnement. Ce ne sont pas de simples ampoules, mais des pixels qui s’éveillent à la vie artificielle. Le dispositif rend visible l’invisible : il simule des automates cellulaires ou des modèles de synchronisation inspirés des lucioles.
Ce que le public observe alors n’est pas un code, mais une dynamique : propagation d’un motif, stabilisation, bascule, synchronisation. La démonstration est double : le modèle n’est pas le réel, mais un outil pour isoler un mécanisme ; la complexité collective est une propriété liée aux interactions, et non à chaque individu pris séparément.
Des essaims dans nos technologies… et deux écueils à éviter
Ces principes de coordination distribuée intéressent les ingénieurs et les scientifiques pour une raison simple, ils offrent souvent trois avantages simultanés : robustesse, passage à l’échelle, adaptabilité. C’est exactement la promesse de la robotique en essaim, qui s’inspire explicitement de l’auto-organisation du vivant, mais aussi des algorithmes en essaim.
On retrouve ces principes dans une grande variété de systèmes. Ils sont particulièrement utiles lorsqu’il faut identifier de bonnes configurations dans un ensemble de possibilités immense, comme en logistique, en calibration ou en réglage de paramètres, car ils permettent de faire émerger progressivement des solutions efficaces sans pilotage central.
Ils servent aussi à organiser l’exploration collective, qu’il s’agisse de répartir des robots, des drones ou des entités logicielles pour couvrir une zone, cartographier un environnement, détecter des signaux ou parcourir un espace de recherche.
Enfin, ils offrent un cadre robuste pour maintenir la cohérence d’un système distribué en synchronisant les comportements, en assurant une coordination locale et en préservant le fonctionnement global malgré la perte ou la défaillance de certaines unités.
Ces systèmes ne sont pourtant ni spontanément stables ni naturellement sûrs. Hors des environnements idéalisés, les perceptions sont imparfaites, les échanges sont retardés et la communication entre agents reste souvent partielle. Dans ces conditions, une règle locale élégante en simulation peut devenir fragile en situation réelle. De plus, dès lors que la coordination dépend de signaux partagés, qu’il s’agisse d’une trace, d’un rythme commun ou d’une information sur un meilleur état collectif, la fiabilité de ces signaux devient un enjeu central. Un signal erroné, perturbé ou manipulé peut suffire à désorganiser l’ensemble. La décentralisation n’élimine donc pas le risque ; elle impose de penser autrement la robustesse, en la ramenant au niveau des interactions.
L’intelligence en essaim invite à l’humilité. Elle montre que la force d’un collectif ne vient pas toujours d’un chef, mais de la qualité des interactions entre ses membres. À partir de règles simples, un groupe peut faire émerger une organisation efficace, souple et robuste. La puissance réside alors dans la capacité à agir ensemble. Ce passage du « je » au « nous » offre un modèle de résilience fondé sur la coopération et l’adaptation.
Damien Olivier a reçu des financements de l'ANR et de la commission Européenne.
Yoann Pigné a reçu des financements de l'Agence Nationale de la Recherche.
Antoine Dutot et Jean-Luc Ponty ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
31.03.2026 à 17:07
Question de goût : les néandertaliens aimaient-ils vraiment les femmes « sapiens » ?
Texte intégral (2986 mots)
Un article récent paru dans Science a été largement lu comme s’il révélait une préférence des hommes néandertaliens pour les femmes sapiens. Cette lecture, séduisante pour nos imaginaires contemporains, nous maintient dans une zone de confort où l’altérité se laisse encore penser dans les termes du désir et de l’attirance. Mais dès que l’on restitue les chromosomes à l’épaisseur des sociétés, en croisant génétique, archéologie et anthropologie culturelle, une autre image se dessine, plus dérangeante, qui touche à quelque chose de plus nu dans l’humain : des groupes structurés par des règles de circulation, des réciprocités inégales, des frontières, des alliances et peut-être des violences dont nous commençons à peine à mesurer la profondeur.
À lire les titres de presse, l’affaire semble entendue. El País annonce que les hommes néandertaliens « choisissaient » les femmes sapiens. Science évoque une « partner preference ». National Geographic imagine déjà les « Roméos de la préhistoire ». The Telegraph laisse entendre que les Néandertaliens « avaient des vues sur » les femmes sapiens.
En quelques heures, une analyse statistique est devenue un récit de désirs. La « vie sexuelle » de nos ancêtres était enfin à portée de clics. Le glissement n’a rien d’anodin. Il transforme une asymétrie de transmission génétique en récit d’affects, en attirances et en romances passées. On fabrique une scène où le Roméo néandertalien remporte le cœur de la Juliette sapiens. Le discours sur nos origines devient roman-photo.
Or, l’étude parue dans Science ne raconte rien de tel. Les auteurs interrogent un motif bien connu. Chez les humains modernes non africains, les traces d’ADN néandertalien ne sont pas réparties uniformément et sont plus fréquentes dans les chromosomes non sexuels que sur le chromosome X, qui en est fortement appauvri.
Pour expliquer ce contraste, les auteurs confrontent plusieurs hypothèses, sélection naturelle, biais démographiques liés au sexe ou préférence de partenaire. Leur conclusion reste prudente : une préférence de partenaire est un mécanisme parcimonieux possible, mais elle n’exclut ni des biais démographiques ni des scénarios plus complexes.
L’étude ne montre donc ni une attirance observée ni une préférence vécue. Elle propose quelque chose de beaucoup plus étroit : dans l’espace de modèles qu’elle teste, certains scénarios rendent plus plausible une asymétrie de type mâles néandertaliens/femelles sapiens. Dans un tel schéma, l’ADN néandertalien peut se transmettre largement dans les chromosomes ordinaires, tandis que le chromosome X néandertalien circule plus difficilement, puisqu’un père ne le transmet qu’à ses filles. Ce n’est pas rien. Mais ce n’est pas non plus l’observation directe d’une attirance entre populations, et montrer qu’un modèle statistique peut produire un motif génétique n’est pas prouver que ce modèle est historiquement vrai.
Ce que le chromosome X ne dit pas de la vie sociale
Dès que l’on passe des données génétiques à leurs implications historiques et sociales, les lectures deviennent fragiles. Les chromosomes ne transmettent pas la mémoire fidèle de la vie sociale de nos ancêtres. Le fait que l’ADN néandertalien soit rare sur le chromosome X ne permet pas, en soi, de reconstituer les organisations sociales du Paléolithique ni les préférences sexuelles de ces populations.
Lorsque deux groupes proches se croisent, les chromosomes sexuels ne se comportent pas comme les autres. Ils sont souvent plus sensibles aux incompatibilités et à la sélection naturelle. Prenons le cas d’un père néandertalien et d’une mère sapiens. Leur enfant reçoit bien de l’ADN néandertalien dans beaucoup de ses chromosomes. Mais le chromosome X du père ne passe pas aux garçons, seulement aux filles. Il circule donc moins facilement d’une génération à l’autre. De plus, dans les hybridations entre groupes proches, les mâles sont souvent les plus fragiles biologiquement, avec davantage de problèmes de survie ou de fertilité. C’est pourquoi les chromosomes sexuels, et en particulier le chromosome X, peuvent perdre plus vite l’ADN venu de l’autre groupe. Un appauvrissement du chromosome X en ADN néandertalien peut ainsi relever d’un phénomène biologique classique, et non du souvenir d’un choix amoureux.
Le signal observé aujourd’hui peut donc avoir plusieurs causes. Les auteurs eux-mêmes ne présentent pas la « préférence de partenaire » comme une preuve directe, mais comme l’explication la plus parcimonieuse dans leur modèle statistique. Ils précisent qu’elle n’exclut ni des biais démographiques liés au sexe, ni des scénarios plus complexes où sélection naturelle, migrations différenciées et asymétries sexuées auraient agi ensemble.
La génétique détecte des transmissions. Elle ne reconstitue pas une société. Elle ne dit ni si ces unions relevaient d’alliances, de captures, d’échanges asymétriques, de violence ou de choix, ni qui décidait, ni sous quelles contraintes circulaient femmes et hommes entre les groupes. Entre un patron chromosomique et une scène de vie, il manque encore tout un monde, celui des constructions sociales, des règles de résidence, des hiérarchies, des conflits et des asymétries entre collectifs.
Les gènes, malgré tout leur pouvoir, ne parlent pas des amours passés. Ils parlent seulement de ce qui a survécu.
Ce qu’El Sidrón change dans la discussion
C’est ici que l’archéologie et l’anthropologie culturelle redeviennent décisives, car les gènes ne suffisent pas à reconstituer la scène sociale des rencontres entre Néandertal et Sapiens. Il faut alors quitter le seul article de Science pour revenir à d’autres données et tenter malgré tout d’accéder, indirectement, à la structure des groupes néandertaliens. Le site d’El Sidrón, dans le nord de l’Espagne, fournit à cet égard un point d’appui particulièrement fort.
Les auteurs de l’étude y ont identifié des ossements appartenant à au moins 12 néandertaliens. Le point le plus frappant concerne les adultes. Trois mâles portent la même lignée mitochondriale, alors que trois femelles présentent chacune une lignée différente. Or, l’ADN mitochondrial ne se transmet que par les mères. Les chercheurs en ont tiré une lecture simple et lourde d’implications : les hommes seraient restés dans leur groupe, tandis que les femmes auraient davantage circulé entre groupes. En d’autres termes, El Sidrón serait compatible avec un système patrilocal.
L’idée est décisive. Toute population humaine a besoin d’échanges avec l’extérieur pour se reproduire sur la durée. Dans de très nombreuses sociétés humaines, cette circulation passe d’abord par les femmes, qui quittent plus souvent leur groupe d’origine que les hommes. Plus généralement la dispersion féminine et le maintien des mâles dans leur groupe constituent aussi un schéma prédominant chez les grands singes. Voir apparaître chez Néandertal un signal compatible avec une plus forte mobilité féminine relève donc d’une tendance comportementale profonde, que l’on retrouve des primates aux sociétés humaines, et la mobilité féminine entre groupes est ici l’explication la plus plausible du motif observé. Pour une fois, nous disposons donc d’un point d’appui concret sur l’organisation sociale néandertalienne.
Et cette tendance profonde à la dispersion féminine change beaucoup de choses car dès lors tout un monde social devient pensable : échanges de femmes entre groupes, intégrations asymétriques, circulations réciproques ou non, alliances, captures, ou formes plus dures encore de relations intergroupes. À partir de là, la question n’est plus seulement de savoir quel chromosome a survécu, mais dans quel type de société ces transmissions ont eu lieu. Et cette seule possibilité suffit déjà à déplacer la lecture du papier de Science, car l’asymétrie génétique observée pourrait alors relever d’un monde social, encore inexploré, structuré par des règles de résidence, de circulation et d’échange.
« Néandertal, “Sapiens” : je t’aime, moi non plus »
Intégrer les contraintes de l’anthropologie culturelle aux lectures biomoléculaires permet d’autres basculements. En Belgique, le site de Goyet a livré les ossements de quatre néandertaliennes et de deux immatures. Les traces de découpe y sont nettes sur cinq d’entre eux. Le profil démographique de cet assemblage apparaît trop singulier pour relever d’une mortalité ordinaire. Les signatures isotopiques suggèrent une origine géographique non locale. Les auteurs avancent l’hypothèse d’un cannibalisme lié au conflit, une prédation ciblant les femelles des groupes voisins. Si cette interprétation est juste, elle dit quelque chose de brutal. Ici les relations entre groupes néandertaliens ne relevaient pas d’un monde sentimental mais de la capture, de la mise à mort et de la consommation de l’autre.
Les données peuvent effectivement être lues ainsi, mais ce dossier oblige aussi à la prudence. Le corpus est réduit. Les fouilles sont anciennes. Les données spatiales manquent. L’identité du groupe local prédateur n’est pas directement observée. Ici encore, les traces ne parlent pas d’une seule voix.
C’est alors qu’un renversement devient possible. Si l’on quitte un instant le seul regard biomoléculaire pour revenir au social, une société patrilocale change profondément le sens des corps. Les femmes viennent d’autres groupes, mais dans des mondes où la mobilité féminine est un schéma commun, des grands singes jusqu’aux sociétés humaines, l’interprétation de ce signal devient immédiatement plus subtile.
Le constat d’un cannibalisme affectant des femmes provenant de régions voisines peut donc se lire comme la simple prédation sur des étrangères. Mais il ne peut exclure une autre lecture, celle d’un traitement interne, ritualisé, de femmes venues d’ailleurs, mais désormais pleinement intégrées au groupe. La biologie et la génétique ne peuvent nous dire si un individu né ailleurs reste un étranger ou devient un membre plein et entier de mon propre monde social.
Retournons alors à l’étude de Science. C’est ici qu’il faut être très précis sur ce qu’elle démontre réellement. Le signal d’ascendance sapiens mobilisé par les auteurs renvoie à un épisode très ancien, autour de 250 000 ans. Leur démonstration ne repose donc pas sur l’observation directe du principal métissage qui a laissé sa trace chez les humains actuels. Elle suppose que le même mécanisme génétique aurait été encore à l’œuvre 200 000 ans plus tard, au moment des ultimes contacts entre Sapiens et Néandertal.
Si l’on considère la très forte tendance à la mobilité des femelles, un paradoxe apparaît et met profondément en tension l’extrapolation proposée par l’article de Science. Si des femmes sapiens entraient réellement et régulièrement dans des groupes néandertaliens, on s’attendrait à voir persister, chez les derniers néandertaliens, un signal génétique récent d’ascendance sapiens. Or, ce n’est pas ce que montrent les données disponibles. Chez les premiers Sapiens anciens d’Eurasie, l’héritage néandertalien est constant. En revanche, les génomes néandertaliens exploités jusqu’alors ne documentent aucun apport récent sapiens au sein des dernières populations néandertaliennes. Le flux génétique reconnu au moment des contacts fonctionne donc dans une seule direction, de Néandertal vers Sapiens.
Une autre hypothèse anthropologique devient alors pensable. Dans un monde patrilocal, la circulation des femmes ne règle pas seulement la reproduction mais structure les alliances entre groupes. Si l’échange cesse d’être réciproque, c’est toute la relation qui change. La formule est rude, mais elle dit bien ce paradoxe :
« Je prends ta sœur, mais je ne te donne pas la mienne. »
Il ne s’agit pas d’en faire une description mécanique de chaque croisement, mais cette formule nomme une structure possible : celle d’un rapport inégal entre ces humanités, voire d’une dissymétrie sociale durable entre groupes néandertaliens et sapiens. C’est ce lien entre flux génétique à sens unique, patrilocalité et non-réciprocité de l’échange qui m’avait conduit, dans Néandertal nu en 2022, à relever ce paradoxe singulier : « Néandertal, Sapiens, je t’aime, moi non plus. »
Replacé dans ce cadre, le sens des signatures moléculaires bascule. L’asymétrie ne se lit plus comme la trace fossile d’une préférence, mais comme l’un des effets possibles d’un rapport structurellement inégal entre populations humaines. Ajoute-t-on à cela le fait que les chromosomes sexuels éliminent plus vite certains apports génétiques, et le tableau change encore. Ce que l’on croyait lire comme un roman du désir pourrait bien relever, plus profondément, de structures sociales asymétriques.
Ce que les gènes ne savent pas des humains
Projeter sur la très longue histoire de l’humanité nos récits de désir, de goût et de préférence nous permet de rester dans notre zone de confort. Mais la confrontation à l’altérité est toujours plus rude. Nos valeurs n’ont aucune universalité spontanée. Elles ne peuvent servir de socle pour penser les mondes disparus. Les rencontres entre Néandertal et Sapiens ne se laissent réduire ni à des amours passées ni à des guerres simplement transposées depuis nos imaginaires modernes. Ce que les chercheurs tentent d’approcher, ce sont des structures sociales, des formes d’échange, des frontières entre groupes, la qualité des alliances, des manières de faire monde.
Pour cela, aligner des chromosomes ou des isotopes ne suffit pas. La paléoanthropologie doit retrouver son sens plein. Elle n’est pas seulement science des os mais étude éthologique, culturelle et sociale des sociétés humaines du passé.
La difficulté n’est donc pas de choisir entre des disciplines certaines et d’autres fragiles, mais d’apprendre à faire dialoguer des champs de savoir qui travaillent tous, chacun à leur manière, sur des traces incomplètes.
La vraie leçon est peut-être là. Les chromosomes ne nous racontent pas une petite histoire d’amour entre populations. Ils ouvrent vers des questions bien plus vastes. Qui entre dans le groupe. À quelles conditions. Selon quelles règles de circulation. Sous quelle réciprocité ou non-réciprocité. Avec quelle violence, parfois. Et surtout avec quelle transformation du statut des personnes.
Le corps, sa peau, ses os, ses gènes, ses isotopes, ne nous diront jamais rien de la réalité de l’individu dans un corps social. L’humain est cette créature qui n’est pas réductible à sa matière.
Chez les humains, l’étranger ne naît que du regard qui l’exclut.
Alors oui, la question est bien une question de goût. Mais pas forcément au sens où l’ont entendu les grands médias. Ce que les journaux ont transformé en affaire de préférence sentimentale pourrait bien relever, en réalité, de quelque chose de beaucoup plus profond et, parfois, dans certaines formes de cannibalisme, de beaucoup plus littéral…
Les illustrations de cet article sont extraites de la bande dessinée Néandertal nu, de Frédéric Bihel et Ludovic Slimak, publiée chez Odile Jacob, 2026.
Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
31.03.2026 à 14:03
Cinquante ans d’Apple : huit moments clés qui ont changé notre monde
Texte intégral (2222 mots)

De la démocratisation de l’ordinateur personnel à l’invention de l’écosystème des applications, Apple a souvent imposé de nouvelles manières d’utiliser la technologie. Voici quelques-unes des innovations les plus marquantes de l’entreprise depuis un demi-siècle.
Au début des années 1970, l’idée qu’une personne ordinaire puisse posséder un ordinateur semblait absurde. À l’époque, les ordinateurs ressemblaient davantage à des porte-avions ou à des centrales nucléaires qu’à des appareils domestiques : d’immenses machines installées dans des centres de données, exploitées par des équipes de spécialistes au service de gouvernements, d'universités et de grandes entreprises.
Puis vint Apple.
Fondée le 1er avril 1976 par deux « décrocheurs universitaires », les fameux « college dropouts » Steve Jobs et Steve Wozniak, la start-up de la Silicon Valley n’a pas inventé l’informatique. Mais elle a sans doute accompli quelque chose de plus important : contribuer à transformer l’informatique en technologie personnelle.
Avant Apple, les ordinateurs étaient le plus souvent vendus sous forme de kits à assembler. Jobs a compris que les gens préféraient des machines déjà montées, prêtes à fonctionner. Les tout premiers Apple I, dotés de boîtiers en bois de koa fabriqués à la main, se vendent aujourd’hui aux enchères pour plusieurs centaines de milliers de dollars.
En tant qu’utilisateur précoce d’Apple et développeur d’applications, voici ma sélection personnelle des réalisations technologiques les plus marquantes de l’entreprise – et de Steve Jobs – au cours des 50 dernières années.
Apple II – beige et unique en son genre
Les premiers ordinateurs personnels relevaient davantage de la curiosité que de l’outil réellement utile. L’Apple II, lancé en juin 1977, introduisit quelque chose de nouveau : le style. Même sa couleur – beige ! – était originale, contrastant avec les boîtiers métalliques noirs courants à l’époque.
L’affichage en couleurs était nouveau et enthousiasmant, et le clavier offrait une sensation agréable à l’usage. Un simple haut-parleur, doté d’une sortie d’un seul bit, était ingénieusement exploité pour produire des tonalités et même des sons ressemblant à la parole. Le design était révolutionné jusqu’à l’emballage : Jerry Manock, premier designer salarié d'Apple, installa la machine dans un boîtier en plastique moulé à l’allure élégante et professionnelle.
La souris – une nouvelle manière d’interagir
En 1979, Steve Jobs, alors âgé de 24 ans et convaincu que le géant technologique IBM était en train de rattraper Apple, se mit en quête de la prochaine grande innovation. L’entreprise de photocopieurs Xerox, qui souhaitait obtenir des actions Apple avant même son entrée en bourse, lui proposa en échange une visite de ses laboratoires de recherche voisins. Jobs comprit alors que des chercheurs du centre de recherche de Xerox à Palo Alto, comme Alan Kay, étaient en train d’inventer la prochaine génération d’interfaces informatiques.
Au cœur de cette révolution se trouvait un dispositif mis au point au milieu des années 1960 par le mentor d'Alan Kay, Douglas Engelbart, à l’université Stanford, et surnommé « la souris ». La vision de Douglas Engelbart, qui voyait l’ordinateur comme une machine destinée à augmenter les capacités de l’esprit humain, inspira Alan Kay et ses collègues, qui conçurent des interfaces graphiques dans lesquelles les utilisateurs interagissaient avec des barres de défilement, des boutons, des menus et des fenêtres.
Macintosh – la naissance du lancement de produit moderne
Steve Jobs pensait que n’importe qui devait pouvoir utiliser un ordinateur. En janvier 1984, le premier Apple Mac poussa cette idée à un niveau inédit. Fini les commandes informatiques sibyllines et les manuels qui les accompagnaient. Les premiers utilisateurs, dont je faisais partie, avaient l’impression de savoir instinctivement comment tout faire.
Mais le lancement du Mac ne se résume pas à ce saut technologique. Il inspira aussi ce qui est devenu un moment culturel désormais ancré dans nos vies : le lancement de produit. Après une publicité aguicheuse diffusée lors du Super Bowl et réalisée par Ridley Scott, Steve Jobs mit en scène dans un théâtre de 1 500 places un lancement de produit centré sur un présentateur charismatique et seul en scène. Il sortit d’un sac un petit ordinateur carré – encore beige – alors appelé Macintosh, qui se mit à parler de lui-même sous les applaudissements enthousiastes de la salle.
Pixar – le projet parallèle de Jobs
Au cours de sa première décennie, Apple connut une croissance exceptionnelle – mais frôla aussi la faillite à plusieurs reprises. Des difficultés qui conduisirent l’entreprise à l’un des épisodes les plus spectaculaires de son histoire lorsque, en mai 1985, Apple força Jobs à quitter la société.
Un an plus tard, alors qu’il dirige la start-up NeXT Inc, Steve Jobs rachète une division de la société de production de George Lucas, qu’il rebaptise rapidement Pixar. Son logiciel RenderMan permettait de générer des images en répartissant les calculs entre plusieurs machines travaillant simultanément.
Pixar, souvent décrit avec humour comme le « projet parallèle » de Jobs, deviendra l’un des studios d’animation les plus influents – et les plus rentables – au monde, en produisant notamment le premier long métrage entièrement animé par ordinateur, Toy Story (1995).
IMac – la rencontre de deux visions
Après une tentative infructueuse de développer un nouveau système d’exploitation avec IBM, Apple finit par racheter la société NeXT de Steve Jobs. En septembre 1997, celui-ci revient alors comme PDG par intérim alors que l’entreprise se trouve, selon ses propres mots, à « deux mois de la faillite ». Si ce retour est salué par de nombreux utilisateurs d’Apple, il inquiète une partie des salariés. Jobs commence en effet rapidement à licencier du personnel et à fermer les produits jugés défaillants.
Au cours de cette restructuration, il visite le studio de design d’Apple et s’entend immédiatement avec un jeune designer britannique, Jony Ive. De cette rencontre naît en 1998 l’iMac translucide aux couleurs acidulées. Essentiellement des machines NeXT plus petites et moins chères, les iMac (le « i » signifiant Internet) inaugurent aussi une autre innovation d’Apple, aujourd'hui devenue une habitude : abandonner les technologies vieillissantes. Le lecteur de disquettes est supprimé au profit d’un lecteur de CD – un choix très critiqué à l’époque, mais largement imité par la suite.
IPod – 1 000 chansons dans votre poche
Pour Apple, l’informatique n’a jamais consisté uniquement à faire de l’informatique. En 2001, l’entreprise commence à s’intéresser au traitement du son et de la vidéo, et plus seulement du texte et des images. En novembre de la même année, elle lance l’iPod – un baladeur capable de stocker « 1 000 chansons dans votre poche », contre au maximum 20 à 30 par cassette sur un Walkman de Sony.
L’iPod se pilote grâce à une élégante « click wheel » permettant de naviguer à l’écran. La musique est synchronisée via une nouvelle application appelée iTunes. Dès 2005, les utilisateurs s’en servent aussi pour gérer des fichiers audio téléchargés automatiquement depuis Internet grâce à un système appelé RSS. C’est ce qui donnera le « pod » de podcast.
IPhone – un ordinateur dans toutes les mains
En 2007, de nombreux fabricants de téléphones mobiles avaient approché Apple pour fusionner l’iPod avec leurs appareils. Steve Jobs choisit une autre voie. Le 9 janvier, il dévoile le produit le plus ambitieux jamais lancé par Apple : un appareil combinant téléphone, lecteur de musique et ordinateur Mac – le tout au format d’un simple combiné, sans clavier physique et doté d’un large écran.
La plupart des « experts » des médias, de TechCrunch au Guardian, prédisaient un échec. Steve Ballmer, alors PDG de Microsoft, se moquait du prix de 500 dollars, affirmant que personne n’achèterait un tel appareil. En réalité, 1,4 million d’iPhone furent vendus avant même la fin de l’année – et plus de 3 milliards depuis. Pour la première fois, un véritable ordinateur se retrouvait dans toutes les mains – ouvrant la voie aux réseaux sociaux tels que nous les connaissons aujourd’hui.
La révolution logicielle de l’App Store
À la mi-2008, l’iPhone offre à tous les développeurs la possibilité de créer une multitude vertigineuse de nouvelles applications. Dans le même temps, l’App Store – lancé le 10 juillet 2008 – résout l’un des problèmes les plus complexes : la distribution et la commercialisation de ces « apps ». Historiquement, les logiciels étaient souvent copiés et diffusés librement. L’App Store change la donne en utilisant un chiffrement robuste pour garantir que la copie achetée ne puisse être utilisée que par l’utilisateur concerné, réduisant ainsi le piratage.
En lançant le premier App Store au sens moderne du terme, Apple a transformé la manière dont les utilisateurs découvrent et achètent des logiciels. Cela déclenche une explosion du nombre d’applications et impose une idée simple mais puissante : quoi que vous souhaitiez faire, quelqu’un, quelque part, a déjà créé l’application pour le faire. Apple résume cette évolution dans un slogan devenu célèbre : « There’s an app for that » (« Il y a une application pour ça »).
À maintes reprises, cette entreprise hors norme a anticipé l’intérêt d’ouvrir l’informatique au plus grand nombre. Joyeux anniversaire, Apple !
Nick Dalton ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
30.03.2026 à 16:42
Les Mayas : des mathématiciens qui lisaient l’avenir dans les étoiles ?
Texte intégral (2154 mots)

Mille ans avant l’Europe, les Mayas résolvaient déjà des équations complexes. Armés du seul regard et d’une patience infinie, ils scrutaient le ciel et prédisaient avec précision les éclipses et les trajectoires des planètes.
Embarquons pour un voyage dans des temps reculés. Nous sommes sur les territoires des actuels Mexique, Guatemala, Bélize, Honduras et Salvador. C’est dans ce cadre luxuriant que les Mayas ont bâti un héritage extraordinaire : une astronomie stupéfiante, des mathématiques avancées, une architecture audacieuse et une écriture hiéroglyphique riche.
Ainsi, les cités mayas étaient orientées vers les astres. À Chichén Itzá (actuellement au Mexique), lors des équinoxes, les ombres sur la pyramide El Castillo semblent animer la progression du dieu serpent Kukulkan le long des marches – un phénomène comparable s’observe à El Tajín.
Les « codex », leurs traités astronomiques, sont un des rares témoignages survivants de ces savoirs. Le plus célèbre est le codex de Dresde. Son mystère est double : l’énigme de ses symboles – glyphes serrés, colonnes de chiffres, divinités codifiées – et celle de son destin.
Comment ce manuscrit du Yucatán a-t-il traversé l’Atlantique pour échouer dans une bibliothèque de Saxe ? La théorie dominante veut que l’Espagnol Hernán Cortés (1485-1547) l’ait envoyé en Europe après la conquête du Mexique, parmi les objets précieux offerts à la cour madrilène. Le manuscrit aurait circulé en Europe avant d’aboutir à Vienne, où, en 1739, le directeur de la bibliothèque royale de Dresde Johann Christian Götze le racheta à un propriétaire le jugeant « incompréhensible et sans valeur », ignorant qu’il tenait l’un des documents astronomiques les plus sophistiqués jamais produits. Götze le rapporta à Dresde, où il est toujours conservé aujourd’hui.
Mars et le secret derrière le nombre 78
Pour déchiffrer les symboles du codex, un détour s’impose. Les Mayas comptaient en base 20 : un point valait une unité, une barre cinq unités, et un coquillage représentait le zéro – concept que l’Europe n’adoptera qu’au XIᵉ siècle.
Sur la page du codex de Dresde concernent Mars et ses cycles se trouve une suite de nombres : 78, 156, 234, 312, 390, 780. Chaque terme est un multiple de 78. On observe par ailleurs que cette suite est presque une suite arithmétique (une suite telle que la différence entre deux termes consécutifs doit être égale à une constante), mais le dernier terme déroge : il vaut 10 × 78 (au lieu de 6 × 78).
Le 78 correspond à un dixième de la « période synodique » de Mars, c’est-à-dire le temps pour retrouver la même position dans le ciel, vue depuis la Terre, soit 780 jours. Les Mayas l’avaient calculée avec une précision remarquable : 780 jours contre 779,94 jours aujourd’hui. Les cinq premiers termes balisent les étapes intermédiaires, et le dernier marque le cycle complet.
Le zodiaque maya comptait 13 constellations le long de l’écliptique, et Mars met 260 jours (13 × 20) pour le parcourir. Trois traversées complètes du zodiaque maya correspondent exactement à 780 jours. Cette durée de 260 jours correspond aussi au Tzolk’in, le calendrier rituel maya, ce qui permet d’aligner parfaitement le rythme de Mars et le calendrier. Ainsi, la suite de nombres sur le codex formait une table de navigation céleste.
Les éclipses lunaires
Une autre page du codex présente une nouvelle suite de nombres : 9 360, 9 537, 9 714, 9 891, 10 039. Jusqu’à 9 891, chaque valeur augmente de 177 jours (9 183 + 177 = 9 360, 9 360 + 177 = 9 537, 9 537 + 177 = 9 714, 9 714 + 177 = 9 891). Mais ici encore, le dernier terme rompt le schéma : 10 039 = 9 891 + 148, révélant un second cycle.
Ceci n’est pas une erreur : si la période synodique de la Lune est de 29,5 jours environ, toutes les pleines lunes ne donnent pas lieu à une éclipse. L’intervalle entre deux éclipses consécutives correspond à 5 ou 6 lunaisons (soit 148 ou 177 jours).
En effet, l’orbite de la Lune est inclinée d’environ 5° : les éclipses ne se produisent qu’au voisinage d’un nœud orbital. Le Soleil y passe tous les 173,31 jours (la saison d’éclipses), et il s’écoule nécessairement 5 ou 6 lunaisons entières entre deux éclipses.
Les Mayas avaient calculé la période synodique de la Lune à 29,53 jours, à quelques secondes de la mesure moderne. Certains multiples coïncidaient avec les saisons d’éclipses, leur permettant de les anticiper.
Le système mathématique des Mayas
La sophistication mathématique des Mayas transparaît jusque dans leur quotidien. Ils pratiquaient instinctivement ce que l’on appelle aujourd’hui l’arithmétique modulaire. Le principe en est simple : plutôt que de considérer la valeur d’un nombre, l’arithmétique modulaire s’intéresse uniquement au reste qu’il laisse après division par un nombre de référence – le modulo (ici, modulo 20). Les Mayas, sans jamais employer ce vocabulaire, appliquaient précisément cette logique, et ce, bien avant que le mathématicien allemand Carl Friedrich Gauss (1777-1855) n’en pose les bases formelles au tournant du XIXᵉ siècle. Aujourd’hui, on trouve un écho de ce genre de mathématiques dans des domaines aussi contemporains que la cryptographie et la sécurité informatique.
En langage moderne, ces calculs s’interprètent comme des opérations dans l’anneau ℤ/20ℤ. Cette notion d’anneau est l’une des pierres angulaires des mathématiques contemporaines, au cœur de l’algèbre abstraite de la fin du XIXᵉ siècle. Parmi ses fondateurs figure le mathématicien Richard Dedekind (1831–1916).
Les pages du codex recèlent encore bien des zones d’ombre et de mystère. Qui sait quels secrets dorment encore dans les colonnes de glyphes du codex, attendant d’être dévoilés ?
Noémie Combe ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
29.03.2026 à 16:40
IA et métacognition : savoir quand on peut faire confiance, ou non, à la machine n’est pas toujours évident
Texte intégral (2119 mots)
Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.
Un système d’IA doit toujours être supervisé par un humain, mais encore faut-il que cette personne soit en mesure de distinguer quand elle comprend ce que propose la machine et quand elle peut être influencée.
Les cadres contemporains de gouvernance de l’intelligence artificielle (IA) reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il doit être en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent transparence, explicabilité et supervision humaine.
Sont explicitement visés les systèmes utilisés dans le recrutement et l’évaluation des travailleurs, l’accès aux prestations sociales, les décisions d’octroi de crédit, le contrôle aux frontières, l’administration de la justice, et les soins de santé critiques.
Le plan d’action des États-Unis sur l’IA appelle au maintien d’un contrôle humain significatif sur les décisions IA à conséquences importantes. Les principes de l’OCDE sur l’IA inscrivent le centrage sur l’humain au cœur de ses engagements.
Ces engagements sont nécessaires mais insuffisants. Ils portent sur ce que les systèmes d’IA doivent fournir aux opérateurs humains et laissent entièrement sans réponse la question de ce que ces derniers doivent être capables de faire pour agir sur ce qu’ils reçoivent. Cette lacune n’est pas accidentelle. C’est un angle mort structurel dans l’architecture actuelle de la gouvernance de l’IA.
Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle, et techniquement opaques – précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.
Par exemple, l’infirmier aux urgences en charge du triage aux urgences qui reçoit un score de triage produit par un système IA ne dispose pas systématiquement des explications qui l’ont généré. Le conseiller bancaire qui doit décider en quelques minutes de bloquer un compte sur la base d’une alerte de fraude automatisée travaille potentiellement avec un modèle propriétaire qu’il ne peut pas interroger. L’agent administratif qui valide l’attribution d’un logement social ou d’une prestation algorithmiquement priorisée ne peut généralement pas expliquer pourquoi un dossier a été classé avant un autre. L’enseignant qui contresigne une notation automatisée d’examen n’a pas accès aux critères qui ont produit le score. Dans chacun de ces cas, la supervision humaine est formellement présente – et substantiellement impossible.
Des opérateurs métacognitivements avertis
La métacognition – la capacité à monitorer et réguler ses propres processus cognitifs – est le substrat psychologique d’une supervision efficace. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.
La recherche en interaction humain-automatisme a documenté un ensemble de modes de défaillance qui émergent spécifiquement lorsque des humains supervisent des systèmes automatisés ou alimentés par l’IA. Le biais d’automatisation – la tendance à surpondérer les recommandations générées par la machine par rapport à son propre jugement – est l’un des résultats les plus robustes du domaine. Dans une étude fréquemment citée, les chercheurs Parasuraman et Riley ont montré en 1997 que les humains mésusent (c’est-à-dire font un mauvais usage ou utilisent de manière inadéquate ou inappropriée) systématiquement de l’automatisation en l’appliquant là où elle est peu fiable, et la délaissent là où elle serait bénéfique – deux types d’erreurs qui reflètent un défaut d’étalonnage métacognitif plutôt qu’un défaut de provision d’information. Par exemple, dans des expériences en simulateur de vol citées par ces auteurs, des pilotes équipés d’un système d’alerte automatique ont éteint un moteur en réponse à une fausse alerte – une décision qu’ils avaient eux-mêmes déclaré, avant l’expérience, ne jamais prendre sur la seule foi d’une alerte automatisée.
Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Les travaux de Kahneman sur une cognition à double processus – connu aussi sous le nom de Système 1/Système 2, les deux vitesses de pensées – éclairent ce mécanisme. Face à un système IA qui produit un output avec fluidité et assurance, l’esprit humain tend à activer un traitement rapide et intuitif (celui qu’on mobilise pour des tâches familières et peu risquées), plutôt que de réaliser une analyse profonde de la situation, plus longue, plus réfléchi, plus logique, et donc plus gourmande cognitivement.
Plus concrètement, une explication qui paraît plausible déclenche des réponses cognitives différentes d’une explication qui l’est vraiment. Lorsque les explications des systèmes d’IA sont synthétiquement fluides, numériquement précises et visuellement formatées comme des outputs faisant autorité, elles suppriment précisément le scepticisme que nécessite une supervision significative.
Peut-être de manière contre-intuitive, fournir davantage d’explications n’améliore pas de manière fiable le jugement humain des résultats d’IA. Une équipe de recherche, dans une étude expérimentale rigoureuse, a constaté que les explications produites par l’IA n’amélioraient pas systématiquement les performances de l’équipe humain-IA, et les dégradaient dans plusieurs conditions – notamment lorsque les explications étaient techniquement exactes mais cognitivement incompatibles avec la manière dont les opérateurs formaient leurs propres jugements.
Plus concrètement, sur la tâche d’analyse de sentiment, l’IA expliquait son jugement en surlignant les mots qu’elle avait identifiés comme positifs ou négatifs. Or les participants humains évaluaient le ton d’un texte de manière globale, en tenant compte du contexte et de la cohérence d’ensemble – un processus que la mise en évidence de mots individuels ne peut pas restituer. Ici, l’IA et l’humain n’arrivent pas à leur jugement par le même chemin : L’IA identifie des élements locaux (un mot, une phrase), là ou l’humain construit un jugement holiste (l’ensemble du texte, le contexte, la cohérence interne). Quand l’explication fournie reflète la logique de la machine plutôt que celle du raisonnement humain, elle ne donne pas à l’opérateur les outils pour évaluer si la recommandation est fiable – elle le convainc simplement de la suivre.
L’explicabilité est ainsi une condition nécessaire mais insuffisante d’une supervision efficace. Ce qui réduit l’écart entre les deux, c’est la maturité métacognitive.
Trois implications pour la gouvernance de l’IA
Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique – parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales –, trois implications peuvent être énoncées :
La transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans impliquer les individus dans les processus de conception de ces explications et de cette documentation et prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que « trop d’explications » peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.
La qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé.
Plus concrètement, les textes réglementaires comme l’AI Act exigent que les superviseurs humains soient « compétents », mais sans jamais définir ce que cela signifie – et en particulier, aucun référentiel n’évalue ce que les chercheurs appellent la compétence métacognitive, soit la capacité à détecter les défaillances de son propre raisonnement face à un système opaque, compétence qui relève de la formation et du contexte, pas de l’intelligence brute. Une précision importante s’impose ici. Parler de la qualification métacognitive des opérateurs ne revient pas à questionner la valeur ou l’intelligence des personnes qui supervisent des systèmes d’IA. Il ne s’agit pas non plus de classer les humains selon leur capacité à « bien penser ». La métacognition n’est ni un trait de personnalité ni un indicateur de valeur. C’est une compétence situationnelle, sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Par exemple, un chirurgien expérimenté peut présenter un excellent étalonnage métacognitif dans son domaine et être tout aussi vulnérable au biais d’automatisation qu’un débutant face à un système d’IA opaque dans un contexte pour lequel il n’a reçu aucune formation spécifique.
- Les compétences métacognitives – savoir ce qu’on comprend, détecter ses propres erreurs de raisonnement, réguler ses stratégies cognitives – varie selon les individus et n’est pas uniformément répartie au sein de la population, ce qui crée un risque structurel pour la sécurité. Il s’agit d’une hypothèse, formulée à partir de travaux menés en psychologie de l’éducation, qui n’a pas encore été étudiée dans le contexte de la gouvernance de l’IA. C’est peut-être le prochain axe de recherche que les gouvernements devraient activement encourager. En effet, si les organisations les mieux dotées en moyens matériels et en ressources humaines peuvent satisfaire aux exigences de supervision réelle, celles qui n’en n’ont pas – non pas parce que leurs personnels seraient moins capables, mais parce que les conditions permettant le développement de cette compétence situationnelle n’ont pas été réunies – produiront une conformité de façade, insuffisante, générant une fausse sécurité particulièrement dangereuse dans les domaines critiques.
Ikram Chraibi Kaadoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
27.03.2026 à 13:58
Quand le GPS devient une arme en mer : comment la guerre électronique menace les navires et leurs équipages
Texte intégral (2714 mots)

Des navires qui semblent tourner en rond, dériver à l’intérieur des terres ou apparaître soudain à des centaines de kilomètres de leur route : ces anomalies sont devenues plus fréquentes dans les zones de conflit. Elles révèlent l’essor du spoofing GPS, une menace croissante pour les systèmes de navigation maritime et pour les équipages qui en dépendent.
La guerre en Iran fait la une de l’actualité, entre frappes aériennes et montée des tensions militaires. Mais au-delà des destructions immédiates, le conflit révèle aussi une menace plus discrète, et en rapide progression : la vulnérabilité des navires – et de leurs équipages – aux perturbations de leurs systèmes de navigation.
Le transport maritime moderne repose largement sur la navigation satellitaire GPS. Lorsque ces signaux sont brouillés ou manipulés, les navires peuvent soudain apparaître, pour leur propre équipage comme pour les autres bâtiments, à un endroit où ils ne sont pas. Dans certains cas, des bateaux ont été observés en train de « sauter » d’un point à l’autre sur les cartes, dériver à des kilomètres à l’intérieur des terres ou semblant tourner en rond selon des trajectoires impossibles. Dans les zones de guerre, ce risque est encore plus élevé : un navire peut alors être dévié de sa route et se retrouver, sans le savoir, en plein danger.
En tant que chercheur en cybersécurité spécialisé dans les infrastructures critiques et les systèmes maritimes, j’étudie la manière dont les menaces numériques affectent les navires et les personnes qui les exploitent.
Pour comprendre les risques liés aux perturbations du GPS, il faut d’abord comprendre comment fonctionne ce système. Le GPS détermine une position à partir de signaux envoyés par des satellites en orbite autour de la Terre. Un récepteur calcule sa localisation en mesurant le temps que ces signaux mettent à lui parvenir. Or, lorsqu’ils atteignent la surface de la Terre, ces signaux sont extrêmement faibles, ce qui les rend relativement faciles à brouiller ou à manipuler.
Brouillage et usurpation du GPS
Dans le cas du brouillage GPS (dit « jamming »), un attaquant neutralise les véritables signaux satellites en les noyant sous un bruit électromagnétique. Les récepteurs ne parviennent alors plus à les capter et les systèmes de navigation perdent leur position. Sur un téléphone, cela peut se traduire par une carte qui se fige ou par une localisation qui saute de manière erratique.
L’usurpation GPS (ou « spoofing ») est plus sophistiquée. Au lieu de bloquer les signaux, l’attaquant émet de faux signaux satellites imitant les vrais. Le récepteur les accepte et calcule alors une position erronée. C’est comme si vous rouliez vers le nord alors que votre GPS affirme soudain que vous partez vers le sud. Le récepteur ne dysfonctionne pas : il a simplement été trompé.
Pour les marins, le spoofing peut avoir de graves conséquences. En pleine mer, il existe peu de repères permettant de vérifier la position d’un navire lorsque le GPS se comporte de manière étrange. Près des côtes, on ne dispose plus de la moindre marge d’erreur : les profondeurs varient rapidement et les dangers sont nombreux, en particulier dans des passages étroits comme le détroit d’Ormuz, près de l’Iran, où des opérations de spoofing GPS sont signalés depuis le début de la guerre. Or les navires sont massifs et manœuvrent lentement : même de petites erreurs de navigation peuvent provoquer des échouements ou des collisions.
Un échouement en mer Rouge
Un exemple marquant s’est produit en mai 2025. Alors qu’il transitait par la mer Rouge, le porte-conteneurs MSC Antonia a commencé à afficher des positions très éloignées de sa localisation réelle. Pour les navigateurs à bord, le navire semblait avoir soudain « sauté » de plusieurs centaines de kilomètres vers le sud sur la carte et se mettre à suivre une nouvelle trajectoire. Désorienté, l’équipage a fini par perdre le contrôle de la situation, et le navire s’est échoué. L’incident a causé plusieurs millions de dollars de dégâts et nécessité une opération de renflouement qui a duré plus de cinq semaines.
L’incident du MSC Antonia est loin d’être un cas isolé. Les données de suivi maritime ont mis en évidence des groupes de navires apparaissant soudain dans des positions impossibles, parfois loin à l’intérieur des terres ou décrivant des cercles parfaits sur les cartes. Des anomalies de plus en plus souvent attribuées à des opérations de spoofing GPS dans des zones de fortes tensions géopolitiques.
Mais les interférences GPS ne sont qu’une facette des menaces numériques qui pèsent désormais sur le transport maritime. Des rapports du secteur font état d’attaques par rançongiciel visant des compagnies maritimes, de compromissions de chaînes d’approvisionnement et d’inquiétudes croissantes autour de la sécurité des systèmes de contrôle embarqués, qu’il s’agisse des moteurs, de la propulsion ou des équipements de navigation. Plus les navires sont connectés – via l’internet satellitaire et des outils de surveillance à distance –, plus les points d’entrée potentiels pour les cyberattaques sont nombreux.
Les navires militaires tentent souvent de réduire ces risques en mettant en place une séparation plus stricte des réseaux informatiques et en organisant régulièrement des exercices d’entraînement, comme les simulations dites de « mission control », qui consistent à opérer malgré des systèmes de communication ou de navigation dégradés. Certains experts en cybersécurité estiment que des pratiques similaires pourraient renforcer la résilience du transport maritime commercial, même si la taille réduite des équipages et les ressources limitées rendent l’adoption de procédures inspirées du monde militaire plus difficile.
L’expérience des marins
Dans le débat public sur la cybersécurité maritime, l’attention se porte souvent sur les failles techniques des systèmes embarqués. Mais une autre dimension est tout aussi essentielle : les femmes et les hommes qui doivent interpréter ces technologies et réagir lorsque quelque chose tourne mal.
Dans une étude récente, mes collègues et moi avons interrogé des marins professionnels sur leur expérience des incidents cyber et sur leur capacité à y faire face. Les entretiens ont été menés avec des officiers de navigation, des ingénieurs et d’autres membres d’équipage responsables des systèmes du navire. Un constat s’en dégage clairement : les menaces numériques se multiplient en mer, mais les équipages sont mal préparés pour y répondre.
Beaucoup de marins nous ont expliqué que leur formation à la cybersécurité se concentrait presque exclusivement sur le phishing par e-mail et l’usage de clés USB. Une approche qui peut avoir du sens dans un environnement de bureau, mais qui prépare très peu aux incidents cyber à bord d’un navire, où les systèmes de navigation et de contrôle peuvent devenir les principales cibles. Résultat : de nombreux marins manquent de repères clairs pour comprendre comment une cyberattaque pourrait affecter les équipements dont ils dépendent au quotidien.
Le problème apparaît lorsque les systèmes du navire commencent à se comporter de manière anormale. Plusieurs marins ont ainsi raconté avoir vu le GPS afficher des positions erronées ou perdre momentanément le signal. Dans ces situations, il est souvent difficile de savoir s’il s’agit d’une simple panne technique ou du signe d’une interférence malveillante.
Et même lorsque l’équipage soupçonne un problème, de nombreux navires ne disposent pas de procédures claires pour faire face à un incident cyber. Les marins décrivent fréquemment des situations où ils devraient improviser si les systèmes de navigation ou d’autres outils numériques se comportaient de façon inattendue. Contrairement aux pannes matérielles, qui s’accompagnent généralement de listes de vérification et de protocoles bien établis, les incidents cyber se situent souvent dans une zone grise où les responsabilités et les réponses à apporter restent floues.
Un autre défi tient à la disparition progressive des pratiques traditionnelles de navigation. Pendant des siècles, les marins s’appuyaient sur les cartes papier et la navigation astronomique pour déterminer leur position. Aujourd’hui, la plupart des navires commerciaux dépendent presque entièrement de systèmes électroniques.
Plusieurs marins ont ainsi souligné que les cartes papier ne sont plus toujours disponibles à bord et que la navigation céleste est très rarement pratiquée. Si le GPS ou les systèmes de navigation électroniques cessent de fonctionner, les équipages disposent donc de peu de moyens pour vérifier indépendamment leur position. L’un des marins interrogés résume brutalement le risque : « Sans cartes, si vous êtes victime de spoofing, vous êtes un peu fichus. »
Une connectivité croissante, des risques accrus
Dans le même temps, les navires sont de plus en plus connectés. Les bâtiments modernes s’appuient désormais largement sur l’internet satellitaire – notamment des systèmes comme Starlink – ainsi que sur des outils de surveillance à distance pour gérer leurs opérations et communiquer avec la terre.
Si ces technologies améliorent l’efficacité, elles élargissent aussi les vulnérabilités des systèmes embarqués. La connectivité qui permet aux équipages d’envoyer des e-mails ou d’accéder à internet peut également ouvrir des voies d’accès aux cybermenaces vers les systèmes du navire.
À mesure que le spoofing GPS se multiplie dans les régions marquées par des tensions géopolitiques, les difficultés décrites par les marins dans notre étude deviennent de plus en plus difficiles à ignorer. Les océans peuvent sembler vastes et vides, mais les signaux numériques qui guident les navires modernes circulent dans un espace saturé et disputé.
Lorsque ces signaux sont manipulés, les conséquences ne se limitent pas aux systèmes militaires. Elles touchent aussi les navires commerciaux qui transportent l’essentiel des marchandises mondiales, ainsi que les équipages chargés de les conduire en toute sécurité.
Anna Raymaker a reçu des financements de la National Science Foundation et du Department of Energy pour ses travaux de recherche.
26.03.2026 à 15:44
Qu’est-ce que l’« IA agentique » ? Comprendre son histoire pour dépasser l’effet de mode
Texte intégral (1555 mots)
Réserver un voyage en comparant des centaines d’offres, rédiger un rapport à partir de plusieurs documents, analyser des données médicales ou corriger automatiquement un programme informatique : ces tâches exigent de la réflexion, de la méthode et des compétences variées. L’« IA agentique » promet désormais de les accomplir de manière autonome, en orchestrant les opérations nécessaires, en utilisant des outils et en corrigeant ses propres erreurs… Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’« agent autonome » tel qu’il a été élaboré dans les décennies précédentes.
Le cabinet Gartner a présenté 2026 comme l’année des « agents IA ». Ces systèmes dépassent la simple amélioration des assistants conversationnels. Les agents IA d’OpenClaw sont d’ores et déjà capables de dialoguer entre eux et d’exécuter des tâches complexes avec une supervision humaine limitée. Pour les entreprises, que ce soit dans l’industrie, l’administration ou la santé, la promesse est celle d’une automatisation plus souple qu’avec les logiciels traditionnels, capable de s’adapter à des situations variées plutôt que d’appliquer des règles prédéfinies.
Pourtant, derrière l’apparente nouveauté se cache une histoire plus ancienne. L’IA agentique s’inscrit dans la continuité de plusieurs décennies de recherche sur les agents autonomes et les systèmes multi-agents. Ce qui change aujourd’hui, ce sont les outils, notamment les grands modèles de langage et leur capacité à interagir plus naturellement avec les humains.
De la génération de texte à l’action
Les modèles conversationnels, comme ChatGPT, Gemini ou Claude, impressionnent par leur aptitude à résumer ou à rédiger des textes complexes. Pris isolément, ils restent toutefois essentiellement réactifs : ils produisent une réponse en fonction d’une requête. Un agent autonome va plus loin. Il peut analyser une demande, planifier une séquence d’opérations, utiliser des outils externes (moteur de recherche, base de données, logiciel), évaluer le résultat obtenu et ajuster sa stratégie si nécessaire.
Là où un modèle de langue se limite à écrire un programme informatique, un agent peut l’exécuter dans un environnement sécurisé, observer les erreurs éventuelles, corriger le code, puis le tester à nouveau. En somme, les agents IA ne font pas que parler, ils agissent.
Le passage de la génération de texte à l’action transforme la nature même du logiciel. Alors qu’un programme suit des instructions précisément définies à l’avance, un agent autonome peut, lui, adapter dynamiquement ses décisions en fonction du contexte, des résultats obtenus et des objectifs fixés. Il ne remplace pas nécessairement l’humain, mais modifie la répartition des tâches entre supervision et exécution.
Promesses et risques
Cette évolution ouvre des perspectives considérables. Dans les organisations, des agents peuvent automatiser des processus métiers laborieux. Dans l’industrie, ils peuvent coordonner des systèmes logiciels complexes. Dans le domaine médical, ils peuvent analyser des dossiers, rechercher des publications pertinentes et proposer des synthèses pour assister les médecins. Mais ces promesses s’accompagnent de risques.
En effet, les modèles actuels peuvent produire des informations inexactes, les fameuses hallucinations, et sont susceptibles de reproduire des biais présents dans leurs données d’entraînement. Si les agents sont cantonnés à un rôle d’assistant, ces limites sont déjà problématiques ; elles deviennent critiques lorsqu’elles concernent des systèmes capables d’agir sur des infrastructures techniques, notamment en exécutant des commandes système, en manipulant des fichiers ou en envoyant des requêtes réseau.
La question des agents d’IA n’est donc pas seulement technique : elle est aussi juridique, économique et sociétale. Elle touche à la transformation du travail qualifié et à la gouvernance des systèmes informatiques.
Une filiation historique
L’idée d’un agent autonome n’est pas née avec les modèles de langue. Elle remonte aux origines mêmes de l’intelligence artificielle. En 1956, lors de la conférence fondatrice de Dartmouth (au nord-est des États-Unis), l’un de ses organisateurs, Marvin Minsky, définissait déjà l’IA comme la conception de programmes capables d’accomplir des tâches mobilisant des capacités dites intelligentes telles que comprendre, apprendre, raisonner ou décider.
À partir des années 1980, la notion d’« agent intelligent » devient centrale. Un « agent » est alors défini comme un programme capable de percevoir son environnement, de prendre des décisions et d’agir pour atteindre des objectifs. Très tôt, les chercheurs développent le champ des systèmes multi-agents : des ensembles organisés de programmes autonomes qui interagissent dans un même environnement numérique. L’objectif est de comprendre comment ces entités peuvent se coordonner, coopérer ou entrer en compétition afin de résoudre des problèmes complexes.
Plusieurs travaux emblématiques illustrent concrètement cette approche. Le système HEARSAY-II repose sur un modèle de « tableau noir ». Plusieurs modules spécialisés pour la reconnaissance, l’analyse et l’interprétation du langage contribuent à la compréhension de la parole en partageant leurs hypothèses dans un espace commun structuré. Le Contract Net Protocol propose un mécanisme inspiré des appels d’offres : pour réaliser une tâche, un agent émet un appel à proposition, d’autres agents proposent leurs services, et les plus compétents se voient attribuer le contrat. Autrement dit la coordination entre agents est au cœur de l’IA depuis plusieurs décennies.
Un réservoir d’idées encore sous-exploité
Mais si l’idée d’agent n’est pas nouvelle, l’« IA agentique » s’impose aujourd’hui auprès des non-spécialistes en raison du rôle central joué par les grands modèles de langue. Bien que dénués de compréhension causale et de compréhension du monde physique, ceux-ci fournissent aux agents une capacité linguistique et une forme de « sens commun » statistique qui facilitent l’interaction avec les humains et l’interprétation d’instructions complexes en langage naturel.
Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’agent autonome tel qu’il a été élaboré dans les décennies précédentes. Dans la pratique, elle repose encore le plus souvent sur une séquence d’actions où chaque étape est prévue et ordonnée à l’avance. Les travaux menés depuis les années 1990 sur les systèmes multi-agents qui portent sur la coopération, la négociation, l’allocation de tâches et l’adaptation collective offrent un réservoir d’idées encore largement sous-exploitées.
L’intégration de ces mécanismes avec les capacités des grands modèles ouvre pour demain des perspectives nouvelles : des agents capables non seulement d’exécuter un plan mais de s’organiser collectivement, de se spécialiser et de s’adapter à des environnements complexes.
L’IA agentique constitue ainsi une nouvelle étape plutôt qu’une rupture. Elle associe l’héritage théorique des systèmes multi-agents à la puissance récente des modèles génératifs. Comprendre cette filiation historique permet de dépasser l’effet de mode. L’IA agentique représente une tentative de transformer des modèles prédictifs en systèmes capables d’agir, de planifier et, peut-être demain, de s’organiser collectivement dans des environnements complexes.
Maxime MORGE a reçu des financements de Lyon 1 Université et CNRS, .
25.03.2026 à 17:07
La science est-elle malade de ses revues ? Patrick Couvreur et Justine Fabre sont dans la Grande Conversation
Lire plus (319 mots)
Comment fonctionne vraiment l’édition scientifique ? Modèles économiques, poids des grands éditeurs, fraudes, évaluation des articles, open access, voie diamant : cette Grande Conversation, l'émission de The Conversation et CanalChat en partenariat avec l'Académie des sciences, propose de lever le voile sur un univers méconnu du grand public, mais décisif pour l’avenir de la recherche.
Les chercheurs produisent les articles, évaluent souvent bénévolement ceux de leurs pairs et contribuent à la mise en forme des publications. Pourtant, la diffusion de ces travaux est contrôlée par des éditeurs commerciaux. Avec la montée de l’open access, un nouveau modèle s’est imposé : les APC, les frais de publication que les chercheurs ou leurs institutions doivent payer pour rendre leurs articles accessibles.
Résultat : le système combine désormais deux logiques payantes. Les institutions continuent de payer des abonnements, tout en finançant de plus en plus les APC. En France, ces frais de pourraient dépasser 50 millions d’ici 2030. À cela s’ajoutent près de 90 millions d’euros d’abonnements aux revues. Économiquement insoutenable…
Des solutions existent, comme le modèle de publication scientifique en libre de l'Académie des Sciences et du CNRS, gratuit pour les auteurs comme pour les lecteurs. Mais elles tardent à se généraliser. Pourquoi? Quelles sont les logiques qui poussent les chercheurs à continuer de jouer le jeu des APC? Comment peut-on promouvoir l'open access? Nos deux invités, le chercheur Patrick Couvreur et la directrice du Patrimoine et des Ressources scientifiques de l'Académie des Sciences Justine Fabre, nous aident à y voir plus clair dans ce nouvel épisode de La Grande Conversation.
25.03.2026 à 15:27
IA : pourquoi former une « tête bien faite » n’a jamais été aussi crucial
Texte intégral (1580 mots)
Alors que l’intelligence artificielle générative produit des textes, des images et des raisonnements toujours plus convaincants, une question éducative essentielle émerge : que signifie encore comprendre ? À l’ère de la surcharge informationnelle, former une « tête bien faite » ne consiste plus à accumuler des savoirs, mais à apprendre à juger de leur profondeur, de leur validité et de leur inscription dans le réel.
Des étudiants peuvent rendre aujourd’hui des travaux irréprochables sur la forme : structurés, argumentés, parfois brillants. Pourtant, lorsqu’on les interroge, un malaise affleure. Ils peinent à expliquer ce qu’ils ont réellement compris, à justifier leurs choix, à relier ce qu’ils ont produit à une expérience vécue ou à une situation concrète. L’intelligence artificielle (IA) générative n’est pas toujours la cause directe de cette situation, mais elle en est un révélateur puissant. Car si produire de l’information n’a jamais été aussi simple, comprendre ce que l’on fait n’a jamais été aussi exigeant.
Connaître, savoir, comprendre : une distinction devenue centrale
À l’ère de l’IA, la question éducative ne peut plus être pensée en termes d’accumulation de connaissances. Elle impose de clarifier ce que l’on entend par connaître, savoir et comprendre, et d’interroger la manière dont ces dimensions s’articulent dans les processus d’apprentissage.
Deux grandes traditions épistémologiques permettent d’éclairer cette distinction. Le scientifique Michael Polanyi a montré que toute connaissance humaine comporte une part irréductiblement tacite : elle est enracinée dans l’expérience, l’action et l’engagement du sujet. « Nous savons plus que ce que nous pouvons dire », écrit-il, soulignant que la compréhension précède souvent sa formulation explicite. Cette connaissance en acte, souvent implicite, se construit dans le faire, l’essai, l’erreur et la confrontation au réel.
À l’inverse, le philosophe Gaston Bachelard a établi que le savoir scientifique ne procède pas d’un simple prolongement de l’expérience. Il exige une rupture avec les évidences premières et avec l’opinion, au prix d’un travail de construction rationnelle, critique et abstraite. « La science ne procède pas de l’opinion », rappelait-il, insistant sur la nécessité de former l’esprit à poser des problèmes plutôt qu’à accumuler des réponses.
Former une « tête bien faite », ce n’est donc ni accumuler des savoirs abstraits, ni se contenter d’une expérience brute. C’est apprendre à tenir ensemble ces deux dimensions : l’expérience vécue et la construction conceptuelle, l’action et la réflexivité.
Ce que l’IA sait faire – et ce qu’elle ne peut pas faire
Les systèmes d’intelligence artificielle excellent précisément là où le savoir est formalisable : calcul, synthèse, reproduction, mise en forme. Ils prennent en charge une part croissante du savoir explicite, stabilisé, calculable. Mais ils opèrent dans un régime spécifique : celui de la corrélation statistique et de la production d’énoncés plausibles.
L’IA ne connaît pas le monde, elle ne le comprend pas. Elle n’a ni expérience, ni rapport incarné au réel, ni accès aux conditions de pluralisme des phénomènes qu’elle décrit. L’information qu’elle génère est par nature probabiliste – elle repose sur des calculs de vraisemblance issus de corrélations statistiques plutôt que sur une compréhension des causes, contingente – elle dépend des données, des contextes d’énonciation et des paramètres techniques, et révisables – en ce sens qu’elle peut être corrigée, contredite ou reformulée à tout moment sans que cela n’implique une progression interne de la compréhension.
Cette distinction est aujourd’hui au cœur des travaux contemporains sur les usages éducatifs de l’IA, qui montrent que l’automatisation de certaines tâches cognitives peut, si elle est mal encadrée, appauvrir l’exercice du jugement critique.
Plus les productions de l’IA deviennent convaincantes, plus le risque est grand de confondre cohérence formelle et compréhension réelle, à savoir paraître véridique en lieu et place d’un énoncé prudent et ouvrant le dialogue.
Mesurer la complexité : une compétence qui s’apprend
Face à cette situation, un enjeu éducatif majeur émerge : la capacité à mesurer la complexité des choses. Distinguer ce qui relève de la surface informationnelle de ce qui engage une compréhension structurée. Apprécier les niveaux de profondeur d’un problème, d’un système ou d’une situation.
Or cette capacité ne se décrète pas. Elle se construit progressivement par l’expérience du réel. Elle suppose un travail actif de confrontation entre ce que l’on anticipe théoriquement et ce que révèle l’épreuve de la réalisation concrète. C’est dans l’écart, toujours instructif, entre le modèle et l’expérience que s’affinent les critères de jugement et que se développe une intelligence véritablement située, au sens où elle articule savoir formalisé et connaissance vécue.
Le savoir ne devient opérant qu’à condition d’être éprouvé, mis en tension avec le réel, réajusté à la lumière de ses résistances et de ses surprises. Inversement, l’expérience brute, si elle n’est pas reprise dans un cadre réflexif et conceptuel, demeure muette et difficilement transmissible. La formation doit donc organiser les conditions de cette circulation exigeante entre théorie et pratique, abstraction et incarnation.
Une révolution pédagogique autant que technologique
L’intelligence artificielle ne transforme pas seulement nos outils. Elle intervient au cœur même des fonctions cognitives supérieures : mémoire externalisée, accès instantané à l’information, génération de raisonnements apparents. Là où les technologies précédentes amplifiaient des capacités humaines déjà constituées, l’IA en reconfigure désormais l’équilibre.
L’enjeu éducatif se déplace en conséquence. Il ne s’agit plus principalement d’apprendre à produire ou à restituer de l’information mais d’apprendre à en évaluer la profondeur, la cohérence, les conditions de validité et les effets dans le réel. Cette mutation rejoint les analyses du sociologue Edgar Morin sur la pensée complexe, qui soulignent la nécessité de former des esprits capables de relier, de contextualiser et d’affronter l’incertitude plutôt que de réduire le réel à des réponses simplifiées.
Des travaux récents en sciences cognitives et en sciences de l’éducation montrent d’ailleurs que l’usage substitutif de l’IA peut conduire à une forme de délégation cognitive excessive, réduisant l’engagement intellectuel et la mémorisation à long terme, là où un usage réflexif et critique peut au contraire renforcer l’apprentissage.
Former des ingénieurs – et des citoyens – capables de juger
Former une tête bien faite à l’ère de l’IA implique ainsi de ne pas confondre délégation cognitive et renoncement intellectuel. Il s’agit de former des sujets capables de faire usage de systèmes puissants sans s’y soumettre, capables de maintenir une exigence de sens là où la machine ne produit que de la forme.
Chez IONIS, le développement des IONIS Institute of Technology (I2T) sur nos campus procède d’une conviction forte : si nos étudiants ingénieurs doivent maîtriser les technologies de l’intelligence artificielle, ils doivent tout autant apprendre à en éprouver les limites par la confrontation au réel. Le laboratoire, l’atelier et l’expérimentation deviennent alors des lieux centraux de formation du jugement.
Former de bons ingénieurs – et plus largement des citoyens éclairés – consiste à cultiver un esprit critique, mesuré et évolutif, nourri par l’expérience concrète, le faire et le défaire. À l’ère de l’IA, la question essentielle n’est donc pas seulement ce que nous attendons de la machine mais bien ce que nous attendons de l’humain : sa capacité à comprendre, à créer et à décider avec discernement dans des environnements incertains et technologiquement augmentés.
Clément Duhart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.03.2026 à 16:09
Après plus d’un demi-siècle, les astronomes percent les secrets d’une étoile mystérieuse
Texte intégral (2465 mots)

Découverte au début du XXe siècle, l’étoile Gamma Cassiopeiae a posé plusieurs énigmes aux astronomes. Si on comprend mieux aujourd’hui son fonctionnement, elle ouvre un pan insoupçonné du fonctionnement des astres.
Observer une étoile, voilà qui semble plutôt banal en astronomie. Aujourd’hui, on imagine davantage les énigmes cosmiques tapies dans les premiers instants de l’Univers ou sous les nuages des exoplanètes. Pourtant, une étoile visible chaque nuit recèle un mystère, enfin élucidé après cinquante ans de recherches !
Cet astre se cache au cœur de Cassiopée, une constellation en forme de W ou de M, selon son orientation cette nuit-là, et visible toute la nuit et toute l’année. Gamma Cassiopeiae – c’est son nom – est aussi appelée Navi, clin d’œil de l’astronaute Gus Grissom (Navi correspond à son deuxième prénom, Ivan à l’envers, qu’il utilisait pour la navigation). Peu connue du grand public, c’est pourtant une vedette pour les astronomes.
Il y a cent vingt ans, l’astronome italien Angelo Secchi pointe sa lunette vers cet astre pour en étudier le spectre. Le spectre d’une étoile, en général, ressemble à un arc-en-ciel, au sein duquel des raies noires apparaissent : elles correspondent aux couleurs absorbées par les différents éléments qui composent l’atmosphère de l’étoile. On peut donc retrouver sa composition en étudiant ces raies. Mais Secchi y repère une chose étrange : des raies brillantes, qui correspondent plutôt à la lumière émise, et non absorbée, par de l’hydrogène.
Une étoile pleine de mystères
Ce premier mystère a mis soixante-cinq ans à être résolu. L’astronome Otto Struve explique en 1931 que ces émissions inhabituelles naissent dans un disque de matière entourant l’étoile. On aurait pu croire observer ce que l’on appelle un disque d’accrétion, un disque de poussière et de gaz entourant les étoiles jeunes, à partir duquel se forment l’étoile et ses planètes. Mais ici, il s’agit en réalité d’un disque de décrétion, alimenté par de la matière éjectée par l’étoile ! Gamma Cassiopeiae (Gamma Cas) devint alors le prototype d’une nouvelle famille, celles des étoiles dites « Be », des étoiles chaudes qui émettent de la matière. Ce groupe rassemble en fait une bonne fraction des étoiles chaudes de type B. Beaucoup d’astronomes amateurs les prennent pour cible pour suivre leurs variations, au gré de l’évaporation ou de la reconstruction de leur disque.
Cependant, on découvrit il y a cinquante ans que Gamma Cas, le prototype, n’était pas si représentatif de sa famille ! En 1976, le satellite SAS-3, l’un des premiers télescopes spatiaux à observer dans le domaine des rayons X, détecta en effet une émission énergétique en provenance de Gamma Cas. Normalement, les émissions de rayons X des étoiles massives sont assez stables et peu intenses, représentant seulement un dix-millionième de leurs émissions totales. Elles proviennent de matière chauffée à seulement 5 millions de degrés. Gamma Cas, elle, brille 40 fois plus intensément, son émission de rayons X varie fortement en quelques minutes, voire en quelques secondes, et la température associée à ces émissions est estimée à 150 millions de degrés, provoquant une ionisation extrême de la matière.
L’étoile présente de plus des signatures de fluorescence, un phénomène qui se produit quand de la matière froide absorbe de la lumière (ici, des rayons X) puis la réémet à une fréquence légèrement différente – de nouveau, quelque chose de totalement inédit pour les étoiles massives.
Gamma Cas, la seule de son espèce ?
Au fil des ans, et surtout durant ces vingt dernières années, les télescopes spatiaux Chandra, XMM-Newton, et e-ROSITA ont repéré deux douzaines d’objets similaires à Gamma Cas : tous de type Be, tous dotés d’une émission X inhabituelle et parfaitement ordinaires par ailleurs. Environ 10 % des étoiles Be les plus massives semblent concernées. Ce n’est donc plus une curiosité, mais bien un phénomène astrophysique à part entière !
Bien sûr, les astronomes ont voulu expliquer ces propriétés étranges. Deux hypothèses principales ont été formulées : ces émissions, c’est soit de la faute de l’étoile, soit de celle d’un compagnon, c’est-à-dire un autre astre accompagnant l’étoile – ce qui ne serait pas surprenant, la plupart des étoiles massives vivant en couple ou en trio. Dans le premier cas, des rayons X naîtraient de l’interaction entre le champ magnétique de l’étoile et celui de son disque. Ce seraient des événements rapides et énergétiques, et la fluorescence serait alors provoquée par des rayons X se réfléchissant sur le disque autour de l’étoile.
Dans le second cas, il faut évidemment un compagnon. Or, les astronomes estiment aujourd’hui que les étoiles Be naissent justement à la suite d’interactions au sein de couples stellaires. D’ailleurs, Gamma Cas possède bien un compagnon, de masse similaire au Soleil. Au départ, Gamma Cas était une étoile bien moins massive, mais son compagnon lui a transféré de la matière, ce qui l’a fait grossir et tourner beaucoup plus vite. Dans le même temps, le compagnon, lui, est devenu compact. S’il s’agit d’un cœur stellaire dénudé (une stripped star, étoile ayant perdu ses couches externes lors du transfert de matière), il pourrait émettre un vent qui entrerait en collision avec le disque de décrétion, le choc générant des rayons X.
Hélas, les observations contredisent les prédictions de ce modèle, qui a dû être abandonné. Si le compagnon est une étoile à neutrons ou une naine blanche, il pourrait attirer la matière du disque et celle-ci, en tombant vers lui, générerait des émissions X. Pour le cas de l’étoile à neutrons, les calculs précis entrent ici aussi en conflit avec les observations. Restent donc deux scénarios : les rayons X sont produits près de l’étoile massive ou bien près du compagnon de type naine blanche.
Un nouveau satellite nous donne la clé du mystère
Pour trancher, il faut mesurer le mouvement imprimé dans l’émission X. En effet, dans un couple stellaire, aucun repos : les deux astres se tournent autour dans une valse (quasi) éternelle. L’un s’approche quand l’autre s’éloigne mais l’étoile, dix fois plus massive que son compagnon, bouge dix fois moins. L’émission X est soit liée à l’étoile Be et donc bouge comme elle, soit liée au compagnon et donc bouge comme lui. Facile par conséquent de faire la différence ? En théorie oui, mais en pratique, moins, car les instruments en rayons X manquaient jusqu’ici de précision.
C’est là qu’intervient XRISM, fleuron de l’Agence spatiale japonaise, JAXA. Lancé fin 2023, ce satellite embarque un instrument, baptisé Resolve, très particulier : il est capable de mesurer la lumière un photon à la fois et, ainsi, de fournir des caractéristiques sur sa cible, notamment sa vitesse, avec une précision inégalée.
XRISM a visé Gamma Cas trois fois, en décembre 2024, février et juin 2025, à chaque fois pendant une demi-journée environ. Trois mesures à trois moments clés du mouvement orbital. Verdict : les rayons X du gaz ultra chaud tout comme la fluorescence associée au gaz plus froid suivent le mouvement d’un compagnon stellaire. Après un demi-siècle, les astronomes percent donc enfin le secret de ces rayons X inattendus.
Mystère résolu ? Oui et non. Depuis des décennies, on prévoit que des étoiles de type Be soient associées à des naines blanches, mais on n’en avait encore trouvé aucune qui ne fasse pas débat dans notre galaxie. XRISM révèle enfin où elles se cachent : chez Gamma Cas et ses semblables.
Cependant, les modèles prédisaient aussi que ces naines blanches devaient être non seulement nombreuses (elles accompagneraient de 30 à 50 % des étoiles Be), mais aussi préférentiellement associées aux étoiles Be de faible masse. On en trouve ici une fraction plus modeste (10 %) et plutôt chez des étoiles de masse élevée. Clairement, les interactions dans les systèmes binaires ne sont pas encore complètement comprises. Nous n’avons donc pas fini d’entendre parler de Gamma Cas et de ses cousines !
Yaël Nazé ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.03.2026 à 15:39
Fusion nucléaire : un nouveau seuil dépassé dans le plus grand tokamak chinois
Texte intégral (1351 mots)

Le chemin vers la fusion thermonucléaire est long et semé d’embûches. Une des nombreuses étapes a récemment été franchie dans le plus grand tokamak chinois, EAST, où la limite de densité de plasma qui était observée jusque-là a été dépassée.
Dans un tokamak (un type de machine expérimentale conçue pour exploiter l'énergie de la fusion), le plasma est le milieu où se produisent les réactions de fusion nucléaire. Plus celui-ci est dense, plus les atomes se rencontrent et ont de chance de fusionner et de libérer de l’énergie. L’expérience récente a produit des densités de 30 % à 65 % plus élevées que celles normalement atteintes dans cette machine, sans déclencher les instabilités perturbatrices qui se produisent généralement lorsque la limite de densité du plasma est dépassée.
Cette étude, co-dirigée par Ping Zhu et Ning Yan, que j’ai contribuée à interpréter, a été publiée début janvier dans la revue Science Advances et reprise par la revue Nature. Un point particulièrement prometteur est que cette avancée a une base théorique, que j’avais développée et publiée avec d’autres collègues quatre ans auparavant. En confirmant plusieurs de ses prédictions, l’expérience soutient la théorie, ce qui ouvre la voie à d’autres améliorations.
Pourquoi cette avancée est importante
Le réchauffement climatique, la pollution de l’air, la géopolitique de l’énergie et le caractère intermittent des énergies renouvelables rendent urgent le développement de nouvelles centrales électriques à fonctionnement continu. Dans ce cadre, les atouts majeurs de la fusion thermonucléaire sont le fait que ses cendres et son combustible sont non radioactifs, ainsi que la vaste répartition mondiale de ce dernier et l’absence de risque d’accident nucléaire. Et c’est pourquoi, la communauté scientifique travaille depuis des décennies dans un esprit de collaboration à l’échelle mondiale (remarquablement, malgré la guerre en Ukraine, la Russie participe toujours au projet ITER).
Les recherches sur la fusion thermonucléaire contrôlée ont connu récemment une forte accélération grâce au projet de réacteur international de démonstration ITER – et aussi parce que davantage d’argent privé que public est investi dans ce type de recherche au niveau mondial depuis 2023.
Comme on l’a vu, une des contraintes ralentissant cette entreprise est l’existence d’une limite de densité du plasma dans les expériences réalisées jusqu’à présent : avec des densités de plasma trop faibles, les réactions nucléaires ont lieu trop peu souvent pour générer de l’énergie en quantité importante.
À cause de ce problème, les réacteurs tokamaks en projet sont gigantesques : ceci permet aux ions du plasma d’avoir plus de temps pour entrer en collision avant de s’échapper. ITER, par exemple, fait 23 000 tonnes pour 29 mètres de haut et 28 mètres de diamètre. Aussi, aujourd’hui, un des grands défis de la fusion thermonucléaire est de réaliser un réacteur plus petit, qui soit donc moins cher et plus robuste. Or, jusqu’à présent, nous étions coincés, car nous n’arrivions pas à dépasser expérimentalement une densité, apparemment limite, du plasma.
En 2021, mes collègues Fabio Sattin, Paolo Zanca et moi-même avions proposé une base théorique prédisant deux régimes d’auto-organisation plasma-paroi : le régime habituel où la densité de plasma est limitée et un autre régime sans limite de densité. Nous expliquions que ce régime pourrait être atteint en diminuant la quantité d’impuretés projetées par les parois, dues à leur bombardement par les ions du plasma. Nous suggérions à cette fin de démarrer le plasma en utilisant la stratégie utilisée pour le démarrage d’un autre type d’installation destinée à faire de la fusion thermonucléaire, les « stellarators ».
Cette stratégie a été appliquée avec succès dans EAST, où le régime sans limite de densité a été atteint, confirmant ainsi les résultats expérimentaux obtenus au sein du tokamak chinois J-TEXT annoncés en 2023 à la Fusion Energy Conference de l’AIEA à Londres (Royaume-uni).
Plus précisément, les expériences sur EAST ont combiné le contrôle de la pression initiale du gaz combustible avec un chauffage par résonance cyclotronique électronique pendant la phase de démarrage (ces deux facteurs combinés correspondent aux décharges stellarators), permettant une efficace diminution des interactions plasma-paroi dès le début de la décharge. Grâce à cette approche, l’accumulation d’impuretés et les pertes d’énergie ont été considérablement réduites, et le plasma atteint une densité élevée à la fin du démarrage. De plus, décharge après décharge, une diminution de la quantité d’impuretés a accompagné l’augmentation de la limite. Malheureusement, l’allocation maximale de temps expérimental n’a pas permis de voir jusqu’où pouvait aller cette nette amélioration… mais on peut donc espérer qu’elle se poursuive dans de futures expériences.
Quelles sont les suites de ces travaux ?
L’équipe de recherche d’EAST prévoit donc d’appliquer à nouveau cette méthode lors de la prochaine campagne expérimentale, avec l’idée d’accéder au régime sans limite de densité dans des conditions de plasma à haute performance.
Les physiciens travaillant sur d’autres tokamaks ont également été alertés, et pourraient être intéressés par l’utilisation du même scénario de démarrage pour repousser la limite de densité. Une proposition d’expérience a même déjà été faite pour le nouveau tokamak japonais JT60-SA.
Tout savoir en trois minutes sur des résultats récents de recherches, commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.
Dominique Escande ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.03.2026 à 17:12
Des bactéries pour aller sur Mars
Texte intégral (2357 mots)
Aller sur Mars représente un voyage de plus de mille jours. Comment rendre autonome un équipage pendant autant de temps ? Découvrez le projet MELiSSA qui vise à recycler le carbone, l’hydrogène, l’oxygène et l’azote grâce aux bactéries en recréant le fonctionnement d’un écosystème terrestre à l’intérieur d’une fusée.
Les voyages habités vers la Planète rouge ne sont plus de la fiction. La Nasa prévoit même les premiers dans les années 2030, autrement dit demain. Pourtant, les défis techniques, scientifiques et humains à relever sont encore immenses avant de parcourir les 225 millions de kilomètres qui nous séparent de Mars, à l’aller comme au retour. L’équipage devra résister pendant des mois à l’effet des radiations, de la microgravité, du confinement, de l’isolement, etc., et à l’absence de biodiversité. C’est pourtant d’elle qu’il sera question ici pour régler un autre défi, celui de l’autonomie.
Des ressources pour un voyage au long cours
Dans l’espace, un homme ou une femme a besoin toutes les 24 heures d’un kilo de nourriture, d’un kilo d’oxygène, de trois litres d’eau potable et de 20 litres supplémentaires pour l’hygiène corporelle. De sorte qu’un voyage de mille jours aller-retour vers Mars obligerait à décoller avec 25 tonnes de ressources par personne.
En admettant que ce soit possible avec un des lanceurs super lourds qui emportent 130 à 150 tonnes, il faudrait ajouter la quantité de ressources quotidiennes nécessaire une fois sur Mars et pouvoir redécoller avec un emport suffisant pour le retour. L’autonomie de l’équipage sur le long terme est donc un vrai défi.
L’idée serait de tout produire et recycler en cours de route et sur place, de manière durable. Tel est l’objectif du projet MELiSSA pour l’alimentation. L’acronyme signifie système de support de vie micro-écologique alternatif, qui se base sur deux composantes de la biodiversité, les bactéries et l’écosystème. Ce dispositif bio-inspiré est développé par l’Agence Spatiale Européenne (ESA) et ses partenaires. Pour l’hygiène corporelle, le recyclage de l’eau fait partie d’un processus à part.
Des bactéries fonctionnant comme dans un écosystème terrestre
Le préfixe « éco » du terme écosystème provient du grec ancien Oikos qui se traduit par la métaphore de la maison et ses habitant·es. Mais une maison a besoin de lumière, de CO2 et d’eau pour créer un phénomène crucial pour la vie sur Terre, la photosynthèse oxygénique.
À partir de lumière, de CO2 et d’eau, les cyanobactéries, c’est-à-dire les bactéries photosynthétiques, les algues et les plantes se mettent à fabriquer des molécules carbonées (sucres et lipides), en libérant de l’oxygène. Ce sont les producteurs primaires à la base des principaux écosystèmes, de la pyramide des consommateurs et des réseaux trophiques. Ce type de réseau se définit comme l’ensemble des interactions alimentaires. Mais les producteurs primaires ont besoin de minéraux. Une partie provient de la décomposition de la matière organique et des excréments assurée par les bactéries et les champignons.
C’est ce fonctionnement circulaire dans le milieu terrestre qui a inspiré les scientifiques du projet MELiSSA en le simplifiant pour mieux le contrôler. Le dispositif est ingénieux et comporte cinq compartiments interconnectés. L’objectif est de produire les ressources nécessaires à l’équipage par des plantes cultivées en hydroponie, ou culture hors sol, et des cyanobactéries, puis décomposer les déchets par des consortiums bactériens artificiels.
Les déchets sont un mélange d’au moins 70 % de végétaux non consommés et d’un maximum de 30 % d’excréments. La décomposition se fait en absence d’oxygène et à 55 °C par un consortium dominé par les bacilles Thermocaproicibacter et Thermoanaerobacterium. Dans ce four, les bactéries thermophiles atteignent leur optimum de croissance, tandis que les pathogènes opportunistes meurent, ce qui fait partie aussi de l’objectif. La décomposition libère des acides gras volatiles, du CO2, de l’ammoniac et de l’hydrogène qui vont alimenter les autres compartiments.
Les acides gras sont transférés dans le compartiment n°2 contenant une seule espèce de bactéries, Rhodospirillum rubrum. La majorité des cellules sont spiralées et possèdent sept flagelles à chaque pôle. Certaines peuvent atteindre entre 10 et 60 µm de long dans certains milieux. Ces bactéries, de couleur rose en absence d’oxygène, sont multitâches, capables de faire la photosynthèse mais sans produire d’oxygène, de fixer l’azote et de libérer de l’ammoniac. Ce n’est pourtant pas ces caractéristiques qui intéressent MELiSSA, mais leur capacité à pousser plus loin la conversion des acides gras en CO2. Celui-ci passe alors directement dans le compartiment n°4 pour entretenir la photosynthèse par les plantes et par les cyanobactéries.
Le compartiment suivant, n°3, contient deux autres espèces de bactéries, typiques d’une étape fondamentale du cycle de l’azote, la nitrification. Il s’agit de réactions chimiques en chaîne très complexes. Tout commence par les bactéries appartenant au genre Nitrosomonas qui fixent des atomes d’oxygène à l’ammonium en produisant des nitrites ou NO2. L’oxygène nécessaire émane du compartiment n°4 tandis que l’ammoniac provient principalement de l’urine de l’équipage. Les nitrites sont ensuite oxydés à leur tour par les bactéries du genre Nitrobacter en nitrates ou NO3. Les nitrates passent alors dans le compartiment n°4 comme source d’azote pour les plantes et les cyanobactéries.
Un dispositif de production et de recyclage en constante amélioration
La biomasse produite, mais aussi l’oxygène et l’eau sont consommés par l’équipage dans le compartiment n°5. Les déchets vont dans le compartiment n°1, le CO2 dans le n°4, et le cycle recommence. Tous les éléments, à savoir le carbone, l’hydrogène, l’oxygène et l’azote, sont recyclés.
Mais ce dispositif est sans cesse en développement pour être optimal. Par exemple les scientifiques de MELiSSA essaient de remplacer R. rubrum par des biopiles où un consortium bactérien contenant le genre Geobacter est associé à l’anode, l’une des deux électrodes, pour convertir les acides gras en CO2 en créant un courant électrique. Sur le plan énergétique, celui-ci est encore marginal, certes.
Les scientifiques testent par ailleurs des plantes, comme la laitue, la tomate, le chou ou le riz et un genre de cyanobactérie, Limnospira connu sous le nom de spiruline. Si les cyanobactéries représentent aujourd’hui seulement 30 % de la biomasse, leur contribution est appelée à croître, car leur système photosynthétique leur donne la capacité de réagir de manière quasi instantanée au changement de flux lumineux. Par ailleurs, la spiruline est très riche en protéines et contient des vitamines et des acides gras de type oméga 6.
Le projet MELiSSA montre que la connaissance des bactéries et la compréhension du fonctionnement des écosystèmes terrestres sont une des clés pour rendre possible l’autonomie alimentaire des vols habités vers la planète Mars. Mais l’autonomie ne sera pas atteinte d’ici les années 2030, ni même le recyclage global de l'eau. A priori, il en serait de même côté américain pour la Nasa, et la question reste posée pour les approches russes et chinoises. Quoi qu’il en soit, l’idée de l’ESA est aussi de valoriser plus rapidement le dispositif sur Terre pour contribuer au développement de l’économie circulaire.
Retrouvez notre vidéo basée sur cet article
Ce texte n’aurait pas été possible sans la relecture de Chloé Audas, directrice du projet MELiSSA, Brigitte Lamaze, ingénieure à l’ESA, et Claude-Gilles Dussap, directeur de la Fondation MELiSSA. L’auteur les remercie vivement.
Laurent Palka est membre du CESCO, Centre d'Ecologie et des Sciences de la Conservation et de l'association Chercheurs Toujours.
20.03.2026 à 15:15
Des centaines d’insectes affamés, un étudiant et une combinaison en mesh… Comment une série d’expériences aide à comprendre le vol des moustiques
Texte intégral (3440 mots)

Derrière chaque piqûre se cache une mécanique précise : en suivant des moustiques à la trace, une équipe de chercheurs a mis au jour les lois qui gouvernent leur comportement.
« Quatre minutes, c’est trop long ».
Voici le message que m’a envoyé Chris Zuo, étudiant de premier cycle, accompagné de photos montrant d’innombrables piqûres de moustiques sur sa peau nue. Ce massacre sur l’ensemble du corps n’était pas le résultat d’un camping qui aurait mal tourné. Il avait passé ce laps de temps limité dans une pièce contenant 100 moustiques affamés, vêtu uniquement d’une combinaison en mesh que nous pensions capable de le protéger.
C’est ainsi qu’a débuté notre enquête de trois ans pour comprendre le comportement d’un insecte d’une simplicité trompeuse : le moustique. Cela peut ressembler au plan sadique d’un professeur, mais en réalité, nous avons respecté toutes les procédures. Le comité d’éthique de notre université a approuvé le protocole, en s’assurant que Chris était en sécurité et qu’il n’était soumis à aucune pression. Les moustiques étaient exempts de maladies et provenaient de notre État, la Géorgie. Et cette séance a donné lieu aux premières — et dernières — piqûres reçues par qui que ce soit dans le cadre de l’étude.
En plus de mon rôle de tortionnaire pour étudiants, je suis auteur et professeur à Georgia Tech, avec plus de 20 ans d’expérience dans l’étude des déplacements des animaux.
Les moustiques sont l’animal le plus dangereux au monde. Les maladies qu’ils transmettent, du paludisme à la dengue, provoquent plus de 700 000 décès par an. Les moustiques ont causé plus de morts que les guerres.
Le monde dépense 19 milliards d’euros par an en milliards de litres d’insecticides, en millions de kilos de larvicides et en millions de moustiquaires imprégnées d’insecticide – le tout pour lutter contre un insecte minuscule qui pèse dix fois moins qu’un grain de riz et ne possède que 200 000 neurones.
Et pourtant, les humains sont en train de perdre la guerre contre les moustiques. Ces insectes évoluent pour prospérer en milieu urbain et propagent les maladies plus rapidement avec le changement climatique. Comment des animaux aussi simples peuvent-ils nous repérer avec une telle facilité ?
Les scientifiques savent que les moustiques ont une très mauvaise vue et qu’ils dépendent de signaux chimiques pour compenser. Mais savoir ce qui attire un moustique ne suffit pas à prédire son comportement. On peut savoir qu’un missile à guidage thermique est attiré par la chaleur sans pour autant comprendre comment il fonctionne.
C’est là qu’intervient Chris et son sacrifice dans la pièce infestée de moustiques. En suivant les trajectoires de nombreux moustiques autour de lui, nous espérions déterminer comment ils adaptent leurs décisions à sa présence. Comprendre la manière dont les moustiques réagissent aux humains constitue une première étape pour mieux les contrôler.
Comment les moustiques repèrent leur repas
Sur les 3 500 espèces de moustiques, plus de 100 sont dites anthropophiles, c’est-à-dire qu’elles préfèrent les humains comme source de nourriture. Certaines espèces sont capables de repérer une seule personne au milieu d’un troupeau entier de bovins pour aller lui sucer le sang.
C’est une prouesse, étant donné que les moustiques ne volent pas bien. Ils cessent de voler dès qu’il y a une légère brise de 3 à 5 km/h, soit une vitesse d’air comparable à celle générée par le balancement de la queue d’un cheval. Dans des conditions plus calmes, les moustiques utilisent leur cerveau minuscule pour suivre la chaleur, l’humidité et les odeurs humaines transportées par le vent.
Le dioxyde de carbone, sous-produit de la respiration de tous les êtres vivants, est particulièrement attractif. Les moustiques le détectent aussi facilement que vous percevez l’odeur d’une benne à ordures pleine, jusqu’à environ 9 mètres de leur hôte, là où les concentrations chutent à quelques parties par million, soit l’équivalent de quelques tasses de colorant dans une piscine olympique.
La vision des moustiques ne leur est pas très utile pour partir à la recherche de leur prochain repas. Leurs deux yeux comptent plusieurs centaines de petites lentilles individuelles appelées ommatidies, chacune large comme un cheveu humain. Elles produisent une image en mosaïque, légèrement floue, comme pixelisée. En raison des lois de l’optique, les moustiques ne peuvent distinguer un humain adulte qu’à quelques mètres de distance. Avec la seule vue, ils sont incapables de différencier un humain d’un petit arbre. Ils examinent donc chaque objet sombre.
Collecter des données sur les trajectoires de vol
La difficulté lorsqu’on étudie le vol des moustiques, c’est que, comme des enfants surexcités, la plupart de leurs mouvements n'ont pas vraiment de sens. Dans une pièce vide, les moustiques modifient très souvent leur vitesse et leur direction de façon complètement aléatoire. Il nous fallait donc de nombreuses trajectoires de vol pour faire émerger un signal au milieu de ce bruit.
L’un de nos collaborateurs, le biologiste de l’université de Californie à Riverside Ring Cardé, nous a expliqué que dans les années 1980, les scientifiques menaient des « études de piqûres » en se mettant en sous-vêtements et en écrasant les moustiques qui se posaient sur leur peau nue. Selon lui, la nudité permettait d’éviter des variables parasites, comme la couleur du tissu d’une chemise.
Chris et moi nous sommes regardés. S’asseoir nu et attendre de servir de proie aux moustiques ? Non… Nous avons plutôt conçu la combinaison en mesh que Chris portait initialement dans la pièce infestée. Mais après avoir vu ses piqûres, il nous fallait une meilleure solution.
À la place, Chris a choisi des vêtements à manches longues, qu'il a lavés avec une lessive sans parfum, et a enfilé gants et masque. Entièrement protégé, il n’avait plus qu’à rester debout et attendre, tandis qu’un nuage de moustiques tourbillonnait autour de lui.
Les Centers for Disease Control and Prevention (CDC) des États-Unis nous ont fait découvrir le Photonic Sentry, une caméra capable de suivre simultanément des centaines d’insectes en vol dans une pièce. Elle enregistre 100 images par seconde avec une résolution de 5 mm, dans un espace de la taille d’un grand studio. En seulement quelques heures, Chris et un autre doctorant, Soohwan Kim, ont produit plus de données sur le vol des moustiques que tout ce qui avait été mesuré auparavant dans l’histoire humaine.
Pour les mathématiciens, comme nos collaborateurs Jörn Dunkel, Chenyi Fei et Alex Cohen du MIT, la géométrie du corps de Chris reste trop complexe pour étudier les réactions des moustiques. Les mathématiciens excellent dans l’art de ramener les problèmes complexes à leur essence. Chenyi a donc suggéré d’épargner Chris : pourquoi ne pas le remplacer par un simple mannequin, une boule noire en polystyrène fixée sur un support, associée à une source de dioxyde de carbone ?
Au cours des deux années suivantes, Chris a filmé sans relâche les moustiques tournoyant autour de ces mannequins en polystyrène. Puis il les aspirait à l’aide d’un aspirateur, en essayant de ne pas se faire piquer.
Décrypter les trajectoires
Un moustique vole comme on pilote un avion : il tourne à gauche ou à droite, accélère ou freine. Nous avons d’abord caractérisé son comportement de vol en fonction de sa vitesse, de sa position et de sa direction par rapport à la cible, première étape pour construire notre modèle.
Notre confiance dans ces règles de comportement s’est renforcée à mesure que nous analysions davantage de trajectoires, jusqu’à exploiter 20 millions de données concernant les positions et les vitesses des moustiques. Cette idée consistant à intégrer des observations pour étayer une hypothèse mathématique remonte à 200 ans et porte le nom d’inférence bayésienne. Nous avons ensuite illustré le comportement des moustiques observé à l’aide d’une application web.
Grâce à notre modèle, nous avons montré que différents types de cibles modifient le vol des moustiques. Les cibles visuelles provoquent des survols, où les moustiques passent à proximité avant de continuer leur route. Le dioxyde de carbone entraîne des hésitations, les moustiques ralentissant à proximité de la cible. La combinaison d’un signal visuel et de dioxyde de carbone génère des trajectoires orbitales à grande vitesse.
Jusqu’à présent, nous avions uniquement utilisé des expériences avec des sphères en polystyrène pour entraîner notre modèle. Le véritable test consistait à voir s’il pouvait prédire le vol des moustiques autour d’un humain. Chris est retourné dans la chambre, cette fois vêtu de blanc et coiffé d’un chapeau noir, se transformant en véritable cible. Notre modèle a correctement prédit la répartition des moustiques autour de lui. Nous avons ainsi identifié des zones à risque, où la probabilité de voir des moustiques tournoyer autour de lui était élevée.
Prédire le comportement des moustiques constitue une première étape pour les déjouer. Dans les zones infestées, on conçoit par exemple des maisons dotées de dispositifs empêchant les moustiques de suivre les signaux humains et d’entrer. De même, les pièges à moustiques aspirent les insectes lorsqu’ils s’approchent trop près, mais laissent encore s’échapper entre 50 % et 90 % d’entre eux. Beaucoup de ces dispositifs reposent encore sur des essais empiriques. Nous espérons que notre étude fournira un outil plus précis pour concevoir des méthodes de capture ou de dissuasion.
Lorsque la mère de Chris a assisté à sa soutenance de master, je lui ai demandé ce qu’elle pensait du fait que son fils se soit proposé comme appât pour les moustiques. Elle m’a répondu qu’elle en était très fière. Moi aussi — et pas seulement parce que je suis soulagé que Chris ne m’ait jamais demandé de prendre sa place dans la chambre infestée de moustiques.
David Hu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
18.03.2026 à 11:32
Pêche récréative et pollution plastique : créer des leurres souples qui disparaissent vraiment
Texte intégral (2415 mots)

Chaque année, des millions de pêcheurs perdent (sans le vouloir) une partie de leur matériel dans l’eau. Parmi les objets les plus souvent « abandonnés » : les leurres souples, petits bouts de plastique très efficaces… mais très persistants.
Mon travail de thèse, mené en collaboration avec l’entreprise FiiiSH, a consisté à développer des formulations à base de PHA capables de réduire la persistance des leurres souples dans l’environnement. La solution la plus prometteuse identifiée à ce jour n’est pas encore assez souple pour un usage pleinement satisfaisant, mais elle montre déjà de forts signes de biodégradation et de non-toxicité. Il reste donc du travail pour atteindre le bon compromis mécanique, mais la piste est sérieuse.
Une pratique massive et des pertes invisibles
La pêche de loisir est un loisir très répandu en France, en mer comme en eau douce. Les estimations institutionnelles évoquent environ 3,8 millions de pratiquants en mer en 2024, et plusieurs millions de cartes de pêche sont délivrées chaque année en eau douce. À cette échelle, même si la grande majorité des pêcheurs adopte de bonnes pratiques, une part de pertes reste inévitable : accrochage sur roches, branches, épaves, casse de ligne, courant, houle… À force de répétitions, un « petit » objet perdu involontairement devient un flux collectif.
Un leurre souple doit « vivre » dans l’eau. Sa nage dépend de sa forme, mais aussi de sa viscoélasticité : trop rigide, il nage mal ; trop mou, il se déchire ; instable, il durcit ou devient poisseux avec le temps. En bref, le matériau doit être à la fois flexible, résistant, stable au stockage et transformable industriellement. C’est un cahier des charges très strict et complexe pour un matériau.
La pollution liée à la pêche est multiple : emballages, fils, plombs, mais aussi fragments de leurres. Un leurre souple ne pèse que quelques grammes : pris isolément, l’impact paraît négligeable. Mais dans des zones très fréquentées (digues, estuaires, embouchures, postes en rivière…), les pertes se concentrent et s’additionnent. On estime qu’un pêcheur perd en moyenne 10 leurres par an, pour environ 15 g par leurre, ce qui donne un ordre de grandeur de cette pollution plastique. Ces chiffres restent toutefois à prendre avec précaution, car ils sont difficiles à mesurer précisément. Avec le temps, les plastiques conventionnels peuvent s’abîmer sous l’effet des UV, de l’abrasion et des contraintes mécaniques, et générer des fragments plus petits : les microplastiques. Dans certains cas, des composés peuvent aussi migrer depuis l’objet en plastique vers l’eau. L’enjeu n’est donc pas seulement esthétique : il touche à la persistance des débris et à leur interaction avec les écosystèmes.
Les PHA : des plastiques produits par des bactéries
Les polyhydroxyalcanoates (PHA) sont une famille de polyesters que certaines bactéries fabriquent naturellement comme réserve de carbone et d’énergie. Industriellement, on retrouve une logique de fermentation : on nourrit des microorganismes avec une source de carbone (par exemple, sucres, huiles), on pilote les conditions pour favoriser l’accumulation de PHA dans les cellules, puis on récupère la biomasse et on extrait/purifie le polymère. On obtient alors une « résine » utilisable en plasturgie, sous forme de granulés. Les PHA sont donc bien des plastiques à part entière. En revanche, dans leur état initial, leurs propriétés sont souvent trop rigides pour des applications comme les leurres souples de pêche, ce qui impose d’ajouter des additifs, notamment des plastifiants, afin d’assouplir la matière.
L’intérêt des PHA est double. D’une part, ils peuvent être biosourcés (selon le procédé et les substrats). D’autre part, leur structure de polyester est favorable à la biodégradation dans certains milieux. Mais ce « peut être biodégradable » est important : tout dépend des conditions et de la formulation finale.
Un plastique biodégradable ne disparaît pas comme un comprimé effervescent. Il ne fond pas au contact de l’eau. La biodégradation est un processus biologique : des microorganismes, via des enzymes, transforment progressivement le matériau en produits simples (CO2, eau, sels minéraux et biomasse en conditions aérobies).
La clé, c’est la conversion finale : un matériau qui ne fait que se fragmenter plus vite peut produire des microplastiques sans réellement être biodégradé. Autre point essentiel : « biodégradable » n’est pas synonyme de « biosourcé ». Un matériau peut être biosourcé sans être biodégradable, et l’inverse. Pour éviter le greenwashing, il faut toujours préciser le milieu (sol, compost, eau douce, mer), la méthode de mesure et l’ordre de grandeur du temps de l’essai dans lequel l’échantillon se dégrade.
Comment transformer un PHA en leurre ?
Le défi est d’obtenir une matière suffisamment souple. Beaucoup de PHA sont naturellement plutôt rigides. Pour approcher la sensation d’un leurre conventionnel, on peut jouer sur la chimie du copolymère, mais aussi sur la formulation : plastifiants compatibles, mélanges, ou architectures internes qui stabilisent la souplesse.
C’est ici que mon travail de recherche s’inscrit, dans le cadre d’une collaboration avec l’entreprise FiiiSH : développer des formulations PHA adaptées à la pêche au leurre souple, en intégrant dès le départ les contraintes industrielles (mise en forme, reproductibilité, stabilité au stockage) et les exigences environnementales. Aujourd’hui, ces travaux ont déjà permis d’identifier plusieurs formulations prometteuses et de les évaluer à l’échelle laboratoire à travers des essais de caractérisation thermique, mécanique et rhéologique (la rhéologie est l’étude de la déformation et de l’écoulement de la matière sous l’effet d’une contrainte appliquée). L’enjeu est désormais de confirmer leur robustesse, leur stabilité dans le temps et leur pertinence pour un usage réaliste en leurre souple.
Même avec un PHA prometteur, tout se joue souvent dans sa plastification. Obtenir un matériau souple ne suffit pas : il faut une souplesse stable et une bonne tenue mécanique. Or la compatibilité entre un PHA et un plastifiant est délicate : un plastifiant non miscible peut provoquer des hétérogénéités qui induisent une déchirure plus facile et une tenue mécanique qui chute. À l’inverse, un plastifiant trop compatible avec la résine peut « trop bien » s’y intégrer : il assouplit tellement le polymère qu’il relâche une partie du réseau d’enchevêtrements, et on obtient alors un matériau certes mou, mais très sensible à la déchirure. Pour se représenter la structure d’un plastique, on peut imaginer un plat de spaghettis bien emmêlés : les « nœuds » formés par les fils de pâte correspondent aux enchevêtrements, ces points d’accroche qui donnent au matériau sa cohésion.
Un petit objet mais une grande preuve à apporter
Rendre un leurre souple biodégradable ne consiste pas à « changer de plastique » dans une fiche technique. C’est un compromis délicat entre performance, stabilité et preuve environnementale. Les PHA offrent une piste crédible, à condition de rester rigoureux sur les mots (« biodégradable » n’est ni « soluble » ni « effervescent ») et sur les mesures. La suite se joue autant en laboratoire qu’en industrie : formulation, mise à l’échelle, transparence sur les compositions et validation dans des scénarios réalistes.
Si cette transition réussit sur un objet aussi exigeant qu’un leurre souple, elle pourrait inspirer d’autres produits exposés à la nature, où l’on ne peut pas éliminer totalement les pertes mais où l’on peut réduire, concrètement, la persistance.
À ce stade, un premier prototype de leurre a déjà vu le jour. Il reste désormais à l’éprouver en conditions réelles de pêche pour juger de sa performance sur le terrain. La solution n’est pas encore totalement aboutie, notamment parce qu’elle doit encore gagner en souplesse, mais elle n’est plus seulement une idée de laboratoire : elle commence déjà à prendre la forme d’un leurre.
Erwan Vasseur a reçu des financements de l'entreprise Fiiish et IRDL (Institut de Recherche Dupuy De Lôme).
18.03.2026 à 09:58
La théorie des cordes a-t-elle été découverte par accident ?
Texte intégral (1709 mots)

Une plongée dans l’histoire de la théorie des cordes, ou quand une solution suggérée pour un problème donné éclaira en réalité un domaine bien plus vaste.
La physique théorique a connu trois grandes révolutions au tournant du XXᵉ siècle : la mécanique quantique et les deux théories de la relativité, restreinte et généralisée. La mécanique quantique décrit l’infiniment petit. La relativité restreinte et sa célèbre formule E = mc² décrivent la physique des objets se déplaçant aux vitesses proches de la lumière. La relativité générale décrit la force de gravité comme provenant de la courbure de l’espace-temps.
Prises ensemble, elles ont bouleversé notre compréhension de l’espace-temps, de la matière, et des interactions fondamentales. Les implications de ce bouleversement ne sont encore aujourd’hui pas totalement comprises.
En effet, on ne sait pas utiliser ce cadre pour décrire certaines situations extrêmes, comme l’espace-temps à l’intérieur des trous noirs, ou au moment du Big Bang – deux situations où les effets quantiques et gravitationnels sont simultanément importants. C’est dans cet entrelacs que réside le mystère central de la « gravité quantique », que la physique moderne cherche à élucider, et pour lequel la théorie des cordes propose un cadre qui unifie relativité générale et physique quantique.
Du point de vue de l’histoire des sciences, un élément remarquable de cette théorie sophistiquée est qu’elle a, en fait, été découverte par hasard, au sein d’un domaine bien différent de la gravité quantique : celui de la physique des particules subatomiques !
Gabriele Veneziano et les particules subatomiques
Genève, fin des années 1960. Gabriele Veneziano a 26 ans, il vient de finir son doctorat de physique nucléaire en Israël et se trouve en visite au CERN. À l’époque, les physiciens théoriciens du monde entier se heurtaient à un problème coriace : la méthode qui avait permis de comprendre les interactions entre électrons et lumière (qu’on appelle aujourd’hui la théorie quantique des champs) semblait ne pas fonctionner pour décrire les interactions entre les autres particules subatomiques.
En particulier, on ne comprenait pas l’interaction nucléaire forte, qui régit les interactions entre les briques élémentaires de la matière : protons, neutrons, etc. Celles-ci forment un véritable zoo de particules qu’on nomme les hadrons.
Une nouvelle approche est alors explorée : le « bootstrap ». Ne pouvant trouver la bonne théorie pour décrire les hadrons individuellement, les physiciens se posèrent la question dans l’autre sens : quelles sont les propriétés générales que doit satisfaire n’importe quelle théorie ? La réponse : au minimum, elle doit satisfaire simultanément aux exigences de la mécanique quantique et de la relativité restreinte.
Cette approche par exemple permet de montrer qu’une interaction fondamentale ne peut excéder une certaine intensité sans briser les lois de la mécanique quantique (un peu comme il existe une vitesse maximale en relativité). En clair : si l’on mélange les lois de la mécanique quantique et celles de la relativité restreinte, tout n’est pas permis, et les lois physiques possibles deviennent fortement contraintes.
C’est dans ce cadre que Gabriele Veneziano proposa en 1968 une fonction mathématique très particulière – la fonction bêta d’Euler – pour modéliser les hadrons et leurs interactions. À ce moment, on ne connaissait pas la théorie qui permettrait d’expliquer d’où sort cette formule : on savait seulement qu’elle satisfaisait, pour la première fois, toutes les propriétés mathématiques recherchées. Son papier eut un succès immédiat, car la formule répondait à de nombreuses questions en même temps.
Sérendipité et théorie des cordes
La sérendipité est souvent idéalisée comme un heureux hasard. Mais, en science, elle prend une forme plus subtile : elle naît de l’interaction entre un contexte de recherche fertile et une capacité à reconnaître qu’une solution trouvée pour un problème donné éclaire en réalité un domaine bien plus vaste.
Le cas de la formule de Veneziano est emblématique. Quelques années après l’article de Veneziano, les physiciens Leonard Susskind, Yoichiro Nambu et Holger Bech Nielsen comprirent (indépendamment) que cette formule décrivait en fait non pas des hadrons mais des « cordes quantiques », c’est-à-dire des objets microscopiques filiformes, qui vibrent à la manière de minuscules cordes de violon.
Et c’est là que ça devient vraiment intéressant.
Les cordes et le… graviton ?
Depuis les années 1970, à mesure que l’on explore cette interprétation, d’autres indices troublants apparaissent. La théorie semble invariablement contenir une particule particulière : le graviton, censé véhiculer la force de gravitation quantique. De plus, elle exige l’existence de dimensions d’espace supplémentaires – un prix qui semble alors trop élevé pour une théorie censée décrire les hadrons !
Et surtout, comment une théorie inventée pour décrire les interactions de la matière à l’intérieur du noyau atomique pouvait-elle contenir une théorie qui décrit tout autre chose – la gravité quantique ?
Comme, à la même époque (autour de 1973), la théorie quantique des champs finit par expliquer les interactions fortes grâce à la découverte de la chromodynamique quantique, et notamment de la liberté asymptotique, le modèle de Veneziano est laissé de côté dans ce contexte.
Mais quelques physiciens visionnaires, comme Joël Scherk et John Schwarz, pressentirent que cette théorie, à cause de son mystérieux graviton, possédait un potentiel unique pour s’attaquer à la gravité quantique.
Dix ans plus tard, en 1984, Michael Green et John Schwarz confirmèrent cette intuition et démontrèrent que la théorie des cordes est bel et bien une véritable théorie de gravité quantique.
On voit donc que la découverte de la théorie des cordes est l’illustration même de la sérendipité : une théorie née d’un certain questionnement éclaire le cœur d’un aspect tout autre de la science.
Gabriele Veneziano lui aussi contribuera notablement au développement de la théorie des cordes, notamment en étudiant les liens entre celle-ci et la structure microscopique de l’espace-temps.
La théorie de cordes aujourd’hui
Aujourd’hui, la théorie des cordes est bien plus qu’une simple théorie candidate de la gravité quantique. Aux côtés de la théorie quantique des champs, elle constitue un cadre conceptuel et mathématique d’une richesse inégalée, capable d’unifier des idées venues de la physique des particules, de la relativité, de la théorie des champs, du chaos et des mathématiques pures et produire des avancées conceptuelles et techniques dans ces domaines.
Par exemple, le modèle de Veneziano et ses généralisations, dont on sait aujourd’hui qu’ils proviennent de la théorie des cordes, exhibent des propriétés mathématiques remarquables liées à la fonction zêta de Riemann. Ces propriétés s’expliquent physiquement par la façon dont deux cordes ouvertes s’attachent pour former une corde fermée.
Plus encore, le programme du « bootstrap », qui avait donné naissance à la théorie des cordes, connaît aujourd’hui une nouvelle vie : grâce à la puissance des ordinateurs modernes et à des idées venues de la théorie des cordes et de la théorie des champs, les physiciens appliquent ces idées pour décrire des phénomènes très divers, allant des transitions de phase à la physique hadronique et même à la gravité quantique.
Mais il reste un mystère fondamental : pourquoi cette théorie, née « par hasard », semble-t-elle si naturellement adaptée à décrire la gravité quantique ? Était-ce vraiment un hasard… ou un indice que la seule façon d’unifier les trois théories qui forment le socle de la physique du XXᵉ siècle est la théorie des cordes ? On pourrait bien avoir une réponse à cette question mathématique dans les années qui viennent.
Piotr Tourkine a reçu des financements de l'Agence Nationale de la Recherche (ANR-22-CE31-0017).
17.03.2026 à 16:33
Yellowstone, merveille géologique : aux frontières du feu, de l’eau et du vivant
Texte intégral (2941 mots)
Le parc national de Yellowstone, aux États-Unis, présente l’un des spectacles géologiques les plus fascinants au monde : geysers en éruption, bassins aux couleurs intenses, terrasses de travertin sculptées par des eaux thermales. Derrière ces paysages se dissimule l’un des systèmes volcaniques les plus actifs de la planète, dont la chaleur souterraine façonne chaque fontaine, chaque couleur, chaque dépôt minéral, et rappelle que la Terre est une planète vivante.
Le parc national de Yellowstone est le plus ancien parc national du monde et est situé dans l’ouest des États-Unis, entre le Wyoming, le Montana et l’Idaho. Inscrit sur la liste du patrimoine mondial de l’Unesco, il est célèbre pour sa faune et ses paysages, mais surtout pour une activité géothermique exceptionnelle, unique par son intensité et sa diversité.
Le parc se situe sur une large caldeira volcanique (c’est-à-dire une vaste dépression circulaire formée par l’effondrement du toit d’une chambre magmatique après une éruption), formée par plusieurs éruptions majeures qui se sont produites il y a 2,1 millions, 1,3 million et environ 640 000 ans. Même en l’absence d’éruptions explosives actuellement, le volcan reste actif : son activité se traduit par une augmentation de température en profondeur et une série de phénomènes hydrothermaux observables en surface.
Une chaudière souterraine toujours en activité
Des réservoirs magmatiques partiellement fondus se situent sous Yellowstone, alimentés par un flux venant du manteau, à grande profondeur. La chaleur émise réchauffe les eaux de pluie et de fonte des neiges qui s’infiltrent dans le sous-sol. Ces eaux peuvent atteindre des températures supérieures à 200 °C tout en restant liquides grâce à la forte pression.
Lorsque les conditions sont réunies, avec un approvisionnement en eau suffisant, des fractures suffisamment étroites et une chaleur stable, l’eau qui devient surchauffée est soudainement expulsée vers la surface : ce phénomène est connu sous le nom de « geyser ». Plus de la moitié des geysers du monde se trouve à Yellowstone, le transformant en un laboratoire naturel pour les géologues.
Le plus célèbre, Old Faithful, entre en éruption toutes les 60 à 90 minutes, projetant une colonne d’eau et de vapeur pouvant dépasser 50 mètres de hauteur. D’autres geysers sont beaucoup moins prévisibles, rappelant que ces systèmes sont fragiles et sensibles à de légères variations de pression ou de circulation de fluides.
Dans des régions géothermiques telles que le Norris Geyser Basin, l’hydrothermalisme n’est pas réparti aléatoirement dans la roche : il est largement guidé par le réseau de fracturation affectant la roche, véritable « route » pour l’eau chaude, qui régule la circulation des fluides et détermine la position des geysers et des sources chaudes. Les études effectuées au niveau du Steamboat Geyser démontrent que même de petites fractures ou de simples pores interconnectés peuvent être suffisants pour expulser rapidement l’eau lors des éruptions.
Le sous-sol ressemble donc moins à un système de conduits bien définis qu’à un milieu complexe, constitué d’un enchevêtrement de fractures et de pores interconnectés et de dimensions variables. Cette organisation contrôle la circulation de l’eau et de la vapeur en profondeur, et conditionne le déclenchement des éruptions hydrothermales, soulignant combien la structuration et la constitution des roches régissent le fonctionnement des systèmes hydrothermaux.
Sources chaudes et travertins : quand la géologie se fait art
Les geysers ne représentent qu’un aspect du spectacle. Les bassins aux couleurs vives sont principalement formés par l’abondance de sources chaudes. Le plus célèbre et plus large à Yellowstone (60 à 90 mètres de large) d’entre eux est Grand Prismatic Spring, il est aussi le plus photographié pour illustrer ces sources chaudes.
À l’inverse de ce que l’on pourrait penser, ces couleurs ne sont pas celles des minéraux, mais celles de micro-organismes extrémophiles. Chaque communauté microbienne, adaptée à une plage de température spécifique, forme autour des bassins de véritables cercles de couleur : les espèces qui prospèrent dans les zones plus froides en périphérie arborent des teintes jaune et orange, tandis que les températures plus élevées au centre favorisent des micro-organismes bleus ou verts. Dans les premiers cas, les couleurs résultent à la fois des pigments caroténoïdes propres aux bactéries, et des oxydes de fer et de manganèse précipités par leur activité métabolique. Ces bactéries et archées doivent ainsi leurs teintes à leurs pigments photosynthétiques (chlorophylles ou caroténoïdes) dont l’expression varie selon les conditions de température et de lumière. Lorsque la température des sources baisse, l’expansion bactérienne s’intensifie.
Des dépôts de travertin peuvent aussi se former à partir de sources abondantes en carbonate de calcium. Le travertin est une roche calcaire poreuse qui se dépose en surface lorsque de l’eau chaude, ayant dissous du CO2 et du carbonate de calcium en profondeur sous l’effet de la pression et de la température, remonte à la surface : en se refroidissant et en se décomprimant, elle libère le CO2 dissout, ce qui provoque la précipitation de calcite.
Cette calcite forme des terrasses et des cascades minérales blanches ou crème, tandis que les oxydes de fer précipités simultanément par l’activité bactérienne leur confèrent leur teinte orange caractéristique ; comme celles de Mammoth Hot Springs, qui se modifient sans cesse en fonction des changements des conditions hydrologiques et de température.
Un volcan sous surveillance : quels dangers ?
Yellowstone est fréquemment décrit comme un « supervolcan », une expression médiatique qui fait référence à des volcans susceptibles de générer des éruptions de très grande ampleur, correspondant à l’émission d’au moins 1 000 km3 de matériaux. Deux des trois grandes éruptions de Yellowstone ont atteint ce seuil, il y a environ 2,1 millions et 640 000 ans. Les chances d’une telle éruption à Yellowstone dans les prochains millénaires sont jugées infimes par les géologues de l’USGS.
Cependant, le parc est le siège d’une activité sismique quasi permanente : chaque année, des milliers de petits séismes témoignent de la circulation des fluides et des ajustements de la croûte. Les scientifiques du service géologique américain, l’USGS, dotés d’un réseau sophistiqué d’instruments, surveillent de près ces signaux pour détecter la plus petite anomalie.
Ainsi, les dangers les plus immédiats à Yellowstone ne relèvent pas d’une éruption dévastatrice, mais plutôt d’explosions hydrothermales locales susceptibles de projeter des roches et des fluides bouillants sur quelques mètres à plusieurs dizaines de mètres autour du point d’émission. Plusieurs incidents illustrent ce risque dans l’histoire récente du parc : une série d’explosions puissantes s’est produite à Excelsior Geyser dans les années 1880–1890, projetant de gros blocs jusqu’à 15 mètres de distance, tandis qu’une explosion notable a eu lieu à Porkchop Geyser en 1989. En juillet 2024, l’explosion à Biscuit Basin a détruit une passerelle touristique, sans faire de blessés alors que l’explosion d’Echinus Geyser il y a quelques jours n’a pas fait de dégâts majeurs.
Par ailleurs, les forêts du parc restent vulnérables aux incendies, dont la fréquence et l’intensité augmentent avec le changement climatique, un facteur de risque distinct de l’activité volcanique, mais tout aussi réel pour les écosystèmes de Yellowstone.
Yellowstone, une leçon de géologie à ciel ouvert
Yellowstone nous rappelle que notre planète est vivante et en constante évolution. Les geysers, les sources thermales et les terrasses minérales qui émerveillent les visiteurs ne sont pas de simples curiosités naturelles : ils sont la manifestation visible de processus profonds, à la frontière entre le manteau terrestre, la croûte, l’eau de surface et même le vivant.
Yellowstone n’est pas une exception : en Islande, l’interaction entre un point chaud et la dorsale médio-atlantique produit des paysages analogues, à l’image du site de Geysir. En Italie, les champs Phlégréens, à l’ouest de Naples, offrent une autre démonstration de la connexion entre volcanisme, fracturation et fluides.
Ces comparaisons montrent que les phénomènes observés à Yellowstone suivent des lois universelles : partout où se rencontrent chaleur, eau et fractures, des phénomènes géologiques se manifestent parfois de façon impressionnante. Devant ces paysages en constante transformation, la géologie ne demeure plus une science abstraite confinée aux laboratoires et aux modélisations. Elle est concrète, perceptible et associée à notre compréhension des mécanismes internes de la Terre.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
16.03.2026 à 17:53
Déterminer la forme de la Terre : une aventure scientifique et politique entre la France et le Royaume-Uni
Texte intégral (2143 mots)

Quelle est la forme exacte de la Terre ? Est-elle aplatie ou plutôt allongée aux pôles ? La question a agité les milieux scientifiques des deux côtés de la Manche pendant plusieurs siècles. Pour tout savoir de cette controverse scientifique, l’Académie des sciences et la Royal Society de Londres présentent, du 1er avril au 20 juin 2026, l’exposition « La figure de la Terre. Un débat franco-anglais (XVIIᵉ-XXIᵉ siècle) », dans les locaux de la bibliothèque Mazarine, au cœur de l’Institut de France, à Paris.
On pourrait croire la question définitivement réglée : la Terre est ronde. Et pourtant, des enquêtes récentes indiquent qu’environ 8 % de nos concitoyens ne sont pas pleinement convaincus qu’elle le soit. Ce chiffre ne traduit pas seulement une méconnaissance. Selon moi, il révèle surtout une défiance. Ce n’est pas tant la rotondité de la Terre qui est contestée que l’autorité de ceux qui l’affirment. Le doute vise les « sachants », les institutions, les discours officiels. Face à ce phénomène, l’ironie ou l’indignation ne suffisent pas. Il faut peut-être s’interroger sur la manière dont nous racontons l’histoire des sciences, sur ce que nous transmettons, et sur ce que nous omettons.
On a longtemps enseigné que le Moyen Âge aurait cru la Terre plate et que la science moderne aurait progressivement dissipé cette erreur. Ce récit commode est historiquement faux. Depuis l’Antiquité grecque, les savants savent que la Terre est sphérique. Lors des éclipses de Lune, l’ombre projetée par la Terre est toujours circulaire (elle aurait une forme d’ellipse si la Terre était un disque plat) ; les étoiles visibles changent lorsqu’on voyage vers le nord ; au IIIᵉ siècle avant notre ère, Ératosthène mesurait déjà le périmètre terrestre avec une précision remarquable. La rotondité de la Terre n’est pas une conquête récente : elle appartient au patrimoine intellectuel de l’humanité depuis plus de deux millénaires.
Mais ce savoir était longtemps celui des lettrés. Les paysans, les artisans, les marins ordinaires, ceux qui ne lisaient ni Aristote ni les traités d’astronomie, n’avaient sans doute pas de représentation précise de la forme globale du monde. Leur univers était celui de l’horizon familier, du champ, du village, du port. La Terre était vécue, non pensée à l’échelle planétaire. Il ne s’agissait pas d’erreur, mais souvent d’indifférence : la question ne se posait pas. La science progresse d’abord dans des cercles restreints avant de devenir culture commune. Cette distance historique entre savoir savant et imaginaire ordinaire est peut-être l’une des clés de la fragilité contemporaine du consensus scientifique.
La triangulation, une affaire de patience
Au XVIIᵉ siècle, la question change de nature. On ne se contente plus de savoir que la Terre est ronde : on veut désormais la mesurer précisément. En France, sous l’impulsion de la dynastie des Cassini, l’Académie des sciences entreprend de déterminer la longueur d’un degré de latitude. La latitude se mesure par l’angle que fait l’étoile Polaire avec l’horizon : lorsqu’on se déplace vers le nord, cet angle augmente. Il suffit donc, en principe, de mesurer la distance parcourue pour une variation d’un degré afin d’estimer la dimension du globe.
La méthode employée est un chef-d’œuvre de rigueur : la triangulation. On mesure avec un soin extrême la longueur d’un segment sur le terrain puis, depuis des points élevés – collines, tours, clochers –, on observe les angles formés avec d’autres repères visibles à des dizaines de kilomètres. De triangle en triangle, on reconstitue ainsi de vastes distances. C’est une science de patience, d’équipes, d’instruments perfectionnés et d’erreurs soigneusement évaluées. La Terre devient un objet mesurable, arpenté, calculé.
Au même moment, en Angleterre, Isaac Newton publie les Principia. Il y expose la théorie de la gravitation universelle et s’interroge sur la forme précise du globe. Si la Terre tourne sur elle-même en vingt-quatre heures, la force centrifuge doit légèrement l’aplatir aux pôles et la faire gonfler à l’équateur. À partir d’une observation apparemment modeste, la différence de période d’un pendule entre l’équateur et Cambridge, Newton réalise une expérience de pensée extraordinaire et estime l’ampleur de cet aplatissement. Pour la première fois, une théorie physique prétend prédire la forme même de la planète.
La rivalité entre la France et l’Angleterre devient scientifique
Les premières mesures françaises semblent pourtant indiquer l’inverse : la Terre serait allongée aux pôles. La controverse s’installe. Derrière le débat scientifique se profile une rivalité ancienne entre la France et l’Angleterre, nations proches, concurrentes et pourtant intimement liées par l’histoire. Pour trancher, l’Académie des sciences décide d’envoyer deux expéditions : l’une en Laponie, près du cercle polaire, l’autre à l’équateur. Il faut mesurer à nouveau, comparer, calculer. Les conditions sont extrêmes, les instruments fragiles, les incertitudes nombreuses. Mais le verdict tombe : la Terre est bien légèrement aplatie aux pôles. Les savants français, par leurs propres observations, confirment la prédiction newtonienne.
Cette victoire de la théorie newtonienne n’efface en rien l’héroïsme scientifique des expéditions. Voltaire, qui fut l’un des plus ardents défenseurs de Newton en France, en a donné une formule restée célèbre, s’adressant à Maupertuis :
« Vous avez trouvé dans les glaces, au milieu des ennuis, ce que Newton trouva sans sortir de chez lui. »
En quelques vers, il résume admirablement la tension féconde entre le travail de terrain, long et éprouvant, et la puissance de l’abstraction théorique. L’un ne va pas sans l’autre : sans hypothèse, pas d’expédition ; sans mesure, pas de confirmation. La science avance ainsi : en acceptant que les faits corrigent les hypothèses, même lorsque cela contredit des traditions prestigieuses.
À la fin du XVIIIᵉ siècle, la Révolution française engage une nouvelle étape. Il s’agit de créer un système de mesures universel, affranchi des usages locaux. Le mètre sera défini comme la dix-millionième partie du quart du méridien terrestre. La Terre devient l’étalon commun de l’humanité. De nouvelles campagnes de mesure sont entreprises pour fixer cette unité. La géodésie (l’étude de la forme de la Terre) rejoint alors des enjeux politiques et économiques : maîtriser la longitude en mer, c’est maîtriser les routes commerciales et la puissance navale. La mesure du globe participe désormais à l’histoire des empires.
Une aventure qui ne s’arrête pas
L’histoire ne s’achève pas avec l’ellipsoïde newtonien. La Terre réelle n’est ni parfaitement sphérique ni exactement régulière. Les masses internes, les reliefs, les océans introduisent des irrégularités que l’on regroupe sous le nom de « géoïde ». Au XIXᵉ siècle, des mathématiciens, comme Henri Poincaré, s’interrogent sur la stabilité des corps en rotation et développent des concepts qui éclairent aussi la compréhension des formes planétaires. Aujourd’hui, grâce aux satellites et à l’altimétrie spatiale, la surface moyenne des océans est connue avec une précision centimétrique. Du bâton d’Ératosthène aux instruments orbitaux, c’est une même quête intellectuelle et technique qui se poursuit.
C’est cette aventure, scientifique autant que politique, que retrace l’exposition organisée conjointement par la Royal Society et l’Académie des sciences. Présentée d’abord à Londres, elle est aujourd’hui accueillie à Paris, à la bibliothèque Mazarine de l’Institut de France. Manuscrits, cartes, instruments, carnets de terrain, correspondances témoignent de ces débats, de ces voyages et de ces calculs. On y voit comment des savants parfois rivaux ont appris au fil du temps à confronter leurs théories au réel, à mesurer leurs erreurs, à dialoguer au-delà des frontières.
À l’heure où certains doutent encore de la rotondité de la Terre, il n’est pas inutile de revenir à cette histoire longue et complexe. Elle rappelle que la science n’est ni un dogme ni une vérité révélée, mais une construction patiente, collective, souvent conflictuelle, toujours ouverte à la révision. Comprendre comment nous avons mesuré la Terre, c’est comprendre comment se fabrique la connaissance. Et c’est peut-être aussi une manière, aujourd’hui, de reconstruire la confiance dans le savoir.
Étienne Ghys ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.