LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

10.08.2025 à 12:04

Chantier de l’A69 : rendre la nature malléable à notre volonté (humaine)

Rémy Conche, Docteur en sciences de gestion, Université Paris Dauphine – PSL

Le chantier de l’A69 représente une tentative de mettre le monde à notre disposition. Plus particulièrement deux de ses dimensions : l’espace, par l’ingénierie, et le temps, par la gestion de projet.
Texte intégral (1784 mots)
Greta Thunberg, venue soutenir les opposants à la construction de l’A69, qui relie Toulouse à Castres (10 février 2024). AgenceDyF/Shutterstock

Le chantier de l’A69 représente une énième tentative de « mettre le monde à notre disposition », de le rendre façonnable par la seule volonté humaine. Plus particulièrement deux de ses dimensions : l’espace, par l’ingénierie, et le temps, par la gestion de projet.


Le chantier controversé de l’A69, visant à créer une liaison autoroutière Toulouse-Castres, a repris ce mois de juillet. Le chantier avait été interrompu en février par le tribunal administratif de Toulouse qui avait annulé son autorisation environnementale. Le tribunal ne reconnaissait pas la « raison impérative d’intérêt public majeur » (RIIPM) qui permettait à cette opération de déroger à la réglementation relative aux espèces protégées.

En mars, la Cour d’appel administrative de Toulouse a décidé, à la suite de la saisine de l’État, de suspendre temporairement l’exécution de la décision de première instance. Le chantier pourra être finalisé avant que l’affaire ne trouve son dénouement juridique. En parallèle, un groupe de sénateurs de centre droit, mêlant l’Union centriste, Les Républicains (LR) et quelques indépendants, a déposé un projet de loi au Sénat. Celle-ci vise à valider les autorisations environnementales auparavant annulées. Ce texte retravaillé en commission mixte paritaire reste à voter.

En quelques chiffres, ce chantier vise à créer une autoroute 2x2 voies de 53 kilomètres et 200 ouvrages d’art pour un montant total estimé à 513 millions d’euros. L’autoroute sera ensuite exploitée dans le cadre d’une concession de cinquante-cinq ans. Les détracteurs de ce projet ont attiré l’attention du public sur son impact environnemental qui s’étendra sur 400 hectares et affectera 150 espèces protégées.

Mise à disposition du monde

L’enjeu ici n’est pas de juger de la pertinence de ce projet, sujet qui a déjà fait l’objet d’une multitude d’articles et de prises de parole. Mais plutôt de souligner en quoi celui-ci est révélateur de notre « rapport au monde » pour reprendre les termes du sociologue Hartmut Rosa. Dans son essai Rendre le monde indisponible, Rosa définit notre rapport au monde comme cherchant toujours la « mise à disposition » de ce dernier. Chacune de nos actions peut se comprendre comme une manière de « connaître », d’ atteindre », de « conquérir », de « dominer » ou d’« utiliser » le monde.

Le chantier de l’A69 illustre cette volonté de « mise à disposition », de rendre façonnable, malléable, la nature telle que l’être humain le souhaite. Dans le cadre du projet de loi visant à relancer les travaux de l’A69, le sénateur de Haute-Garonne Pierre Médevielle (groupe Les Indépendants, Républiques et Territoires, LIRT) a fustigé devant ses pairs les raisonnements « hors-sol » des détracteurs de l’A69. L’usage de cette expression dans ce contexte paraît surprenant, car ces derniers ont souligné les importants mouvements de terre que ce projet nécessitera : de l’ordre de 5 850 000 m3 de déblais et 5 330 000 m3 de remblais.

Ces raisonnements hors-sol attirent paradoxalement notre attention sur l’une des nombreuses mises à disposition opérées par ces travaux : celle du sol.

Mise à disposition des espaces

L’économiste et mathématicien Nelo Magalhães a montré, même s’il n’use pas ces concepts, dans Accumuler du béton, tracer des routes, une histoire environnementale des grandes infrastructures, comment l’A69 pouvait être appréhendée comme un projet de « mise à disposition » des espaces.

La mécanisation des travaux d’infrastructure a permis aux ingénieurs et projeteurs de réaliser des tracés faisant fi des reliefs qui doivent s’adapter aux infrastructures souhaitées. La stabilisation mécanique (c’est-à-dire, adjonction de matériaux de carrière) et chimique (c’est-à-dire, adjonction d’un liant hydraulique) ont permis la mise à disposition des sols. À cette mécanisation s’est ajoutée une « abstraction des sols ». La construction des autoroutes est pensée indépendamment de la qualité de ces derniers.

Cette volonté de « mettre à disposition » des reliefs, des sols et in fine des territoires (en les désenclavant) n’est pas sans conséquence. Hartmut Rosa parle du monde rendu disponible comme un monde qui se « dérobe » devient « illisible », « muet », à la fois « menacé et menaçant », et donc au bout du compte « constitutivement indisponible ».

Mise à disposition du temps

Les chantiers de construction, non seulement ceux de grandes infrastructures, mais aussi d’ouvrages beaucoup plus ordinaires comme des centres commerciaux, des bureaux ou des hôtels, ne dérogent pas à ce rapport au monde. Et la « mise à disposition » qu’ils opèrent ne se limite pas aux espaces. Elle se décline sur le temps.


À lire aussi : Le train survivra-t-il au réchauffement climatique ?


Cette mise à disposition s’opère au travers des principes de la gestion de projet, définie comme une discipline destinée à agir sur le temps. L’acteur projet se doit de veiller scrupuleusement au triptyque coût, qualité, délai, de Roger Atkinson. C’est bien la notion de délai qui fait du temps un élément central de cette pratique. Elle est a fortiori d’autant plus importante que la vitesse est considérée comme un atout déterminant dans un environnement économique toujours plus concurrentiel. L’évaluation de l’avancement dans le temps est une manière de surveiller ses marges.

La bonne gestion du temps est rendue possible par sa transformation en quantité, autrement appelée sa « fongibilisation » – qui se consomme par l’usage. La recherche s’accorde sur l’idée que la gestion de projet, comme discipline reposant sur des standards, comme ceux du PMBOK, s’appuie sur une conception « quantitative et objective du temps », selon la chercheuse Julie Delisle. Cette conception rend possibles d’innombrables pratiques très concrètes concourant à l’optimisation de son usage. Parmi les plus connues, on peut citer la réalisation de diagrammes de Gantt.

Mais de même que la « mise à disposition » des sols prétendument permise par leur stabilisation conduit à leur imperméabilisation et les rend finalement indisponibles pour des milliers d’années, la mise à disposition du temps « participe à l’accélération et à la pénurie de ce dernier », explique Julie Delisle. Quand bien même la gestion de projet n’a jamais été aussi raffinée dans les chantiers, ces derniers n’ont jamais connu autant de retards. Songeons notamment au chantier de l’EPR de Flamanville et à tant d’autres qui sont autant de preuves de l’inefficacité d’un rapport au temps de l’ordre de la « mise à disposition ».

De la « mise à disposition » au « faire avec »

Pour Nelo Magalhães dont nous évoquions les travaux plus haut, l’une des solutions les plus viables dans une optique environnementale est « l’écologie du démantèlement », c’est-à-dire « apprendre à hériter et à fermer ».

Pour notre part, il nous semble essentiel de porter attention à l’échelle micro, celle des acteurs, de leurs pratiques et de leurs interactions quotidiennes. Cette attention pourrait permettre non pas de « mettre à disposition », mais de « faire avec », c’est-à-dire d’« accepter certaines limites qui contraignent la satisfaction de nos désirs individuels de liberté ou de consommation », selon le professeur en littérature Yves Citton.

Il s’agirait non de s’imposer, mais de tenir compte de la multiplicité des temporalités dans un projet, ou de la multiplicité des acteurs, possiblement non humains, au sein d’un écosystème. Cette attention micro pourrait être le point de départ d’élaboration de pratiques relevant du « faire avec » aux conséquences à terme macro (à l'échelle de la société, des normes).

Certaines initiatives comme le Comprehensive Accounting in Respect of Ecology, dite la comptabilité CARE, relèvent selon nous d’une telle démarche. En tant que système comptable, cet outil influe sur les pratiques quotidiennes, dont les implications peuvent devenir à terme macro-économiques si son usage se diffuse. Ce qui rendrait impossibles certaines activités économiques ne tenant pas compte des enjeux environnementaux.

The Conversation

CONCHE Rémy est maître d'œuvre et responsable de la recherche au sein de l'entreprise CICAD, filiale du groupe INGEROP, un cabinet d'ingénierie du secteur de la construction.

PDF

10.08.2025 à 11:39

La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir

Benjamin Brigaud, Professeur en géologie et géothermie, Université Paris-Saclay

La géothermie aussi peut produire du froid, de manière beaucoup plus économe que les climatiseurs classiques et avec un impact écologique réduit, sans rejeter de chaleur en ville.
Texte intégral (2475 mots)

La géothermie évoque généralement la production de chaleur, mais elle peut également rafraîchir ou produire du froid. Et cela de manière beaucoup plus économe que les climatiseurs classiques et avec un impact écologique réduit. Non seulement il s’agit d’une solution bas carbone, mais elle ne rejette pas de chaleur dans l’air extérieur et ne contribue donc pas à l’effet d’îlot de chaleur urbain, à l’origine de la surchauffe des villes en période de canicule.


La vague de chaleur de fin juin et de début juillet 2025, où 38 °C ont été mesurés à Paris, rappelle que le refroidissement des bâtiments sera un enjeu crucial pour le confort et la sécurité de leurs occupants dans les prochaines années et décennies. Cela fait les beaux jours de la climatisation : en France, la fraction des ménages possédant un climatiseur est passée de 5 % en 2005 à 25 % en 2020.

Mais se tourner vers les climatiseurs pour refroidir nos bâtiments pose question : ces appareils consomment beaucoup d’électricité.

À l’échelle mondiale, le refroidissement représentait, en 2016, 18,5 % de la consommation totale d’électricité dans les bâtiments, contre 13 % seulement en 1990. L’Agence internationale de l’énergie (AIE) table d’ailleurs sur une forte augmentation du nombre de climatiseurs à l’échelle mondiale, avec un taux d’équipement des ménages qui devrait passer de 30 % en 2016 à plus de 60 % en 2050. Elle anticipe également que la climatisation pourrait devenir l’un des principaux contributeurs de la demande mondiale d’électricité dans les prochaines décennies.

L’autre inconvénient des climatiseurs est que, pour produire du froid, ils rejettent de la chaleur à l’extérieur – ce qui contribue localement à la surchauffe urbaine.

À titre d’exemple, à Paris, les climatiseurs sont typiquement de petits équipements de ce type, de 6 à 70 kW par unité. Il a été démontré que leur utilisation pourrait augmenter de 0,5 à 2 °C la température à Paris en été, amplifiant ainsi l’effet d’îlot de chaleur urbain bien connu dans les villes. Lors des vagues de chaleur, ce microclimat sera d’autant plus exacerbé que le nombre de canicules par an va augmenter dans le futur, passant de neuf recensés à Paris entre 1960 et 1990 où la température maximale a atteint 38 °C, à potentiellement une par an à l’horizon 2100.

Une solution pour refroidir les bâtiments sans surchauffer l’air extérieur alentour serait de mobiliser la fraîcheur de notre sous-sol. La géothermie représente ainsi une piste sérieuse non seulement pour le chauffage à la saison froide, mais également pour le confort d’été.


À lire aussi : Climatisation : quelles alternatives au quotidien, quelles recherches pour le futur ?


Une solution économique qui ne génère pas d’îlot de chaleur

À quelques mètres de profondeur, en France, le sous-sol se trouve à une température constante de 12 °C toute l’année. Puis en moyenne, la température augmente en fonction de la profondeur, d’environ 3,5 °C tous les 100 mètres. À 100 mètres de profondeur, cette température est donc de 15/16 °C, et à 200 mètres de profondeur, elle est d’environ 20 °C. À moins de 200 mètres, le sous-sol représente donc une source de fraîcheur, si on vise une température inférieure à 20 °C.

Cette fraîcheur est abondante, mobilisable quasiment partout sur notre territoire, et peut être ainsi produite localement. C’est une solution de refroidissement bas carbone et économe, non intermittente et quasiment inépuisable. La solution serait donc de mieux utiliser cette source de fraîcheur en été, et inversement, de chaleur en hiver.

Mobiliser la fraîcheur du sous-sol pour produire du froid et rafraîchir les bâtiments est une solution technique mature, déjà déployée un peu partout dans le monde. Elle consiste à transférer des calories du sous-sol aux bâtiments par l’intermédiaire d’un ou plusieurs forages de quelques mètres à une centaine de mètres de profondeur, alimentant une pompe à chaleur géothermique (PACg). Cette géothermie est appelée « géothermie de surface », avec des forages d’une profondeur inférieure à 200 mètres.

Comment fonctionne une pompe à chaleur géothermique ?

À l’heure actuelle, cette technologie est surtout utilisée pour le chauffage. Pourtant, si la PACg est réversible, elle permet également de produire du froid en été. Or, ce type de pompe à chaleur (PAC) est pour l’instant utilisée de manière négligeable en France.

Pour le chauffage par PACg, relevant de la géothermie de surface classique, deux techniques sont principalement mises en œuvre.

La première (illustration de droite sur le schéma ci-contre) consiste à capter de l’eau souterraine à environ 12 à 15 °C pour produire du chaud. Comme des calories sont prélevées dans cette eau pour le chauffage, de l’eau plus froide (d’une température comprise entre 5 et 10 °C) est alors réinjectée à la même profondeur dans un autre forage localisé à plusieurs dizaines de mètres. On parle alors de doublet géothermique sur nappe phréatique, c’est-à-dire utilisant l’eau souterraine.

La deuxième technique (illustration de gauche sur le schéma ci-dessus) est celle de la PACg sur sonde géothermique verticale. Elle consiste à placer dans un trou de forage, à une profondeur de quelques mètres à une centaine de mètres, une sonde géothermique. Celle-ci est généralement constituée d’un tube en U en polyéthylène haute densité et contenant un fluide caloporteur constitué d’eau glycolée. Comme le fluide caloporteur est réinjecté à une température d’environ 0 °C, le sous-sol se refroidit de quelques degrés en profondeur, typiquement de 3 °C à 1 mètre du forage, ce qui reste suffisant pour réchauffer le fluide caloporteur qui alimente la PACg.

Les deux techniques permettent toutes deux d’alimenter une PACg, dont le coefficient de performance (COP) est généralement de 4 à 5. C’est-à-dire que pour 1 kWh d’électricité consommé par la PACg, 4 à 5 kWh de chaud ou de froid seront restitués. C’est beaucoup plus efficace que de capter l’air chaud extérieur pour alimenter une PAC aérothermique (PACa) – c’est-à-dire, fonctionnant à l’air – pour produire du froid. De plus, la chaleur émise par la PACg est injectée dans le sous-sol, et non dans l’air extérieur comme avec une PACa, évitant de créer des îlots de chaleur urbains (ICU).

Une autre technique est celle du « géocooling ». La fraîcheur du sous-sol est alors directement utilisée dans les réseaux de ventilation et de refroidissement du bâtiment (plancher/plafond rafraîchissant, ventilo-convecteur, centrale de traitement de l’air…), sans alimenter de PACg. Il s’agit alors d’un rafraîchissement dit passif dans la mesure où il ne consomme quasiment pas d’électricité, hormis les pompes de circulation du fluide caloporteur dans le sous-sol et le bâtiment. Il se caractérise par des coefficients de performance imbattables : de 30 à 50 ! C’est-à-dire, pour 1 kWh consommé, 30 à 50 kWh de fraîcheur peuvent être restitués.


À lire aussi : La géothermie, enjeu majeur pour la neutralité carbone des zones urbaines


Stocker de la chaleur dans le sous-sol pour l’hiver

Un autre avantage de la géothermie pour le refroidissement des bâtiments est que la chaleur évacuée dans le sous-sol en été par la PACg peut être bien utile quelques mois plus tard, à la saison froide. En effet, cela permet de réchauffer localement le sous-sol de quelques degrés autour des sondes, ou encore de réinjecter de l’eau plus chaude (jusqu’à 25 °C) directement dans l’aquifère, ce qui permet de stocker de la chaleur.

Comme il s’agit d’une pompe à chaleur réversible, on peut inverser le système entre l’été et l’hiver. On peut alors « récupérer » en été les calories perdues en hiver, ce qui permet d’augmenter le rendement annuel de l’installation géothermique.

Ce stockage de chaleur peut encore être amplifié par l’ajout de ressources supplémentaires, comme des panneaux solaires thermiques (l’eau chauffée peut être directement réinjectée dans les puits) ou photovoltaïques (l’électricité produite en excès la journée en été alimente alors une résistance qui chauffe de l’eau). Dans le cas de bâtiments industriels, on peut aussi récupérer la chaleur dite fatale, produite par les procédés industriels (par exemple, par les data centers) pour chauffer l’eau réinjectée dans les puits.

Il s’agit donc de réchauffer le sous-sol de manière active, soit en réinjectant l’eau chaude (à environ 40-50 °C) directement dans la nappe phréatique, soit dans le sous-sol via les sondes géothermiques. Cette géothermie « réversible », avec un couplage du chauffage en hiver et rafraîchissement en été, est le grand avantage de cette ressource, d’autant plus que ce couplage permet l’optimisation des systèmes de chauffage et de rafraîchissement.

Ambitions politiques et potentiel inexploité

Invité le 29 juin 2025 lors du Grand Jury RTL-Le Figaro-Public Sénat-M6, le premier ministre François Bayrou a rappelé que la géothermie permet de rafraîchir en économisant plus de 90 % de l’électricité. Lorsqu’il était haut-commissaire au plan, il avait lui-même reconnu l’intérêt de développer la géothermie de surface (à moins de 200 mètres de profondeur) pour chauffer et refroidir des bâtiments.

François Bayrou, premier ministre, invité du Grand Jury RTL-Le Figaro-Public Sénat-M6, le 29 juin 2025 (passage à 00:37:00).

Lors de sa visite au centre opérationnel de gestion des crises du ministère de l’intérieur le 1er juillet 2025, la ministre de la transition écologique Agnès Pannier-Runacher rappelait l’enjeu à rafraîchir sans renvoyer de la chaleur à l’extérieur.

Malgré son potentiel, la géothermie pour le chauffage (hors production d’électricité) n’a produit qu’un million de térajoules (TJ) en 2020, soit seulement 0,17 % de la production annuelle mondiale d’énergie, qui s’élevait à 580 millions de TJ. En France, la géothermie a produit 7 térawattheures (TWh) de chaleur en 2023 : 2,3 TWh pour la géothermie profonde et 4,7 TWh pour la géothermie de surface (utilisée pour les PACg)… soit 0,49 % des 1 420 TWh d’énergie produite en France en 2023.

Dans notre pays, les PACg ne représentent aujourd’hui que 2 % du parc des PAC. Le coût de leur installation peut être un frein : il représente le double de celui d’une chaudière à gaz. Mais une fois amorti, leur coût de fonctionnement est très faible, et même inférieur au coût d’exploitation d’une pompe à chaleur à air (PACa).

L’installation d’une PACg peut également s’avérer complexe, car elle nécessite de forer le sous-sol avant de mettre en place le système de chauffage et climatisation. Peu de professionnels maîtrisent cette technologie ou la proposent spontanément, elle est souvent mise en œuvre à l’initiative du propriétaire.

Il y a un vrai sujet sur comment développer la géothermie et la rendre plus incitative. Nul doute que les prochaines années seront charnières pour mieux développer la filière. Le 28 juillet 2025, le ministère de l’économie a présenté ses sept mesures pour accélérer le développement d’une énergie renouvelable et locale. Par exemple, simplifier les démarches administratives et améliorer la communication sur la géothermie.

Une autre des mesures vise également à réduire les délais de confidentialité de certaines données d’explorations géologiques : aujourd’hui, les entreprises qui font des forages pour étudier le sous-sol doivent garder leurs résultats confidentiels pendant 10 ans. Cela permettrait de les valoriser plus rapidement pour lancer de nouveaux projets de géothermie tout en réduisant les coûts d’exploitation.

The Conversation

Benjamin Brigaud est également membre de l'Institut universitaire de France (IUF). Il a reçu divers financements publics, de l’Université Paris-Saclay, de l'Institut universitaire de France et de l’Agence nationale de la recherche (ANR-22-EXSS-0011).

PDF

07.08.2025 à 15:53

À la découverte du pika « chou », un animal étonnant menacé par le changement climatique

Violaine Nicolas Colin, Maitre de conférence en systématique et phylogéographie, Muséum national d’histoire naturelle (MNHN)

Ces lagomorphes plus proches des lapins que des rats sont aujourd’hui menacés par le changement climatique et par les activités humaines.
Texte intégral (2747 mots)

Les pikas, avec leurs petites oreilles rondes et leur cri perçant, sont devenus des stars des réseaux sociaux. Malgré leur nom, ils n’ont pas inspiré l’emblématique Pokémon Pikachu. Mais ces lagomorphes, plus proches des lapins que des rats, dont le mode de vie est plein de surprises, sont aujourd’hui menacés par le changement climatique et par les activités humaines.


Avec leur petite bouille craquante, leurs oreilles rondes façon peluche et leur cri aigu à faire sursauter un caillou, les pikas ont conquis les réseaux sociaux

Les vidéos virales sont légion : on les admire perchés sur un rocher, joues pleines d’herbes voire de fleurs ou encore poussant leur fameux cri évoquant un « piiiik ! ».

Extrait d’un documentaire de la chaîne britannique BBC sur le pika.

Mais derrière cette adorable façade se cache un animal étonnant, au mode de vie bien plus complexe qu’il n’y paraît. Surtout, son habitat est aujourd’hui menacé par les activités humaines.

Non, les pikas n’ont pas inspiré Pikachu

Commençons par tordre le cou à un mythe tenace : malgré leur nom qui pourrait prêter à confusion, les pikas n’ont rien à voir avec Pikachu, la mascotte électrique de Pokémon.

Contrairement à ce qu’on pourrait penser, le Pokémon Pikachu n’a pas été inspiré par les pikas. Sadie Hernandez, CC BY-SA

Le créateur de la saga, Satoshi Tajiri, a expliqué dans une interview que le nom vient d’onomatopées japonaises : pikapika (« étincelle ») et chu (le cri de la souris). Pikachu est donc censé être une souris… et non un pika. D’ailleurs, avec leurs oreilles arrondies et leur queue invisible, les vrais pikas ne lui ressemblent pas du tout !

Contrairement à ce que leur apparence pourrait laisser penser, les pikas ne sont d’ailleurs pas des rongeurs : ce sont des lagomorphes, comme les lapins et les lièvres. Leur dentition le prouve : deux paires d’incisives à la mâchoire supérieure (contre une seule chez les rongeurs), et une paire en bas. Ce détail anatomique les classe dans un autre groupe bien distinct.

Les pikas font partie de la famille des Ochotonidae. Petits (moins de 30 cm), dotés de courtes oreilles rondes (moins de 4 cm), d’une queue cachée et d’un crâne sans « processus supraorbital » (c’est ainsi que l’on nomme un relief osseux), ils diffèrent des léporidés (lapins et lièvres), leurs cousins aux grandes oreilles et aux queues visibles.

Leur famille ne compte plus qu’un seul genre vivant : Ochotona, composé de 34 espèces. Il n’existe donc pas une seule, mais plusieurs espèces de pikas !

Il existe plus de 30 espèces de pikas différentes (ici, pika américain). US Geological Survey

Ce nombre continue d’évoluer grâce aux recherches récentes qui continuent d’identifier de nouvelles espèces, et en particulier grâce aux études basées sur l’ADN.

L’ancêtre commun des pikas actuel daterait du Miocène (il y a environ 23 millions d’années). Les pikas sont originaires du plateau tibétain-Qinghai et se sont ensuite dispersés et diversifiés dans d’autres régions de l’Eurasie et de l’Amérique du Nord.

Des « lièvres criards » à l’habitat diversifié

Les pikas vivent en Asie (32 espèces), et en Amérique du Nord (2 espèces, dont le pika à collier et le pika américain). Selon leur espèce, ils occupent deux types d’habitats : les milieux rocheux et montagneux, ou bien les prairies et les steppes.

Spécimen de pika à collier (Ochotona collaris). Animalia, CC BY-SA

Les premiers utilisent les éboulis comme refuge, tandis que les seconds creusent des terriers où ils stockent des plantes pour l’hiver. Car, non, les pikas n’hibernent pas : ils passent la mauvaise saison à l’abri, sur leurs réserves.

Ce qui explique que l’on voit autant de vidéos de pika transportant des plantes dans la gueule vers leur abri ! Les pikas des prairies et des steppes ont tendance à se reproduire plus souvent et à avoir des portées plus nombreuses, mais vivent généralement moins longtemps que ceux habitant les milieux rocheux ou montagneux.

Un trait bien connu chez les pikas est leur propension à vocaliser. Leur sifflement strident, qui leur vaut les surnoms de « lièvres siffleurs » ou « lièvres criards », sert à avertir leurs congénères d’un danger ou à défendre leur territoire. Dans les paysages de montagnes, leur cri retentit comme un signal d’alerte minuscule, mais efficace.

Un régime alimentaire… un peu spécial

Les pikas sont principalement herbivores… avec une particularité. Comme leurs cousins les lapins, ils pratiquent la cæcotrophie : ils mangent une partie de leurs excréments (les cæcotrophes) pour mieux digérer les fibres et récupérer certains nutriments produits par les bactéries de leur intestin.

Autrement dit : un repas en deux services ! Mais ils vont parfois plus loin : certaines espèces, comme le pika à lèvres noires, peuvent même manger les crottes… d’autres animaux !

Sur le plateau tibétain, où les températures descendent jusqu’à -30 °C, cette espèce ralentit son métabolisme l’hiver et complète son alimentation en consommant… des crottes de yak.


À lire aussi : Rose : « Pourquoi le lapin mange-t-il ses crottes ? »


Des boules de poil en danger d’extinction

Malheureusement, tout n’est pas rose pour ces petites boules de poils. Quatre espèces sont déjà officiellement considérées comme en danger d’extinction par l’Union internationale pour la conservation de la nature (UICN)  : Ochotona argentata, O. koslowi, O. hoffmanni et O. iliensis.

Le pika de Koslov (O. koslowi), en danger d’extinction, est une espèce endémique en Chine. Planche zoologique de 1890

En cause, la destruction des habitats par la déforestation, par le surpâturage, ou par les effets du changement climatique. En raison de leurs capacités de dispersion limitée et de leur habitat fragmenté, il leur est difficile de se déplacer pour trouver un habitat plus favorable.

L’avenir de beaucoup d’autres espèces de pikas n’a encore fait l’objet d’aucune évaluation, car les données disponibles sur leurs populations et leur écologie sont insuffisantes.

Poussés vers les sommets, mais pas toujours capables d’y survivre

Reste que beaucoup d’espèces de pikas sont biologiquement adaptées à des environnements hivernaux froids. Avec le réchauffement climatique, ils pourront soit remonter vers le nord (ce qui leur est souvent difficile dans des environnements de plus en plus fragmentés), soit s’établir à des altitudes plus élevées… ce qui risque de leur poser problème en raison du manque d’oxygène.

Des chercheurs ont ainsi comparé dix espèces de pikas dont l’habitat se situe entre le niveau de la mer et plus de 5 000 mètres d’altitude.

Ils se sont intéressés à trois gènes présents dans les mitochondries – les minuscules « centrales énergétiques » que l’on trouve à l’intérieur de chaque cellule. Ces gènes permettent à l’organisme d’utiliser l’oxygène pour produire l’énergie dont il a besoin. Chez les pikas de haute altitude, les protéines produites par ces gènes sont particulièrement efficaces : elles permettent de tirer un maximum d’énergie de l’air raréfié en oxygène. Mais chez les pikas vivant plus bas, ces protéines fonctionnent différemment : elles produisent plus de chaleur, ce qui est utile pour rester au chaud, mais elles sont moins bonnes pour générer de l’énergie cellulaire.

Résultat : si ces pikas des basses terres sont contraints de grimper pour échapper au réchauffement climatique, ils risquent de ne pas survivre là-haut. Leur corps n’est tout simplement pas fait pour fonctionner avec si peu d’oxygène.

La disparition des pikas ne serait pas anodine. Dans des écosystèmes comme le plateau tibétain, où ces animaux sont trop souvent tués à cause de la croyance erronée selon laquelle ils dégraderaient les cultures, ces animaux jouent un rôle important dans la chaîne alimentaire et le fonctionnement global des milieux naturels. Leur déclin pourrait entraîner des déséquilibres majeurs.

The Conversation

Violaine Nicolas Colin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.08.2025 à 11:01

Lors des canicules, notre cerveau ne s’aligne pas toujours avec le thermomètre et peut nous mettre en danger

Elisabeth Bourgeois, Économiste, centrée sur les enjeux de climat, d’énergie et de vulnérabilités sociales, Université Savoie Mont Blanc

Perceptions, émotions et normes sociales forment un récit qui guide nos comportements, et qui façonne nos vulnérabilités face aux chaleurs extrêmes.
Texte intégral (2614 mots)

Pourquoi avons-nous tant de mal à nous adapter au changement climatique ? Quand l’asphalte chauffe, le thermomètre ne suffit pas à guider notre action : c’est notre manière de lire ses chiffres qui va décider de nos gestes. Perceptions, émotions et normes sociales forment un récit qui guide nos comportements – et qui façonne nos vulnérabilités face aux chaleurs extrêmes.


Il est 13 heures pile à l’école Joliot‑Curie dans une ville du Val‑de‑Marne. Un élève braque un thermomètre infrarouge sur la dalle : 52 °C. Trois pas plus loin, sous le paillis d’un jeune tilleul planté dans le cadre du programme européen OASIS – présenté comme étude de cas sur le portail Climate‑ADAPT de l’Agence européenne de l’environnement – le thermomètre tombe à 38 °C. Les enfants, médusés, rebaptisent la zone « four » et déplacent leur ballon vers l’ombre : en quelques secondes, la température devient un récit collectif qui reprogramme des gestes.

Pour réussir l’adaptation au changement climatique, à l’image de ces écoliers, nous devons voir les vagues de chaleur comme un récit partagé, avec des actions modulables. À cet égard, on dispose déjà d’une décennie de recherche internationale – et de l’expérience de quelques villes qui ont déjà mis ces travaux au service de la fraîcheur.

Les personnes en bonne santé plus susceptibles d’ignorer les risques de la chaleur

Au printemps 2025, nous avons publié une enquête, avec deux collègues économistes de l’énergie, dans la revue scientifique Climate Policy. Trois cents Français de plus de 55 ans, issus de 13 régions, étaient appelés à réagir à deux scénarios : l’un de cinq jours annoncés à 33 °C et, le deuxième, de cinq jours à 36 °C.

Ils devaient cocher, parmi une liste de cinq gestes protecteurs (boire plus d’eau, adapter sa tenue vestimentaire, prendre des mesures pour réguler au mieux la température de son logement, solliciter une aide extérieure et chercher un lieu frais), ceux qu’ils prévoyaient de réaliser.

Leurs réponses nous ont permis d’évaluer leurs croyances dans la probabilité d’une canicule et sa gravité pour leur santé, ainsi que la nature de leurs émotions face à ces scénarios.

De fait, les participants se disant « en pleine forme » passaient en moyenne de 3,6 gestes envisagés à 33 °C à 1,8 geste à 36 °C : près de deux fois moins. Ceux qui se déclaraient « un peu inquiets » suivaient le mouvement inverse : de 2,9 gestes à 4,4 (+ 52 %).

Certes, l’exercice reste déclaratif : il mesure l’intention et pas l’action. Mais des synthèses de psychologie sociale montrent qu’environ 40 % des comportements observés s’éclairent par les intentions déclarées. Dit autrement : quand l’intention augmente, le comportement suit souvent – pas toujours, mais suffisamment pour orienter à bon escient l’action publique.

Il suffit de trois degrés de plus pour que la vigilance change de camp et que la lecture de la situation change du tout au tout. Ces résultats prolongent ceux d’une méta‑analyse publiée dans Nature Climate Change. Notre perception du risque, notre sentiment d’efficacité et nos émotions expliquent près d’un tiers des conduites d’adaptation individuelles, davantage encore que l’âge ou la prise de médicaments comme des bêta-bloquants !

Le cerveau, pour le dire vite, règle le thermostat du corps. C’est notre « état intérieur » qui dicte pour beaucoup notre aptitude à nous adapter – et donc, notre vulnérabilité face aux chaleurs extrêmes.

Environnement, individu et comportement : un triptyque indissociable

Comme cela a été mis en évidence par une vaste revue de littérature publiée en 2019, les comportements face à la chaleur résultent toujours de la conjonction de trois types de facteur :

  • un facteur environnemental (géométrie urbaine, albédo – la capacité d’une surface à réfléchir la lumière –, circulation d’air…),

  • un facteur personnel (âge, santé, attentes, croyances…),

  • et, enfin, un facteur comportemental (type d’activité, normes sociales…).

Ces trois piliers sont indispensables pour prendre en compte la diversité des situations individuelles.

Les indicateurs utilisés pour évaluer le confort thermiques ne sont pertinents qu’en intérieur, et ne s’appliquent donc pas aux personnes actives en extérieur. CC BY-NC-SA

Des indicateurs couramment utilisés pour évaluer le confort thermique, le Predicted Mean Vote (PMV) et le Physiologically Equivalent Temperature (PET) l’illustrent bien : le premier estime le « vote thermique moyen » d’un groupe assis dans un bureau climatisé et le second traduit l’état thermique équivalent pour un individu immobile.

Parfaits en intérieur, ces outils montrent leurs limites lorsqu’on les applique à un joggeur, à un ouvrier ou à des enfants dans une cour d’école. Autant dire que prédire la sensation d’un joggeur marseillais avec un modèle mis au point dans une chambre climatique danoise équivaudrait à calibrer un sous‑marin avec un altimètre.


À lire aussi : Végétaliser les cours de récréation pour encourager la curiosité des enfants


Pourquoi et comment s’adapter au changement climatique

Les chiffres sont têtus et l’impact des vagues de chaleur difficile à ignorer. Par exemple :

L’adaptation n’a donc de sens que si l’on agit, en même temps, sur la façon dont les habitants lisent, ressentent et anticipent les degrés supplémentaires. Un espace vert ou un refuge climatisé ne suffisent pas : encore faut‑il que chacun sache où ils sont, quand ils ouvrent, ce qu’on y trouve et qu’on s’y sente légitime. C’est le rôle des récits collectifs.

Le retour d’expérience des villes pionnières montre que c’est possible :

Le parc de la citadelle, à Barcelone (Espagne), est un exemple de refuge climatique. Barcelona for Climate

Mais les infrastructures ne suffisent pas. Elles rendent possible le geste (se déplacer, s’abriter, ralentir…), mais c’est d’abord le message ciblé qui fournira la clé cognitive pour le faire (« Je suis concerné », « Je sais quoi faire », « Je peux effectivement le faire »).

Adaptation et action publique : comment débusquer le biais d’invulnérabilité

Il est donc essentiel de tenir compte des éléments de psychologie et des biais de perception, mentionnés plus haut, pour améliorer l’adaptation climatique, et, en particulier, l’action publique dans ce domaine.

Réécrire les alertes est la première évidence. Ainsi, des messages d’ordre général comme « Buvez de l’eau » glisseront sur les profils les plus optimistes. Au contraire, un SMS nominatif rappelant, par exemple, qu’un traitement diurétique triple le risque de déshydratation va augmenter significativement l’adoption de gestes de protection et réduire le risque de stress thermique chez les personnes âgées.

En Finlande, par exemple, le service météorologique publie des avertissements relatifs aux températures et l’institut finnois pour la santé et le bien-être (THL) publie des guides spécifiques pour les crèches et écoles. La Ville d’Helsinki a d’ailleurs évalué l’adaptation au climat de ses écoles et de ses garderies.

Reste le cas des « invincibles volontaires » – ceux qui ont décidé qu’ils supporteront la chaleur. Là, l’outil le plus efficace n’est pas le gobelet d’eau mais l’autodiagnostic.

Un quiz de deux minutes, intégré à une appli de running par exemple, pourrait faire virer l’écran au rouge dès que l’humidex – indice combinant température et humidité – tutoie le seuil de danger. La liberté d’aller courir demeure, mais le sportif ne peut plus ignorer les risques.

Planter des arbres, enfin, est utile en ville pour limiter l’effet îlot de chaleur urbain (ICU), mais doit être fait avec discernement. Selon la Commission européenne, couvrir 30 % de la surface urbaine par le feuillage des arbres (canopée) permettrait d’éviter plus de 2 500 décès prématurés en Europe chaque été. Mais si un tilleul avenue Montaigne (Paris) va simplement flatter Instagram, le même tilleul à Clichy‑sous‑Bois (Seine-Saint-Denis) devient un acte de santé publique.

Ces enseignements ne suffiront probablement pas à dompter l’été 2050. Ils rappellent cependant que la chaleur meurtrière n’est pas qu’une donnée météorologique, mais avant tout un récit à réécrire sans cesse – avec des SMS, des cours, des QR codes sur les abribus et des arbres là où ils comptent.

Retour à Joliot‑Curie. Les élèves ont rangé le thermomètre et filent sous l’ombre maigre mais tangible du jeune tilleul. Le thermomètre ment rarement, mais nos certitudes, elles, peuvent tuer. Les tempérer – par un message bien tourné, un tilleul bien placé, un voisin bien informé – est tout aussi important que de faire tomber la température.

The Conversation

Elisabeth Bourgeois a reçu des financements de l’ANR (ANR‑18‑EURE‑0016 – Solar Academy) et de la Public Trust in Health Chair (Grenoble École de Management). Aucun autre intérêt déclaré.

PDF

06.08.2025 à 14:04

Canicule : Soulignons, sans état d’âme, nos progrès d’adaptation depuis 2003

François Lévêque, Professeur d’économie, Mines Paris - PSL

Depuis 2003, l’Europe a réalisé des progrès dans l’adaptation aux vagues de chaleur : en proportion, on meurt moins, même si les températures sont plus élevées. Et demain ?
Texte intégral (2515 mots)

Depuis 2003, l’Europe a réalisé des progrès conséquents dans l’adaptation aux vagues de chaleur : en proportion, on meurt moins, même si les températures sont plus élevées. Et demain ?


La chaleur tue : on a recensé plusieurs centaines de décès à Paris ainsi que dans d’autres grandes capitales européennes lors de la canicule de mi-juin à début juillet 2025. Le nombre de morts aurait triplé par rapport à la normale du fait du changement climatique, selon une estimation réalisée par des chercheurs britanniques.

Ces chiffres font peur. Ils masquent cependant les grands progrès réalisés pour limiter notre vulnérabilité face à la multiplication des vagues de chaleur. La chaleur tue mais de moins en moins, grâce à nos actions individuelles et collectives d’adaptation. Il faut s’en féliciter, et non l’ignorer.

Les données d’observation de mortalité par les agences sanitaires n’étant pas encore disponibles, le calcul qui précède repose sur des modèles et des méthodes, connus des spécialistes. La plupart sont désormais suffisamment au point pour rendre compte en confiance de leurs résultats sur les progrès de l’adaptation.


À lire aussi : Paris est une des pires villes européennes en temps de canicule. Comment changer cela ?


La canicule de 2003, ou l’Année zéro

Commençons notre examen en prenant pour point de repère la canicule de 2003 en France. Cet été-là le pays a connu une véritable hécatombe : près de 15 000 décès en excès.

En contrecoup, les pouvoirs publics ont décidé toute une série d’actions préventives pour protéger la population des grandes chaleurs : mise en place d’un système d’alerte annonçant les canicules, campagnes d’information auprès du public sur les façons de se protéger, formation du personnel de santé, ouverture d’espaces climatisés dans les maisons de retraite et les services hospitaliers, etc.

Quelques années plus tard, une équipe regroupant des chercheurs de l’Inserm, de Météo France et de Santé publique France s’est demandé si ces mesures avaient bien été suivies d’effet. À partir d’un modèle reliant mortalité et températures observées en France sur vingt-cinq ans, ils ont estimé que la canicule de l’été 2006 s’était traduite par une baisse de plus de moitié du nombre de décès en excès.

Ce progrès ne peut pas, bien sûr, être imputé aux seules actions publiques. La canicule de 2003 a été à l’origine d’une prise de conscience généralisée des méfaits de la chaleur, de changement des comportements individuels et d’achat d’appareils de rafraîchissement, tels que ventilateurs et climatiseurs, mais aussi d’équipements plus innovants apparus plus tard sur le marché, comme les rafraîchisseurs d’air ou les pompes à chaleur réversibles.

Attention, le frigidaire distributeur de glaçons ne fait pas partie de cette panoplie ! En cas de fortes températures, il faut éviter de boire de l’eau glacée pour se rafraîchir. Elle ralentit la sudation, mécanisme fondamental de l’organisme pour lutter contre la chaleur.

Pourquoi il est délicat de comparer 2022 et 2003

L’été 2022 a constitué la seconde saison la plus chaude jamais enregistrée dans l’Hexagone. Le nombre de décès en excès a été toutefois cinq fois moindre que celui de 2003, mais on ne sait pas précisément quelle part de cette baisse est simplement due à des conditions caniculaires un peu moins défavorables.

La comparaison 2003/2022 est tout aussi délicate au niveau européen. On dispose bien, à cette échelle, de travaux d’estimation de la surmortalité en lien avec la chaleur aux deux dates, mais ils reposent sur des méthodes différentes qui rendent leurs résultats peu comparables : 74 483 décès pour la canicule de 2003 en Europe contre 61 672 morts lors de la canicule de 2022.

En effet, le premier chiffre mesure des décès en excès par rapport à une période de référence, tandis que le second découle de l’application d’une méthode épidémiologique. Celle-ci, plus sophistiquée, mais aussi plus rigoureuse, consiste à estimer pour une ville, une région ou un pays, le risque de mortalité relatif en fonction de la température, à tracer une « courbe exposition-réponse », selon le jargon des spécialistes.

Pour l’Europe entière, le risque est le plus faible autour de 17 °C à 19 °C, puis grimpe fortement au-delà. Connaissant les températures journalières atteintes les jours de canicule, on en déduit alors le nombre de décès associés à la chaleur.

Quelles canicules en Europe à l’horizon 2050 ?

Résumé ainsi, le travail paraît facile. Il exige cependant une myriade de données et repose sur de très nombreux calculs et hypothèses.

C’est cette méthode qui est employée pour estimer la surmortalité liée aux températures que l’on rencontrera d’ici le milieu ou la fin de ce siècle, en fonction, bien sûr, de différentes hypothèses de réchauffement de la planète. Elle devrait par exemple être décuplée en Europe à l’horizon 2100 dans le cas d’un réchauffement de 4 °C.

Ce chiffre est effrayant, mais il ne tient pas compte de l’adaptation à venir des hommes et des sociétés face au réchauffement. Une façon de la mesurer, pour ce qui est du passé, consiste à rechercher comment la courbe exposition-réponse à la température se déplace dans le temps. Si adaptation il y a, on doit observer une mortalité qui grimpe moins fortement avec la chaleur qu’auparavant.

C’est ce qui a été observé à Paris en comparant le risque relatif de mortalité à la chaleur entre la période 1996-2002 et la période 2004-2010. Aux températures les plus élevées, celles du quart supérieur de la distribution, le risque a diminué de 15 %.

Ce chiffre ne semble pas très impressionnant, mais il faut savoir qu’il tient uniquement compte de la mortalité le jour même où une température extrême est mesurée. Or, la mort associée à la chaleur peut survenir avec un effet de retard qui s’étend à plusieurs jours voire plusieurs semaines.

La prise en compte de cet effet diminue encore le risque entre les deux périodes : de 15 % à 50 %. Cette baisse de moitié est plus forte que celle observée dans d’autres capitales européennes comme Athènes et Rome. Autrement dit, Paris n’est pas à la traîne de l’adaptation aux canicules.

De façon générale et quelle que soit la méthode utilisée, la tendance à une diminution de la susceptibilité de la population à la chaleur se vérifie dans nombre d’autres villes et pays du monde développé. L’adaptation et la baisse de mortalité qu’elle permet y est la règle.

La baisse de la mortalité en Europe compensera-t-elle l’augmentation des températures ?

C’est une bonne nouvelle, mais cette baisse de la surmortalité reste relative. Si les progrès de l’adaptation sont moins rapides que le réchauffement, il reste possible que le nombre de morts en valeur absolue augmente. En d’autres termes, la mortalité baisse-t-elle plus vite ou moins vite que le réchauffement augmente ?

Plus vite, si l’on s’en tient à l’évolution observée dans dix pays européens entre 1985 et 2012. Comme ces auteurs l’écrivent :

« La réduction de la mortalité attribuable à la chaleur s’est produite malgré le décalage progressif des températures vers des plages de températures plus chaudes observées au cours des dernières décennies. »

En sera-t-il de même demain ? Nous avons mentionné plus haut un décuplement en Europe de la surmortalité de chaleur à l’horizon 2100. Il provient d’un article paru dans Nature Medicine qui estimait qu’elle passerait de 9 à 84 décès attribuables à la chaleur par tranche de 100 000 habitants.

Mais attention : ce nombre s’entend sans adaptation aucune. Pour en tenir compte dans leurs résultats, les auteurs de l’article postulent que son progrès, d’ici 2100, permettra un gain de mortalité de 50 % au maximum.

Au regard des progrès passés examinés dans ce qui précède, accomplis sur une période plus courte, une réduction plus forte ne semble pourtant pas hors de portée.

Surtout si la climatisation continue de se développer. Le taux d’équipement d’air conditionné en Europe s’élève aujourd’hui à seulement 19 %, alors qu’il dépasse 90 % aux États-Unis. Le déploiement qu’il a connu dans ce pays depuis un demi-siècle a conduit à une forte baisse de la mortalité liée à la chaleur.

Une moindre mortalité hivernale à prendre en compte

Derrière la question de savoir si les progrès futurs de l’adaptation permettront de réduire la mortalité liée à la chaleur de plus de 50 % en Europe, d’ici 2100, se joue en réalité une autre question : la surmortalité associée au réchauffement conduira-t-elle à un bilan global positif ou bien négatif ?

En effet, si le changement climatique conduit à des étés plus chauds, il conduit aussi à des hivers moins rudes – et donc, moins mortels. La mortalité associée au froid a été estimée en 2020 à 82 décès par 100 000 habitants. Avec une élévation de température de 4 °C, elle devrait, toujours selon les auteurs de l’article de Nature Medicine, s’établir à la fin du siècle à 39 décès par 100 000 personnes.

Si on rapporte ce chiffre aux 84 décès par tranche de 100 000 habitants liés à la chaleur, cités plus haut, on calcule aisément qu’un progrès de l’adaptation à la chaleur de 55 % suffirait pour que la mortalité liée au froid et à la chaleur s’égalisent. Le réchauffement deviendrait alors neutre pour l’Europe, si l’on examine la seule mortalité humaine liée aux températures extrêmes.

Mais chacun sait que le réchauffement est aussi à l’origine d’incendies, d’inondations et de tempêtes mortelles ainsi que de la destruction d’écosystèmes.

Sous cet angle très réducteur, le réchauffement serait même favorable, dès lors que le progrès de l’adaptation dépasserait ce seuil de 55 %. Si l’on ne considère que le cas de la France, ce seuil est à peine plus élevé : il s’établit à 56 %.

Des conclusions à nuancer

La moindre mortalité hivernale surprendra sans doute le lecteur, plus habitué à être informé et alarmé en période estivale des seuls effets sanitaires négatifs du réchauffement. L’idée déroutante que l’élévation des températures en Europe pourrait finalement être bénéfique est également dérangeante. Ne risque-t-elle pas de réduire les motivations et les incitations des Européens à diminuer leurs émissions de gaz à effet de serre ?

C’est peut-être cette crainte qui conduit d’ailleurs les auteurs de l’article de Nature Medicine à conclure que :

« La mortalité nette augmentera substantiellement si l’on considère les scénarios de réchauffement les plus extrêmes et cette tendance ne pourra être inversée qu’en considérant des niveaux non plausibles d’adaptation. »

Notons également que ces perspectives concernent ici l’Europe. Dans les pays situés à basse latitude, la surmortalité liée aux températures est effroyable. Leur population est beaucoup plus exposée que la nôtre au changement climatique ; elle est aussi plus vulnérable avec des capacités d’adaptation qui sont limitées par la pauvreté.

À l’horizon 2100, la mortalité nette liée aux températures est estimée à plus de 200 décès pour 100 000 habitants en Afrique sub-saharienne et à près de 600 décès pour 100 000 habitants au Pakistan.

Concluons qu’il ne faut pas relâcher nos efforts d’adaptation à la chaleur en Europe, quitte à ce qu’ils se soldent par un bénéfice net. Les actions individuelles et collectives d’adaptation à la chaleur sauvent des vies. Poursuivons-les. Et ne relâchons pas pour autant nos efforts de réduction des émissions, qui sauveront des vies ailleurs, en particulier dans les pays pauvres de basses latitudes.


François Lévêque a publié, avec Mathieu Glachant, Survivre à la chaleur. Adaptons-nous, Odile Jacob, 2025.

The Conversation

François Lévêque ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.08.2025 à 15:17

« Comment ne pas être tué par la bombe atomique » En 1950, les curieux conseils de « Paris Match »

Anne Wattel, Professeure agrégée, Université de Lille

Il y a 80 ans, le 6 août 1945, se déroulait une tragédie nommée Hiroshima. Dans « le Souffle d’Hiroshima », la chercheuse Anne Wattel revient sur la construction du mythe de l’atome bienfaisant.
Texte intégral (2098 mots)

Il y a 80 ans, le 6 août 1945, se déroulait une tragédie nommée Hiroshima. Les mots de la bombe se sont alors imposés dans l’espace médiatique : « E = mc2 », « Little Boy et Fat Man », « radiations », « bikini », « gerboise », « globocide »…

Dans le Souffle d’Hiroshima, publié en 2024 aux éditions Epistémé (librement accessible en format numérique), la chercheuse Anne Wattel (Université de Lille) revient, à travers une étude culturelle qui s'étende de 1945 à 1960, sur la construction du mythe de l’atome bienfaisant.

Ci-dessous, nous reproduisons un extrait du chapitre 3, consacré à l’histoire du mot « bikini » ainsi qu’à un étonnant article publié par Paris Match en 1950.


« Il y a eu Hiroshima […] ; il y a eu Bikini avec sa parade de cochons déguisés en officiers supérieurs, ce qui ne manquerait pas de drôlerie si l’habilleuse n’était la mort. » (André Breton, 1949

Juillet 1946 : Bikini, c’est la bombe

Lorsqu’en 1946, le Français Louis Réard commercialise son minimaliste maillot de bain deux pièces, il l’accompagne du slogan : « Le bikini, première bombe anatomique. »

On appréciera – ou pas – l’humour et le coup de com’, toujours est-il que cette « bombe », présentée pour la première fois à la piscine Molitor, le 5 juillet 1946, est passée à la postérité, que le bikini s’est répandu sur les plages et a occulté l’atoll des îles Marshall qui lui conféra son nom, atoll où, dans le cadre de l’opération Crossroads, les Américains, après avoir convaincu à grand renfort de propagande la population locale de s’exiler (pour le bien de l’humanité), multiplièrent les essais atomiques entre 1946 et 1958.

La première bombe explose le 1er juillet 1946 ; l’opération est grandement médiatisée et suscite un intérêt mondial, décelable dans France-soir qui, un mois et demi avant « l’expérience », en mai 1946, renoue avec cet art subtil de la titraille qui fit tout son succès :

« Dans 40 jours, tonnerre sur le Pacifique ! Bikini, c’est la bombe » (France-soir, 19-20 mai 1946)

Mais la bombe dévie, ne touche pas l’objectif et la flotte cobaye est quasiment intacte. C’est un grand flop mondial, une déception comme le révèlent ces titres glanés dans la presse française :

  • « Deux navires coulés sur soixante-treize. “C’est tout ?” » (Ce soir, 2 juillet 1946) ;

  • « Bikini ? Ce ne fut pas le knockout attendu » (Paris-presse, 2 juillet 1946) ;

  • « À Bikini, la flotte cobaye a résisté » (France-soir, 2 juillet 1946).

C’est un « demi-ratage », un possible « truquage » pour l’Aurore (2 juillet 1946) ; et le journal Combat se demande si l’expérience de Bikini n’a pas été volontairement restreinte (Combat, 2 juillet 1946).

Les essais vont se poursuivre, mais le battage médiatique va s’apaiser. Le 26 juillet, Raymond Aron, dans Combat, évoque, effaré, la déception générale occasionnée par la première bombe et se désespère alors qu’on récidive :

« Les hommes seuls, maîtres de leur vie et de leur mort, la conquête de la nature, consacrée par la possession d’un pouvoir que les sages, dans leurs rêves, réservaient aux dieux : rien ni personne ne parviendra à voiler la grandeur tragique de ce moment historique. »

Et il conclut :

« […] Aujourd’hui, rien ne protège l’humanité d’elle-même et de sa toute-puissance mortelle. »


À lire aussi : Bonnes feuilles : « Des bombes en Polynésie »


Premier-Avril 1950 : « Comment ne pas être tué par une bombe atomique »

L’hebdomadaire français Paris Match, qui a « le plus gros tirage dans les années 1950 avec près de 2 millions d’exemplaires chaque semaine », dont « l ‘impact est considérable » et qui « contribue à structurer les représentations », propose dans son numéro du 1er avril 1950 une couverture consacrée, comme c’est fréquemment le cas, à l’aristocratie (ici la famille royale de Belgique) mais, dans un unique encadré, bien visible en haut de page, le titre, « Comment ne pas être tué par une bombe atomique », se présente comme un véritable produit d’appel d’autant plus retentissant qu’on sait officiellement, depuis septembre 1949, que l’URSS possède la bombe atomique.

Paris Match, 54, 1er avril 1950, première de couverture et titres des pages 11 et 12. © Paris Match/Scoop

L’article, qui nous intéresse et qui se déploie sur deux pleines pages, est écrit par Richard Gerstell qu’un encadré présente comme « un officier de la marine américaine », « un savant », « docteur en philosophie », « conseiller à la défense radiologique à l’Office de la défense civile des États-Unis ». L’auteur est chargé par le ministère de la défense d’étudier les effets de la radioactivité des essais atomiques de Bikini et d’élaborer des « plans pour la protection de la population civile contre une éventuelle attaque atomique ».

L’encadré inséré par la rédaction de Paris Match vise donc à garantir la crédibilité du rédacteur de l’article, un homme de terrain, un scientifique, dont on précise qu’il « a été exposé plusieurs fois aux radiations atomiques et n’en a d’ailleurs pas souffert physiquement (il n’a même pas perdu un cheveu) », qui rend compte de sa frayeur lorsque le compteur Geiger révéla que ses cheveux étaient « plus radioactifs que la limite ». Il s’agit donc, du moins est-ce vendu ainsi, du témoignage, de l’analyse d’un témoin de choix ; il s’agit d’une information de première main.


À lire aussi : Bombe atomique et accident nucléaire : voici leurs effets biologiques respectifs


Dans les premiers paragraphes de l’article de Match, Gerstell explique avoir eu, dans les premiers temps, « la conviction que la destruction atomique menaçait inévitablement une grande partie de l’humanité ». C’est pourquoi il accueillit favorablement la parution de l’ouvrage de David Bradley, No Place to Hide (1948), qui alertait sur les dangers de la radioactivité. Mais il ne s’appuyait alors, confie-t-il, que sur une « impression » ; il manquait de recul. En possession désormais des « rapports complets des expériences de Bikini et des rapports préliminaires des nouvelles expériences atomiques d’Eniwetok », il a désormais « franchement changé d’avis ».

L’article publié dans Match vise un objectif : convaincre que la radioactivité, sur laquelle on en sait plus que sur « la poliomyélite ou le rhume », « n’est, au fond, pas plus dangereuse que la fièvre typhoïde ou d’autres maladies qui suivent d’habitude les ravages d’un bombardement ».

Fort de son « expérience “Bikini” », durant laquelle, dit-il, « aucun des 40 000 hommes » qui y participèrent « ne fut atteint par la radioactivité », Gerstell entend mettre un terme aux « légendes » sur les effets de cette dernière (elle entraînerait la stérilité, rendrait des régions « inhabitables à jamais »). « Tout cela est faux », clame-t-il ; la radioactivité est « une menace beaucoup moins grande que la majorité des gens le croient ».

Un certain nombre de précautions, de conseils à suivre pour se protéger de la radioactivité en cas d’explosion nucléaire sont livrés aux lecteurs de Paris Match : fermer portes et fenêtres, baisser les persiennes, tirer les rideaux ; ôter ses souliers, ses vêtements avant de rentrer chez soi, les laver et frotter ; prendre des douches « copieuses » pour se débarrasser des matières radioactives ; éviter les flaques d’eau, marcher contre le vent ; s’abriter dans une cave, « protection la plus adéquate contre les radiations »…

On laisse le lecteur apprécier l’efficacité de ces mesures…

Pour se protéger de la bombe elle-même dont « la plupart des dégâts sont causés par les effets indirects de l’explosion », se coucher à plat ventre, yeux fermés ; pour éviter les brûlures, trouver une barrière efficace (mur, égout, fossé) ; porter des « vêtements en coton clair », des pantalons longs, des blouses larges, « un chapeau aux bords rabattus »…

Ainsi, ce témoin, ce « savant », qui étudia l’impact de la radioactivité, rassure-t-il le lectorat français de Match : on peut se protéger de la bombe atomique, des radiations ; il suffit d’être précautionneux.

Foin des légendes ! Ce regard éclairé, scientifiquement éclairé, s’appuie sur l’expérience, sur Bikini, sur Hiroshima et Nagasaki pour minorer (et c’est peu dire) le danger des radiations, car, c’est bien connu, « les nuages radioactifs à caractère persistant sont vite dissipés dans le ciel » (cela n’est pas sans nous rappeler l’incroyable mythe du nuage qui, à la suite de la catastrophe de Tchernobyl, le 26 avril 1986, se serait arrêté aux frontières de la France) ; « la poussière radio-active persistante qui se dépose sur la peau ne paraît pas dangereuse » ; « au voisinage immédiat du point d’explosion, une pleine sécurité peut être assurée par 30 centimètres d’acier, 1 mètre de béton ou 1 m 60 de terre. À un kilomètre et demi, la protection nécessaire tombe à moins d’un centimètre d’acier et quelques centimètres de béton ».

En avril 1950, l’Américain Richard Gerstell, dont les propos sont relayés en France par l’hebdomadaire Paris Match, niait encore l’impact de la radioactivité.

The Conversation

Anne Wattel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.08.2025 à 15:46

Votre logement est-il adapté à la chaleur ?

Ainhoa Arriazu-Ramos, Dra Arquitecta-Investigadora postdoctoral en sostenibilidad medioambiental y adaptación al cambio climático de las ciudades, Universidad de Deusto

En ville, le choix des matériaux et de la végétation peut faire baisser les températures, mais au niveau des habitations, l’isolation, les fenêtres et l’exposition jouent aussi un rôle important.
Texte intégral (1516 mots)
En 2050, plus de 70 % de la population mondiale vivra en ville. Kzww/Shutterstock

En ville, planter des arbres peut faire baisser les températures, mais au niveau des habitations en elles-mêmes, l’isolation, les fenêtres et l’exposition jouent un rôle tout aussi important.


L’année 2024 a été la plus chaude jamais recensée au niveau mondial depuis le début des mesures, avec une température moyenne supérieure de 1,55 °C à celle de la période préindustrielle. Les vagues de chaleur ne sont plus des événements isolés : elles sont de plus en plus fréquentes, intenses et longues.

L’impact du réchauffement climatique global est particulièrement grave dans les villes. Le phénomène des îlots de chaleur urbain (ICU) entraîne des températures urbaines jusqu’à 4 °C plus élevées que dans les zones rurales voisines, en particulier pendant les nuits d’été.

Si l’on ajoute à cela le fait que de plus en plus de personnes vivent en milieu urbain (en 2050, plus de 70 % de la population mondiale sera concernée), une question se pose inévitablement : comment concevoir les villes pour qu’elles restent habitables malgré les températures élevées ?

Mieux concevoir l’espace public

Intégrer davantage de nature dans nos villes est l’une des meilleures stratégies pour les adapter à la chaleur.

Mais il ne s’agit pas seulement d’assurer un minimum d’espace vert par habitant : à quoi sert d’avoir un grand parc à une heure de route, si on ne trouve pas d’ombre sur le chemin du travail ou qu’on ne dispose pas d’un espace vert dans son quartier où se réfugier pour échapper à la chaleur ?

Il faut intégrer la nature dans l’aménagement urbain en tenant compte des principes de proximité, de qualité et de quantité des espaces verts. Dans cette optique, la règle des « 3-30-300 » est intéressante : chaque personne devrait pouvoir voir au moins trois arbres depuis son domicile, vivre dans un quartier où au moins 30 % de la superficie est couverte d’arbres et avoir un parc à moins de 300 mètres.

Revoir les aménagements et bâtiments de l’espace public est aussi urgent que de planter des arbres. Les toitures des bâtiments, par exemple, peuvent être des alliés pour réduire la chaleur. Pour cela, il peut être essentiel d’y intégrer de la végétation ou des matériaux réfléchissants. Les façades sont également importantes. Bien choisir leur couleur (de préférence des tons clairs) et les matériaux qui les composent peut contribuer à réduire le problème de surchauffe au lieu de l’aggraver.

Au niveau du sol, il est tout aussi important de repenser le choix des revêtements. Il faut éviter l’utilisation systématique d’asphalte et de béton qui absorbent la chaleur. Explorer des matériaux plus perméables, plus frais et intégrer davantage de végétation peut faire une différence significative.


À lire aussi : Nos villes doivent être plus perméables : comment le biochar peut être une solution durable face aux inondations


Des logements adaptés à la chaleur

Mais il ne suffit pas seulement d’améliorer l’espace public : les logements aussi doivent pouvoir faire face à la chaleur. Nous y passons la majeure partie de notre temps et beaucoup d’entre eux sont inadaptés. Par exemple, une étude a révélé que 85 % des logements de Pampelune (Espagne) ont enregistré des températures trop élevées pendant l’été 2022.

La conception des bâtiments est, à cet égard, déterminante. Certains aspects liés à la conception et à la construction de ces bâtiments, s’ils ne sont pas pris en compte, peuvent aggraver le problème de surchauffe des logements.

L’isolation thermique est le premier point. Bien isoler un bâtiment est une mesure importante, surtout en hiver, mais aussi en été. Cependant, lorsque des logements bien isolés mais trop hermétiques se réchauffent, il devient difficile d’évacuer la chaleur. La clé réside donc dans la conception : la distribution des pièces (et les éventuels systèmes de ventilation mécanique, comme la VMC, ndlt) doit permettre une ventilation adéquate.

Les grandes baies vitrées constituent un autre point qui peut poser problème. Elles sont aujourd’hui appréciées pour la lumière naturelle et la vue qu’elles offrent, mais si elles ne sont pas correctement protégées du soleil, elles contribuent au réchauffement du logement. Il est important que les protections solaires fassent partie intégrante de la conception du bâtiment et ne soient plus seulement des éléments accessoires. Il est possible d’atténuer le rayonnement solaire sans totalement assombrir la maison : avant-toits, volets orientables, auvents ou lamelles, etc.

Il faut également noter que les logements qui n’ont qu’une seule exposition sont plus à risque, alors que ceux à double exposition rendent le rafraîchissement plus aisé.

Compte tenu des besoins actuels en matière de logement, les nouvelles maisons ont tendance à être plus petites. De nombreux appartements en centre-ville sont eux aussi divisés en appartements plus petits. Cette tendance est problématique, car elle entraîne une augmentation du nombre de logements mono-orientés. Outre le respect de la surface minimale, il serait donc intéressant d’exiger qu’ils garantissent des conditions minimales de confort thermique.

En outre, il a été démontré que les logements situés aux derniers étages subissent entre 3,4 % et 5,4 % plus d’heures de surchauffe que ceux situés aux étages intermédiaires. Améliorer l’isolation des toitures n’est pas suffisant, car l’isolation a une limite d’efficacité. Il faut donc aussi innover pour améliorer la construction des bâtiments à ce niveau.

Tout ne dépend pas seulement de l’urbanisme ou de l’architecture. Les citoyens doivent également apprendre à s’adapter à la chaleur urbaine et savoir comment gérer leur logement lors des journées les plus chaudes : comprendre l’influence de l’orientation du logement, aérer au bon moment en fonction de la différence entre la température intérieure et extérieure ou encore utiliser correctement les protections solaires.


À lire aussi : Impact environnemental du bâtiment : qu’est-ce que la construction passive ?


Quelles perspectives ?

Si l’on veut adapter les villes à la chaleur, il ne faut pas éluder la dimension sociale du problème.

La chaleur extrême n’affecte pas toute la population de la même manière : les personnes âgées, les enfants et ceux qui vivent dans des logements de mauvaise qualité ou dans des quartiers peu végétalisés sont plus exposés.

Enfin, nous devons être conscients que le confort thermique ne peut dépendre uniquement de la climatisation ou d’autres systèmes mécaniques. Il est nécessaire de repenser nos villes et nos logements afin qu’ils puissent s’adapter à la chaleur de par leur conception même.

Dans un monde de plus en plus chaud, les villes le plus adaptées seront celles qui seront capables de maintenir le confort thermique tout en minimisant la dépendance à la consommation d’énergie.

The Conversation

Ainhoa Arriazu-Ramos ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.08.2025 à 18:00

Dans les villes, comment les citoyens peuvent participer à la lutte contre la surchauffe

Elodie Briche, Coordinatrice R&D en Urbanisme Durable et intrapreneure Plus fraîche ma ville, Ademe (Agence de la transition écologique)

L’Agence de la transition écologique (Ademe) a créé le service « Plus fraîche ma ville », qui peut être une source d’idées. Retour sur quelques expériences pratiques.
Texte intégral (2575 mots)
Opération végétalisation avec les habitants de Saint-Michel-de-Lanès (Aude). Georges Combes, Fourni par l'auteur

Les canicules, comme celle que la France a vécue entre le 19 juin et le 6 juillet 2025, sont appelées à se multiplier et à s’intensifier avec le changement climatique. Les villes tentent de s’adapter et les citoyens ont dans ce processus de nombreux leviers d’action. L’Agence de la transition écologique (Ademe) a créé un service numérique public gratuit, baptisé « Plus fraîche ma ville », qui peut être une source d’idées. Retour sur quelques expériences pratiques.


La France a été frappée fin juin et début juillet 2025 par une canicule qui a duré près de trois semaines.

Cette période a une nouvelle fois mis en lumière l’inadaptation des villes françaises face aux températures extrêmes, malgré les efforts menés ces dernières années. À l’échelle nationale comme locale, des actions d’adaptation au changement climatique sont en cours. Par exemple : rénovation thermique des écoles, opérations de revégétalisation de l’espace public, de désimperméabilisation des sols urbains…

Mais il n’existe pas de réponse unique à la chaleur. Pour être efficaces, ces mesures doivent être bien pensées en amont : la nature des solutions à engager dépend du contexte, du climat, de l’architecture (ou plus largement de la morphologie urbaine) et de la population de la ville.

C’est pourquoi les villes ont aussi besoin, pour mener leurs politiques d’adaptation, de la participation citoyenne. Les habitants peuvent jouer un rôle, collectivement et individuellement. Et cela, dans le choix des solutions comme dans leur mise en œuvre, afin de lutter le plus efficacement possible contre la surchauffe urbaine.

Nous n’en sommes pas toujours bien conscients, mais nous disposons de leviers pour nous réapproprier les espaces urbains et pour participer à les rendre plus vivables en période de fortes chaleurs. L’Agence de la transition écologique (Ademe) a ainsi créé un service numérique public gratuit, « Plus fraîche ma ville », consacré aux collectivités, qui peut également être une source d’idées inspirantes pour les citoyens.

Projet de végétalisation citoyenne à Saint-Michel-de-Lanès (Aude). Georges Combes, Fourni par l'auteur

En nous informant mieux pour prendre conscience de la situation particulière de notre ville, en participant à des concertations locales sur les projets d’aménagement, en portant des projets avec d’autres citoyens mais aussi par nos comportements individuels, nous disposons d’une vaste panoplie de moyens pour lutter contre le phénomène de surchauffe locale qu’on appelle îlot de chaleur urbain (ICU).

Mais pour pouvoir s’en saisir, encore faut-il les connaître.

Des balades urbaines pour prendre conscience de son environnement

Depuis quelques années, de plus en plus de communes proposent aux citoyens d’appréhender de façon plus concrète la façon dont leur environnement urbain surchauffe, par exemple à travers des « balades urbaines et climatiques ».

Le principe est le suivant : citoyens, élus et experts techniques se réunissent pour suivre un parcours dans la ville à un moment où il fait chaud. De point en point, ils échangent sur leurs sensations dans les différents espaces – trottoirs goudronnés, bouches d’aération évacuant les rejets de climatisation, parcs arborés, aires de jeux exposées au soleil où aucun enfant ne joue…

  • Le premier but est d’objectiver l’aggravation de la chaleur estivale ressentie par l’effet d’îlot de chaleur urbain, ce phénomène qui se traduit par des températures plus élevées en ville qu’en zone rurale. Faire le constat partagé de cette surchauffe sur le terrain permet déjà aux participants de créer un consensus.

  • Dans un second temps, l’idée est de créer du dialogue entre élus, techniciens et habitants pour favoriser un passage à l’action rapide et durable.

C’est par exemple la démarche qui a été menée à Toulon et à la Seyne-sur-Mer, dans le Var. Elle a permis de mettre en évidence des lieux de rafraîchissement, d’identifier le rôle de la minéralisation (béton, goudron…), de la circulation et du stationnement excessif dans l’intensification de l’effet d’îlot de chaleur urbain.

Synthèse des sessions d’observation et des balades sensibles dans le centre-ville de la Seyne-sur-Mer (Var). CEREMA, 2023, Fourni par l'auteur

Par la suite, des solutions concrètes ont été identifiées. Un projet d’adaptation est en cours à l’échelle d’un premier quartier.

Participer aux programmes de sa commune

Une fois le constat posé, comment agir ? Difficile de s’y retrouver dans la jungle des interlocuteurs et des programmes communaux. Il existe pourtant plusieurs façons de prendre part aux décisions et aux actions publiques menées pour adapter les villes à la chaleur.

Cela passe par la participation à des concertations locales, par exemple pour concevoir une cour d’école, une place, un parc municipal… Ou, très concrètement, en mettant les mains dans la terre dans le cadre d’un dispositif de la ville.

Ruelle végétalisée par les habitants à Saint-Michel-de-Lanès (Aude). Mairie de Saint-Michel-de-Lanès, Fourni par l'auteur

Saint-Michel-de-Lanès (Aude), qui a connu un tel projet il y a une dizaine d’années, en donne un bon exemple. Les habitants volontaires ont participé à l’installation de plantes grimpantes sur les façades des maisons. L’enjeu était d’améliorer le confort thermique pour les habitants, l’adaptation aux conditions climatiques locales tout en ayant une gestion plus raisonnée de l’eau. Conseillés par une paysagiste, ils ont sélectionné des plantes peu exigeantes en eau et adéquates pour le climat local (clématites, chèvrefeuilles, jasmins étoilés, etc.), en fonction de différents critères tels que le feuillage, la floraison et les supports.

À Elne, dans les Pyrénées-Orientales, la mairie et les citoyens ont décidé, pour répondre au contexte de sécheresse répétée, de désimperméabiliser et de végétaliser les rues en créant des jardins partagés. L’objectif était de « favoriser l’infiltration de l’eau dans le sol pour limiter le ruissellement pluvial et conserver plus de fraîcheur en cœur de ville ».

Comment lancer un projet avec d’autres citoyens ?

Parfois, attendre que les transformations viennent du haut peut être long et frustrant. De nombreux projets émergent des citoyens eux-mêmes, qui à partir des besoins qu’ils identifient, imaginent des solutions et des espaces adaptés.

Il est tout à fait possible de rejoindre des collectifs citoyens existant, ou même, si vous avez une idée pour lutter contre la chaleur en ville près de chez vous, de fédérer d’autres citoyens pour agir avec vous. Quitte à demander ensuite à la ville de vous accompagner – financièrement, techniquement – pour le mettre en œuvre.

C’est ce qui s’est produit à la cascade des Aygalades, dans les quartiers nord de Marseille (Bouches-du-Rhône), où une association locale, la Cité des arts de la rue, s’est saisie de ce lieu laissé à l’abandon. Elle l’a renaturé pour en faire un lieu de visite, de promenade et de baignade précieux dans cette zone de la Cité phocéenne.

« Permis de végétaliser »

Il existe des façons plus individuelles de s’engager contre la surchauffe urbaine. De plus en plus de villes octroient par exemple des « permis de végétaliser » : il suffit de demander à la ville le droit de planter telles espèces à tel endroit.

Certains citoyens prennent les devants et s’approprient les espaces délaissés, comme en Guadeloupe, dans les dents creuses (parcelles en friches en plein centre-ville), où certains habitants se mobilisent pour créer des jardins.

Plus simplement, nous avons tous un rôle à jouer sur le bien-être thermique collectif par nos comportements du quotidien.

Cela passe par exemple par un usage raisonné de la climatisation : si celle-ci est, en bien des lieux, indispensable, elle ne doit pas être le premier réflexe à adopter, du fait de son impact sur la consommation d’énergie et la facture d’électricité, son risque de déséquilibrer les réseaux, mais aussi sa contribution à l’accentuation de l’effet d’îlot de chaleur urbain – par les rejets d’air chaud qu’elle génère vers l’extérieur.

D’autres pratiques existent pour rafraîchir le logement en évitant, dans bien des cas, le recours à la clim’ : fermer les volets et les stores, humidifier le logement (en faisant sécher une serviette ou un drap mouillé), placer des films anti-chaleur sur les vitres ou encore planter des arbres ou des haies au sud et à l’ouest de l’habitat.


Alice Bour, rédactrice « Plus fraîche ma ville », a contribué à la rédaction de cet article

The Conversation

Elodie Briche est membre de l’Ademe. La start-up Plus fraîche ma ville a reçu des fonds du FINDPE, du FAST et de l’Ademe.

PDF

31.07.2025 à 14:51

Élévation du niveau de la mer : comment « traduire » la science pour la rendre accessible et utile à tous ?

Xénia Philippenko, Maîtresse de conférences en Géographie humaine, Université Littoral Côte d'Opale

Anne Chapuis, Docteure en glaciologie et responsable médiation scientifique CNRS à l'Institut des Géosciences de l'Environnement, Université Grenoble Alpes (UGA)

Gaël Durand, Directeur de recherche CNRS à l'Institut des Géosciences de l'environnement, Université Grenoble Alpes (UGA)

Gonéri Le Cozannet, Chercheur - géosciences, BRGM

Rémi Thiéblemont, Chercheur - BRGM

À quelle hauteur la mer va-t-elle s’élever à cause du changement climatique ? Répondre simplement à cette question à l’échelle d’une commune littorale donnée n’a rien d’évident.
Texte intégral (2874 mots)

À quelle hauteur la mer va-t-elle s’élever à cause du changement climatique ? On peut répondre à cette question en moyenne, avec des estimations et en prenant des hypothèses, mais fournir une réponse précise à l’échelle d’une commune littorale donnée n’a rien d’évident. Plutôt que de répondre par les chiffres, certains projets misent sur d’autres outils, mêlant pédagogie, interactivité et narration.


L’océan fait partie des milieux les plus impactés par le changement climatique. L’élévation du niveau de la mer, en particulier, soumet les populations côtières à des défis toujours plus importants. Par exemple, la salinisation des sols, des sous-sols et des nappes phréatiques ou l’augmentation des risques du submersion sur les littoraux.

En France, de nombreux élus, gestionnaires, entreprises ou habitants du littoral se questionnent sur l’ampleur du phénomène : de combien de centimètres le niveau de la mer va-t-il monter ?

Or, cette hausse dépend de nombreux facteurs. Les scientifiques se demandent comment expliquer un phénomène aussi complexe et entouré d’incertitudes. Comment traduire les données issues des modèles climatiques en outils compréhensibles, utiles et engageants pour le grand public, les décideurs, ou les enseignants ?

C’est le défi que relèvent de nombreux chercheurs et communicants, en développant des dispositifs de « traduction des données », ou data translation : rendre lisible la science sans la trahir.

Le projet européen PROTECT, auquel nous avons participé, porte sur la cryosphère continentale (l’ensemble des glaces sur les continents) et l’élévation du niveau de la mer.

Le site interactif Sea Level Projection Tool, développé dans ce cadre, illustre parfaitement ce concept. Produit par une équipe pluridisciplinaire de scientifiques, informaticiens, communicants, designers et illustrateurs, et rédigé en anglais pour s’adresser à un large public européen et international, il s’appuie sur trois approches complémentaires : la pédagogie, l’interactivité et la narration concrète.

Expliquer avec pédagogie l’élévation du niveau de la mer

Le niveau de la mer évolue sous l’effet de nombreux facteurs. Certains sont environnementaux et directement liés au changement climatique : la fonte des glaciers et des calottes glaciaires (ces vastes masses de glace qui recouvrent des régions entières, comme le Groenland ou l’Antarctique), ainsi que la dilatation thermique des océans provoquée par la hausse des températures entraînent une augmentation du volume de l’eau.

D’autres facteurs sont d’ordre géologique, comme l’affaissement ou le soulèvement localisé des terres émergées. Les causes climatiques, enfin, dépendent directement des décisions politiques : selon que l’on s’oriente vers une transition avec moins d’émissions ou bien vers un futur qui priorise la croissance économique, les trajectoires futures du niveau de la mer varieront considérablement.

Le site Sea Level Projection Tool propose d’expliquer ces différents phénomènes dans un glossaire illustré. Celui-ci s’appuie sur les définitions du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), mais il propose également d’autres formats plus facilement compréhensibles pour le grand public.

Une illustratrice spécialisée en sciences, Clémence Foucher, a réalisé des visuels facilitant la compréhension des phénomènes liés à l’élévation du niveau de la mer. Par exemple, la dilatation thermique (c’est-à-dire, le fait que la hausse de température engendre une augmentation du volume de l’eau) ou la fonte des glaciers et des calottes glaciaires.

Illustrations du processus de perte de masse glaciaire par décharge, au Groenland. Clémence Foucher/Sea Level Projection Tool, Fourni par l'auteur

Ces illustrations nourrissent un cours illustré où l’on découvre les principaux contributeurs aux variations du niveau marin ainsi que les processus physiques associés – fonte, vêlage (séparation d’une masse de glace formant des icebergs), etc.

À chaque fois que cela est possible, une vidéo explicative est également proposée pour approfondir le sujet en moins de cinq minutes.


À lire aussi : Une nouvelle méthode pour évaluer l’élévation du niveau de la mer


Développer l’aspect ludique et interactif

Pour mieux comprendre les causes et les impacts de la montée du niveau de la mer, le site propose un outil interactif qui permet à chacun de simuler les effets de différentes composantes : fonte des glaciers, expansion thermique des océans, etc. Chacun de ces phénomènes affecte le niveau marin de façon différente selon les régions du globe.

Par exemple, la fonte du Groenland provoque une redistribution de masse si importante qu’elle modifie la gravité terrestre, entraînant une montée des eaux plus marquée dans des régions éloignées de la source de fonte.

De même, certaines zones, comme le nord de l’Europe, s’élèvent encore aujourd’hui sous l’effet de la fonte des glaces en Europe à la fin de la dernière glaciation, tandis que d’autres, comme certaines côtes américaines ou asiatiques, s’enfoncent.

En jouant avec ces différents paramètres, les utilisateurs peuvent explorer comment leurs effets se combinent et pourquoi certaines zones sont plus touchées que d’autres. Une manière ludique et pédagogique de s’approprier une réalité complexe, aux conséquences très concrètes.

Des narratifs pour raconter l’impact de la montée des eaux

Comprendre l’élévation du niveau de la mer est un premier pas important. Mais cela reste souvent déconnecté de la réalité des individus, qui ont du mal à se représenter ses conséquences concrètes.

Une section du site propose ainsi des cas fictifs, s’inspirant de situations réellement vécues dans trois pays différents : la France, les Pays-Bas et les Maldives.

Les conséquences liées à l’élévation du niveau de la mer sont assez similaires quelle que soit la région du monde (inondations, érosion, salinisation des sols et des nappes d’eau), mais chaque pays fait face à des défis particuliers et choisit de s’y adapter de manière différente.

Les scientifiques distinguent plusieurs types de mesures d’adaptation à l’élévation du niveau de la mer :

Illustrations de différentes mesures d’adaptation côtière. Clémence Foucher/Sea Level Projection Tool, Fourni par l'auteur

Les trois cas d’études choisis reprennent le même format : une présentation des enjeux (infrastructures, habitations, activités économiques, etc.), les choix de scénarios d’élévation du niveau de la mer – à court, moyen ou long terme et plus ou moins pessimiste – et enfin les solutions d’adaptation envisagées ou déjà mise en place.

Aux Pays-Bas par exemple, les enjeux sont très forts : un quart du territoire étant déjà sous le niveau marin et la culture de lutte contre la mer est ancienne. Le choix est donc fait de protéger les espaces littoraux par de lourdes infrastructures, comme des barrières estuariennes. Ces infrastructures sont tout à la fois des écluses, des ponts, des digues et des routes.

Illustration d’une infrastructure de grande envergure pour protéger un large éventail d’activités. Clémence Foucher/Sea Level Projection Tool, Fourni par l'auteur

Aux Maldives, la survie du pays insulaire est menacée face à l’élévation du niveau de la mer. De nombreuses solutions se développent : protection par des digues, accommodation des bâtiments, construction de nouvelles îles plus hautes, voire de maisons flottantes.

En France, dans certains territoires, les enjeux restent relativement limités ; ce qui permet d’ouvrir des espaces à la mer en reculant les infrastructures. Par exemple, la commune de Quiberville-sur-Mer (Seine-Maritime), recule son camping pour le mettre à l’abri des inondations.

Ces trois exemples illustrent la diversité des situations, ainsi que la nécessité de bien comprendre le phénomène d’élévation du niveau de la mer et de choisir le scénario adapté à sa situation pour déterminer les mesures d’adaptation.


À lire aussi : Élévation du niveau de la mer : quels littoraux voulons-nous pour demain ?


Comprendre pour mieux agir

Face à un phénomène global aux causes multiples et aux conséquences variables en fonction des régions, la compréhension de l’élévation du niveau de la mer ne saurait se limiter à une seule courbe ou à quelques chiffres. Elle nécessite d’explorer des données complexes, d’articuler des scénarios incertains, et surtout de rendre ces connaissances accessibles à celles et ceux qui devront s’y adapter.

Le Sea Level Projection Tool incarne cette démarche de data translation, en combinant rigueur scientifique, narration accessible, interactivité et dimension territoriale. Il s’adresse aussi bien aux citoyens curieux qu’aux enseignants, aux décideurs ou aux jeunes générations, en leur offrant les clés pour mieux comprendre les choix qui s’offrent à nous. Car plus que jamais, comprendre le changement, c’est déjà s’y préparer.


Les auteurs adressent leurs remerciements à Aimée Slangen, à l’équipe informatique du BRGM et à Clémence Foucher.

The Conversation

Xénia Philippenko a reçu des financement du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Anne Chapuis a reçu des financement du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Gaël Durand a reçu des financements du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Gonéri Le Cozannet a reçu des financements du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Rémi Thiéblemont a reçu des financements du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

PDF

29.07.2025 à 15:35

Comment réinventer l’autoroute du Soleil à l’heure de la transition écologique ?

Etienne Faugier, Maître de conférences en histoire, Université Lumière Lyon 2

Retour sur l’histoire de la construction de l’A7, indissociable de l’ère des congés payés, et sur les défis environnementaux, sociaux et économiques auxquels elle fait face.
Texte intégral (3183 mots)

On l’appelle « autoroute du Soleil », voire « autoroute des vacances ». L’A7, au sud de la France, est un axe touristique emblématique. Retour sur l’histoire de sa construction, indissociable de l’ère des congés payés, et sur les défis environnementaux, sociaux et économiques auxquels elle fait face.


En juillet et août, l’autoroute A7, qui relie Lyon à Marseille, est un axe particulièrement emprunté par les automobilistes, camionneurs, motocyclistes, caravanistes et autres camping-caristes. Habituellement chargée le reste de l’année par les poids lourds, elle fait alors l’objet de chassés-croisés entre juilletistes et aoûtiens.

Il s’agit d’un axe majeur du réseau autoroutier français, qui dit beaucoup de choses sur le passé, le présent et l’avenir de la société française. Sa construction s’inscrit dans un moment bien particulier de l’histoire, et elle fait face aujourd’hui à de nouveaux enjeux environnementaux, économiques et sociaux.

Aux origines des projets d’autoroutes

Les projets autoroutiers remontent au début du XXe siècle. Ils se sont développés avec l’essor de la motorisation dans une volonté d’accélérer les déplacements en séparant les modes de transport motorisés des autres modes. Un premier tronçon d’autoroute est construit aux États-Unis autour de Long Island (dans l'État de New York) en 1907. Mais c’est véritablement de Milan aux lacs de Côme et Majeur (Italie), en 1924, que l’on voit apparaître la première autostrada. Le Reich allemand suivra, en 1935, avec une autoroute de Francfort et Darmstadt (dans le Land de Hesse).

En France, dès les années 1930, des propositions d’autoroute voient le jour et notamment, en 1935, la Société des autostrades françaises (SAF) propose un itinéraire entre Lyon (Rhône) et Saint-Étienne (Loire), abandonné, car non rentable. L’autoroute a pour premier objectif les échanges économiques et commerciaux par camions et automobiles. Des projets d’autoroutes de contournement d’agglomération sont lancés durant les années 1930 dans la région parisienne. Ce n’est véritablement qu’après la Seconde Guerre mondiale qu’un système autoroutier émerge avec la loi de 1955.

L’utilisation de ce réseau à des fins touristiques et récréatives s’accroît au début des années 1960, sous l’impulsion notamment de Georges Pompidou.

Plusieurs éléments y contribuent. D’abord, la possession automobile se démocratise (Renault 4CV en 1946, Citroën 2CV en 1948) et les flottes de camions, camionnettes, motocyclettes augmentent durant la période des Trente Glorieuses. Parallèlement, les Français obtiennent deux semaines de congés payés en 1936, une troisième en 1956, une quatrième en 1969, puis une cinquième en 1982, de quoi partir en vacances.

Les travaux de l’autoroute A7 débutent en 1950 et s’achèvent en 1974 et relient à l’époque le sud de Lyon (Rhône) à Marseille (Bouches-du-Rhône) sur environ 300 km. La construction se fait sous l’autorité de la société d’économie mixte de l’Autoroute de la Vallée du Rhône (SAVR), renommée Autoroutes du sud de la France (ASF) en 1973.

On la qualifie d’« autoroute du Soleil » dès 1974, puisqu’elle emmène les Lyonnais vers la Méditerranée plus rapidement que par la mythique et plus pittoresque route nationale 7, la route des vacances. L’A7 va nourrir l’attrait touristique pour la Côte d’Azur.

Flux autoroutiers et patrimoine

La législation autoroutière permet de se déplacer jusqu’à la vitesse limite de 130 km/h. Plusieurs outils sont progressivement constitués pour gérer, en toute sécurité, les flux autoroutiers.

On peut citer la création en 1966 du Centre national d’information routière (CNIR) de la Gendarmerie à Rosny-sous-Bois et, en 1975, de Bison Futé pour informer sur la circulation routière afin d’éviter les embouteillages et pour proposer les itinéraires bis. Dès 1986, ce sera aussi le minitel avec le 3615 code route, puis dès 1991 la fréquence radio 107.7 avec ses flash-infos, et enfin le site Internet de Bison Futé en 1996 avec désormais toutes applications numériques pour connaître le trafic en temps réel (Waze, Googlemaps…).

La conduite frontale monotone sur autoroute fatigue et peut entraîner des accidents. L’autoroute, c’est aussi des aires pour s’arrêter. Celles-ci se répartissent en deux catégories : les aires de repos, tous les 15 km, avec tables, sanitaires, accès à l’eau et les aires de service, tous les 30-40 km, qui comportent de surcroît une station essence et des commerces. À l’échelle de la France, on dénombre 364 aires de service, 637 aires de repos.

Annonce de l’aire d’autoroute de Montélimar (Drôme) sur l’A7. BlueBreezeWiki/Wikimedia, CC BY-NC-ND

L’aire de service de Montélimar (Drôme), la plus importante d’Europe (52 hectares) peut aujourd’hui accueillir jusqu’à 60 000 personnes et 40 000 véhicules, et compte entre 180 et 400 employés ! Elle accueille dès 2010 un McDonald’s géré par Autogrill – un des leaders mondiaux de la restauration des voyageurs – et met bien sûr en avant la spécialité locale : le nougat.

Reste que l’autoroute propose à ses usagers un long ruban d’asphalte avec peu d’accès aux patrimoines des territoires traversés. Certaines aires d’autoroute ont entrepris, dès 1965, de les signaler. Ainsi l’aire de service de Saint-Rambert d’Albon (Drôme) intitulée « Isardrôme » (contraction d’Isère, d’Ardèche et de Drôme), expose et vend les produits du terroir – chocolats de la Drôme, fruits de l’Ardèche et de la Drôme, des produits gastronomiques (ravioles de Romans, vins des caves de Chapoutier et Jaboulet, marrons glacés Clément Faugier d’Ardèche, etc.).

Dès 1972, preuve de l’influence du tourisme à cette période, sont également installés les fameux panneaux marron qui indiquent les richesses patrimoniales à proximité de l’autoroute. Jean Widmer, graphiste suisse, s’inspire pour celles-ci des pictogrammes égyptiens.

Dès 2021, de nouveaux dessinateurs sont amenés à retravailler cette signalétique patrimoniale, à travers des images stylisées qui font la promotion des territoires français, récemment mis à l’honneur par une exposition au Musée des Beaux-Arts de Chambéry. Celles-ci permettent aux usagers de l’autoroute d’avoir un « paysage mental » plus élargi du territoire qu’ils parcourent.

Exemple de panneau patrimonial pour autoroute dessiné par Jacques de Loustal. Jacques de Loustal

Mais le temps, fût-il gagné, c’est de l’argent. Depuis 1961, les autoroutes gérées par des entreprises (Vinci, Eiffage…) sont payantes pour leurs usagers – elles deviennent totalement privées à partir de 2002 en échange de la modernisation et l’entretien des réseaux autoroutiers. Ces concessions arriveront à leur terme durant les années 2030, ce qui pose la question du retour des réseaux autoroutiers dans l’escarcelle de l’État.

L’autoroute du Soleil à l’épreuve de la durabilité

Le principal défi des autoroutes est désormais d’ordre écologique.

En effet, celles-ci affectent la biodiversité : les autoroutes traversent de larges territoires ruraux. Par exemple au col du Grand Bœuf dans la Drôme, à 323 mètres d’altitude, l’autoroute nuit à la faune coupant en deux les écosystèmes.

Pour tenter de pallier les déficiences de l’aménagement du territoire et améliorer la gestion de la biodiversité, un écopont – pont végétalisé aérien – de 15 mètres de large a été construit en 2011 pour permettre la circulation des espèces animales (biches, chevreuils, blaireaux, renards, fouines, etc.). Il a coûté 2,6 millions d’euros.

Aménagement écologique sur l’A7.
Chacal doré photographié sous l’autoroute A7, en novembre 2020. LPO Provence-Alpes-Côte d’Azur

Plus au sud, au niveau de Salon-de-Provence (Bouches-du-Rhône), il existe des écoducs – passages souterrains destinés à la petite faune. Sous l’A7, les caméras de surveillance ont pris en photo en 2020 plusieurs chacals dorés.

Les autoroutes telles que l’A7 entraînent diverses sortes de pollution : sonore, visuelle, environnementale. Depuis les années 1990, les préoccupations montent quant à la pollution routière et à ses effets.

L’infrastructure qu’est l’autoroute, pour permettre la vitesse, nécessite d’artificialiser une partie importante de l’environnement. De plus en plus de critiques se font jour depuis le début des années 1990 pour contester l’emprise au sol du système motorisé. Cela amène donc davantage de frictions entre les acteurs du territoire lorsqu’il s’agit de construire un échangeur, une portion d’autoroute ou encore une aire de repos ou de service.

Les accidents, mortels ou non, font eux aussi l’objet de multiples médiations. Il faut toutefois avoir conscience qu’ils sont plus nombreux hors autoroutes. En 2022, la mortalité sur autoroute ne représentait que 9 % des tués, contre 59 % sur les routes hors agglomération (nationales, départementales…) et 32 % en agglomération.

Avec l’essor des véhicules électriques et hybrides et la fin programmée des moteurs thermiques, les bornes électriques se multiplient – depuis 2019, sur l’aire d’autoroute de Montélimar évoquée plus haut.

En 2024, on dénombrait sur l’A7 plus de 120 points de recharge, certains ultrarapides, répartis sur neuf aires d’autoroute, dont l’aire Latitude 45 de Pont-de-l’Isère (Drôme), la mieux dotée. Le concessionnaire propose en moyenne 10 bornes de recharge et voudrait arriver à 60 par aire d’autoroute à l’horizon 2035.

Les enjeux de réseau, d’alimentation et d’usage autour de la recharge électrique sont encore à affiner. Cet été, le trafic sur l’A7 peut atteindre 180 000 véhicules/jour avec de nombreux poids lourds, automobiles, caravanes et camping-car. Si on souhaite réduire les émissions de gaz à effet de serre et respecter l’accord de Paris, remplacer tous ces véhicules par de l’électrique ne suffit pas : il faut également en passer par une forme de sobriété et réduire le volume des déplacements.

Entre enjeux économiques et frictions sociales

L’A7 fait enfin l’objet d’enjeux politiques. Entre Chanas (Isère) et Tain-L’Hermitage (Drôme) par exemple, soit le tronçon le plus long entre deux sorties d’autoroute, deux demi-échangeurs à Saint-Rambert d’Albon (en direction de Marseille) et à Saint-Barthélémy-de-Vals (tourné vers Lyon) sont en discussion, et devraient aboutir sur la période 2019-2027.

Ces deux infrastructures doivent mieux desservir le territoire d’un point de vue économique et touristique, après concertation entre la communauté de communes Portes de DrômArdèche, de la région Auvergne-Rhône-Alpes (AURA) et de Vinci Autoroute. Toutefois, des associations environnementales et trois municipalités (Peyrins, Chantemerle, Saint-Bardoux) se sont opposées au projet en mai 2025 dans un souci de durabilité (impact pour la faune et flore, pertes de terrains agricoles) et d’augmentation trop importante du trafic routier sur ce territoire.

L’autoroute des vacances n’intéresse donc pas simplement les touristes motorisés qui la traversent. Elle concerne en premier lieu les habitants des territoires desservis et a des impacts sur les territoires environnants.

Durant les années à venir, cette autoroute, comme l’ensemble du réseau autoroutier, va être soumise à des pressions accrues : politiques, économiques, sociales, environnementales. La question de nos modes de vie entre en collision avec la finalité des ressources disponibles, comme l’avait souligné le rapport du club de Rome en 1972. Alors, à terme : parlera-t-on encore d’autoroute des vacances ou d’autoroute vacante ?

The Conversation

Etienne Faugier est président et membre de l'Association Passé-Présent-Mobilité, https://ap2m.hypotheses.org/ Il est aussi membre du Conseil scientifique du CHEDD (Comité d'Histoire de l'Environnement et du Développement Durable), https://chedd.hypotheses.org/

PDF

28.07.2025 à 16:06

Apprendre les géosciences en s’amusant avec « Minecraft »

Alex Vella, Docteur en Sciences de la Terre, BRGM

« Minecraft » n’est pas qu’un jeu vidéo à succès : c’est également un support précieux pour enseigner ou apprendre les géosciences.
Texte intégral (3051 mots)
Capture d’écran des Badlands dans « Minecraft », un biome inspiré des terrains sédimentaires argileux fortement érodables du même nom. Minecraft/Mojang Studio, Fourni par l'auteur

« Minecraft » n’est pas qu’un jeu vidéo à succès : c’est également un support précieux pour enseigner ou apprendre les géosciences. Quoique simplifiée, la géologie de ses mondes est cohérente et présente de nombreuses analogies avec le monde réel.


Minecraft est l’un des jeux les plus populaires au monde, c’est aussi le jeu vidéo le plus vendu de l’Histoire avec plus de 300 millions d’exemplaires écoulés. Son univers cubique, composé de milliards de blocs, constitue un des ingrédients clés de ce succès, avec une grande variété d’environnements à explorer en surface comme en profondeur.

Plusieurs modes de jeu sont proposés : l’enjeu peut être de survivre en fabriquant, pour cela, des objets à partir de ressources. Il peut aussi être de laisser libre cours à sa créativité pour construire ce que l’on souhaite à partir des « blocs » disponibles sur la carte.

Avec ses mécaniques de gameplay et ses environnements variés, l’univers de Minecraft peut présenter une bonne analogie avec la géologie de notre monde. Quelques modifications peuvent en faire un outil très pertinent pour l’enseignement des géosciences.

L’essor du « serious gaming »

Avec le développement des jeux sérieux ou « serious games », le jeu devient un outil d’apprentissage reconnu en tant que tel.

On entend par là les jeux conçus pour enseigner, apprendre ou informer enfants ou adultes sur une large gamme de sujets. La conception de « serious games » est de plus en plus répandue, mais le fait de détourner des jeux grand public à des fins d’éducation ou d’enseignement est moins évident.

C’est pourtant ce que propose le « serious gaming ». Il s’agit d’utiliser des jeux grand public, initialement conçus pour le divertissement, comme support pour l’apprentissage. Par exemple, SimCity, dont la première mouture est sortie en 1989, a inspiré toute une génération d’urbanistes.

Minecraft se présente également sous une déclinaison éducative, avec seulement quelques ajouts par rapport au jeu originel et de multiples fonctions adaptées à l’enseignement : mode multijoueurs amélioré, coordonnées permettant aux élèves de s’orienter plus facilement sur la carte, portfolio en ligne permettant aux élèves de prendre des photos de leurs constructions, personnalisation des avatars, fonction d’import-export des mondes, des personnages interactifs…

Parmi les prétendants au serious gaming appliqué aux géosciences, Minecraft présente un potentiel reconnu à travers son aspect « bac à sable ». Celui-ci permet de répliquer des objets et concepts dans son monde virtuel, par nature très orienté vers la géographie et l’exploration souterraine.

Pour autant, le serious gaming appliqué aux géosciences ne se limite pas à Minecraft. Des jeux comme Pokémon ou Zelda peuvent aussi présenter un intérêt pour l’enseignement des géosciences au grand public.

Les « biomes » de « Minecraft »

En surface, le joueur peut explorer une grande variété d’environnements, appelés « biomes ». Ces biomes sont des versions simplifiées d’environnements de notre monde réel : prairies, montagnes, marais, désert… Aisément reconnaissables pour le joueur, ils sont, à leur manière, réalistes.

Chaque biome se compose ainsi d’une flore et d’une faune spécifiques, ainsi que de plusieurs types de blocs correspondant à leurs alter ego du monde réel : du sable recouvre ainsi les grès dans les déserts, des alternances de blocs d’argiles colorées représentent les différentes couches sédimentaires des badlands et de larges colonnes basaltiques se retrouvent dans les biomes volcaniques du Nether (dimension du jeu évoquant les enfers).

Les biomes sont générés par un algorithme procédural appelé « Bruit de Perlin ». Domaine public, Fourni par l'auteur

L’organisation même des biomes suit des règles cohérentes : chaque monde est généré de façon procédurale selon différents paramètres, tels que l’élévation, la température et l’humidité.

Le résultat : des paysages variés, où l’on passe progressivement des toundras aux plaines, puis à une savane. Cette répartition des biomes en fonction de différents paramètres géographiques et climatiques reproduit ce qui est observable à l’échelle de notre planète.

Un monde souterrain à explorer

Une grande partie du monde de Minecraft est toutefois située sous la surface de ces biomes. On y retrouve un empilement vertical de roches. Au plus profond se trouve la « bedrock », la roche mère, qui fait office de barrière avec le monde infernal du Nether. Sur celle-ci repose un type de bloc appelé ardoise des abîmes (deepslate), puis les blocs de pierre et enfin des blocs de grès, de sable ou de terre.

S’il s’agit d’une version assez simplifiée de ce qu’on l’on pourrait trouver dans la réalité, cet empilement de blocs n’est pas sans logique. Les différentes roches formant la Terre peuvent en effet former des empilements de couches plus ou moins horizontales, reposant sur un substrat plus ancien et solide.

Le sous-sol de Minecraft regorge aussi de caves, générées comme les biomes de manière procédurale. Ces caves présentent des successions d’étroites galeries et de larges grottes, agrémentées de stalactites et de stalagmites avec la présence parfois de rivières et de larges gouffres. Leurs aspects semblent très inspirés des systèmes karstiques, où la circulation de l’eau dans les calcaires forme cours d’eau souterrains, grottes et gouffres.

Vue en coupe d’un monde Minecraft montrant l’empilement des couches « stratigraphiques » sur la roche mère, ainsi que des grottes et des aquifères souterrains. Henrik Kniberg, Mojang Studio, Fourni par l'auteur

S’il n’y a pas de volcans dans Minecraft, il y a revanche de la lave, généralement située en profondeur. Suffisamment chaude pour brûler tous les éléments inflammables à portée, s’écoulant moins vite que l’eau et se transformant en obsidienne ou en pierre au contact de l’eau, celle-ci reproduit assez fidèlement le comportement des laves, de leur viscosité à leur vitrification au contact de l’eau.

Les richesses du sous-sol : minerais, cristaux, cubes…

L’exploration est importante dans Minecraft, mais l’artisanat aussi ! Pour créer de nouveaux objets, le joueur doit explorer, récolter, mais aussi extraire des ressources minières. Pour pouvoir progresser dans le jeu, le joueur devra commencer par aller miner pour remplacer ses outils en bois par des outils en fer. Si la progression entre les divers âges est plus détaillée dans d’autres jeux, Minecraft présente quelques-uns des minerais et minéraux les plus connus.

De haut en bas : un minerai d’or, du cuivre natif et un diamant dans Minecraft (à gauche) et dans la collection des Mines de Paris (à droite). Assemblage par l’auteur, Minecraft/Mojang, Musée de minéralogie des Mines de Paris, photo de Jean-Michel Le Cleac’h, Fourni par l'auteur

On retrouve par exemple le charbon, le cuivre, le fer, l’or, l’émeraude, le diamant et le quartz. Ces ressources se trouvent sous forme de poches dans la roche, parfois sous forme de veines massives. Cuivre et fer se retrouveront plus facilement à la surface, à la manière de certains des gisements sédimentaires ou magmatiques qui leur sont associés dans le monde réel. Ces derniers se forment à de relativement faible profondeur et peuvent s’organiser sous une forme similaire à celles de veines minéralisées.

Le diamant, lui, se retrouvera bien plus en profondeur, près de la roche mère, un parallèle avec la formation de nos diamants à de très grandes profondeurs (plus de 150 km), qui sont ensuite remontés à proximité de la surface par le magma.

La comparaison ne s’arrête pas aux minerais et cristaux, Minecraft présentant aussi d’autres roches plus ou moins connues. Outre l’obsidienne, on retrouvera les tufs, basaltes et andésites, typiques d’environnements magmatiques volcaniques où le magma devenu lave se cristallise. Ou encore les diorites et les granites, des roches magmatiques plutoniques formées en profondeur par le refroidissement du magma. Ceux souhaitant découvrir les équivalents réels de ces roches et minéraux pourront le faire cet été au musée de minéralogie de l’École nationale supérieure des mines de Paris, qui consacre jusqu’au 29 août 2025 une mini exposition aux minéraux dans Minecraft.

Modèle géologique de West Thurrock (Comté d’Essex, en Angleterre) créé par le British Geological Survey. Minecraft, Mojang Studio, Fourni par l'auteur

Même s’il offre une vision ludique et simplifiée des géosciences, Minecraft, avec ses mécaniques, sa diversité et sa communauté de joueurs, présente un potentiel autant pour l’enseignement que pour la sensibilisation du grand public à ce domaine. Il vous est, par exemple, possible de visiter directement les sous-sols de notre monde en certains points du Royaume-Uni, grâce aux modèles géologiques 3D mis à disposition par le British Geological Survey.

The Conversation

Alex Vella a reçu des financements de l'ANR pour des projets de recherche.

PDF

27.07.2025 à 16:53

TotalEnergies : Objectif Wall Street

Rémi Janin, Maître de conférences - Reporting financier et extra financier des organisations à Grenoble IAE INP - Chaire Impacts & RSE, Université Grenoble Alpes (UGA)

Charlotte Disle, Maîtresse de conférences, Université Grenoble Alpes (UGA)

Pourquoi un fleuron du CAC 40 tourne-t-il son regard vers Wall Street ? Quels bénéfices en attend-il ? Que révèle cette opération sur le fonctionnement des marchés ?
Texte intégral (2365 mots)
Les investisseurs des États-Unis détiennent déjà près de 40 % du capital de TotalEnergies en 2024, contre 25,3 % pour les actionnaires français. Jean-Luc Ichard/Shutterstock

La société TotalEnergies souhaite être cotée aux États-Unis. Cette décision interroge : pourquoi un fleuron du CAC 40 tourne-t-il son regard vers Wall Street ? Quels bénéfices en attend-il ? Que révèle cette opération sur le fonctionnement des marchés, des régulations et du capitalisme énergétique européens ?


Le projet de double cotation de TotalEnergies aux États-Unis questionne sur ses motivations profondes et ses implications financières. Si l’entreprise insiste sur le fait que « TotalEnergies est déjà cotée à New York » et qu’elle souhaite « transformer les certificats American Depositary Receipt, qui sont aujourd’hui la base de [sa] cotation aux États-Unis, en actions ordinaires », cette décision n’en reste pas moins stratégique.

La double cotation permet à une entreprise d’être cotée directement sur deux places boursières. Dans le cas de TotalEnergies, il ne s’agirait plus de maintenir les American Depositary Receipts (ADR) – actuellement utilisés pour accéder au marché états-unien –, mais de coter ses actions ordinaires à la Bourse de New York, tout en conservant leur cotation sur Euronext Paris. Cela permettrait aux mêmes actions d’être échangées en euros en Europe et en dollars aux États-Unis.

Double cotation

L’objectif immédiat du projet est de convertir les certificats ADR, qui représentent environ 9 % du capital de l’entreprise, en actions ordinaires cotées sur le New York Stock Exchange (NYSE). Les ADR sont des certificats négociables, émis par une banque américaine, représentant la propriété d’une action d’une société étrangère, et permettant leur négociation sur les marchés du pays de l’Oncle Sam. La conversion des ADR permettrait aux investisseurs états-uniens d’acheter des titres TotalEnergies directement, sans passer par des véhicules intermédiaires. Elle réduit les coûts d’intermédiation et facilite la liquidité.

Cette mutation est d’autant plus crédible que les investisseurs des États-Unis détiennent déjà près de 40 % du capital de TotalEnergies, en 2024, contre 25,3 % pour les actionnaires français. La part des fonds d’investissement états-uniens y est déterminante, en particulier le fonds BlackRock qui, avec 6,1 % du capital, est le premier actionnaire du groupe). De plus, les valorisations des majors américaines restent généralement supérieures à celles de leurs homologues européens. Le titre TotalEnergies se négocie ainsi à Paris à environ 3,5 fois l’Ebitda (soldes intermédiaires de gestion, ndlr), contre 6,5 fois pour ExxonMobil. En clair, tout en conservant une cotation à Paris, le « centre de gravité » boursier de l’entreprise se déplacerait mécaniquement.

Arbitrage entre Paris et New York

L’arbitrage entre NYSE et Euronext Paris consisterait, en théorie, à acheter des actions à un prix plus bas sur un marché (Paris), puis à les revendre à un prix plus élevé sur un autre (New York), tirant profit du différentiel de valorisation. Dans les faits, cette stratégie est très difficile à mettre en œuvre pour une entreprise comme TotalEnergies. Plusieurs obstacles s’y opposent :

  • Il existe des délais de règlement entre les deux marchés, empêchant une exécution instantanée.

  • Les fiscalités et régulations diffèrent selon les juridictions, complexifiant les transferts d’actions.

  • Les fuseaux horaires et la structure des marchés rendent difficile la synchronisation des opérations.

  • Les volumes de marché et la liquidité ne sont pas strictement équivalents sur les deux places.

  • Les programmes de rachat d’actions sont encadrés par des règles strictes : prix maximum, période autorisée, finalités déclarées (rémunération, annulation, etc.).

TotalEnergies ne peut donc pas légalement racheter massivement ses actions à Paris pour les revendre sous une autre forme à New York. Autrement dit, la double cotation vise moins à exploiter un arbitrage immédiat qu’à créer un accès direct et stable au marché américain, dans l’objectif d’attirer les investisseurs, d’améliorer la liquidité du titre et, à terme, d’obtenir une meilleure valorisation.

Mise en conformité

Techniquement, ce transfert nécessite une mise en conformité avec les règles de l’autorité de marchés américaine, la Securities and Exchange Commission (SEC) :

  • Un reporting financier aux normes comptables du pays, l’United States Generally Accepted Accounting Principles (US GAAP).

  • Une application drastique de la loi Sarbanes-Oxley qui oblige toutes les sociétés publiques à faire rapport de leurs contrôles comptables internes à la SEC.

  • La nomination d’un représentant légal aux États-Unis.

  • L’adaptation des structures internes à cette nouvelle configuration réglementaire et boursière.

L’exemple de TotalEnergies renvoie à celui de STMicroelectronics, dont la double cotation (Paris et NYSE) existe depuis son introduction en bourse, en 1994. Dans les années 2000, la liquidité du titre s’est déplacée progressivement vers New York, en raison d’une valorisation plus favorable et d’une structure actionnariale influencée par les fonds d’investissements états-uniens.

Maximisation de la valeur actionnariale

Le choix d’une double cotation répond à une logique bien ancrée depuis la révolution libérale des années 1980, impulsée par Milton Friedman et l’école de Chicago : celle de la maximisation de la valeur actionnariale.


À lire aussi : Deux conceptions de l’entreprise « responsable » : Friedman contre Freeman


TotalEnergies s’illustre avec un retour sur capitaux employés de 19 %, le plus élevé de toutes les majors pétrolières. Le groupe offre un rendement exceptionnel pour ses actionnaires : un dividende de 3,22 euros par action en 2024, soit une progression de 7 %. Le rendement moyen est de 5,74 % sur les cinq dernières années, contre 3 % pour l’ensemble des valeurs du CAC 40.

Son président-directeur général Patrick Pouyanné défend le choix d’une politique de distribution de dividendes soutenue lors de son discours à l’assemblée générale du groupe du 23 mai 2025 :

« Je sais aussi ce qui vous tient le plus à cœur, à travers ces échanges, c’est la pérennité de la politique du retour à l’actionnaire et notamment du dividende. Laissez-moi vous rassurer tout de suite, TotalEnergies n’a pas baissé son dividende depuis plus de quarante ans, même lorsque votre compagnie a traversé des crises violentes comme celle liée à la pandémie de Covid-19, et ce n’est pas aujourd’hui ni demain que cela va commencer. »

Les résolutions sur l’approbation des comptes et l’affectation du résultat soumises à l’assemblée générale du 23 mai 2025 ont recueilli plus de 99 % de votes favorables. Ces scores confortent la direction dans sa trajectoire conforme aux principes de la gouvernance actionnariale.

Prime de valorisation

Dans cette optique, la cotation à New York est d’autant plus attrayante qu’elle s’accompagne d’une prime de valorisation. En 2024, les certificats ADR TotalEnergies ont progressé de 8,6 % en dollars contre 1,4 % pour l’action à Paris).

Les gains de valeur boursière générés par une double cotation sont clairement avérés. Dans une étude publiée en 2010, la Federal Reserve Bank of New York démontre que les entreprises cotées qui s’introduisent sur un marché de prestige supérieur (comme Wall Street) « enregistrent des gains de valorisation significatifs durant les cinq années suivant leur introduction en bourse ».

La littérature académique met en évidence que la cotation croisée favorise une couverture accrue par les analystes financiers, en particulier américains. Cette visibilité renforcée améliore la diffusion de l’information, réduit l’asymétrie d’information entre l’entreprise et les investisseurs et renforce ainsi la confiance des marchés. Elle influence directement le coût du capital : les investisseurs sont prêts à financer l’entreprise à un taux réduit, car ils perçoivent un risque moindre. En d’autres termes, une entreprise mieux suivie, plus claire et mieux valorisée sur les marchés peut obtenir des financements à des conditions avantageuses.

Green Deal européen

TotalEnergies justifie son projet par des considérations économiques et financières. Mais ce repositionnement intervient dans un contexte réglementaire européen tendu, marqué par une montée en puissance des exigences de transparence, de durabilité et de prise en compte des parties prenantes au-delà des seuls actionnaires. Cette logique, inspirée de l’approche dite de la stakeholder value, est promue, notamment, par R. Edward Freeman (1984).

Cette dynamique est aujourd’hui remise en question. Les débats se cristallisent autour de la législation Omnibus, qui cherche à assouplir certaines exigences du cadre ESG, issu du Green Deal (pacte vert) européen, souvent critiqué pour ses répercussions possibles sur la compétitivité des entreprises européennes.

Dans le cadre du Green Deal, la directive Corporate Sustainability Reporting et les normes ESRS E1 (European Sustainability Reporting Standards) renforcent la transparence des grandes entreprises de plus de 1 000 salariés, selon la dernière proposition de la Commission européenne, en matière de risques climatiques et de leurs impacts environnementaux. En ce sens, ces directives offrent des leviers de contrôle supplémentaires aux parties prenantes désireuses d’interroger certaines stratégies de grandes entreprises comme TotalEnergies, notamment climatiques.

ESG et monde décarboné

Selon les deux derniers rapports de durabilité de TotalEnergies, la part des investissements durables du groupe (au sens de la taxonomie verte européenne mise en place dans le cadre du Green Deal) est tombée à 20,9 % en 2024, contre 28,1 % en 2023.

Lors de la dernière assemblée générale, Patrick Pouyanné a défendu cette orientation en soulignant notamment :

« Tant que nous n’aurons pas construit un système énergétique mondial décarboné, fiable et abordable, nous devrons continuer à investir dans les énergies traditionnelles. »

En déplaçant partiellement son centre de gravité vers les États-Unis, TotalEnergies consoliderait de facto son ancrage à un marché financier américain globalement moins en attente en matière d’ESG. Ainsi, lors de son audition au Sénat en avril 2024, Patrick Pouyanné soulignait :

« Du fait notamment du poids des critères environnementaux, sociaux et de gouvernance en Europe, la base d’actionnaires européens de TotalEnergies diminue […] alors que les actionnaires américains achètent TotalEnergies. »

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

27.07.2025 à 10:14

Comment la modélisation peut aider à mieux gérer la ressource en eau

André Fourno, Chercheur, IFP Énergies nouvelles

Benoit Noetinger, Chercheur, IFP Énergies nouvelles

Youri Hamon, Ingénieur de Recherche, IFP Énergies nouvelles

Alors que les arrêtés de restriction d’usage de l’eau liés à la sécheresse se multiplient depuis le début du mois de juin 2025, peut-on mieux modéliser l’évolution de ces ressources ?
Texte intégral (2302 mots)
L’aquifère karstique de la source du Lez, dans l’Héraut, assure l’alimentation en eau potable de 74 % de la population des 31 communes de la métropole de Montpellier. Stclementader/Wikimedia commons, CC BY-NC-SA

Alors que les arrêtés de restriction d’usage de l’eau en raison de la sécheresse se multiplient depuis le début du mois de juin 2025, une question se pose : peut-on mieux prévoir l’évolution de ces ressources grâce aux outils numériques ? Les aquifères (roches poreuses souterraines) et la complexité de leurs structures sont difficiles à appréhender pour les chercheurs depuis la surface de la Terre. La modélisation numérique a beaucoup à apporter à leur connaissance, afin de mieux anticiper les épisodes extrêmes liés à l’eau et mieux gérer cette ressource.


Les eaux souterraines, qui représentent 99 % de l’eau douce liquide sur terre et 25 % de l’eau utilisée par l’homme, constituent la plus grande réserve d’eau douce accessible sur la planète et jouent un rôle crucial dans le développement des sociétés humaines et des écosystèmes.

Malheureusement, les activités anthropiques affectent fortement la ressource, que ce soit par une augmentation de la demande, par l’imperméabilisation des surfaces ou par différentes contaminations…

À ces menaces s’ajoutent les perturbations des cycles et des processus naturels. Le changement climatique entraîne ainsi des modifications des régimes hydrologiques, telles que la répartition annuelle des pluies et leur intensité, ainsi que l’augmentation de l’évaporation.

Si remédier à cette situation passe par une adaptation de nos comportements, cela exige également une meilleure connaissance des hydrosystèmes, afin de permettre l’évaluation de la ressource et de son évolution.

Sa gestion pérenne, durable et résiliente se heurte à de nombreuses problématiques, aussi rencontrées dans le secteur énergétique (hydrogène, géothermie, stockage de chaleur, stockage de CO₂

Il s’agit donc de considérer les solutions mises en place dans ces secteurs afin de les adapter à la gestion des ressources en eau. Ce savoir-faire vise à obtenir une représentation 3D de la répartition des fluides dans le sous-sol et à prédire leur dynamique, à l’instar des prévisions météorologiques.

Les aquifères : des formations géologiques diverses et mal connues

Comme l’hydrogène, le CO2 ou les hydrocarbures, l’eau souterraine est stockée dans la porosité de la roche et dans ses fractures, au sein de « réservoirs » dans lesquels elle peut circuler librement. On parle alors d’aquifères. Ces entités géologiques sont par nature très hétérogènes : nature des roches, épaisseur et morphologie des couches géologiques, failles et fractures y sont légion et affectent fortement la circulation de l’eau souterraine.

Aquifères sédimentaires profonds ou karstiques. Office international de l’eau, CC BY-NC-SA

Pour comprendre cette hétérogénéité du sous-sol, les scientifiques n’ont que peu d’informations directes.L’étude de la géologie (cartographie géologique, descriptions des différentes unités lithologiques et des réseaux de failles et fractures, étude de carottes de forage) permet de comprendre l’organisation du sous-sol.

Les géologues utilisent également des informations indirectes, obtenues par les techniques géophysiques, qui permettent de déterminer des propriétés physiques du milieu (porosité, perméabilité, degré de saturation…) et d’identifier les différentes zones aquifères.

Enfin, grâce à des prélèvements d’échantillons d’eau et à l’analyse de leurs compositions (anions et cations majeurs ou traces, carbone organique ou inorganique, isotopes), il est possible de déterminer l’origine de l’eau (eau météorique infiltrée, eau marine, eau profonde crustale…), les terrains drainés, mais également les temps de résidence de l’eau au sein de l’aquifère.

Ces travaux permettent alors d’obtenir une image de la géométrie du sous-sol et de la dynamique du fluide (volume et vitesse d’écoulement de l’eau), constituant une représentation conceptuelle.

Modéliser le comportement des eaux sous terre

Cependant, les données de subsurface collectées ne reflètent qu’une faible fraction de la complexité géologique de ces aquifères. Afin de confronter les concepts précédemment établis au comportement réel des eaux souterraines, des représentations numériques sont donc établies.

Les modèles numériques du sous-sol sont largement utilisés dans plusieurs champs d’application des géosciences : les énergies fossiles, mais aussi le stockage géologique de CO₂, la géothermie et bien sûr… la ressource en eau !

Dans le domaine de l’hydrogéologie, différentes techniques de modélisation peuvent être utilisées, selon le type d’aquifère et son comportement hydrodynamique.

Les aquifères sédimentaires profonds constitués de couches de sédiments variés sont parfois situés à des profondeurs importantes. C’est, par exemple, le cas des formations du miocène, de plus de 350 mètres d’épaisseur, de la région de Carpentras, qui abritent l’aquifère du même nom. Celles-ci vont se caractériser par une forte hétérogénéité : plusieurs compartiments aquifères peuvent ainsi être superposés les uns sur les autres, séparés par des intervalles imperméables (aquitards), formant un « mille-feuille » géologique.

Représenter la complexité des aquifères

La distribution de ces hétérogénéités peut alors être modélisée par des approches géostatistiques, corrélées à des informations de structure (histoire géologique, déformations, failles…). On parle de « modèles distribués », car ils « distribuent » des propriétés géologiques (nature de la roche, porosité, perméabilité…) de manière spatialisée au sein d’une grille numérique 3D représentant la structure de l’aquifère.

Ces modèles distribués se complexifient lorsque l’aquifère est fracturé et karstique. Ces systèmes hydrogéologiques sont formés par la dissolution des roches carbonatées par l’eau météorique qui s’infiltre, le plus souvent le long des failles et fractures. Ces aquifères, qui sont très largement répandus autour de la Méditerranée (aquifères des Corbières, du Lez, ou des monts de Vaucluse…), ont une importante capacité de stockage d’eau.

Ils se caractérisent par des écoulements souterrains avec deux voire trois vitesses d’écoulement, chacune associée à un milieu particulier : lente dans la roche, rapide au sein des fractures, très rapide dans les drains et conduits karstiques avec des échanges de fluide entre ces différents milieux. Les approches distribuées s’appuient alors sur autant de maillages (représentation numérique d’un milieu) que de milieux contribuant à l’écoulement, afin de modéliser correctement les échanges entre eux.

Anticiper les épisodes extrêmes et alerter sur les risques

Le point fort des approches distribuées est de pouvoir définir, anticiper et visualiser le comportement de l’eau souterraine (comme on le ferait pour un front nuageux en météorologie), mais également de positionner des capteurs permanents (comme cela a été abordé dans le projet SENSE) pour alerter de façon fiable les pouvoirs publics sur l’impact d’un épisode extrême (pluvieux ou sécheresse).

En outre, elles sont le point de passage obligé pour profiter des derniers résultats de la recherche sur les « approches big data » et sur les IA les plus avancées. Cependant, les résultats obtenus dépendent fortement des données disponibles. Si les résultats ne donnent pas satisfaction, il est nécessaire de revoir les concepts ou la distribution des propriétés. Loin d’être un échec, cette phase permet toujours d’améliorer notre connaissance de l’hydrosystème.

Des modélisations dites « globales » assez anciennes reliant par des modèles de type boîte noire (déjà parfois des réseaux neuronaux !) les données de pluie mesurées aux niveaux d’eau et débits observés ont également été mises au point à l’échelle de l’aquifère. Elles sont rapides et faciles d’utilisation, toutefois mal adaptées pour visualiser et anticiper l’évolution de la recharge et des volumes d’eau en place dans un contexte de changements globaux, avec notamment la multiplication des évènements extrêmes.

Loin d’être en concurrence, ces approches doivent être considérées comme complémentaires. Une première représentation du comportement actuel de l’aquifère peut être obtenue avec les approches globales, et faciliter l’utilisation et la paramétrisation des approches distribuées.

Des outils d’aide à la décision

Ces dernières années, la prise en considération des problématiques « eau » par les pouvoirs publics a mis en lumière le besoin d’évaluation de cette ressource. Le développement d’approches méthodologiques pluridisciplinaires couplant caractérisation et modélisation est une des clés pour lever ce verrou scientifique.

De tels travaux sont au cœur de nombreux programmes de recherche, comme le programme OneWater – Eau bien commun, le programme européen Water4all ou l’ERC Synergy KARST et de chaires de recherche telles que GeEAUde ou EACC.

Ils apportent une meilleure vision de cette ressource dite invisible, et visent à alerter l’ensemble des acteurs sur les problèmes d’une surexploitation ou d’une mauvaise gestion, à anticiper les impacts des changements globaux tout en fournissant des outils d’aide à la décision utilisables par les scientifiques, par les responsables politiques et par les consommateurs.

The Conversation

André Fourno a reçu des financements de OneWater – Eau Bien Commun.

Benoit Noetinger a reçu des financements de European research council

Youri Hamon a reçu des financements de OneWater – Eau Bien Commun.

PDF

24.07.2025 à 20:05

La majorité de la pêche industrielle dans les aires marines protégées échappe à toute surveillance

Raphael Seguin, Doctorant en écologie marine, en thèse avec l'Université de Montpellier et BLOOM, Université de Montpellier

David Mouillot, Professeur en écologie, laboratoire MARBEC, Université de Montpellier

La majorité des aires marines protégées dans le monde n’offre que peu de protection face à la pêche industrielle, qui échappe souvent à toute surveillance publique.
Texte intégral (3396 mots)

Les aires marines protégées sont-elles vraiment efficaces pour protéger la vie marine et la pêche artisanale ? Alors que, à la suite de l’Unoc-3, des États comme la France ou la Grèce annoncent la création de nouvelles aires, une étude, parue ce 24 juillet dans la revue Science, montre que la majorité de ces zones reste exposée à la pêche industrielle, dont une large part échappe à toute surveillance publique. Une grande partie des aires marines ne respecte pas les recommandations scientifiques et n’offre que peu, voire aucune protection pour la vie marine.


La santé de l’océan est en péril, et par extension, la nôtre aussi. L’océan régule le climat et les régimes de pluie, il nourrit plus de trois milliards d’êtres humains et il soutient nos traditions culturelles et nos économies.

Historiquement, c’est la pêche industrielle qui est la première source de destruction de la vie marine : plus d’un tiers des populations de poissons sont surexploitées, un chiffre probablement sous-estimé, et les populations de grands poissons ont diminué de 90 à 99 % selon les régions.

À cela s’ajoute aujourd’hui le réchauffement climatique, qui impacte fortement la plupart des écosystèmes marins, ainsi que de nouvelles pressions encore mal connues, liées au développement des énergies renouvelables en mer, de l’aquaculture et de l’exploitation minière.

Les aires marines protégées, un outil efficace pour protéger l’océan et l’humain

Face à ces menaces, nous disposons d’un outil éprouvé pour protéger et reconstituer la vie marine : les aires marines protégées (AMP). Le principe est simple : nous exploitons trop l’océan, nous devons donc définir certaines zones où réguler, voire interdire, les activités impactantes pour permettre à la vie marine de se régénérer.

Les AMP ambitionnent une triple efficacité écologique, sociale et climatique. Elles permettent le rétablissement des écosystèmes marins et des populations de poissons qui peuvent s’y reproduire. Certaines autorisent uniquement la pêche artisanale, ce qui crée des zones de non-concurrence protégeant des méthodes plus respectueuses de l’environnement et créatrices d’emplois. Elles permettent aussi des activités de loisirs, comme la plongée sous-marine. Enfin, elles protègent des milieux qui stockent du CO2 et contribuent ainsi à la régulation du climat.

Trois photos : en haut à gauche, un banc de poissons ; en bas à gauche, un herbier marin ; à droite, trois hommes sur une plage tire une barque à l’eau
Les aires marines protégées permettent le rétablissement des populations de poissons, protègent des habitats puits de carbone comme les herbiers marins et peuvent protéger des activités non industrielles comme la pêche artisanale ou la plongée sous-marine. Jeff Hester, Umeed Mistry, Hugh Whyte/Ocean Image Bank, Fourni par l'auteur

Dans le cadre de l’accord mondial de Kunming-Montréal signé lors de la COP 15 de la biodiversité, les États se sont engagés à protéger 30 % de l’océan d’ici 2030. Officiellement, plus de 9 % de la surface des océans est aujourd’hui sous protection.

Pour être efficaces, toutes les AMP devraient, selon les recommandations scientifiques, soit interdire la pêche industrielle et exclure toutes les activités humaines, soit en autoriser certaines d’entre elles, comme la pêche artisanale ou la plongée sous-marine, en fonction du niveau de protection. Or, en pratique, une grande partie des AMP ne suivent pas ces recommandations et n’excluent pas les activités industrielles qui sont les plus destructrices pour les écosystèmes marins, ce qui les rend peu, voire pas du tout, efficaces.

Réelle protection ou outil de communication ?

En effet, pour atteindre rapidement les objectifs internationaux de protection et proclamer leur victoire politique, les gouvernements créent souvent de grandes zones protégées sur le papier, mais sans réelle protection effective sur le terrain. Par exemple, la France affirme protéger plus de 33 % de ses eaux, mais seuls 4 % d’entre elles bénéficient de réglementations et d’un niveau de protection réellement efficace, dont seulement 0,1 % dans les eaux métropolitaines.

Lors du Sommet de l’ONU sur l’océan qui s’est tenu à Nice en juin 2025, la France, qui s’oppose par ailleurs à une réglementation européenne visant à interdire le chalutage de fond dans les AMP, a annoncé qu’elle labelliserait 4 % de ses eaux métropolitaines en protection forte et qu’elle y interdirait le chalutage. Le problème, c’est que la quasi-totalité de ces zones se situe dans des zones profondes… où le chalutage de fond est déjà interdit.

La situation est donc critique : dans l’Union européenne, 80 % des aires marines protégées en Europe n’interdisent pas les activités industrielles. Pis, l’intensité de la pêche au chalutage de fond est encore plus élevée dans ces zones qu’en dehors. Dans le monde, la plupart des AMP autorisent la pêche, et seulement un tiers des grandes AMP sont réellement protégées.

De plus, l’ampleur réelle de la pêche industrielle dans les AMP reste largement méconnue à l’échelle mondiale. Notre étude s’est donc attachée à combler en partie cette lacune.

La réalité de la pêche industrielle dans les aires protégées

Historiquement, il a toujours été très difficile de savoir où et quand vont pêcher les bateaux. Cela rendait le suivi de la pêche industrielle et de ses impacts très difficile pour les scientifiques. Il y a quelques années, l’ONG Global Fishing Watch a publié un jeu de données basé sur le système d’identification automatique (AIS), un système initialement conçu pour des raisons de sécurité, qui permet de connaître de manière publique et transparente la position des grands navires de pêche dans le monde. Dans l’Union européenne, ce système est obligatoire pour tous les navires de plus de 15 mètres.

Le problème, c’est que la plupart des navires de pêche n’émettent pas tout le temps leur position via le système AIS. Les raisons sont diverses : ils n’y sont pas forcément contraints, le navire peut se trouver dans une zone où la réception satellite est médiocre, et certains l’éteignent volontairement pour masquer leur activité.

Pour combler ce manque de connaissance, Global Fishing Watch a combiné ces données AIS avec des images satellites du programme Sentinel-1, sur lesquelles il est possible de détecter des navires. On distingue donc les navires qui sont suivis par AIS, et ceux qui ne le sont pas, mais détectés sur les images satellites.

Carte du monde sur fond noir représentant les bateaux transmettant leur position GPS et ceux qui ne l’émettent pas
Global Fishing Watch a analysé des millions d’images satellite radar afin de déterminer l’emplacement des navires qui restent invisibles aux systèmes de surveillance publics. Sur cette carte de 2022 sont indiqués en jaune les navires qui émettent leur position GPS publiquement via le système AIS, et en orange ceux qui ne l’émettent pas mais qui ont été détectés via les images satellites. Global Fishing Watch, Fourni par l'auteur

Les aires sont efficaces, mais parce qu’elles sont placées là où peu de bateaux vont pêcher au départ

Notre étude s’intéresse à la présence de navires de pêche suivis ou non par AIS dans plus de 3 000 AMP côtières à travers le monde entre 2022 et 2024. Durant cette période, deux tiers des navires de pêche industrielle présents dans les AMP n’étaient pas suivis publiquement par AIS, une proportion équivalente à celle observée dans les zones non protégées. Cette proportion variait d’un pays à l’autre, mais des navires de pêche non suivis étaient également présents dans les aires marines protégées de pays membres de l’UE, où l’émission de la position via l’AIS est pourtant obligatoire.

Entre 2022 et 2024, nous avons détecté des navires de pêche industrielle dans la moitié des AMP étudiées. Nos résultats, conformes à une autre étude publiée dans le même numéro de la revue Science, montrent que la présence de navires de pêche industrielle était en effet plus faible dans les AMP réellement protégées, les rares qui interdisent toute activité d’extraction. C’est donc une bonne nouvelle : lorsque les réglementations existent et qu’elles sont efficacement gérées, les AMP excluent efficacement la pêche industrielle.

En revanche, nous avons tenté de comprendre les facteurs influençant la présence ou l’absence de navires de pêche industrielle dans les AMP : s’agit-il du niveau de protection réel ou de la localisation de l’AMP, de sa profondeur ou de sa distance par rapport à la côte ? Nos résultats indiquent que l’absence de pêche industrielle dans une AMP est plus liée à son emplacement stratégique – zones très côtières, reculées ou peu productives, donc peu exploitables – qu’à son niveau de protection. Cela révèle une stratégie opportuniste de localisation des AMP, souvent placées dans des zones peu pêchées afin d’atteindre plus facilement les objectifs internationaux.

Exemple de détections de navires de pêche industrielle suivis par AIS (en bleu) ou non suivis (en beige), le long de la côte atlantique française, à partir des données de l’ONG Global Fishing Watch. Les délimitations des aires marines protégées, selon la base de données WDPA, sont en blanc. Les images satellites du programme Sentinel-1 servent de fond de carte. Raphael Seguin/Université de Montpellier, Fourni par l'auteur

Une pêche méconnue et sous-estimée

Enfin, une question subsistait : une détection de navire de pêche sur une image satellite signifie-t-elle pour autant que le navire est en train de pêcher, ou bien est-il simplement en transit ? Pour y répondre, nous avons comparé le nombre de détections de navires par images satellites dans une AMP à son activité de pêche connue, estimée par Global Fishing Watch à partir des données AIS. Si les deux indicateurs sont corrélés, et que le nombre de détections de navires sur images satellites est relié à un plus grand nombre d’heures de pêche, cela implique qu’il est possible d’estimer la part de l’activité de pêche « invisible » à partir des détections non suivies par AIS.

Nous avons constaté que les deux indicateurs étaient très corrélés, ce qui montre que les détections par satellites constituent un indicateur fiable de l’activité de pêche dans une AMP. Cela révèle que la pêche industrielle dans les AMP est bien plus importante qu’estimée jusqu’à présent, d’au moins un tiers selon nos résultats. Pourtant, la plupart des structures de recherche, de conservation, ONG ou journalistes se fondent sur cette seule source de données publiques et transparentes, qui ne reflète qu’une part limitée de la réalité.

De nombreuses interrogations subsistent encore : la résolution des images satellites nous empêche de voir les navires de moins de 15 mètres et rate une partie importante des navires entre 15 et 30 mètres. Nos résultats sous-estiment donc la pêche industrielle dans les aires protégées et éludent complètement les petits navires de moins de 15 mètres de long, qui peuvent également être considérés comme de la pêche industrielle, notamment s’ils en adoptent les méthodes, comme le chalutage de fond. De plus, les images satellites utilisées couvrent la plupart des eaux côtières, mais pas la majeure partie de la haute mer. Les AMP insulaires ou éloignées des côtes ne sont donc pas incluses dans cette étude.

Vers une véritable protection de l’océan

Nos résultats rejoignent ceux d’autres études sur le sujet et nous amènent à formuler trois recommandations.

D’une part, la quantité d’aires marines protégées ne fait pas leur qualité. Les définitions des AMP doivent suivre les recommandations scientifiques et interdire la pêche industrielle, faute de quoi elles ne devraient pas être considérées comme de véritables AMP. Ensuite, les AMP doivent aussi être situées dans des zones soumises à la pression de la pêche, pas seulement dans des zones peu exploitées. Enfin, la surveillance des pêcheries doit être renforcée et plus transparente, notamment en généralisant l’usage de l’AIS à l’échelle mondiale.

À l’avenir, grâce à l’imagerie satellite optique à haute résolution, nous pourrons également détecter les plus petits navires de pêche, afin d’avoir une vision plus large et plus complète des activités de pêche dans le monde.

Pour l’heure, l’urgence est d’aligner les définitions des aires marines protégées avec les recommandations scientifiques et d’interdire systématiquement les activités industrielles à l’intérieur de ces zones, pour construire une véritable protection de l’océan.

The Conversation

Raphael Seguin est membre de l'association BLOOM.

David Mouillot a reçu des financements de l'ANR.

PDF

24.07.2025 à 16:43

Justice climatique : la Cour internationale de justice pose un jalon historique

Sandrine Maljean-Dubois, Directrice de recherche CNRS, Aix-Marseille Université (AMU)

Les États qui cherchent à se soustraire à leurs obligations climatiques peuvent voir leur responsabilité engagée, ce qui ouvre la voie à de futurs contentieux climatiques nationaux.
Texte intégral (2424 mots)

Dans un avis inédit et unanime, la Cour internationale de justice reconnaît que le changement climatique constitue une menace existentielle pour l’humanité. Les États qui cherchent à se soustraire à leurs obligations climatiques peuvent voir leur responsabilité engagée, ce qui ouvre la voie à de futurs contentieux climatiques nationaux.


La Cour internationale de justice (CIJ) a rendu hier 23 juillet 2025 un avis consultatif très attendu sur les obligations des États à l’égard des changements climatiques. Dans cet avis qui constitue un jalon historique, la Cour clarifie les obligations des États : considérant que les changements climatiques constituent un risque existentiel pour l’humanité, elle adopte une interprétation du droit international particulièrement stricte et « pro-climat ».

La CIJ avait été saisie par une résolution de l’Assemblée générale de l’ONU, adoptée par consensus il y a plus de deux ans, le 29 mars 2023. Inspirée par un collectif d’étudiants ( « Islands Students Fighting Climate Change ») de l’université du Pacifique Sud, cette demande avait été portée à l’ONU par un petit État insulaire du Pacifique, Vanuatu.

Elle fait suite à un premier projet qui avait été porté en 2011 par Palaos et les Îles Marshall, mais n’avait pas abouti pour des raisons politiques. Cette fois, grâce à une intense activité diplomatique, Vanuatu est parvenu à rallier une vaste coalition internationale et à convaincre l’Assemblée générale de l’ONU de saisir la Cour.

De nombreux États ont participé à la procédure, qui a donné lieu aux plus grandes audiences jamais connues par la Cour, avec une centaine d’interventions au total.

Un contexte d’explosion des procès climatiques

Créée en 1945, la Cour est l’organe judiciaire principal de l’Organisation des Nations unies (ONU). Composée de 15 juges élus pour un mandat de 9 ans, représentant les principaux systèmes juridiques du monde, elle siège à La Haye, aux Pays-Bas. La CIJ peut connaître de procédures contentieuses – elle tranche alors des conflits entre États – ou de procédures consultatives, lorsque des demandes d’avis concernant des questions juridiques lui sont présentées par des organes ou institutions spécialisées des Nations unies, comme c’est le cas ici.

Cette demande s’inscrit dans un contexte d’explosion du nombre de procès dits « climatiques » dirigés contre des États ou des entreprises à l’échelle mondiale.

Plus de 2 300 procès climatiques, en cours ou terminés, ont déjà été recensés aux États-Unis. On en compte également près de 1 300 ailleurs dans le monde, selon la base de données du Sabin Center de l’Université de Columbia.

Le droit international – tout particulièrement l’accord de Paris de 2015 – est souvent invoqué durant ces contentieux, qui se déroulent devant les juges nationaux. L’accord de Paris devient alors l’objet de batailles juridiques pour déterminer comment on doit l’interpréter, à quoi il oblige exactement les États et comment il s’articule avec d’autres obligations internationales (commerce international, investissements internationaux, droit de la mer, droits de l’homme…).


À lire aussi : Climat : le Tribunal international du droit de la mer livre un arrêt historique


Récemment, non pas une mais quatre juridictions internationales ont été saisies de demandes d’avis consultatif visant à clarifier le contenu des obligations des États. Par ordre chronologique, il s’agit du Tribunal international du droit de la mer, de la Cour interaméricaine des droits de l’homme, de la Cour internationale de justice dont il est question dans cet article et de la Cour africaine des droits de l’homme.

Les avis du Tribunal international du droit de la mer et de la Cour interaméricaine des droits de l’homme ont apporté d’utiles précisions. Mais ils n’ont pas tranché toutes les questions posées, car ces tribunaux avaient une compétence limitée.

Ainsi, la Cour interaméricaine n’est compétente que s’agissant des droits de l’homme et pour la vingtaine de pays membres de l’OEA. Le Tribunal international du droit de la mer, pour sa part, a une compétence limitée parce que spécialisée. La Cour internationale de justice a, au contraire, une compétence très large et est universelle.

Que retenir de cet avis de 130 pages ?

La double question qui a été posée à la Cour internationale de justice était extrêmement vaste :

  • Quelles sont les obligations des États, en vertu du droit international, face à la crise climatique ?

  • Quelles sont les conséquences juridiques pour les États en cas de manquement à ces obligations ?

Pour y répondre, la Cour était invitée à appliquer l’ensemble des règles qu’elle considérait comme pertinentes, du droit international du climat au droit de la mer, en passant par les droits humains. Enfin, elle était appelée à clarifier les obligations climatiques des États, non seulement vis-à-vis des autres États, mais aussi des peuples et des individus.

La Cour internationale de justice rappelle les obligations des États face à la crise climatique.

De ce long avis de 130 pages, nous pouvons retenir plusieurs points clés.

Sur les aspects scientifiques, la Cour confirme l’importance des rapports du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). Elle note que les États se sont accordés à dire devant elle qu’ils constituaient les meilleures données scientifiques disponibles sur les causes, la nature et les conséquences des changements climatiques. En novembre 2024, la Cour avait d’ailleurs demandé à rencontrer plusieurs membres du Giec pour renforcer sa compréhension des éléments scientifiques.

La Cour mobilise une large palette de normes internationales, tant coutumières (c’est-à-dire non écrites, comme le principe de prévention des dommages) que conventionnelles qui vont bien au-delà de l’accord de Paris. Elle estime ainsi qu’un État non membre d’un traité sur le climat (une allusion aux États-Unis qui ont de nouveau quitté l’accord de Paris sous l’impulsion de Donald Trump), a malgré tout des devoirs en la matière.

Sur les obligations des États, la Cour livre une interprétation très stricte du droit international. Au vu de la « menace urgente et existentielle » que représentent les changements climatiques, la CIJ considère à plusieurs reprises que la marge de discrétion des États doit être réduite. Ils ont des obligations étendues, aussi bien en termes d’atténuation des changements climatiques, que d’adaptation et de coopération :

  • L’objectif de l’accord de Paris, qu’il « convient de suivre » est bien de 1,5°C et non plus « nettement en dessous de 2°C », les États l’ayant notamment acté au cours des dernières COP sur le climat. Dans les mesures qu’ils adoptent, les États doivent prendre dûment compte des intérêts des générations futures et des « conséquences à long terme de certains comportements ».

  • Le niveau d’ambition de leurs contributions nationales n’est donc pas discrétionnaire : les contributions doivent être réellement les plus ambitieuses possibles, progresser de cycle en cycle, et permettre d’atteindre l’objectif de l’accord au bout du compte.

  • Les États doivent prendre les mesures voulues pour atteindre les objectifs de leurs contributions, mais les obligations peuvent toutefois être modulées selon les émissions historiques des États ou leurs niveaux de développement.

  • Les États ont « l’obligation, en vertu du droit international des droits de l’homme, de respecter et de garantir la jouissance effective des droits de l’homme en prenant les mesures nécessaires pour protéger le système climatique et d’autres composantes de l’environnement ».

  • Enfin, les États doivent coopérer, car « les efforts que déploieraient les États sans se coordonner entre eux pourraient ne pas leur permettre d’obtenir des résultats effectifs ».

Vers de futurs contentieux climatiques ?

Sur les conséquences juridiques, la Cour ouvre clairement la voie à de futurs contentieux en confirmant que les États peuvent voir leur responsabilité engagée s’ils ne se conforment pas à leurs obligations.

Pour elle, « le fait pour un État de ne pas prendre les mesures appropriées pour protéger le système climatique contre les émissions de gaz à effet de serre (GES) – notamment en produisant ou en utilisant des combustibles fossiles, ou en octroyant des permis d’exploration ou des subventions pour les combustibles fossiles – peut constituer un fait internationalement illicite attribuable à cet État ».

Elle estime que le droit international exige des États qu’ils mettent fin aux violations et notamment mettent « en œuvre tous les moyens à leur disposition pour réduire leurs émissions de GES » et prennent « toutes autres mesures propres à assurer la conformité à leurs obligations ».

Ils doivent aussi réparer intégralement les dommages causés aux autres États ou aux individus, par une remise en état lorsqu’elle sera possible, et/ou par une indemnisation et/ou par une satisfaction. Cette dernière pourrait ici prendre la forme d’une « expression de regrets, des excuses formelles, une reconnaissance ou une déclaration publique, ou encore en mesure de sensibilisation de la société aux changements climatiques ».

Pour la réparation des dommages, un lien de causalité devra être établi entre les actions ou omissions illicites d’un État et les dommages résultant des changements climatiques. Dans une partie quelque peu élusive, la CIJ reconnaît que c’est plus difficile que pour d’autres pollutions plus locales. Mais elle ajoute que ce n’est pas non plus « impossible » et que cela devra être apprécié in concreto (c’est-à-dire, sur la base d’éléments concrets) dans d’éventuels contentieux climatiques à venir.

Un avis historique

L’avis peut être qualifié d’historique : la Cour ne s’était jamais prononcée sur le sujet, d’autant que ce dernier est sensible. Les COP sur le climat s’essoufflent depuis plusieurs années et que beaucoup d’États reculent dans leurs politiques climatiques voire environnementales, alors même que les conséquences du changement climatique se font sentir de plus en plus vivement.

Les États les plus pauvres et vulnérables, mais aussi les ONG et militants environnementaux avaient des attentes très élevées envers cet avis. Bien que la Cour reste très générale et abstraite dans ses formulations, elle y répond assez largement.

Certes, un avis consultatif n’est pas contraignant en lui-même et les États ne s’y conforment pas toujours, mais il revêt une grande autorité. Adopté à l’unanimité, cet avis pourrait avoir des conséquences politiques et même juridiques.

Il pourrait être mobilisé dans les négociations internationales, et notamment lors des prochaines COP sur le climat. Beaucoup espèrent qu’il poussera au relèvement de l’ambition des politiques climatiques et soutienne leurs positions.

On imagine aussi qu’il va venir alimenter les contentieux climatiques nationaux, et peut-être même motiver certains États à saisir des tribunaux internationaux contre d’autres États.

Néanmoins, la Cour termine son avis en soulignant le rôle certes non négligeable, mais somme toute « limité » du droit international. Elle espère que « ses conclusions permettront au droit d’éclairer et de guider les actions sociales et politiques visant à résoudre la crise climatique actuelle », mais affirme que :

« [La] solution complète à ce problème qui nous accable, mais que nous avons créé nous-mêmes […] requiert la volonté et la sagesse humaines – au niveau des individus, de la société et des politiques – pour modifier nos habitudes, notre confort et notre mode de vie actuels et garantir ainsi un avenir à nous-mêmes et à ceux qui nous suivront. »

Elle engage ici une réflexion sur le rôle du juge, du droit, mais aussi sur leurs limites face à cet enjeu de civilisation.

The Conversation

Sandrine Maljean-Dubois a reçu des financements de l'Agence nationale de la recherche pour le projet PROCLIMEX. Elle a été avocat-conseil de la République démocratique du Congo dans cette affaire.

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓