LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

06.08.2025 à 14:04

Canicule : Soulignons, sans état d’âme, nos progrès d’adaptation depuis 2003

François Lévêque, Professeur d’économie, Mines Paris - PSL

Depuis 2003, l’Europe a réalisé des progrès dans l’adaptation aux vagues de chaleur : en proportion, on meurt moins, même si les températures sont plus élevées. Et demain ?
Texte intégral (2515 mots)

Depuis 2003, l’Europe a réalisé des progrès conséquents dans l’adaptation aux vagues de chaleur : en proportion, on meurt moins, même si les températures sont plus élevées. Et demain ?


La chaleur tue : on a recensé plusieurs centaines de décès à Paris ainsi que dans d’autres grandes capitales européennes lors de la canicule de mi-juin à début juillet 2025. Le nombre de morts aurait triplé par rapport à la normale du fait du changement climatique, selon une estimation réalisée par des chercheurs britanniques.

Ces chiffres font peur. Ils masquent cependant les grands progrès réalisés pour limiter notre vulnérabilité face à la multiplication des vagues de chaleur. La chaleur tue mais de moins en moins, grâce à nos actions individuelles et collectives d’adaptation. Il faut s’en féliciter, et non l’ignorer.

Les données d’observation de mortalité par les agences sanitaires n’étant pas encore disponibles, le calcul qui précède repose sur des modèles et des méthodes, connus des spécialistes. La plupart sont désormais suffisamment au point pour rendre compte en confiance de leurs résultats sur les progrès de l’adaptation.


À lire aussi : Paris est une des pires villes européennes en temps de canicule. Comment changer cela ?


La canicule de 2003, ou l’Année zéro

Commençons notre examen en prenant pour point de repère la canicule de 2003 en France. Cet été-là le pays a connu une véritable hécatombe : près de 15 000 décès en excès.

En contrecoup, les pouvoirs publics ont décidé toute une série d’actions préventives pour protéger la population des grandes chaleurs : mise en place d’un système d’alerte annonçant les canicules, campagnes d’information auprès du public sur les façons de se protéger, formation du personnel de santé, ouverture d’espaces climatisés dans les maisons de retraite et les services hospitaliers, etc.

Quelques années plus tard, une équipe regroupant des chercheurs de l’Inserm, de Météo France et de Santé publique France s’est demandé si ces mesures avaient bien été suivies d’effet. À partir d’un modèle reliant mortalité et températures observées en France sur vingt-cinq ans, ils ont estimé que la canicule de l’été 2006 s’était traduite par une baisse de plus de moitié du nombre de décès en excès.

Ce progrès ne peut pas, bien sûr, être imputé aux seules actions publiques. La canicule de 2003 a été à l’origine d’une prise de conscience généralisée des méfaits de la chaleur, de changement des comportements individuels et d’achat d’appareils de rafraîchissement, tels que ventilateurs et climatiseurs, mais aussi d’équipements plus innovants apparus plus tard sur le marché, comme les rafraîchisseurs d’air ou les pompes à chaleur réversibles.

Attention, le frigidaire distributeur de glaçons ne fait pas partie de cette panoplie ! En cas de fortes températures, il faut éviter de boire de l’eau glacée pour se rafraîchir. Elle ralentit la sudation, mécanisme fondamental de l’organisme pour lutter contre la chaleur.

Pourquoi il est délicat de comparer 2022 et 2003

L’été 2022 a constitué la seconde saison la plus chaude jamais enregistrée dans l’Hexagone. Le nombre de décès en excès a été toutefois cinq fois moindre que celui de 2003, mais on ne sait pas précisément quelle part de cette baisse est simplement due à des conditions caniculaires un peu moins défavorables.

La comparaison 2003/2022 est tout aussi délicate au niveau européen. On dispose bien, à cette échelle, de travaux d’estimation de la surmortalité en lien avec la chaleur aux deux dates, mais ils reposent sur des méthodes différentes qui rendent leurs résultats peu comparables : 74 483 décès pour la canicule de 2003 en Europe contre 61 672 morts lors de la canicule de 2022.

En effet, le premier chiffre mesure des décès en excès par rapport à une période de référence, tandis que le second découle de l’application d’une méthode épidémiologique. Celle-ci, plus sophistiquée, mais aussi plus rigoureuse, consiste à estimer pour une ville, une région ou un pays, le risque de mortalité relatif en fonction de la température, à tracer une « courbe exposition-réponse », selon le jargon des spécialistes.

Pour l’Europe entière, le risque est le plus faible autour de 17 °C à 19 °C, puis grimpe fortement au-delà. Connaissant les températures journalières atteintes les jours de canicule, on en déduit alors le nombre de décès associés à la chaleur.

Quelles canicules en Europe à l’horizon 2050 ?

Résumé ainsi, le travail paraît facile. Il exige cependant une myriade de données et repose sur de très nombreux calculs et hypothèses.

C’est cette méthode qui est employée pour estimer la surmortalité liée aux températures que l’on rencontrera d’ici le milieu ou la fin de ce siècle, en fonction, bien sûr, de différentes hypothèses de réchauffement de la planète. Elle devrait par exemple être décuplée en Europe à l’horizon 2100 dans le cas d’un réchauffement de 4 °C.

Ce chiffre est effrayant, mais il ne tient pas compte de l’adaptation à venir des hommes et des sociétés face au réchauffement. Une façon de la mesurer, pour ce qui est du passé, consiste à rechercher comment la courbe exposition-réponse à la température se déplace dans le temps. Si adaptation il y a, on doit observer une mortalité qui grimpe moins fortement avec la chaleur qu’auparavant.

C’est ce qui a été observé à Paris en comparant le risque relatif de mortalité à la chaleur entre la période 1996-2002 et la période 2004-2010. Aux températures les plus élevées, celles du quart supérieur de la distribution, le risque a diminué de 15 %.

Ce chiffre ne semble pas très impressionnant, mais il faut savoir qu’il tient uniquement compte de la mortalité le jour même où une température extrême est mesurée. Or, la mort associée à la chaleur peut survenir avec un effet de retard qui s’étend à plusieurs jours voire plusieurs semaines.

La prise en compte de cet effet diminue encore le risque entre les deux périodes : de 15 % à 50 %. Cette baisse de moitié est plus forte que celle observée dans d’autres capitales européennes comme Athènes et Rome. Autrement dit, Paris n’est pas à la traîne de l’adaptation aux canicules.

De façon générale et quelle que soit la méthode utilisée, la tendance à une diminution de la susceptibilité de la population à la chaleur se vérifie dans nombre d’autres villes et pays du monde développé. L’adaptation et la baisse de mortalité qu’elle permet y est la règle.

La baisse de la mortalité en Europe compensera-t-elle l’augmentation des températures ?

C’est une bonne nouvelle, mais cette baisse de la surmortalité reste relative. Si les progrès de l’adaptation sont moins rapides que le réchauffement, il reste possible que le nombre de morts en valeur absolue augmente. En d’autres termes, la mortalité baisse-t-elle plus vite ou moins vite que le réchauffement augmente ?

Plus vite, si l’on s’en tient à l’évolution observée dans dix pays européens entre 1985 et 2012. Comme ces auteurs l’écrivent :

« La réduction de la mortalité attribuable à la chaleur s’est produite malgré le décalage progressif des températures vers des plages de températures plus chaudes observées au cours des dernières décennies. »

En sera-t-il de même demain ? Nous avons mentionné plus haut un décuplement en Europe de la surmortalité de chaleur à l’horizon 2100. Il provient d’un article paru dans Nature Medicine qui estimait qu’elle passerait de 9 à 84 décès attribuables à la chaleur par tranche de 100 000 habitants.

Mais attention : ce nombre s’entend sans adaptation aucune. Pour en tenir compte dans leurs résultats, les auteurs de l’article postulent que son progrès, d’ici 2100, permettra un gain de mortalité de 50 % au maximum.

Au regard des progrès passés examinés dans ce qui précède, accomplis sur une période plus courte, une réduction plus forte ne semble pourtant pas hors de portée.

Surtout si la climatisation continue de se développer. Le taux d’équipement d’air conditionné en Europe s’élève aujourd’hui à seulement 19 %, alors qu’il dépasse 90 % aux États-Unis. Le déploiement qu’il a connu dans ce pays depuis un demi-siècle a conduit à une forte baisse de la mortalité liée à la chaleur.

Une moindre mortalité hivernale à prendre en compte

Derrière la question de savoir si les progrès futurs de l’adaptation permettront de réduire la mortalité liée à la chaleur de plus de 50 % en Europe, d’ici 2100, se joue en réalité une autre question : la surmortalité associée au réchauffement conduira-t-elle à un bilan global positif ou bien négatif ?

En effet, si le changement climatique conduit à des étés plus chauds, il conduit aussi à des hivers moins rudes – et donc, moins mortels. La mortalité associée au froid a été estimée en 2020 à 82 décès par 100 000 habitants. Avec une élévation de température de 4 °C, elle devrait, toujours selon les auteurs de l’article de Nature Medicine, s’établir à la fin du siècle à 39 décès par 100 000 personnes.

Si on rapporte ce chiffre aux 84 décès par tranche de 100 000 habitants liés à la chaleur, cités plus haut, on calcule aisément qu’un progrès de l’adaptation à la chaleur de 55 % suffirait pour que la mortalité liée au froid et à la chaleur s’égalisent. Le réchauffement deviendrait alors neutre pour l’Europe, si l’on examine la seule mortalité humaine liée aux températures extrêmes.

Mais chacun sait que le réchauffement est aussi à l’origine d’incendies, d’inondations et de tempêtes mortelles ainsi que de la destruction d’écosystèmes.

Sous cet angle très réducteur, le réchauffement serait même favorable, dès lors que le progrès de l’adaptation dépasserait ce seuil de 55 %. Si l’on ne considère que le cas de la France, ce seuil est à peine plus élevé : il s’établit à 56 %.

Des conclusions à nuancer

La moindre mortalité hivernale surprendra sans doute le lecteur, plus habitué à être informé et alarmé en période estivale des seuls effets sanitaires négatifs du réchauffement. L’idée déroutante que l’élévation des températures en Europe pourrait finalement être bénéfique est également dérangeante. Ne risque-t-elle pas de réduire les motivations et les incitations des Européens à diminuer leurs émissions de gaz à effet de serre ?

C’est peut-être cette crainte qui conduit d’ailleurs les auteurs de l’article de Nature Medicine à conclure que :

« La mortalité nette augmentera substantiellement si l’on considère les scénarios de réchauffement les plus extrêmes et cette tendance ne pourra être inversée qu’en considérant des niveaux non plausibles d’adaptation. »

Notons également que ces perspectives concernent ici l’Europe. Dans les pays situés à basse latitude, la surmortalité liée aux températures est effroyable. Leur population est beaucoup plus exposée que la nôtre au changement climatique ; elle est aussi plus vulnérable avec des capacités d’adaptation qui sont limitées par la pauvreté.

À l’horizon 2100, la mortalité nette liée aux températures est estimée à plus de 200 décès pour 100 000 habitants en Afrique sub-saharienne et à près de 600 décès pour 100 000 habitants au Pakistan.

Concluons qu’il ne faut pas relâcher nos efforts d’adaptation à la chaleur en Europe, quitte à ce qu’ils se soldent par un bénéfice net. Les actions individuelles et collectives d’adaptation à la chaleur sauvent des vies. Poursuivons-les. Et ne relâchons pas pour autant nos efforts de réduction des émissions, qui sauveront des vies ailleurs, en particulier dans les pays pauvres de basses latitudes.


François Lévêque a publié, avec Mathieu Glachant, Survivre à la chaleur. Adaptons-nous, Odile Jacob, 2025.

The Conversation

François Lévêque ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.08.2025 à 15:17

« Comment ne pas être tué par la bombe atomique » En 1950, les curieux conseils de « Paris Match »

Anne Wattel, Professeure agrégée, Université de Lille

Il y a 80 ans, le 6 août 1945, se déroulait une tragédie nommée Hiroshima. Dans « le Souffle d’Hiroshima », la chercheuse Anne Wattel revient sur la construction du mythe de l’atome bienfaisant.
Texte intégral (2098 mots)

Il y a 80 ans, le 6 août 1945, se déroulait une tragédie nommée Hiroshima. Les mots de la bombe se sont alors imposés dans l’espace médiatique : « E = mc2 », « Little Boy et Fat Man », « radiations », « bikini », « gerboise », « globocide »…

Dans le Souffle d’Hiroshima, publié en 2024 aux éditions Epistémé (librement accessible en format numérique), la chercheuse Anne Wattel (Université de Lille) revient, à travers une étude culturelle qui s'étende de 1945 à 1960, sur la construction du mythe de l’atome bienfaisant.

Ci-dessous, nous reproduisons un extrait du chapitre 3, consacré à l’histoire du mot « bikini » ainsi qu’à un étonnant article publié par Paris Match en 1950.


« Il y a eu Hiroshima […] ; il y a eu Bikini avec sa parade de cochons déguisés en officiers supérieurs, ce qui ne manquerait pas de drôlerie si l’habilleuse n’était la mort. » (André Breton, 1949

Juillet 1946 : Bikini, c’est la bombe

Lorsqu’en 1946, le Français Louis Réard commercialise son minimaliste maillot de bain deux pièces, il l’accompagne du slogan : « Le bikini, première bombe anatomique. »

On appréciera – ou pas – l’humour et le coup de com’, toujours est-il que cette « bombe », présentée pour la première fois à la piscine Molitor, le 5 juillet 1946, est passée à la postérité, que le bikini s’est répandu sur les plages et a occulté l’atoll des îles Marshall qui lui conféra son nom, atoll où, dans le cadre de l’opération Crossroads, les Américains, après avoir convaincu à grand renfort de propagande la population locale de s’exiler (pour le bien de l’humanité), multiplièrent les essais atomiques entre 1946 et 1958.

La première bombe explose le 1er juillet 1946 ; l’opération est grandement médiatisée et suscite un intérêt mondial, décelable dans France-soir qui, un mois et demi avant « l’expérience », en mai 1946, renoue avec cet art subtil de la titraille qui fit tout son succès :

« Dans 40 jours, tonnerre sur le Pacifique ! Bikini, c’est la bombe » (France-soir, 19-20 mai 1946)

Mais la bombe dévie, ne touche pas l’objectif et la flotte cobaye est quasiment intacte. C’est un grand flop mondial, une déception comme le révèlent ces titres glanés dans la presse française :

  • « Deux navires coulés sur soixante-treize. “C’est tout ?” » (Ce soir, 2 juillet 1946) ;

  • « Bikini ? Ce ne fut pas le knockout attendu » (Paris-presse, 2 juillet 1946) ;

  • « À Bikini, la flotte cobaye a résisté » (France-soir, 2 juillet 1946).

C’est un « demi-ratage », un possible « truquage » pour l’Aurore (2 juillet 1946) ; et le journal Combat se demande si l’expérience de Bikini n’a pas été volontairement restreinte (Combat, 2 juillet 1946).

Les essais vont se poursuivre, mais le battage médiatique va s’apaiser. Le 26 juillet, Raymond Aron, dans Combat, évoque, effaré, la déception générale occasionnée par la première bombe et se désespère alors qu’on récidive :

« Les hommes seuls, maîtres de leur vie et de leur mort, la conquête de la nature, consacrée par la possession d’un pouvoir que les sages, dans leurs rêves, réservaient aux dieux : rien ni personne ne parviendra à voiler la grandeur tragique de ce moment historique. »

Et il conclut :

« […] Aujourd’hui, rien ne protège l’humanité d’elle-même et de sa toute-puissance mortelle. »


À lire aussi : Bonnes feuilles : « Des bombes en Polynésie »


Premier-Avril 1950 : « Comment ne pas être tué par une bombe atomique »

L’hebdomadaire français Paris Match, qui a « le plus gros tirage dans les années 1950 avec près de 2 millions d’exemplaires chaque semaine », dont « l ‘impact est considérable » et qui « contribue à structurer les représentations », propose dans son numéro du 1er avril 1950 une couverture consacrée, comme c’est fréquemment le cas, à l’aristocratie (ici la famille royale de Belgique) mais, dans un unique encadré, bien visible en haut de page, le titre, « Comment ne pas être tué par une bombe atomique », se présente comme un véritable produit d’appel d’autant plus retentissant qu’on sait officiellement, depuis septembre 1949, que l’URSS possède la bombe atomique.

Paris Match, 54, 1er avril 1950, première de couverture et titres des pages 11 et 12. © Paris Match/Scoop

L’article, qui nous intéresse et qui se déploie sur deux pleines pages, est écrit par Richard Gerstell qu’un encadré présente comme « un officier de la marine américaine », « un savant », « docteur en philosophie », « conseiller à la défense radiologique à l’Office de la défense civile des États-Unis ». L’auteur est chargé par le ministère de la défense d’étudier les effets de la radioactivité des essais atomiques de Bikini et d’élaborer des « plans pour la protection de la population civile contre une éventuelle attaque atomique ».

L’encadré inséré par la rédaction de Paris Match vise donc à garantir la crédibilité du rédacteur de l’article, un homme de terrain, un scientifique, dont on précise qu’il « a été exposé plusieurs fois aux radiations atomiques et n’en a d’ailleurs pas souffert physiquement (il n’a même pas perdu un cheveu) », qui rend compte de sa frayeur lorsque le compteur Geiger révéla que ses cheveux étaient « plus radioactifs que la limite ». Il s’agit donc, du moins est-ce vendu ainsi, du témoignage, de l’analyse d’un témoin de choix ; il s’agit d’une information de première main.


À lire aussi : Bombe atomique et accident nucléaire : voici leurs effets biologiques respectifs


Dans les premiers paragraphes de l’article de Match, Gerstell explique avoir eu, dans les premiers temps, « la conviction que la destruction atomique menaçait inévitablement une grande partie de l’humanité ». C’est pourquoi il accueillit favorablement la parution de l’ouvrage de David Bradley, No Place to Hide (1948), qui alertait sur les dangers de la radioactivité. Mais il ne s’appuyait alors, confie-t-il, que sur une « impression » ; il manquait de recul. En possession désormais des « rapports complets des expériences de Bikini et des rapports préliminaires des nouvelles expériences atomiques d’Eniwetok », il a désormais « franchement changé d’avis ».

L’article publié dans Match vise un objectif : convaincre que la radioactivité, sur laquelle on en sait plus que sur « la poliomyélite ou le rhume », « n’est, au fond, pas plus dangereuse que la fièvre typhoïde ou d’autres maladies qui suivent d’habitude les ravages d’un bombardement ».

Fort de son « expérience “Bikini” », durant laquelle, dit-il, « aucun des 40 000 hommes » qui y participèrent « ne fut atteint par la radioactivité », Gerstell entend mettre un terme aux « légendes » sur les effets de cette dernière (elle entraînerait la stérilité, rendrait des régions « inhabitables à jamais »). « Tout cela est faux », clame-t-il ; la radioactivité est « une menace beaucoup moins grande que la majorité des gens le croient ».

Un certain nombre de précautions, de conseils à suivre pour se protéger de la radioactivité en cas d’explosion nucléaire sont livrés aux lecteurs de Paris Match : fermer portes et fenêtres, baisser les persiennes, tirer les rideaux ; ôter ses souliers, ses vêtements avant de rentrer chez soi, les laver et frotter ; prendre des douches « copieuses » pour se débarrasser des matières radioactives ; éviter les flaques d’eau, marcher contre le vent ; s’abriter dans une cave, « protection la plus adéquate contre les radiations »…

On laisse le lecteur apprécier l’efficacité de ces mesures…

Pour se protéger de la bombe elle-même dont « la plupart des dégâts sont causés par les effets indirects de l’explosion », se coucher à plat ventre, yeux fermés ; pour éviter les brûlures, trouver une barrière efficace (mur, égout, fossé) ; porter des « vêtements en coton clair », des pantalons longs, des blouses larges, « un chapeau aux bords rabattus »…

Ainsi, ce témoin, ce « savant », qui étudia l’impact de la radioactivité, rassure-t-il le lectorat français de Match : on peut se protéger de la bombe atomique, des radiations ; il suffit d’être précautionneux.

Foin des légendes ! Ce regard éclairé, scientifiquement éclairé, s’appuie sur l’expérience, sur Bikini, sur Hiroshima et Nagasaki pour minorer (et c’est peu dire) le danger des radiations, car, c’est bien connu, « les nuages radioactifs à caractère persistant sont vite dissipés dans le ciel » (cela n’est pas sans nous rappeler l’incroyable mythe du nuage qui, à la suite de la catastrophe de Tchernobyl, le 26 avril 1986, se serait arrêté aux frontières de la France) ; « la poussière radio-active persistante qui se dépose sur la peau ne paraît pas dangereuse » ; « au voisinage immédiat du point d’explosion, une pleine sécurité peut être assurée par 30 centimètres d’acier, 1 mètre de béton ou 1 m 60 de terre. À un kilomètre et demi, la protection nécessaire tombe à moins d’un centimètre d’acier et quelques centimètres de béton ».

En avril 1950, l’Américain Richard Gerstell, dont les propos sont relayés en France par l’hebdomadaire Paris Match, niait encore l’impact de la radioactivité.

The Conversation

Anne Wattel ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.08.2025 à 15:46

Votre logement est-il adapté à la chaleur ?

Ainhoa Arriazu-Ramos, Dra Arquitecta-Investigadora postdoctoral en sostenibilidad medioambiental y adaptación al cambio climático de las ciudades, Universidad de Deusto

En ville, le choix des matériaux et de la végétation peut faire baisser les températures, mais au niveau des habitations, l’isolation, les fenêtres et l’exposition jouent aussi un rôle important.
Texte intégral (1516 mots)
En 2050, plus de 70 % de la population mondiale vivra en ville. Kzww/Shutterstock

En ville, planter des arbres peut faire baisser les températures, mais au niveau des habitations en elles-mêmes, l’isolation, les fenêtres et l’exposition jouent un rôle tout aussi important.


L’année 2024 a été la plus chaude jamais recensée au niveau mondial depuis le début des mesures, avec une température moyenne supérieure de 1,55 °C à celle de la période préindustrielle. Les vagues de chaleur ne sont plus des événements isolés : elles sont de plus en plus fréquentes, intenses et longues.

L’impact du réchauffement climatique global est particulièrement grave dans les villes. Le phénomène des îlots de chaleur urbain (ICU) entraîne des températures urbaines jusqu’à 4 °C plus élevées que dans les zones rurales voisines, en particulier pendant les nuits d’été.

Si l’on ajoute à cela le fait que de plus en plus de personnes vivent en milieu urbain (en 2050, plus de 70 % de la population mondiale sera concernée), une question se pose inévitablement : comment concevoir les villes pour qu’elles restent habitables malgré les températures élevées ?

Mieux concevoir l’espace public

Intégrer davantage de nature dans nos villes est l’une des meilleures stratégies pour les adapter à la chaleur.

Mais il ne s’agit pas seulement d’assurer un minimum d’espace vert par habitant : à quoi sert d’avoir un grand parc à une heure de route, si on ne trouve pas d’ombre sur le chemin du travail ou qu’on ne dispose pas d’un espace vert dans son quartier où se réfugier pour échapper à la chaleur ?

Il faut intégrer la nature dans l’aménagement urbain en tenant compte des principes de proximité, de qualité et de quantité des espaces verts. Dans cette optique, la règle des « 3-30-300 » est intéressante : chaque personne devrait pouvoir voir au moins trois arbres depuis son domicile, vivre dans un quartier où au moins 30 % de la superficie est couverte d’arbres et avoir un parc à moins de 300 mètres.

Revoir les aménagements et bâtiments de l’espace public est aussi urgent que de planter des arbres. Les toitures des bâtiments, par exemple, peuvent être des alliés pour réduire la chaleur. Pour cela, il peut être essentiel d’y intégrer de la végétation ou des matériaux réfléchissants. Les façades sont également importantes. Bien choisir leur couleur (de préférence des tons clairs) et les matériaux qui les composent peut contribuer à réduire le problème de surchauffe au lieu de l’aggraver.

Au niveau du sol, il est tout aussi important de repenser le choix des revêtements. Il faut éviter l’utilisation systématique d’asphalte et de béton qui absorbent la chaleur. Explorer des matériaux plus perméables, plus frais et intégrer davantage de végétation peut faire une différence significative.


À lire aussi : Nos villes doivent être plus perméables : comment le biochar peut être une solution durable face aux inondations


Des logements adaptés à la chaleur

Mais il ne suffit pas seulement d’améliorer l’espace public : les logements aussi doivent pouvoir faire face à la chaleur. Nous y passons la majeure partie de notre temps et beaucoup d’entre eux sont inadaptés. Par exemple, une étude a révélé que 85 % des logements de Pampelune (Espagne) ont enregistré des températures trop élevées pendant l’été 2022.

La conception des bâtiments est, à cet égard, déterminante. Certains aspects liés à la conception et à la construction de ces bâtiments, s’ils ne sont pas pris en compte, peuvent aggraver le problème de surchauffe des logements.

L’isolation thermique est le premier point. Bien isoler un bâtiment est une mesure importante, surtout en hiver, mais aussi en été. Cependant, lorsque des logements bien isolés mais trop hermétiques se réchauffent, il devient difficile d’évacuer la chaleur. La clé réside donc dans la conception : la distribution des pièces (et les éventuels systèmes de ventilation mécanique, comme la VMC, ndlt) doit permettre une ventilation adéquate.

Les grandes baies vitrées constituent un autre point qui peut poser problème. Elles sont aujourd’hui appréciées pour la lumière naturelle et la vue qu’elles offrent, mais si elles ne sont pas correctement protégées du soleil, elles contribuent au réchauffement du logement. Il est important que les protections solaires fassent partie intégrante de la conception du bâtiment et ne soient plus seulement des éléments accessoires. Il est possible d’atténuer le rayonnement solaire sans totalement assombrir la maison : avant-toits, volets orientables, auvents ou lamelles, etc.

Il faut également noter que les logements qui n’ont qu’une seule exposition sont plus à risque, alors que ceux à double exposition rendent le rafraîchissement plus aisé.

Compte tenu des besoins actuels en matière de logement, les nouvelles maisons ont tendance à être plus petites. De nombreux appartements en centre-ville sont eux aussi divisés en appartements plus petits. Cette tendance est problématique, car elle entraîne une augmentation du nombre de logements mono-orientés. Outre le respect de la surface minimale, il serait donc intéressant d’exiger qu’ils garantissent des conditions minimales de confort thermique.

En outre, il a été démontré que les logements situés aux derniers étages subissent entre 3,4 % et 5,4 % plus d’heures de surchauffe que ceux situés aux étages intermédiaires. Améliorer l’isolation des toitures n’est pas suffisant, car l’isolation a une limite d’efficacité. Il faut donc aussi innover pour améliorer la construction des bâtiments à ce niveau.

Tout ne dépend pas seulement de l’urbanisme ou de l’architecture. Les citoyens doivent également apprendre à s’adapter à la chaleur urbaine et savoir comment gérer leur logement lors des journées les plus chaudes : comprendre l’influence de l’orientation du logement, aérer au bon moment en fonction de la différence entre la température intérieure et extérieure ou encore utiliser correctement les protections solaires.


À lire aussi : Impact environnemental du bâtiment : qu’est-ce que la construction passive ?


Quelles perspectives ?

Si l’on veut adapter les villes à la chaleur, il ne faut pas éluder la dimension sociale du problème.

La chaleur extrême n’affecte pas toute la population de la même manière : les personnes âgées, les enfants et ceux qui vivent dans des logements de mauvaise qualité ou dans des quartiers peu végétalisés sont plus exposés.

Enfin, nous devons être conscients que le confort thermique ne peut dépendre uniquement de la climatisation ou d’autres systèmes mécaniques. Il est nécessaire de repenser nos villes et nos logements afin qu’ils puissent s’adapter à la chaleur de par leur conception même.

Dans un monde de plus en plus chaud, les villes le plus adaptées seront celles qui seront capables de maintenir le confort thermique tout en minimisant la dépendance à la consommation d’énergie.

The Conversation

Ainhoa Arriazu-Ramos ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

02.08.2025 à 18:00

Dans les villes, comment les citoyens peuvent participer à la lutte contre la surchauffe

Elodie Briche, Coordinatrice R&D en Urbanisme Durable et intrapreneure Plus fraîche ma ville, Ademe (Agence de la transition écologique)

L’Agence de la transition écologique (Ademe) a créé le service « Plus fraîche ma ville », qui peut être une source d’idées. Retour sur quelques expériences pratiques.
Texte intégral (2575 mots)
Opération végétalisation avec les habitants de Saint-Michel-de-Lanès (Aude). Georges Combes, Fourni par l'auteur

Les canicules, comme celle que la France a vécue entre le 19 juin et le 6 juillet 2025, sont appelées à se multiplier et à s’intensifier avec le changement climatique. Les villes tentent de s’adapter et les citoyens ont dans ce processus de nombreux leviers d’action. L’Agence de la transition écologique (Ademe) a créé un service numérique public gratuit, baptisé « Plus fraîche ma ville », qui peut être une source d’idées. Retour sur quelques expériences pratiques.


La France a été frappée fin juin et début juillet 2025 par une canicule qui a duré près de trois semaines.

Cette période a une nouvelle fois mis en lumière l’inadaptation des villes françaises face aux températures extrêmes, malgré les efforts menés ces dernières années. À l’échelle nationale comme locale, des actions d’adaptation au changement climatique sont en cours. Par exemple : rénovation thermique des écoles, opérations de revégétalisation de l’espace public, de désimperméabilisation des sols urbains…

Mais il n’existe pas de réponse unique à la chaleur. Pour être efficaces, ces mesures doivent être bien pensées en amont : la nature des solutions à engager dépend du contexte, du climat, de l’architecture (ou plus largement de la morphologie urbaine) et de la population de la ville.

C’est pourquoi les villes ont aussi besoin, pour mener leurs politiques d’adaptation, de la participation citoyenne. Les habitants peuvent jouer un rôle, collectivement et individuellement. Et cela, dans le choix des solutions comme dans leur mise en œuvre, afin de lutter le plus efficacement possible contre la surchauffe urbaine.

Nous n’en sommes pas toujours bien conscients, mais nous disposons de leviers pour nous réapproprier les espaces urbains et pour participer à les rendre plus vivables en période de fortes chaleurs. L’Agence de la transition écologique (Ademe) a ainsi créé un service numérique public gratuit, « Plus fraîche ma ville », consacré aux collectivités, qui peut également être une source d’idées inspirantes pour les citoyens.

Projet de végétalisation citoyenne à Saint-Michel-de-Lanès (Aude). Georges Combes, Fourni par l'auteur

En nous informant mieux pour prendre conscience de la situation particulière de notre ville, en participant à des concertations locales sur les projets d’aménagement, en portant des projets avec d’autres citoyens mais aussi par nos comportements individuels, nous disposons d’une vaste panoplie de moyens pour lutter contre le phénomène de surchauffe locale qu’on appelle îlot de chaleur urbain (ICU).

Mais pour pouvoir s’en saisir, encore faut-il les connaître.

Des balades urbaines pour prendre conscience de son environnement

Depuis quelques années, de plus en plus de communes proposent aux citoyens d’appréhender de façon plus concrète la façon dont leur environnement urbain surchauffe, par exemple à travers des « balades urbaines et climatiques ».

Le principe est le suivant : citoyens, élus et experts techniques se réunissent pour suivre un parcours dans la ville à un moment où il fait chaud. De point en point, ils échangent sur leurs sensations dans les différents espaces – trottoirs goudronnés, bouches d’aération évacuant les rejets de climatisation, parcs arborés, aires de jeux exposées au soleil où aucun enfant ne joue…

  • Le premier but est d’objectiver l’aggravation de la chaleur estivale ressentie par l’effet d’îlot de chaleur urbain, ce phénomène qui se traduit par des températures plus élevées en ville qu’en zone rurale. Faire le constat partagé de cette surchauffe sur le terrain permet déjà aux participants de créer un consensus.

  • Dans un second temps, l’idée est de créer du dialogue entre élus, techniciens et habitants pour favoriser un passage à l’action rapide et durable.

C’est par exemple la démarche qui a été menée à Toulon et à la Seyne-sur-Mer, dans le Var. Elle a permis de mettre en évidence des lieux de rafraîchissement, d’identifier le rôle de la minéralisation (béton, goudron…), de la circulation et du stationnement excessif dans l’intensification de l’effet d’îlot de chaleur urbain.

Synthèse des sessions d’observation et des balades sensibles dans le centre-ville de la Seyne-sur-Mer (Var). CEREMA, 2023, Fourni par l'auteur

Par la suite, des solutions concrètes ont été identifiées. Un projet d’adaptation est en cours à l’échelle d’un premier quartier.

Participer aux programmes de sa commune

Une fois le constat posé, comment agir ? Difficile de s’y retrouver dans la jungle des interlocuteurs et des programmes communaux. Il existe pourtant plusieurs façons de prendre part aux décisions et aux actions publiques menées pour adapter les villes à la chaleur.

Cela passe par la participation à des concertations locales, par exemple pour concevoir une cour d’école, une place, un parc municipal… Ou, très concrètement, en mettant les mains dans la terre dans le cadre d’un dispositif de la ville.

Ruelle végétalisée par les habitants à Saint-Michel-de-Lanès (Aude). Mairie de Saint-Michel-de-Lanès, Fourni par l'auteur

Saint-Michel-de-Lanès (Aude), qui a connu un tel projet il y a une dizaine d’années, en donne un bon exemple. Les habitants volontaires ont participé à l’installation de plantes grimpantes sur les façades des maisons. L’enjeu était d’améliorer le confort thermique pour les habitants, l’adaptation aux conditions climatiques locales tout en ayant une gestion plus raisonnée de l’eau. Conseillés par une paysagiste, ils ont sélectionné des plantes peu exigeantes en eau et adéquates pour le climat local (clématites, chèvrefeuilles, jasmins étoilés, etc.), en fonction de différents critères tels que le feuillage, la floraison et les supports.

À Elne, dans les Pyrénées-Orientales, la mairie et les citoyens ont décidé, pour répondre au contexte de sécheresse répétée, de désimperméabiliser et de végétaliser les rues en créant des jardins partagés. L’objectif était de « favoriser l’infiltration de l’eau dans le sol pour limiter le ruissellement pluvial et conserver plus de fraîcheur en cœur de ville ».

Comment lancer un projet avec d’autres citoyens ?

Parfois, attendre que les transformations viennent du haut peut être long et frustrant. De nombreux projets émergent des citoyens eux-mêmes, qui à partir des besoins qu’ils identifient, imaginent des solutions et des espaces adaptés.

Il est tout à fait possible de rejoindre des collectifs citoyens existant, ou même, si vous avez une idée pour lutter contre la chaleur en ville près de chez vous, de fédérer d’autres citoyens pour agir avec vous. Quitte à demander ensuite à la ville de vous accompagner – financièrement, techniquement – pour le mettre en œuvre.

C’est ce qui s’est produit à la cascade des Aygalades, dans les quartiers nord de Marseille (Bouches-du-Rhône), où une association locale, la Cité des arts de la rue, s’est saisie de ce lieu laissé à l’abandon. Elle l’a renaturé pour en faire un lieu de visite, de promenade et de baignade précieux dans cette zone de la Cité phocéenne.

« Permis de végétaliser »

Il existe des façons plus individuelles de s’engager contre la surchauffe urbaine. De plus en plus de villes octroient par exemple des « permis de végétaliser » : il suffit de demander à la ville le droit de planter telles espèces à tel endroit.

Certains citoyens prennent les devants et s’approprient les espaces délaissés, comme en Guadeloupe, dans les dents creuses (parcelles en friches en plein centre-ville), où certains habitants se mobilisent pour créer des jardins.

Plus simplement, nous avons tous un rôle à jouer sur le bien-être thermique collectif par nos comportements du quotidien.

Cela passe par exemple par un usage raisonné de la climatisation : si celle-ci est, en bien des lieux, indispensable, elle ne doit pas être le premier réflexe à adopter, du fait de son impact sur la consommation d’énergie et la facture d’électricité, son risque de déséquilibrer les réseaux, mais aussi sa contribution à l’accentuation de l’effet d’îlot de chaleur urbain – par les rejets d’air chaud qu’elle génère vers l’extérieur.

D’autres pratiques existent pour rafraîchir le logement en évitant, dans bien des cas, le recours à la clim’ : fermer les volets et les stores, humidifier le logement (en faisant sécher une serviette ou un drap mouillé), placer des films anti-chaleur sur les vitres ou encore planter des arbres ou des haies au sud et à l’ouest de l’habitat.


Alice Bour, rédactrice « Plus fraîche ma ville », a contribué à la rédaction de cet article

The Conversation

Elodie Briche est membre de l’Ademe. La start-up Plus fraîche ma ville a reçu des fonds du FINDPE, du FAST et de l’Ademe.

PDF

31.07.2025 à 14:51

Élévation du niveau de la mer : comment « traduire » la science pour la rendre accessible et utile à tous ?

Xénia Philippenko, Maîtresse de conférences en Géographie humaine, Université Littoral Côte d'Opale

Anne Chapuis, Docteure en glaciologie et responsable médiation scientifique CNRS à l'Institut des Géosciences de l'Environnement, Université Grenoble Alpes (UGA)

Gaël Durand, Directeur de recherche CNRS à l'Institut des Géosciences de l'environnement, Université Grenoble Alpes (UGA)

Gonéri Le Cozannet, Chercheur - géosciences, BRGM

Rémi Thiéblemont, Chercheur - BRGM

À quelle hauteur la mer va-t-elle s’élever à cause du changement climatique ? Répondre simplement à cette question à l’échelle d’une commune littorale donnée n’a rien d’évident.
Texte intégral (2874 mots)

À quelle hauteur la mer va-t-elle s’élever à cause du changement climatique ? On peut répondre à cette question en moyenne, avec des estimations et en prenant des hypothèses, mais fournir une réponse précise à l’échelle d’une commune littorale donnée n’a rien d’évident. Plutôt que de répondre par les chiffres, certains projets misent sur d’autres outils, mêlant pédagogie, interactivité et narration.


L’océan fait partie des milieux les plus impactés par le changement climatique. L’élévation du niveau de la mer, en particulier, soumet les populations côtières à des défis toujours plus importants. Par exemple, la salinisation des sols, des sous-sols et des nappes phréatiques ou l’augmentation des risques du submersion sur les littoraux.

En France, de nombreux élus, gestionnaires, entreprises ou habitants du littoral se questionnent sur l’ampleur du phénomène : de combien de centimètres le niveau de la mer va-t-il monter ?

Or, cette hausse dépend de nombreux facteurs. Les scientifiques se demandent comment expliquer un phénomène aussi complexe et entouré d’incertitudes. Comment traduire les données issues des modèles climatiques en outils compréhensibles, utiles et engageants pour le grand public, les décideurs, ou les enseignants ?

C’est le défi que relèvent de nombreux chercheurs et communicants, en développant des dispositifs de « traduction des données », ou data translation : rendre lisible la science sans la trahir.

Le projet européen PROTECT, auquel nous avons participé, porte sur la cryosphère continentale (l’ensemble des glaces sur les continents) et l’élévation du niveau de la mer.

Le site interactif Sea Level Projection Tool, développé dans ce cadre, illustre parfaitement ce concept. Produit par une équipe pluridisciplinaire de scientifiques, informaticiens, communicants, designers et illustrateurs, et rédigé en anglais pour s’adresser à un large public européen et international, il s’appuie sur trois approches complémentaires : la pédagogie, l’interactivité et la narration concrète.

Expliquer avec pédagogie l’élévation du niveau de la mer

Le niveau de la mer évolue sous l’effet de nombreux facteurs. Certains sont environnementaux et directement liés au changement climatique : la fonte des glaciers et des calottes glaciaires (ces vastes masses de glace qui recouvrent des régions entières, comme le Groenland ou l’Antarctique), ainsi que la dilatation thermique des océans provoquée par la hausse des températures entraînent une augmentation du volume de l’eau.

D’autres facteurs sont d’ordre géologique, comme l’affaissement ou le soulèvement localisé des terres émergées. Les causes climatiques, enfin, dépendent directement des décisions politiques : selon que l’on s’oriente vers une transition avec moins d’émissions ou bien vers un futur qui priorise la croissance économique, les trajectoires futures du niveau de la mer varieront considérablement.

Le site Sea Level Projection Tool propose d’expliquer ces différents phénomènes dans un glossaire illustré. Celui-ci s’appuie sur les définitions du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), mais il propose également d’autres formats plus facilement compréhensibles pour le grand public.

Une illustratrice spécialisée en sciences, Clémence Foucher, a réalisé des visuels facilitant la compréhension des phénomènes liés à l’élévation du niveau de la mer. Par exemple, la dilatation thermique (c’est-à-dire, le fait que la hausse de température engendre une augmentation du volume de l’eau) ou la fonte des glaciers et des calottes glaciaires.

Illustrations du processus de perte de masse glaciaire par décharge, au Groenland. Clémence Foucher/Sea Level Projection Tool, Fourni par l'auteur

Ces illustrations nourrissent un cours illustré où l’on découvre les principaux contributeurs aux variations du niveau marin ainsi que les processus physiques associés – fonte, vêlage (séparation d’une masse de glace formant des icebergs), etc.

À chaque fois que cela est possible, une vidéo explicative est également proposée pour approfondir le sujet en moins de cinq minutes.


À lire aussi : Une nouvelle méthode pour évaluer l’élévation du niveau de la mer


Développer l’aspect ludique et interactif

Pour mieux comprendre les causes et les impacts de la montée du niveau de la mer, le site propose un outil interactif qui permet à chacun de simuler les effets de différentes composantes : fonte des glaciers, expansion thermique des océans, etc. Chacun de ces phénomènes affecte le niveau marin de façon différente selon les régions du globe.

Par exemple, la fonte du Groenland provoque une redistribution de masse si importante qu’elle modifie la gravité terrestre, entraînant une montée des eaux plus marquée dans des régions éloignées de la source de fonte.

De même, certaines zones, comme le nord de l’Europe, s’élèvent encore aujourd’hui sous l’effet de la fonte des glaces en Europe à la fin de la dernière glaciation, tandis que d’autres, comme certaines côtes américaines ou asiatiques, s’enfoncent.

En jouant avec ces différents paramètres, les utilisateurs peuvent explorer comment leurs effets se combinent et pourquoi certaines zones sont plus touchées que d’autres. Une manière ludique et pédagogique de s’approprier une réalité complexe, aux conséquences très concrètes.

Des narratifs pour raconter l’impact de la montée des eaux

Comprendre l’élévation du niveau de la mer est un premier pas important. Mais cela reste souvent déconnecté de la réalité des individus, qui ont du mal à se représenter ses conséquences concrètes.

Une section du site propose ainsi des cas fictifs, s’inspirant de situations réellement vécues dans trois pays différents : la France, les Pays-Bas et les Maldives.

Les conséquences liées à l’élévation du niveau de la mer sont assez similaires quelle que soit la région du monde (inondations, érosion, salinisation des sols et des nappes d’eau), mais chaque pays fait face à des défis particuliers et choisit de s’y adapter de manière différente.

Les scientifiques distinguent plusieurs types de mesures d’adaptation à l’élévation du niveau de la mer :

Illustrations de différentes mesures d’adaptation côtière. Clémence Foucher/Sea Level Projection Tool, Fourni par l'auteur

Les trois cas d’études choisis reprennent le même format : une présentation des enjeux (infrastructures, habitations, activités économiques, etc.), les choix de scénarios d’élévation du niveau de la mer – à court, moyen ou long terme et plus ou moins pessimiste – et enfin les solutions d’adaptation envisagées ou déjà mise en place.

Aux Pays-Bas par exemple, les enjeux sont très forts : un quart du territoire étant déjà sous le niveau marin et la culture de lutte contre la mer est ancienne. Le choix est donc fait de protéger les espaces littoraux par de lourdes infrastructures, comme des barrières estuariennes. Ces infrastructures sont tout à la fois des écluses, des ponts, des digues et des routes.

Illustration d’une infrastructure de grande envergure pour protéger un large éventail d’activités. Clémence Foucher/Sea Level Projection Tool, Fourni par l'auteur

Aux Maldives, la survie du pays insulaire est menacée face à l’élévation du niveau de la mer. De nombreuses solutions se développent : protection par des digues, accommodation des bâtiments, construction de nouvelles îles plus hautes, voire de maisons flottantes.

En France, dans certains territoires, les enjeux restent relativement limités ; ce qui permet d’ouvrir des espaces à la mer en reculant les infrastructures. Par exemple, la commune de Quiberville-sur-Mer (Seine-Maritime), recule son camping pour le mettre à l’abri des inondations.

Ces trois exemples illustrent la diversité des situations, ainsi que la nécessité de bien comprendre le phénomène d’élévation du niveau de la mer et de choisir le scénario adapté à sa situation pour déterminer les mesures d’adaptation.


À lire aussi : Élévation du niveau de la mer : quels littoraux voulons-nous pour demain ?


Comprendre pour mieux agir

Face à un phénomène global aux causes multiples et aux conséquences variables en fonction des régions, la compréhension de l’élévation du niveau de la mer ne saurait se limiter à une seule courbe ou à quelques chiffres. Elle nécessite d’explorer des données complexes, d’articuler des scénarios incertains, et surtout de rendre ces connaissances accessibles à celles et ceux qui devront s’y adapter.

Le Sea Level Projection Tool incarne cette démarche de data translation, en combinant rigueur scientifique, narration accessible, interactivité et dimension territoriale. Il s’adresse aussi bien aux citoyens curieux qu’aux enseignants, aux décideurs ou aux jeunes générations, en leur offrant les clés pour mieux comprendre les choix qui s’offrent à nous. Car plus que jamais, comprendre le changement, c’est déjà s’y préparer.


Les auteurs adressent leurs remerciements à Aimée Slangen, à l’équipe informatique du BRGM et à Clémence Foucher.

The Conversation

Xénia Philippenko a reçu des financement du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Anne Chapuis a reçu des financement du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Gaël Durand a reçu des financements du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Gonéri Le Cozannet a reçu des financements du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Rémi Thiéblemont a reçu des financements du programme de recherche et d'innovation Horizon 2020 de l'Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

PDF

29.07.2025 à 15:35

Comment réinventer l’autoroute du Soleil à l’heure de la transition écologique ?

Etienne Faugier, Maître de conférences en histoire, Université Lumière Lyon 2

Retour sur l’histoire de la construction de l’A7, indissociable de l’ère des congés payés, et sur les défis environnementaux, sociaux et économiques auxquels elle fait face.
Texte intégral (3183 mots)

On l’appelle « autoroute du Soleil », voire « autoroute des vacances ». L’A7, au sud de la France, est un axe touristique emblématique. Retour sur l’histoire de sa construction, indissociable de l’ère des congés payés, et sur les défis environnementaux, sociaux et économiques auxquels elle fait face.


En juillet et août, l’autoroute A7, qui relie Lyon à Marseille, est un axe particulièrement emprunté par les automobilistes, camionneurs, motocyclistes, caravanistes et autres camping-caristes. Habituellement chargée le reste de l’année par les poids lourds, elle fait alors l’objet de chassés-croisés entre juilletistes et aoûtiens.

Il s’agit d’un axe majeur du réseau autoroutier français, qui dit beaucoup de choses sur le passé, le présent et l’avenir de la société française. Sa construction s’inscrit dans un moment bien particulier de l’histoire, et elle fait face aujourd’hui à de nouveaux enjeux environnementaux, économiques et sociaux.

Aux origines des projets d’autoroutes

Les projets autoroutiers remontent au début du XXe siècle. Ils se sont développés avec l’essor de la motorisation dans une volonté d’accélérer les déplacements en séparant les modes de transport motorisés des autres modes. Un premier tronçon d’autoroute est construit aux États-Unis autour de Long Island (dans l'État de New York) en 1907. Mais c’est véritablement de Milan aux lacs de Côme et Majeur (Italie), en 1924, que l’on voit apparaître la première autostrada. Le Reich allemand suivra, en 1935, avec une autoroute de Francfort et Darmstadt (dans le Land de Hesse).

En France, dès les années 1930, des propositions d’autoroute voient le jour et notamment, en 1935, la Société des autostrades françaises (SAF) propose un itinéraire entre Lyon (Rhône) et Saint-Étienne (Loire), abandonné, car non rentable. L’autoroute a pour premier objectif les échanges économiques et commerciaux par camions et automobiles. Des projets d’autoroutes de contournement d’agglomération sont lancés durant les années 1930 dans la région parisienne. Ce n’est véritablement qu’après la Seconde Guerre mondiale qu’un système autoroutier émerge avec la loi de 1955.

L’utilisation de ce réseau à des fins touristiques et récréatives s’accroît au début des années 1960, sous l’impulsion notamment de Georges Pompidou.

Plusieurs éléments y contribuent. D’abord, la possession automobile se démocratise (Renault 4CV en 1946, Citroën 2CV en 1948) et les flottes de camions, camionnettes, motocyclettes augmentent durant la période des Trente Glorieuses. Parallèlement, les Français obtiennent deux semaines de congés payés en 1936, une troisième en 1956, une quatrième en 1969, puis une cinquième en 1982, de quoi partir en vacances.

Les travaux de l’autoroute A7 débutent en 1950 et s’achèvent en 1974 et relient à l’époque le sud de Lyon (Rhône) à Marseille (Bouches-du-Rhône) sur environ 300 km. La construction se fait sous l’autorité de la société d’économie mixte de l’Autoroute de la Vallée du Rhône (SAVR), renommée Autoroutes du sud de la France (ASF) en 1973.

On la qualifie d’« autoroute du Soleil » dès 1974, puisqu’elle emmène les Lyonnais vers la Méditerranée plus rapidement que par la mythique et plus pittoresque route nationale 7, la route des vacances. L’A7 va nourrir l’attrait touristique pour la Côte d’Azur.

Flux autoroutiers et patrimoine

La législation autoroutière permet de se déplacer jusqu’à la vitesse limite de 130 km/h. Plusieurs outils sont progressivement constitués pour gérer, en toute sécurité, les flux autoroutiers.

On peut citer la création en 1966 du Centre national d’information routière (CNIR) de la Gendarmerie à Rosny-sous-Bois et, en 1975, de Bison Futé pour informer sur la circulation routière afin d’éviter les embouteillages et pour proposer les itinéraires bis. Dès 1986, ce sera aussi le minitel avec le 3615 code route, puis dès 1991 la fréquence radio 107.7 avec ses flash-infos, et enfin le site Internet de Bison Futé en 1996 avec désormais toutes applications numériques pour connaître le trafic en temps réel (Waze, Googlemaps…).

La conduite frontale monotone sur autoroute fatigue et peut entraîner des accidents. L’autoroute, c’est aussi des aires pour s’arrêter. Celles-ci se répartissent en deux catégories : les aires de repos, tous les 15 km, avec tables, sanitaires, accès à l’eau et les aires de service, tous les 30-40 km, qui comportent de surcroît une station essence et des commerces. À l’échelle de la France, on dénombre 364 aires de service, 637 aires de repos.

Annonce de l’aire d’autoroute de Montélimar (Drôme) sur l’A7. BlueBreezeWiki/Wikimedia, CC BY-NC-ND

L’aire de service de Montélimar (Drôme), la plus importante d’Europe (52 hectares) peut aujourd’hui accueillir jusqu’à 60 000 personnes et 40 000 véhicules, et compte entre 180 et 400 employés ! Elle accueille dès 2010 un McDonald’s géré par Autogrill – un des leaders mondiaux de la restauration des voyageurs – et met bien sûr en avant la spécialité locale : le nougat.

Reste que l’autoroute propose à ses usagers un long ruban d’asphalte avec peu d’accès aux patrimoines des territoires traversés. Certaines aires d’autoroute ont entrepris, dès 1965, de les signaler. Ainsi l’aire de service de Saint-Rambert d’Albon (Drôme) intitulée « Isardrôme » (contraction d’Isère, d’Ardèche et de Drôme), expose et vend les produits du terroir – chocolats de la Drôme, fruits de l’Ardèche et de la Drôme, des produits gastronomiques (ravioles de Romans, vins des caves de Chapoutier et Jaboulet, marrons glacés Clément Faugier d’Ardèche, etc.).

Dès 1972, preuve de l’influence du tourisme à cette période, sont également installés les fameux panneaux marron qui indiquent les richesses patrimoniales à proximité de l’autoroute. Jean Widmer, graphiste suisse, s’inspire pour celles-ci des pictogrammes égyptiens.

Dès 2021, de nouveaux dessinateurs sont amenés à retravailler cette signalétique patrimoniale, à travers des images stylisées qui font la promotion des territoires français, récemment mis à l’honneur par une exposition au Musée des Beaux-Arts de Chambéry. Celles-ci permettent aux usagers de l’autoroute d’avoir un « paysage mental » plus élargi du territoire qu’ils parcourent.

Exemple de panneau patrimonial pour autoroute dessiné par Jacques de Loustal. Jacques de Loustal

Mais le temps, fût-il gagné, c’est de l’argent. Depuis 1961, les autoroutes gérées par des entreprises (Vinci, Eiffage…) sont payantes pour leurs usagers – elles deviennent totalement privées à partir de 2002 en échange de la modernisation et l’entretien des réseaux autoroutiers. Ces concessions arriveront à leur terme durant les années 2030, ce qui pose la question du retour des réseaux autoroutiers dans l’escarcelle de l’État.

L’autoroute du Soleil à l’épreuve de la durabilité

Le principal défi des autoroutes est désormais d’ordre écologique.

En effet, celles-ci affectent la biodiversité : les autoroutes traversent de larges territoires ruraux. Par exemple au col du Grand Bœuf dans la Drôme, à 323 mètres d’altitude, l’autoroute nuit à la faune coupant en deux les écosystèmes.

Pour tenter de pallier les déficiences de l’aménagement du territoire et améliorer la gestion de la biodiversité, un écopont – pont végétalisé aérien – de 15 mètres de large a été construit en 2011 pour permettre la circulation des espèces animales (biches, chevreuils, blaireaux, renards, fouines, etc.). Il a coûté 2,6 millions d’euros.

Aménagement écologique sur l’A7.
Chacal doré photographié sous l’autoroute A7, en novembre 2020. LPO Provence-Alpes-Côte d’Azur

Plus au sud, au niveau de Salon-de-Provence (Bouches-du-Rhône), il existe des écoducs – passages souterrains destinés à la petite faune. Sous l’A7, les caméras de surveillance ont pris en photo en 2020 plusieurs chacals dorés.

Les autoroutes telles que l’A7 entraînent diverses sortes de pollution : sonore, visuelle, environnementale. Depuis les années 1990, les préoccupations montent quant à la pollution routière et à ses effets.

L’infrastructure qu’est l’autoroute, pour permettre la vitesse, nécessite d’artificialiser une partie importante de l’environnement. De plus en plus de critiques se font jour depuis le début des années 1990 pour contester l’emprise au sol du système motorisé. Cela amène donc davantage de frictions entre les acteurs du territoire lorsqu’il s’agit de construire un échangeur, une portion d’autoroute ou encore une aire de repos ou de service.

Les accidents, mortels ou non, font eux aussi l’objet de multiples médiations. Il faut toutefois avoir conscience qu’ils sont plus nombreux hors autoroutes. En 2022, la mortalité sur autoroute ne représentait que 9 % des tués, contre 59 % sur les routes hors agglomération (nationales, départementales…) et 32 % en agglomération.

Avec l’essor des véhicules électriques et hybrides et la fin programmée des moteurs thermiques, les bornes électriques se multiplient – depuis 2019, sur l’aire d’autoroute de Montélimar évoquée plus haut.

En 2024, on dénombrait sur l’A7 plus de 120 points de recharge, certains ultrarapides, répartis sur neuf aires d’autoroute, dont l’aire Latitude 45 de Pont-de-l’Isère (Drôme), la mieux dotée. Le concessionnaire propose en moyenne 10 bornes de recharge et voudrait arriver à 60 par aire d’autoroute à l’horizon 2035.

Les enjeux de réseau, d’alimentation et d’usage autour de la recharge électrique sont encore à affiner. Cet été, le trafic sur l’A7 peut atteindre 180 000 véhicules/jour avec de nombreux poids lourds, automobiles, caravanes et camping-car. Si on souhaite réduire les émissions de gaz à effet de serre et respecter l’accord de Paris, remplacer tous ces véhicules par de l’électrique ne suffit pas : il faut également en passer par une forme de sobriété et réduire le volume des déplacements.

Entre enjeux économiques et frictions sociales

L’A7 fait enfin l’objet d’enjeux politiques. Entre Chanas (Isère) et Tain-L’Hermitage (Drôme) par exemple, soit le tronçon le plus long entre deux sorties d’autoroute, deux demi-échangeurs à Saint-Rambert d’Albon (en direction de Marseille) et à Saint-Barthélémy-de-Vals (tourné vers Lyon) sont en discussion, et devraient aboutir sur la période 2019-2027.

Ces deux infrastructures doivent mieux desservir le territoire d’un point de vue économique et touristique, après concertation entre la communauté de communes Portes de DrômArdèche, de la région Auvergne-Rhône-Alpes (AURA) et de Vinci Autoroute. Toutefois, des associations environnementales et trois municipalités (Peyrins, Chantemerle, Saint-Bardoux) se sont opposées au projet en mai 2025 dans un souci de durabilité (impact pour la faune et flore, pertes de terrains agricoles) et d’augmentation trop importante du trafic routier sur ce territoire.

L’autoroute des vacances n’intéresse donc pas simplement les touristes motorisés qui la traversent. Elle concerne en premier lieu les habitants des territoires desservis et a des impacts sur les territoires environnants.

Durant les années à venir, cette autoroute, comme l’ensemble du réseau autoroutier, va être soumise à des pressions accrues : politiques, économiques, sociales, environnementales. La question de nos modes de vie entre en collision avec la finalité des ressources disponibles, comme l’avait souligné le rapport du club de Rome en 1972. Alors, à terme : parlera-t-on encore d’autoroute des vacances ou d’autoroute vacante ?

The Conversation

Etienne Faugier est président et membre de l'Association Passé-Présent-Mobilité, https://ap2m.hypotheses.org/ Il est aussi membre du Conseil scientifique du CHEDD (Comité d'Histoire de l'Environnement et du Développement Durable), https://chedd.hypotheses.org/

PDF

28.07.2025 à 16:06

Apprendre les géosciences en s’amusant avec « Minecraft »

Alex Vella, Docteur en Sciences de la Terre, BRGM

« Minecraft » n’est pas qu’un jeu vidéo à succès : c’est également un support précieux pour enseigner ou apprendre les géosciences.
Texte intégral (3051 mots)
Capture d’écran des Badlands dans « Minecraft », un biome inspiré des terrains sédimentaires argileux fortement érodables du même nom. Minecraft/Mojang Studio, Fourni par l'auteur

« Minecraft » n’est pas qu’un jeu vidéo à succès : c’est également un support précieux pour enseigner ou apprendre les géosciences. Quoique simplifiée, la géologie de ses mondes est cohérente et présente de nombreuses analogies avec le monde réel.


Minecraft est l’un des jeux les plus populaires au monde, c’est aussi le jeu vidéo le plus vendu de l’Histoire avec plus de 300 millions d’exemplaires écoulés. Son univers cubique, composé de milliards de blocs, constitue un des ingrédients clés de ce succès, avec une grande variété d’environnements à explorer en surface comme en profondeur.

Plusieurs modes de jeu sont proposés : l’enjeu peut être de survivre en fabriquant, pour cela, des objets à partir de ressources. Il peut aussi être de laisser libre cours à sa créativité pour construire ce que l’on souhaite à partir des « blocs » disponibles sur la carte.

Avec ses mécaniques de gameplay et ses environnements variés, l’univers de Minecraft peut présenter une bonne analogie avec la géologie de notre monde. Quelques modifications peuvent en faire un outil très pertinent pour l’enseignement des géosciences.

L’essor du « serious gaming »

Avec le développement des jeux sérieux ou « serious games », le jeu devient un outil d’apprentissage reconnu en tant que tel.

On entend par là les jeux conçus pour enseigner, apprendre ou informer enfants ou adultes sur une large gamme de sujets. La conception de « serious games » est de plus en plus répandue, mais le fait de détourner des jeux grand public à des fins d’éducation ou d’enseignement est moins évident.

C’est pourtant ce que propose le « serious gaming ». Il s’agit d’utiliser des jeux grand public, initialement conçus pour le divertissement, comme support pour l’apprentissage. Par exemple, SimCity, dont la première mouture est sortie en 1989, a inspiré toute une génération d’urbanistes.

Minecraft se présente également sous une déclinaison éducative, avec seulement quelques ajouts par rapport au jeu originel et de multiples fonctions adaptées à l’enseignement : mode multijoueurs amélioré, coordonnées permettant aux élèves de s’orienter plus facilement sur la carte, portfolio en ligne permettant aux élèves de prendre des photos de leurs constructions, personnalisation des avatars, fonction d’import-export des mondes, des personnages interactifs…

Parmi les prétendants au serious gaming appliqué aux géosciences, Minecraft présente un potentiel reconnu à travers son aspect « bac à sable ». Celui-ci permet de répliquer des objets et concepts dans son monde virtuel, par nature très orienté vers la géographie et l’exploration souterraine.

Pour autant, le serious gaming appliqué aux géosciences ne se limite pas à Minecraft. Des jeux comme Pokémon ou Zelda peuvent aussi présenter un intérêt pour l’enseignement des géosciences au grand public.

Les « biomes » de « Minecraft »

En surface, le joueur peut explorer une grande variété d’environnements, appelés « biomes ». Ces biomes sont des versions simplifiées d’environnements de notre monde réel : prairies, montagnes, marais, désert… Aisément reconnaissables pour le joueur, ils sont, à leur manière, réalistes.

Chaque biome se compose ainsi d’une flore et d’une faune spécifiques, ainsi que de plusieurs types de blocs correspondant à leurs alter ego du monde réel : du sable recouvre ainsi les grès dans les déserts, des alternances de blocs d’argiles colorées représentent les différentes couches sédimentaires des badlands et de larges colonnes basaltiques se retrouvent dans les biomes volcaniques du Nether (dimension du jeu évoquant les enfers).

Les biomes sont générés par un algorithme procédural appelé « Bruit de Perlin ». Domaine public, Fourni par l'auteur

L’organisation même des biomes suit des règles cohérentes : chaque monde est généré de façon procédurale selon différents paramètres, tels que l’élévation, la température et l’humidité.

Le résultat : des paysages variés, où l’on passe progressivement des toundras aux plaines, puis à une savane. Cette répartition des biomes en fonction de différents paramètres géographiques et climatiques reproduit ce qui est observable à l’échelle de notre planète.

Un monde souterrain à explorer

Une grande partie du monde de Minecraft est toutefois située sous la surface de ces biomes. On y retrouve un empilement vertical de roches. Au plus profond se trouve la « bedrock », la roche mère, qui fait office de barrière avec le monde infernal du Nether. Sur celle-ci repose un type de bloc appelé ardoise des abîmes (deepslate), puis les blocs de pierre et enfin des blocs de grès, de sable ou de terre.

S’il s’agit d’une version assez simplifiée de ce qu’on l’on pourrait trouver dans la réalité, cet empilement de blocs n’est pas sans logique. Les différentes roches formant la Terre peuvent en effet former des empilements de couches plus ou moins horizontales, reposant sur un substrat plus ancien et solide.

Le sous-sol de Minecraft regorge aussi de caves, générées comme les biomes de manière procédurale. Ces caves présentent des successions d’étroites galeries et de larges grottes, agrémentées de stalactites et de stalagmites avec la présence parfois de rivières et de larges gouffres. Leurs aspects semblent très inspirés des systèmes karstiques, où la circulation de l’eau dans les calcaires forme cours d’eau souterrains, grottes et gouffres.

Vue en coupe d’un monde Minecraft montrant l’empilement des couches « stratigraphiques » sur la roche mère, ainsi que des grottes et des aquifères souterrains. Henrik Kniberg, Mojang Studio, Fourni par l'auteur

S’il n’y a pas de volcans dans Minecraft, il y a revanche de la lave, généralement située en profondeur. Suffisamment chaude pour brûler tous les éléments inflammables à portée, s’écoulant moins vite que l’eau et se transformant en obsidienne ou en pierre au contact de l’eau, celle-ci reproduit assez fidèlement le comportement des laves, de leur viscosité à leur vitrification au contact de l’eau.

Les richesses du sous-sol : minerais, cristaux, cubes…

L’exploration est importante dans Minecraft, mais l’artisanat aussi ! Pour créer de nouveaux objets, le joueur doit explorer, récolter, mais aussi extraire des ressources minières. Pour pouvoir progresser dans le jeu, le joueur devra commencer par aller miner pour remplacer ses outils en bois par des outils en fer. Si la progression entre les divers âges est plus détaillée dans d’autres jeux, Minecraft présente quelques-uns des minerais et minéraux les plus connus.

De haut en bas : un minerai d’or, du cuivre natif et un diamant dans Minecraft (à gauche) et dans la collection des Mines de Paris (à droite). Assemblage par l’auteur, Minecraft/Mojang, Musée de minéralogie des Mines de Paris, photo de Jean-Michel Le Cleac’h, Fourni par l'auteur

On retrouve par exemple le charbon, le cuivre, le fer, l’or, l’émeraude, le diamant et le quartz. Ces ressources se trouvent sous forme de poches dans la roche, parfois sous forme de veines massives. Cuivre et fer se retrouveront plus facilement à la surface, à la manière de certains des gisements sédimentaires ou magmatiques qui leur sont associés dans le monde réel. Ces derniers se forment à de relativement faible profondeur et peuvent s’organiser sous une forme similaire à celles de veines minéralisées.

Le diamant, lui, se retrouvera bien plus en profondeur, près de la roche mère, un parallèle avec la formation de nos diamants à de très grandes profondeurs (plus de 150 km), qui sont ensuite remontés à proximité de la surface par le magma.

La comparaison ne s’arrête pas aux minerais et cristaux, Minecraft présentant aussi d’autres roches plus ou moins connues. Outre l’obsidienne, on retrouvera les tufs, basaltes et andésites, typiques d’environnements magmatiques volcaniques où le magma devenu lave se cristallise. Ou encore les diorites et les granites, des roches magmatiques plutoniques formées en profondeur par le refroidissement du magma. Ceux souhaitant découvrir les équivalents réels de ces roches et minéraux pourront le faire cet été au musée de minéralogie de l’École nationale supérieure des mines de Paris, qui consacre jusqu’au 29 août 2025 une mini exposition aux minéraux dans Minecraft.

Modèle géologique de West Thurrock (Comté d’Essex, en Angleterre) créé par le British Geological Survey. Minecraft, Mojang Studio, Fourni par l'auteur

Même s’il offre une vision ludique et simplifiée des géosciences, Minecraft, avec ses mécaniques, sa diversité et sa communauté de joueurs, présente un potentiel autant pour l’enseignement que pour la sensibilisation du grand public à ce domaine. Il vous est, par exemple, possible de visiter directement les sous-sols de notre monde en certains points du Royaume-Uni, grâce aux modèles géologiques 3D mis à disposition par le British Geological Survey.

The Conversation

Alex Vella a reçu des financements de l'ANR pour des projets de recherche.

PDF

27.07.2025 à 16:53

TotalEnergies : Objectif Wall Street

Rémi Janin, Maître de conférences - Reporting financier et extra financier des organisations à Grenoble IAE INP - Chaire Impacts & RSE, Université Grenoble Alpes (UGA)

Charlotte Disle, Maîtresse de conférences, Université Grenoble Alpes (UGA)

Pourquoi un fleuron du CAC 40 tourne-t-il son regard vers Wall Street ? Quels bénéfices en attend-il ? Que révèle cette opération sur le fonctionnement des marchés ?
Texte intégral (2365 mots)
Les investisseurs des États-Unis détiennent déjà près de 40 % du capital de TotalEnergies en 2024, contre 25,3 % pour les actionnaires français. Jean-Luc Ichard/Shutterstock

La société TotalEnergies souhaite être cotée aux États-Unis. Cette décision interroge : pourquoi un fleuron du CAC 40 tourne-t-il son regard vers Wall Street ? Quels bénéfices en attend-il ? Que révèle cette opération sur le fonctionnement des marchés, des régulations et du capitalisme énergétique européens ?


Le projet de double cotation de TotalEnergies aux États-Unis questionne sur ses motivations profondes et ses implications financières. Si l’entreprise insiste sur le fait que « TotalEnergies est déjà cotée à New York » et qu’elle souhaite « transformer les certificats American Depositary Receipt, qui sont aujourd’hui la base de [sa] cotation aux États-Unis, en actions ordinaires », cette décision n’en reste pas moins stratégique.

La double cotation permet à une entreprise d’être cotée directement sur deux places boursières. Dans le cas de TotalEnergies, il ne s’agirait plus de maintenir les American Depositary Receipts (ADR) – actuellement utilisés pour accéder au marché états-unien –, mais de coter ses actions ordinaires à la Bourse de New York, tout en conservant leur cotation sur Euronext Paris. Cela permettrait aux mêmes actions d’être échangées en euros en Europe et en dollars aux États-Unis.

Double cotation

L’objectif immédiat du projet est de convertir les certificats ADR, qui représentent environ 9 % du capital de l’entreprise, en actions ordinaires cotées sur le New York Stock Exchange (NYSE). Les ADR sont des certificats négociables, émis par une banque américaine, représentant la propriété d’une action d’une société étrangère, et permettant leur négociation sur les marchés du pays de l’Oncle Sam. La conversion des ADR permettrait aux investisseurs états-uniens d’acheter des titres TotalEnergies directement, sans passer par des véhicules intermédiaires. Elle réduit les coûts d’intermédiation et facilite la liquidité.

Cette mutation est d’autant plus crédible que les investisseurs des États-Unis détiennent déjà près de 40 % du capital de TotalEnergies, en 2024, contre 25,3 % pour les actionnaires français. La part des fonds d’investissement états-uniens y est déterminante, en particulier le fonds BlackRock qui, avec 6,1 % du capital, est le premier actionnaire du groupe). De plus, les valorisations des majors américaines restent généralement supérieures à celles de leurs homologues européens. Le titre TotalEnergies se négocie ainsi à Paris à environ 3,5 fois l’Ebitda (soldes intermédiaires de gestion, ndlr), contre 6,5 fois pour ExxonMobil. En clair, tout en conservant une cotation à Paris, le « centre de gravité » boursier de l’entreprise se déplacerait mécaniquement.

Arbitrage entre Paris et New York

L’arbitrage entre NYSE et Euronext Paris consisterait, en théorie, à acheter des actions à un prix plus bas sur un marché (Paris), puis à les revendre à un prix plus élevé sur un autre (New York), tirant profit du différentiel de valorisation. Dans les faits, cette stratégie est très difficile à mettre en œuvre pour une entreprise comme TotalEnergies. Plusieurs obstacles s’y opposent :

  • Il existe des délais de règlement entre les deux marchés, empêchant une exécution instantanée.

  • Les fiscalités et régulations diffèrent selon les juridictions, complexifiant les transferts d’actions.

  • Les fuseaux horaires et la structure des marchés rendent difficile la synchronisation des opérations.

  • Les volumes de marché et la liquidité ne sont pas strictement équivalents sur les deux places.

  • Les programmes de rachat d’actions sont encadrés par des règles strictes : prix maximum, période autorisée, finalités déclarées (rémunération, annulation, etc.).

TotalEnergies ne peut donc pas légalement racheter massivement ses actions à Paris pour les revendre sous une autre forme à New York. Autrement dit, la double cotation vise moins à exploiter un arbitrage immédiat qu’à créer un accès direct et stable au marché américain, dans l’objectif d’attirer les investisseurs, d’améliorer la liquidité du titre et, à terme, d’obtenir une meilleure valorisation.

Mise en conformité

Techniquement, ce transfert nécessite une mise en conformité avec les règles de l’autorité de marchés américaine, la Securities and Exchange Commission (SEC) :

  • Un reporting financier aux normes comptables du pays, l’United States Generally Accepted Accounting Principles (US GAAP).

  • Une application drastique de la loi Sarbanes-Oxley qui oblige toutes les sociétés publiques à faire rapport de leurs contrôles comptables internes à la SEC.

  • La nomination d’un représentant légal aux États-Unis.

  • L’adaptation des structures internes à cette nouvelle configuration réglementaire et boursière.

L’exemple de TotalEnergies renvoie à celui de STMicroelectronics, dont la double cotation (Paris et NYSE) existe depuis son introduction en bourse, en 1994. Dans les années 2000, la liquidité du titre s’est déplacée progressivement vers New York, en raison d’une valorisation plus favorable et d’une structure actionnariale influencée par les fonds d’investissements états-uniens.

Maximisation de la valeur actionnariale

Le choix d’une double cotation répond à une logique bien ancrée depuis la révolution libérale des années 1980, impulsée par Milton Friedman et l’école de Chicago : celle de la maximisation de la valeur actionnariale.


À lire aussi : Deux conceptions de l’entreprise « responsable » : Friedman contre Freeman


TotalEnergies s’illustre avec un retour sur capitaux employés de 19 %, le plus élevé de toutes les majors pétrolières. Le groupe offre un rendement exceptionnel pour ses actionnaires : un dividende de 3,22 euros par action en 2024, soit une progression de 7 %. Le rendement moyen est de 5,74 % sur les cinq dernières années, contre 3 % pour l’ensemble des valeurs du CAC 40.

Son président-directeur général Patrick Pouyanné défend le choix d’une politique de distribution de dividendes soutenue lors de son discours à l’assemblée générale du groupe du 23 mai 2025 :

« Je sais aussi ce qui vous tient le plus à cœur, à travers ces échanges, c’est la pérennité de la politique du retour à l’actionnaire et notamment du dividende. Laissez-moi vous rassurer tout de suite, TotalEnergies n’a pas baissé son dividende depuis plus de quarante ans, même lorsque votre compagnie a traversé des crises violentes comme celle liée à la pandémie de Covid-19, et ce n’est pas aujourd’hui ni demain que cela va commencer. »

Les résolutions sur l’approbation des comptes et l’affectation du résultat soumises à l’assemblée générale du 23 mai 2025 ont recueilli plus de 99 % de votes favorables. Ces scores confortent la direction dans sa trajectoire conforme aux principes de la gouvernance actionnariale.

Prime de valorisation

Dans cette optique, la cotation à New York est d’autant plus attrayante qu’elle s’accompagne d’une prime de valorisation. En 2024, les certificats ADR TotalEnergies ont progressé de 8,6 % en dollars contre 1,4 % pour l’action à Paris).

Les gains de valeur boursière générés par une double cotation sont clairement avérés. Dans une étude publiée en 2010, la Federal Reserve Bank of New York démontre que les entreprises cotées qui s’introduisent sur un marché de prestige supérieur (comme Wall Street) « enregistrent des gains de valorisation significatifs durant les cinq années suivant leur introduction en bourse ».

La littérature académique met en évidence que la cotation croisée favorise une couverture accrue par les analystes financiers, en particulier américains. Cette visibilité renforcée améliore la diffusion de l’information, réduit l’asymétrie d’information entre l’entreprise et les investisseurs et renforce ainsi la confiance des marchés. Elle influence directement le coût du capital : les investisseurs sont prêts à financer l’entreprise à un taux réduit, car ils perçoivent un risque moindre. En d’autres termes, une entreprise mieux suivie, plus claire et mieux valorisée sur les marchés peut obtenir des financements à des conditions avantageuses.

Green Deal européen

TotalEnergies justifie son projet par des considérations économiques et financières. Mais ce repositionnement intervient dans un contexte réglementaire européen tendu, marqué par une montée en puissance des exigences de transparence, de durabilité et de prise en compte des parties prenantes au-delà des seuls actionnaires. Cette logique, inspirée de l’approche dite de la stakeholder value, est promue, notamment, par R. Edward Freeman (1984).

Cette dynamique est aujourd’hui remise en question. Les débats se cristallisent autour de la législation Omnibus, qui cherche à assouplir certaines exigences du cadre ESG, issu du Green Deal (pacte vert) européen, souvent critiqué pour ses répercussions possibles sur la compétitivité des entreprises européennes.

Dans le cadre du Green Deal, la directive Corporate Sustainability Reporting et les normes ESRS E1 (European Sustainability Reporting Standards) renforcent la transparence des grandes entreprises de plus de 1 000 salariés, selon la dernière proposition de la Commission européenne, en matière de risques climatiques et de leurs impacts environnementaux. En ce sens, ces directives offrent des leviers de contrôle supplémentaires aux parties prenantes désireuses d’interroger certaines stratégies de grandes entreprises comme TotalEnergies, notamment climatiques.

ESG et monde décarboné

Selon les deux derniers rapports de durabilité de TotalEnergies, la part des investissements durables du groupe (au sens de la taxonomie verte européenne mise en place dans le cadre du Green Deal) est tombée à 20,9 % en 2024, contre 28,1 % en 2023.

Lors de la dernière assemblée générale, Patrick Pouyanné a défendu cette orientation en soulignant notamment :

« Tant que nous n’aurons pas construit un système énergétique mondial décarboné, fiable et abordable, nous devrons continuer à investir dans les énergies traditionnelles. »

En déplaçant partiellement son centre de gravité vers les États-Unis, TotalEnergies consoliderait de facto son ancrage à un marché financier américain globalement moins en attente en matière d’ESG. Ainsi, lors de son audition au Sénat en avril 2024, Patrick Pouyanné soulignait :

« Du fait notamment du poids des critères environnementaux, sociaux et de gouvernance en Europe, la base d’actionnaires européens de TotalEnergies diminue […] alors que les actionnaires américains achètent TotalEnergies. »

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

27.07.2025 à 10:14

Comment la modélisation peut aider à mieux gérer la ressource en eau

André Fourno, Chercheur, IFP Énergies nouvelles

Benoit Noetinger, Chercheur, IFP Énergies nouvelles

Youri Hamon, Ingénieur de Recherche, IFP Énergies nouvelles

Alors que les arrêtés de restriction d’usage de l’eau liés à la sécheresse se multiplient depuis le début du mois de juin 2025, peut-on mieux modéliser l’évolution de ces ressources ?
Texte intégral (2302 mots)
L’aquifère karstique de la source du Lez, dans l’Héraut, assure l’alimentation en eau potable de 74 % de la population des 31 communes de la métropole de Montpellier. Stclementader/Wikimedia commons, CC BY-NC-SA

Alors que les arrêtés de restriction d’usage de l’eau en raison de la sécheresse se multiplient depuis le début du mois de juin 2025, une question se pose : peut-on mieux prévoir l’évolution de ces ressources grâce aux outils numériques ? Les aquifères (roches poreuses souterraines) et la complexité de leurs structures sont difficiles à appréhender pour les chercheurs depuis la surface de la Terre. La modélisation numérique a beaucoup à apporter à leur connaissance, afin de mieux anticiper les épisodes extrêmes liés à l’eau et mieux gérer cette ressource.


Les eaux souterraines, qui représentent 99 % de l’eau douce liquide sur terre et 25 % de l’eau utilisée par l’homme, constituent la plus grande réserve d’eau douce accessible sur la planète et jouent un rôle crucial dans le développement des sociétés humaines et des écosystèmes.

Malheureusement, les activités anthropiques affectent fortement la ressource, que ce soit par une augmentation de la demande, par l’imperméabilisation des surfaces ou par différentes contaminations…

À ces menaces s’ajoutent les perturbations des cycles et des processus naturels. Le changement climatique entraîne ainsi des modifications des régimes hydrologiques, telles que la répartition annuelle des pluies et leur intensité, ainsi que l’augmentation de l’évaporation.

Si remédier à cette situation passe par une adaptation de nos comportements, cela exige également une meilleure connaissance des hydrosystèmes, afin de permettre l’évaluation de la ressource et de son évolution.

Sa gestion pérenne, durable et résiliente se heurte à de nombreuses problématiques, aussi rencontrées dans le secteur énergétique (hydrogène, géothermie, stockage de chaleur, stockage de CO₂

Il s’agit donc de considérer les solutions mises en place dans ces secteurs afin de les adapter à la gestion des ressources en eau. Ce savoir-faire vise à obtenir une représentation 3D de la répartition des fluides dans le sous-sol et à prédire leur dynamique, à l’instar des prévisions météorologiques.

Les aquifères : des formations géologiques diverses et mal connues

Comme l’hydrogène, le CO2 ou les hydrocarbures, l’eau souterraine est stockée dans la porosité de la roche et dans ses fractures, au sein de « réservoirs » dans lesquels elle peut circuler librement. On parle alors d’aquifères. Ces entités géologiques sont par nature très hétérogènes : nature des roches, épaisseur et morphologie des couches géologiques, failles et fractures y sont légion et affectent fortement la circulation de l’eau souterraine.

Aquifères sédimentaires profonds ou karstiques. Office international de l’eau, CC BY-NC-SA

Pour comprendre cette hétérogénéité du sous-sol, les scientifiques n’ont que peu d’informations directes.L’étude de la géologie (cartographie géologique, descriptions des différentes unités lithologiques et des réseaux de failles et fractures, étude de carottes de forage) permet de comprendre l’organisation du sous-sol.

Les géologues utilisent également des informations indirectes, obtenues par les techniques géophysiques, qui permettent de déterminer des propriétés physiques du milieu (porosité, perméabilité, degré de saturation…) et d’identifier les différentes zones aquifères.

Enfin, grâce à des prélèvements d’échantillons d’eau et à l’analyse de leurs compositions (anions et cations majeurs ou traces, carbone organique ou inorganique, isotopes), il est possible de déterminer l’origine de l’eau (eau météorique infiltrée, eau marine, eau profonde crustale…), les terrains drainés, mais également les temps de résidence de l’eau au sein de l’aquifère.

Ces travaux permettent alors d’obtenir une image de la géométrie du sous-sol et de la dynamique du fluide (volume et vitesse d’écoulement de l’eau), constituant une représentation conceptuelle.

Modéliser le comportement des eaux sous terre

Cependant, les données de subsurface collectées ne reflètent qu’une faible fraction de la complexité géologique de ces aquifères. Afin de confronter les concepts précédemment établis au comportement réel des eaux souterraines, des représentations numériques sont donc établies.

Les modèles numériques du sous-sol sont largement utilisés dans plusieurs champs d’application des géosciences : les énergies fossiles, mais aussi le stockage géologique de CO₂, la géothermie et bien sûr… la ressource en eau !

Dans le domaine de l’hydrogéologie, différentes techniques de modélisation peuvent être utilisées, selon le type d’aquifère et son comportement hydrodynamique.

Les aquifères sédimentaires profonds constitués de couches de sédiments variés sont parfois situés à des profondeurs importantes. C’est, par exemple, le cas des formations du miocène, de plus de 350 mètres d’épaisseur, de la région de Carpentras, qui abritent l’aquifère du même nom. Celles-ci vont se caractériser par une forte hétérogénéité : plusieurs compartiments aquifères peuvent ainsi être superposés les uns sur les autres, séparés par des intervalles imperméables (aquitards), formant un « mille-feuille » géologique.

Représenter la complexité des aquifères

La distribution de ces hétérogénéités peut alors être modélisée par des approches géostatistiques, corrélées à des informations de structure (histoire géologique, déformations, failles…). On parle de « modèles distribués », car ils « distribuent » des propriétés géologiques (nature de la roche, porosité, perméabilité…) de manière spatialisée au sein d’une grille numérique 3D représentant la structure de l’aquifère.

Ces modèles distribués se complexifient lorsque l’aquifère est fracturé et karstique. Ces systèmes hydrogéologiques sont formés par la dissolution des roches carbonatées par l’eau météorique qui s’infiltre, le plus souvent le long des failles et fractures. Ces aquifères, qui sont très largement répandus autour de la Méditerranée (aquifères des Corbières, du Lez, ou des monts de Vaucluse…), ont une importante capacité de stockage d’eau.

Ils se caractérisent par des écoulements souterrains avec deux voire trois vitesses d’écoulement, chacune associée à un milieu particulier : lente dans la roche, rapide au sein des fractures, très rapide dans les drains et conduits karstiques avec des échanges de fluide entre ces différents milieux. Les approches distribuées s’appuient alors sur autant de maillages (représentation numérique d’un milieu) que de milieux contribuant à l’écoulement, afin de modéliser correctement les échanges entre eux.

Anticiper les épisodes extrêmes et alerter sur les risques

Le point fort des approches distribuées est de pouvoir définir, anticiper et visualiser le comportement de l’eau souterraine (comme on le ferait pour un front nuageux en météorologie), mais également de positionner des capteurs permanents (comme cela a été abordé dans le projet SENSE) pour alerter de façon fiable les pouvoirs publics sur l’impact d’un épisode extrême (pluvieux ou sécheresse).

En outre, elles sont le point de passage obligé pour profiter des derniers résultats de la recherche sur les « approches big data » et sur les IA les plus avancées. Cependant, les résultats obtenus dépendent fortement des données disponibles. Si les résultats ne donnent pas satisfaction, il est nécessaire de revoir les concepts ou la distribution des propriétés. Loin d’être un échec, cette phase permet toujours d’améliorer notre connaissance de l’hydrosystème.

Des modélisations dites « globales » assez anciennes reliant par des modèles de type boîte noire (déjà parfois des réseaux neuronaux !) les données de pluie mesurées aux niveaux d’eau et débits observés ont également été mises au point à l’échelle de l’aquifère. Elles sont rapides et faciles d’utilisation, toutefois mal adaptées pour visualiser et anticiper l’évolution de la recharge et des volumes d’eau en place dans un contexte de changements globaux, avec notamment la multiplication des évènements extrêmes.

Loin d’être en concurrence, ces approches doivent être considérées comme complémentaires. Une première représentation du comportement actuel de l’aquifère peut être obtenue avec les approches globales, et faciliter l’utilisation et la paramétrisation des approches distribuées.

Des outils d’aide à la décision

Ces dernières années, la prise en considération des problématiques « eau » par les pouvoirs publics a mis en lumière le besoin d’évaluation de cette ressource. Le développement d’approches méthodologiques pluridisciplinaires couplant caractérisation et modélisation est une des clés pour lever ce verrou scientifique.

De tels travaux sont au cœur de nombreux programmes de recherche, comme le programme OneWater – Eau bien commun, le programme européen Water4all ou l’ERC Synergy KARST et de chaires de recherche telles que GeEAUde ou EACC.

Ils apportent une meilleure vision de cette ressource dite invisible, et visent à alerter l’ensemble des acteurs sur les problèmes d’une surexploitation ou d’une mauvaise gestion, à anticiper les impacts des changements globaux tout en fournissant des outils d’aide à la décision utilisables par les scientifiques, par les responsables politiques et par les consommateurs.

The Conversation

André Fourno a reçu des financements de OneWater – Eau Bien Commun.

Benoit Noetinger a reçu des financements de European research council

Youri Hamon a reçu des financements de OneWater – Eau Bien Commun.

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓