Version smartphones allégée
🟥 Accueil 🟨 Médias 🟦 International
Lien du flux RSS
L’expertise universitaire, l’exigence journalistique

▸ les 25 dernières parutions

13.02.2026 à 12:41

Aux États-Unis, les vents du « backlash » climatique redoublent d’intensité

Christian de Perthuis, Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL
img
Le président Trump a annoncé l’abrogation de l’Endangerment Finding, texte clé pour la régulation des émissions de gaz à effet de serre aux États-Unis.
Texte intégral (2055 mots)

Le président Trump a annoncé l’abrogation de l’Endangerment Finding, un texte de l’Agence environnementale américaine (EPA) à la base de toutes les régulations fédérales concernant les émissions de gaz à effet de serre (GES) du pays. Après le retrait de l’accord de Paris et des institutions internationales traitant du climat, c’est un renforcement du backlash climatique qui souffle sur les États-Unis.


L’abrogation de l’Endangerment Finding (qu’on peut traduire par « constat de mise en danger »), annoncée depuis la Maison-Blanche, le 12 février 2026, marque un retour en arrière de près de vingt ans.

Ce texte de l’EPA réunit en effet les éléments scientifiques permettant l’application d’une décision de la Cour suprême des États-Unis datant de 2007, qui appelait l’Agence environnementale américaine (EPA) à inclure les six principaux gaz à effet de serre parmi les rejets atmosphériques qu’elle a mission de réguler.

Nouvelle illustration du backlash climatique de l’Amérique trumpienne, cette abrogation promet de multiples contentieux juridiques qui remonteront sans doute jusqu’à la Cour suprême, dont la décision de 2007 n’a pas été abrogée.


À lire aussi : La réélection de Donald Trump : quelles implications pour les politiques climatiques ?


Aux origines du « backlash »

Titre d’un livre de Susan Faludi paru en 1991, l’expression « backlash » a connu son heure de gloire aux États-Unis dans les années 1990. Elle désignait alors toute régression en matière de droits civiques, en particulier ceux des femmes et des minorités.

Le backlash est revenu en force en 2025, avec le démarrage du second mandat de Donald Trump. La guerre contre les droits civiques a repris avec une grande violence pour les migrants. Elle a été étendue à tout ce qui touche le changement climatique, autrement dit aux droits environnementaux, ainsi qu’à la science.

La guerre anti-climat a été déclarée le premier jour de la présidence. Le 20 janvier 2025, parmi les innombrables décrets signés par Donald Trump, figurait celui annonçant le retrait des États-Unis de l’accord de Paris sur le climat et un autre visant la relance des énergies fossiles.

En termes de politique extérieure, la dénonciation de l’accord de Paris a été complétée en janvier 2026 par le retrait des États-Unis de la convention-cadre des Nations unies sur le réchauffement climatique et du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). En se retirant de la convention-cadre, l’Amérique trumpienne s’est affranchie de toute obligation en matière climatique.


À lire aussi : La transition énergétique américaine à l’épreuve de Trump 2.0


Les sciences du climat en ligne de mire

Le retrait du Giec illustre un autre volet du backlash : la guerre déclarée contre les sciences du climat et toutes les institutions qui les hébergent.

Si les universités et les centres indépendants comme le World Resources Institute (WRI) ou le Berkeley Earth ont pu résister, trois grandes administrations fédérales ont été directement affectées : l’administration en charge de l’atmosphère et de l’océan (NOAA), les centres de recherche sur le climat de la NASA et l’agence environnementale (EPA), en charge de l’établissement de l’inventaire des émissions de gaz à effet de serre. Ces trois institutions produisent nombre de données et de modélisations utilisées par les scientifiques du monde entier.

Sur le plan de la politique intérieure, l’abrogation de l’Endangerment Finding ouvre la voie à la suppression de l’ensemble des régulations environnementales touchant le climat, notamment dans les transports et l’énergie. Elle a été préparée par la publication du rapport de juillet 2025 du Département de l’énergie, qui relativisait les impacts du réchauffement climatique, instillant le doute sur ses origines anthropiques et affirmant, dans son résumé pour décideurs, que « des politiques d’atténuation excessivement agressives pourraient s’avérer plus néfastes que bénéfiques ».

La question des preuves scientifiques était déjà au cœur de la décision d’avril 2007 de la Cour suprême des États-Unis, dite Massachusetts v. EPA, qui enjoignait à l’EPA d’intégrer les gaz à effet de serre (GES) parmi les polluants atmosphériques qu’elle avait en charge de réglementer. Ce faisant, la Cour a retourné, par une faible majorité (5 contre 4), la jurisprudence antérieure qui reposait sur les supposées incertitudes scientifiques quant au lien entre les émissions de GES et le changement climatique.

C’est à nouveau en contestant les diagnostics des sciences du climat que l’Amérique trumpienne tente de s’affranchir de toute responsabilité face au changement climatique. Cela ne va pas manquer de multiplier les contentieux judiciaires, qui risquent fort de remonter jusqu’à la Cour suprême, dont la décision de 2007 enjoignant à l’EPA de réguler les émissions de gaz à effet de serre n’a pas été abrogée.

Des conséquences déjà tangibles pour le climat

L’abrogation de l’Endangerment Finding vise à inscrire dans la durée la stratégie trumpienne. Celle-ci est guidée par le rétroviseur, avec la promesse de retrouver un paradis énergétique reposant sur une abondance d’énergie fossile livrée à bas coût à la population.

C’est au nom de cette chimère que les dispositifs de soutien aux énergies renouvelables et à l’électrification des usages ont été démantelés en moins d’un an. Cela a conduit les constructeurs américains à mettre un grand coup de frein sur la voiture électrique. Dans les énergies renouvelables, la filière éolienne a été particulièrement visée, avec le gel ou l’arrêt de la plupart des grands projets offshore déjà engagés, généralement portés par des entreprises européennes.

Simultanément, le secteur des énergies fossiles a été cajolé par la « grande et belle loi budgétaire » qui prévoit, entre autres, la cession de nouvelles concessions pétrolières dans le golfe du Mexique et sur les terres fédérales, des allègements fiscaux sur les forages, le report de la redevance sur le méthane, la réduction des redevances minières pour le charbon, l’extension de son extraction sur les terres fédérales et enfin des crédits d’impôt pour le « charbon métallique » utilisé dans les hauts-fourneaux.

Ce cocktail de mesures a contribué à la remontée, estimée à 2,4 %, des émissions de gaz à effet de serre du pays en 2025. La tendance à la baisse des émissions observée depuis 2005 risque ainsi d’être interrompue.

Le tête-à-queue américain peut-il faire dérailler les scénarios globaux de sortie des énergies fossiles ? En 2025, les États-Unis ont été à l’origine de 13 % des émissions mondiales de carbone fossile. Tout dépendra de la façon dont va réagir le reste du monde.


À lire aussi : « Drill, baby, drill » : face à l'obsession de Trump pour le pétrole, une mobilisation citoyenne verra-t-elle le jour ?


Face au « backlash » : accélération au Sud, hésitations en Europe

Dans le reste du monde, ce n’est pas le backlash, mais l’accélération de la transition énergétique qui prévaut.

La Chine en est devenue l’acteur pivot. Grâce à un investissement sans pareil dans les énergies bas carbone, elle est en train de franchir son pic d’émission à 8 tonnes de CO2 par habitant, quand les États-Unis ont franchi le leur à 21 tonnes, et l’Europe à 11 tonnes. La question clé est désormais celle du rythme de la décrue après le pic.

Devenue le fournisseur dominant des biens d’équipement de la transition énergétique, la Chine a contré la fermeture du marché américain en redirigeant ses ventes vers le Sud global, qui accélère ses investissements dans l’économie bas carbone. L’agressivité trumpiste a même réussi à rapprocher la Chine de l’Inde.

L’accélération de la transition bas carbone est particulièrement forte en Asie. En 2025, l’Inde a stabilisé les émissions de son secteur électrique, grâce à la montée en régime du solaire. La même année, on a vendu, en proportion, plus de véhicules électriques au Viêt-nam ou en Thaïlande que dans l’Union européenne, et le Pakistan s’est couvert de panneaux photovoltaïques.


À lire aussi : La Chine, leader de la décarbonation des économies du Sud


Dans ce contexte, l’Europe s’enferme dans une position défensive face aux États-Unis, subissant les coups les uns après les autres. Les vents du backlash climatique trouvent même des relais au sein de l’Union européenne, où une partie de la classe politique cherche désormais à freiner, voire stopper, la transition bas carbone.

Cette attitude est contreproductive. Le vieux continent importe la grande majorité de son énergie fossile, et pourrait au contraire reconquérir une partie de sa souveraineté économique en accélérant sa transition énergétique. Cela contribuerait également à relever son taux d’investissement, car l’économie bas carbone est plus capitalistique que celle reposant sur l’énergie fossile.

L’Europe devrait, enfin, mobiliser toutes ses ressources scientifiques pour faire face aux attaques lancées contre les sciences du climat. Aux « faits alternatifs » que cherchent à imposer les « ingénieurs du chaos » – du nom de l’essai éponyme paru en 2019 – sur les réseaux sociaux, il est temps d’opposer avec détermination les faits scientifiques.

The Conversation

Christian de Perthuis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.02.2026 à 09:23

Inondations : l’aménagement du territoire est-il responsable ?

Luc Aquilina, Professeur en sciences de l’environnement, Université de Rennes 1 - Université de Rennes
Pierre Brigode, Maître de conférences en hydrologie, École normale supérieure de Rennes
img
Les inondations qui touchent le Sud-Ouest de la France provoquées par la tempête Nils pourraient alimenté à nouveau le débat sur le rôle l’aménagement du territoire dans la survenue de ces événements.
Texte intégral (2284 mots)

Les inondations qui touchent le Sud-Ouest de la France provoquées par la tempête Nils pourraient alimenter à nouveau le débat sur le rôle l’aménagement du territoire dans la survenue de ces événements. Les inondations sont pourtant des phénomènes complexes et le rôle des aménagements reste difficile à estimer.


Depuis plusieurs années, l’Europe est frappée par des inondations majeures aux bilans humains terribles : 243 morts en juillet 2021 en Allemagne, en Belgique, au Luxembourg et aux Pays-Bas, 17 morts en mai 2023 en Italie du Nord, 27 morts en septembre 2024 lors de la tempête Boris en Europe Centrale, de l’Allemagne à la Roumanie, et 237 morts en octobre 2024 dans le sud de Valence. Plus près de nous, les inondations de la Vilaine de ce mois de janvier 2026 et celles de l’année dernière ont ravivé pour les habitants le spectre des inondations du passé.

Ces évènements frappent les esprits et font la une des médias, surtout s’ils se déroulent en Europe. Très vite, des causes liées à l’aménagement du territoire sont invoquées. En Espagne, l’extrême droite a condamné les écologistes qui ont prôné l’arasement des barrages. Vérification faite, il ne s’est agi que de la suppression de « barrières » peu élevées et le lien avec les barrages n’est pas attesté. En Bretagne, à l’inverse, suite à la crue de la Vilaine début 2025 et à l’inondation de plusieurs quartiers de Rennes et de Redon, plusieurs coupables ont été rapidement désignés dans les médias. Le changement climatique d’abord, puis le remembrement des territoires ruraux et le drainage des parcelles agricoles qui ont accompagné la révolution verte des années 1960 et 1970 ont été pointés du doigt.

Les scientifiques de l’eau soulignent le rôle des aménagements passés sur les sécheresses et les tensions autour de la ressource en eau. Pour autant, l’attribution des causes à des événements exceptionnels comme les crues intenses s’avère difficile. Faut-il chercher un seul coupable, ou bien plusieurs ? Changement climatique et modification des usages des sols contribuent à la genèse des inondations, mais leurs implications respectives dans ces évènements varient selon le type d’inondation ainsi qu’au cours du temps.

Il est difficile de déterminer les causes des crues

Isoler la part de responsabilité du changement climatique dans la survenue d’un événement climatique extrême est ce qu’on appelle un processus d’attribution. La science de l’attribution, relativement récente, est nécessaire pour quantifier les impacts du changement climatique dans des processus complexes et variables. Un exemple récent est l’étude menée suite aux pluies torrentielles d’octobre 2024 en Espagne, qui a montré que ce type d’épisode pluvieux présente jusqu’à 15 % de précipitations supplémentaires par rapport à un climat sans réchauffement. En d’autres termes, environ une goutte d’eau sur six tombée lors de cet épisode peut être imputée au changement climatique.

Si l’attribution des pluies est aujourd’hui de mieux en mieux maîtrisée, celle des crues reste moins bien déterminée. On confond souvent l’attribution de la pluie et celle de la crue, alors qu’elles ne sont pas équivalentes. Entre le moment où la pluie tombe et celui où la rivière déborde, il se passe beaucoup de choses au niveau du bassin versant : selon le degré d’humidité et la nature du sol et du sous-sol ou bien la manière dont il a été aménagé, il peut agir comme tampon ou accélérer les flux d’eau. Deux bassins versants différents auront des réponses également différentes pour un même volume de pluie, et un même volume de pluie tombant sur un même bassin versant peut avoir des conséquences très différentes selon le moment de l’année. La survenue d’une crue dépend donc de la combinaison de deux dés : la pluie qui tombe sur le bassin versant et la capacité de ce bassin à l’absorber.

Le changement climatique et les aménagements perturbent l’absorption des sols

Les études d’attribution des pluies montrent avec certitude que le réchauffement climatique — et donc les activités humaines qui en sont la cause — intensifient les pluies fortes et les rendent de plus en plus fréquentes. Si nos futurs étés seront plus secs, les hivers seront eux plus humides, notamment dans le nord de la France. Qu’en est-il du deuxième dé, la capacité d’absorption des bassins versants ? Le changement climatique l’affecte également, en modifiant l’humidité des sols au fil des saisons. Mais cette capacité dépend aussi largement des transformations opérées par certaines activités humaines.

C’est le cas par exemple des barrages, conçus pour stocker l’eau lors des saisons humides et qui ont la capacité de tamponner la puissance des crues. Mais d’autres phénomènes sont impliqués, comme l’urbanisation, qui imperméabilise les sols en remplaçant champs et prairies par du béton et de l’asphalte. Ces surfaces imperméables réduisent fortement l’infiltration et favorisent le ruissellement. Même si l’urbanisation reste marginale à l’échelle des grands bassins versants, elle peut jouer un rôle majeur localement, notamment en zones périurbaines, où les petits cours d’eau sont souvent canalisés ou recouverts.

Les aménagements agricoles comptent également. Le remembrement, qui a fait disparaître des milliers de haies et fossés au profit de grandes parcelles plus facilement exploitables pour des machines agricoles, a profondément modifié la circulation de l’eau. En parallèle, d’autres transformations ont réduit la capacité du paysage à retenir l’eau lors des pluies fortes, comme la pose de drains en profondeur dans les sols agricoles qui vise à évacuer l’excédent d’eau des terres trop humides durant l’hiver. La création de digues et de canaux pour limiter l’expansion des rivières, le creusement des cours d’eau et la rectification de leurs berges les ont recalibrées pour les rendre linéaires. Ces différents aménagements ont des effets importants. Ils modifient le cycle de l’eau continental en accélérant globalement les flux vers la mer. Les niveaux des nappes ont déjà été affectés par ces modifications. Dans les vastes marais du Cotentin, nous avons montré que le niveau moyen des nappes a chuté d’environ un mètre depuis 1950, alors que les aménagements des siècles précédents avaient déjà diminué ces niveaux. Le changement climatique va renforcer cette diminution des niveaux de nappe au moins sur une grande partie du territoire hexagonal.

D’un bassin à l’autre, des effets différents

Ces facteurs jouent différemment selon la surface des bassins versants et leur localisation : l’urbanisation a un effet très fort sur les crues des petits bassins versants côtiers de la Côte d’Azur, qui ont une surface inférieure à 10 km2, mais un effet moindre sur le bassin versant de la Vilaine, qui compte 1 400 km2 à Rennes après la confluence avec l’Ille. À l’inverse, les pratiques agricoles ont un effet plus important sur les crues du bassin de la Vilaine que sur ceux de la Côte d’Azur.

Aujourd’hui, il est difficile de quantifier précisément la part relative de ces facteurs dans l’occurrence des crues observées. En amont des cours d’eau, certaines transformations peuvent ralentir la propagation des crues en augmentant des capacités de stockage locales, par exemple dans les sols, les zones humides ou les plaines inondables, tandis qu’en aval, l’accélération des flux et leur addition tendent à dominer. Chacun des aménagements décrits influence la manière dont un bassin versant absorbe ou accélère l’eau, mais l’addition de leurs effets crée une interaction complexe dont nous ne savons pas précisément faire le bilan.

Lors d’événements exceptionnels comme la crue de Valence, ce sont avant tout les volumes de pluie qui déclenchent la crue et ses conséquences, le changement climatique pouvant intensifier ces précipitations. Les aménagements du territoire influencent de manière secondaire la façon dont l’eau s’écoule et se concentre dans les bassins versants. Il n’en reste pas moins que ces deux effets jouent un rôle de plus en plus important dans les événements de moindre ampleur, dont les impacts sont néanmoins importants et dont l’occurrence a déjà augmenté et va encore s’accentuer dans le futur. Pour deux degrés de réchauffement, l’intensité des crues décennales (d’une ampleur observée en moyenne une fois tous les 10 ans) augmentera potentiellement de 10 à 40 % dans l’Hexagone, et celle des crues centennales (observées en moyenne une fois tous les siècles) de plus de 40 %.

Une vie en catastrophes ?

Ces événements ont provoqué des prises de position politique virulentes. Certains, en particulier à droite de l’échiquier politique, ont remis en question les politiques récentes de restauration de l’état naturel des cours d’eau, de protection des zones humides et de destruction des barrages. Elles ont conduit à des appels à la suppression de l’Office français de la biodiversité lors des manifestations agricoles, proposition reprise par le sénateur Laurent Duplomb devant le Sénat le 24 janvier 2024.

Les aménagements les plus récents, défendus par de nombreuses structures territoriales, visent à redonner au cycle de l’eau, et en particulier aux rivières, des espaces plus larges et à recréer ou protéger des zones humides. Tous ces aménagements conduisent à ralentir les flux et donc luttent contre les inondations, tout en préservant la biodiversité à laquelle notre santé est liée. Les zones humides sont par exemple les meilleurs ennemis des moustiques tigres, en permettant le développement de leurs prédateurs. Bien qu’ils exigent de concéder des terres agricoles aux milieux naturels, ces aménagements nourrissent les nappes qui restent le meilleur réservoir pour le stockage de l’eau des saisons humides.

Remettre en question les politiques de recalibration des cours d’eau, de remembrement et de drainage, tout comme l’imperméabilisation des zones urbaines, est une nécessité imposée par l’adaptation au changement climatique. Il s’agit de limiter ou éviter les tensions entre les besoins des activités humaines et les besoins des écosystèmes qui pourraient en faire les frais. Les inondations catastrophiques ne sont qu’en partie liées aux aménagements et ne peuvent pas justifier à elles seules les politiques de retour à l’état naturel des cours d’eau, qui sont en revanche une réponse aux sécheresses estivales à venir. Pour autant, ces inondations majeures sont là pour nous alerter sur les effets du changement climatique. Les étés vont devenir plus secs et les ressources vont manquer, mais les événements extrêmes vont également se multiplier. Une vie en catastrophes nous attend si nous ne transformons pas nos modes de consommation et de production. Tel est le message porté par les inondations. Sera-t-il mieux entendu que les appels des hydrologues ?

The Conversation

Luc Aquilina est co-titulaire de la chaire Eaux et territoires de la fondation de l’Université de Rennes qui reçoit des fonds d’Eau du Bassin Rennais, Rennes Métropole et du Syndicat Mixte Eau 50.

Pierre Brigode a reçu des financements de l'Université de Rennes, du Centre national de la recherche scientifique et de l'Agence nationale de la recherche.

12.02.2026 à 10:29

Les clauses environnementales des accords de libre-échange sont-elles efficaces ? L’exemple de la pêche

Clément Nedoncelle, Chercheur en economie INRAE, Inrae
Basak Bayramoglu, Directrice de recherche, Inrae
Estelle Gozlan, Chercheuse, Inrae
Thibaut Tarabbia, chercheur, Paris School of Economics – École d'économie de Paris
img
L’accord UE-Mercosur fait ressurgir une question sensible : comment concilier commerce international et protection de l’environnement ?
Texte intégral (1329 mots)

Une étude montre que les clauses environnementales contenues dans les accords de libre-échange sont ambivalentes : leur succès dépend, pour beaucoup, du contexte global et de la volonté politique à les mettre en œuvre. Le principal problème ? Elles ne contribuent pas vraiment à transformer les modèles et les pratiques qui nuisent le plus à l’environnement.


Les projecteurs sont actuellement braqués sur l’accord de libre-échange entre l’Union européenne et le Mercosur, signé le 17 janvier 2026 et déjà très contesté. Nombre de préoccupations portent sur les effets délétères qu’il pourrait avoir sur l’environnement.

Peut-on concilier commerce international et protection de l’environnement ? Cette question dépasse les forêts amazoniennes ou les bœufs brésiliens. Il touche aussi un bien commun trop souvent oublié : les océans et les pêcheries qui en dépendent.

Les pêcheries sont, en effet, un pilier de la sécurité alimentaire mondiale. Elles nourrissent des milliards de personnes, font vivre des communautés entières dans les pays côtiers et assurent une part cruciale des exportations des pays du Sud global. Et pourtant, elles s’épuisent : selon l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO), à peine 65 % des stocks mondiaux de poissons sont exploités durablement, contre 90 % dans les années 1970.

Face à ce déclin, les gouvernements mobilisent un éventail de politiques : quotas, aires marines protégées, taxes, subventions… Mais un autre outil, plus discret, joue un rôle croissant : celui es accords commerciaux, qui incluent désormais des « clauses environnementales » censées limiter les effets néfastes du commerce sur la nature. Certaines portent directement sur les pêcheries. Mais sont-elles efficaces ?

Notre étude récente publiée dans la revue World Development analyse les conséquences économiques et écologiques de ces clauses, appliquées au secteur des pêcheries. En examinant plus de 700 accords commerciaux conclus depuis la Seconde Guerre mondiale, nous avons comparé ceux qui comportaient des clauses sur la pêche à ceux qui n’en prévoient pas.

Nous avons ainsi étudié leur effet sur le niveau trophique moyen des prises, c’est-à-dire la position des poissons pêchés dans la chaîne alimentaire. Si cet indicateur baisse, cela signifie que l’on pêche des espèces de plus en plus petites et basses dans la chaîne, et donc que les grands prédateurs marins disparaissent.


À lire aussi : Que sait-on sur les captures accidentelles de dauphins dans le golfe de Gascogne, et pourquoi est-il si difficile de les éviter ?


Un filet de sécurité, mais qui dépend du contexte national

Notre étude montre un résultat principal : les accords commerciaux sur la pêche détériorent la durabilité des ressources marines, mais l’inclusion de clauses environnementales atténue significativement cette dégradation. Ces clauses limitent les dégradations supplémentaires provoquées ou accentuées par la libéralisation des échanges.

En clair, ces dispositions environnementales jouent un rôle de filet de sécurité : elles empêchent la situation de se dégrade davantage, sans pour autant l’améliorer spectaculairement. Les effets positifs apparaissent lentement, entre cinq et neuf ans après la signature.

Ces résultats ont des implications au-delà des pêcheries. En effet, depuis une quinzaine d’années, les accords commerciaux ont intégré une multitude de clauses environnementales : sur les forêts, le climat, la pollution, la biodiversité… Toutefois, si ces dispositions ont parfois prouvé leur efficacité – pour réduire la déforestation ou les émissions polluantes, par exemple – leurs effets varient fortement selon les secteurs et les pays. Ils dépendent notamment largement de la qualité des institutions des pays signataires : les pays dotés d’une gouvernance solide en tirent bien plus de bénéfices écologiques.

Autrement dit, cela peut fonctionner, mais d’abord là où les États sont capables de les mettre en œuvre.


À lire aussi : Quel est le poids exact de la France dans la « déforestation importée » qui touche l’Amazonie ?


Un impact limité sur les pratiques de pêche

Notre étude souligne aussi le revers de la médaille, autrement dit l’ambivalence de ces politiques : elles peuvent atténuer les dégâts écologiques, mais pas nécessairement transformer les comportements économiques qui en sont à la source.

En effet, les améliorations écologiques observées, par rapport à un accord de libre-échange dépourvu de dispositions environnementales, ne sont pas tant liés à la transformation des pratiques de pêche – comme l’abandon du chalutage destructeur – qu’à la réduction forte des volumes pêchés et exportés.

Les clauses environnementales semblent donc d’abord agir comme des freins au commerce plutôt que comme des moteurs d’innovation durable. Elles freinent la pression commerciale, mais sans transformer le modèle de production vers davantage de soutenabilité.

Elles montrent surtout que la réussite de la transition écologique ne dépend pas uniquement des règles internationales, mais de la volonté politique et institutionnelle de les faire vivre par les États.


À lire aussi : À quelles conditions peut-on parler d’activités de pêche « durables » ?


Un enjeu de volonté politique

La question dépasse donc le commerce international : tout se joue dans la capacité des États à appliquer localement des engagements pris au niveau supranational. Une clause environnementale n’a d’effet que si la capacité des administrations à contrôler et sanctionner suit.

Sans investissement dans la mise en application et l’accompagnement des secteurs concernés, ces accords ne peuvent donc agir qu’à la marge. L’enjeu n’est donc pas d’ajouter des obligations dans les traités, mais de s’assurer qu’elles sont réellement mises en œuvre, seule condition pour changer les pratiques plutôt que simplement freiner le commerce.

Dans le débat sur l’accord UE–Mercosur, beaucoup craignent que l’environnement serve à nouveau de variable d’ajustement aux intérêts commerciaux. Nos recherches montrent qu’il n’y a pas de fatalité : si les clauses environnementales sont ambitieuses, assorties de mécanismes de suivi et appliquées par des États capables de les faire respecter, elles peuvent réellement protéger les ressources naturelles.

The Conversation

Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l'égide de La Fondation du Risque.

Clément Nedoncelle, Estelle Gozlan et Thibaut Tarabbia ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

12.02.2026 à 10:29

Accord UE-Mercosur : quand la radiochronologie retrace l’histoire agricole de la Pampa en Amérique du Sud

Amaury Bardelle, Doctorant au laboratoire des sciences du climat et de l’environnement, Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Anthony Foucher, Chercheur CEA au Laboratoire des Sciences du Climat et de l’Environnement, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)
Olivier Evrard, Directeur de recherche, Commissariat à l’énergie atomique et aux énergies alternatives (CEA); Université Paris-Saclay
Pierre-Alexis Chaboche, Chercheur au Laboratoire des Sciences du Climat et de l'Environnement (LSCE), Université Paris-Saclay
Renaldo Gastineau, Chercheur postdoctorant au laboratoire EDYTEM, Université Savoie Mont Blanc
img
Dans la Pampa, les sédiments issus des sols agricoles livrent une histoire précise des pollutions. Même si certains pesticides sont désormais interdits, la terre n’oublie pas.
Texte intégral (3093 mots)

Alors que l’accord UE-Mercosur suscite de vives inquiétudes chez les agriculteurs européens, il ne faut pas éluder ses conséquences environnementales potentielles en Amérique du Sud. Notre étude récente, qui s’appuie sur la datation radiométrique de sédiments, a permis de reconstituer une histoire des pollutions agricoles dans la Pampa uruguayenne. Or, en matière de pesticides, la terre n’oublie pas : on retrouve par exemple du DDT, pourtant interdit depuis des décennies, dans des prélèvements récents.


Alors que la récente signature de l’accord commercial entre l’Union européenne (UE) et le Mercosur fait encore débat, on a beaucoup parlé – à raison – de ses retombées pour les agriculteurs français et européens. On a, par contre, beaucoup moins évoqué les impacts que cet accord pourrait avoir sur l’environnement dans les pays du Mercosur (Argentine, Brésil, Paraguay et Uruguay).

L’Amérique du Sud est aujourd’hui devenue une puissance agricole mondiale, et l’un des premiers producteurs de soja dans le monde. La production de cette légumineuse est en effet passée de 297 000 tonnes en 1961 à 210 millions de tonnes en 2024, soit plus de la moitié de la production mondiale d’après les statistiques de l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO).

La pampa est un biome que l’on retrouve en Argentine, en Uruguay et au Brésil. jjw, CC BY-SA

Cette expansion agricole se fait au détriment des espaces naturels. La région amazonienne retient souvent l’attention du grand public et des médias. Pourtant, il ne s’agit pas – loin s’en faut – du seul ensemble d’écosystèmes naturels (ou « biome ») à pâtir de l’expansion agricole. C’est également le cas de la Pampa, localisée entre le sud du Brésil, l’Uruguay et dans le nord-est de l’Argentine. Sa superficie dépasse les 1,2 million de kilomètres carrés (km²), soit plus de deux fois la superficie de la France hexagonale.

Ces vastes étendues de prairies naturelles constituent un vaste réservoir de biodiversité et un important puits de carbone. En 2023, une équipe de chercheurs brésiliens y avait identifié plus de 12 500 espèces différentes. L’accélération de la conversion de la Pampa en cultures, en prairies intensives et en plantations forestières commerciales au cours des dernières décennies menace ainsi les services fournis par ces écosystèmes.

Le rio Negro, qui traverse l’Uruguay sur 750 km, prend sa source dans le sud du Brésil et constitue le principal affluent du rio Uruguay. Il traverse le lac artificiel de Rincón del Bonete, où ont été collectés les sédiments dans le cadre de cette étude.

Afin de reconstituer l’histoire agricole de ces écosystèmes depuis les 80 dernières années, nous avons collecté et analysé les sédiments qui se sont déposés au cours du temps dans le réservoir du barrage de Rincón del Bonete, sur le rio Negro, en étroite collaboration avec des chercheurs uruguayens.

Nous avons ensuite procédé à des analyses pour dater ces échantillons, en nous appuyant sur les traces de radionucléides à la fois naturels (qui retombent en continu avec les pluies) et artificiels (issus des essais nucléaires atmosphériques réalisés entre les années 1950 et les années 1970) qu’on y retrouve. Nous avons ainsi abouti à une remise en perspective historique inédite de l’histoire agricole de la région.

Des archives naturelles de l’histoire agricole

Ces sédiments jouent le rôle d’archives naturelles. En effet, chaque année, au fil des évènements pluvieux et des crues, les sédiments érodés à l’amont du rio Negro et transportés par la rivière se déposent dans le réservoir. Leur collecte et leur analyse permettent ainsi de reconstruire l’histoire des paysages de la région depuis l’inauguration du barrage hydroélectrique en 1945. C’est l’un des barrages l’un des plus anciens d’une telle ampleur en Amérique du Sud.

Le barrage de Rincón del Bonete, en Uruguay, a été inauguré en 1945. Marcelo Campi, CC BY-SA

L’analyse de cette archive sédimentaire (intensité des flux sédimentaires, détection de pesticides…) a permis de reconstruire quatre grandes phrases de développement agricole dans la région :

De la fin de la Seconde Guerre mondiale à 1963 : une agriculture conventionnelle en continu, basée sur la mise en place de rotations annuelles, se développe. Ce système est associé, dans notre analyse, à des flux sédimentaires importants. Comprendre : une quantité importante de terres agricoles étaient alors lessivées par les pluies et transportées par le rio Negro.

De 1963 aux années 1990 : un système associant cultures et élevage se met en place. Il permet la réduction des flux sédimentaires. Cette période est caractérisée par la première détection de pesticides dans l’archive sédimentaire.

Des années 1990 au début des années 2000 : l’usage du semis direct, c’est-à-dire de cultures sans labour, commence à se répandre dans la région. Cette évolution est liée au développement de variétés de soja génétiquement modifiées, conçues pour être résistantes au glyphosate, qui pouvait ainsi être répandu pour détruire les adventices (les « mauvaises herbes ») sans endommager la culture principale.

Accompagnée d’une rotation entre polyculture et élevage, cette pratique semble avoir contribué à la réduction de l’érosion des sols, puisque cette période enregistre les plus faibles taux de sédimentation de la séquence. Cette période coïncide aussi avec d’importantes plantations d’arbres exotiques, principalement l’eucalyptus, utilisé pour produire de la pâte à papier.

À partir de 2007 : bien que le semis direct ait été adopté par la majorité des agriculteurs, les pratiques agricoles s’intensifient. La monoculture continue intensive ou une double récolte au cours de l’année (généralement une succession de soja et de céréales) est souvent de mise.

De nombreuses zones naturelles sont alors converties pour la culture du soja et la plantation d’eucalyptus. En conséquence, cette période enregistre les plus forts taux de sédimentation et les flux de pesticides les plus élevés depuis la fin de la Seconde Guerre mondiale.

Des traces récentes de pesticides interdits, comme le DDT

Parmi les pesticides retrouvés au sein des sédiments déposés récemment dans le barrage uruguayen, on retrouve notamment des substances interdites en Europe et aux États-Unis, telles que le Mirex – utilisé dans les plantations d’eucalyptus – ou le DDT.

Ce pesticide nocif à la fois pour l’humain et l’environnement, désormais interdit dans la quasi-totalité du monde, a été historiquement utilisé comme insecticide pour l’agriculture. Il fut également largement répandu à travers l’Amérique lors de grandes campagnes d’éradication des vecteurs du paludisme au sortir de la Seconde Guerre mondiale.

L’explication la plus probable derrière la réapparition du DDT serait une remobilisation des quantités de ce pesticide déjà présentes dans l’environnement. Cela pourrait faire suite à l’augmentation de l’érosion des sols cultivés depuis des décennies, ainsi qu’à la mise en culture et à l’érosion de nouvelles terres, faisant partie d’espaces naturels qui avaient été traités avec du DDT au milieu du siècle dernier.


À lire aussi : Pesticides et biodiversité, les liaisons dangereuses


Les essais nucléaires du siècle dernier, utiles pour la datation

Dans notre étude, nous avons combiné plusieurs analyses à haute résolution des sédiments accumulés par le barrage. L’analyse historique a été rendue possible grâce à la datation des couches successives de sédiments, réalisée à travers l’analyse de radionucléides à la fois naturels (qui retombent en continu avec les pluies) et artificiels (liés aux essais nucléaires atmosphériques réalisés entre les années 1950 et les années 1970).

Ces essais nucléaires, menés principalement par les États-Unis, l’Union soviétique et la France, sont en effet associés à des émissions de césium et de plutonium spécifiques, dont ils sont, en quelque sorte, la signature. De quoi aider à reconstruire l’âge des couches successives de la séquence sédimentaire.

Nous avons ensuite pu mettre en relation les propriétés des sédiments avec des données historiques, telles que les statistiques agricoles ou d’usage des sols, afin de proposer cette analyse historique de l’impact des changements paysagers.

Les impacts environnementaux à venir dans la Pampa

Les impacts environnementaux liés à la mise en culture de la Pampa sont déjà très nets, mais ce n’est malheureusement peut-être que le début.

À ce jour, seuls 20 % des prairies qui étaient encore en place en 1985 ont été transformées. Les prairies de la Pampa, qui recouvraient 83 % de la zone étudiée en 1985, ne représentaient plus que 60 % de la surface en 2022. Autant d’espaces où les activités agricoles et sylvicoles pourraient continuer à se développer.

Dans ce contexte, les accords commerciaux qui ont été conclus entre les pays du Mercosur et de l’Union européenne – mais aussi avec d’autres grandes puissances, telles que la Chine – auront un impact. Ils favoriseront les exportations et augmenteront la demande en produits tels que le soja et la pâte à papier. Ce faisant, ils risquent d’exacerber l’expansion et l’intensification agricole, ainsi que leurs impacts environnementaux.

L’approche développée, qui a donc permis de reconstruire une perspective historique inédite, pourrait être prolongée dans le temps pour suivre les impacts environnementaux à venir dans la région, en lien avec les évolutions réglementaires et commerciales en cours.

The Conversation

Amaury Bardelle a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).

Anthony Foucher a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).

Olivier Evrard a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).

Pierre-Alexis Chaboche a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001), du projet ClimatAmSud CELESTE et du CNRS (International Research Project - IRP - CELESTE Lab).

Renaldo Gastineau a reçu des financements de l'Agence Nationale de la Recherche (ANR) dans le cadre du projet AVATAR (ANR-22-CE93-0001).

11.02.2026 à 16:28

Face au changement climatique, la Normandie plus vulnérable qu’elle ne le croit

Julien Réveillon, Vice-Président Transitions Environnementales et Sociétales, Université de Rouen Normandie
img
Le fait que les conditions climatiques y restent plus supportables qu’ailleurs occulte les évolutions inquiétantes que la région connaît et repousse la mise en œuvre de solutions systémiques.
Texte intégral (2388 mots)

La Normandie, protégée par son climat océanique, s’est longtemps pensée à l’abri des bouleversements climatiques. Pourtant, les données scientifiques racontent une autre histoire : celle de risques nouveaux qui s’installent peu à peu. Comprendre et intégrer ces mécanismes est urgent pour aider le territoire à s’adapter


Alors que le sud de la France commence à s’inquiéter d’une éventuelle recomposition de son attractivité touristique et résidentielle avec un recul du ski hivernal et l’augmentation des canicules, la Normandie court un risque très différent : celui de se croire à l’abri.

Seuls 52 % des Normands disent en effet ressentir le dérèglement climatique dans leur quotidien, contre 71 % au niveau national. Ce sentiment de sécurité relative ressenti par une partie de la population normande face au changement climatique s’explique par un facteur géographique réel, associé à des biais psychologiques naturels.

Depuis toujours, les territoires délimités par la Manche sont ouverts aux flux atmosphériques d’ouest perturbés, qui ont conduit à la construction d’une réputation, pas toujours élogieuse – ni usurpée – de risques de pluie importants, y compris durant l’été.

Ce rideau de fumée météorologique mène naturellement à un fort décalage de perception du dérèglement climatique. Il entretient chez nous, les Normands, un biais d’optimisme irréaliste accentué. De ce fait, nous avons une tendance naturelle à nous considérer comme mieux protégés que les autres et, parfois paradoxalement, à l’abri.

Lors des deux épisodes caniculaires de l’été 2025, alors que les stations météo du sud de la France dépassaient 40 °C, la Normandie atteignait péniblement les 30 °C. Une température tout à fait accueillante pour les touristes ayant eu l’audace de choisir Deauville (Calvados) ou Dieppe (Seine-Maritime) comme destination estivale, mais beaucoup moins adaptée à nos écosystèmes normands.

En réalité, le changement climatique touche la Normandie, comme toutes les autres régions.

La Normandie, loin d’être épargnée

À Rouen (Seine-Maritime), la fréquence des jours de chaleurs à plus de 25 °C est passée de 14 jours par an en 1971 à 40 jours par an en 2023. Les huit années les plus chaudes depuis 1970 se sont toutes produites après 2014.

Pendant ce temps, sur nos côtes, les falaises reculent de 20 cm à 25 cm par an, parfois 40 cm dans certaines zones où nos constructions amplifient le phénomène. Ce recul n’est pas régulier, il se fait souvent au prix d’effondrements spectaculaires… et dangereux.

Cette mer qui monte peut aussi provoquer un phénomène de blocage de l’écoulement des eaux fluviales vers la mer, comme cela a été observé en mars 2020 quand les quais de Rouen se sont retrouvés inondés. La tempête Ciara avait alors provoqué une surcote au niveau de l’embouchure de la Seine.

D’ici la fin du siècle, ce phénomène va s’accentuer. Sur le littoral, la menace changerait d’échelle avec une élévation du niveau de la mer projetée entre 1,1 m et 1,8 m. Dans les terres, le réchauffement moyen de la Normandie pourrait atteindre plus de + 3 °C, augmentant radicalement le stress hydrique et les risques sanitaires.

Modélisation du risque d’inondations à Rouen en 2100.

Petit à petit, nous nous habituons à ces étés plus chauds, à ces hivers plus doux et à voir les bâtiments de nos villes les pieds dans l’eau. Mais si chaque événement semble acceptable, pris isolément, leur répétition et surtout leur combinaison changeront, dans un futur proche, la nature du risque sur le territoire normand.

Le risque n’est plus seulement ponctuel : il provoque un enchaînement de conséquences territoriales et sociales, souvent invisibles au moment de l’événement, mais persistantes dans le temps.


À lire aussi : « Renaturer » les villes, une voie prometteuse pour mieux s’adapter au changement climatique


Dans les angles morts des risques climatiques

L’équilibre et la dynamique d’un territoire découlent de multiples facteurs étroitement liés par des interactions complexes. La modification d’un seul élément, comme l’élévation des températures, entraîne des conséquences en chaîne sur l’ensemble des autres secteurs : eau, biodiversité, économie, santé, etc.

Or la complexité de ces interactions peut créer des angles morts, c’est-à-dire à des zones non visibles par les observations et les projections, et donc des procédures de prévention et d’adaptation inadéquates face aux risques qui menacent la Normandie.

Ce risque dépend de la combinaison d’un aléa climatique, comme une canicule ou de fortes pluies, du niveau d’exposition d’enjeux humains ou matériels et enfin de la vulnérabilité de ces enjeux. L’un des premiers leviers d’action, pour le diminuer, est d’abaisser le niveau de vulnérabilité : par exemple, construire une digue face à des habitations menacées ou d’engager des actions de renaturation dans une ville exposée aux canicules.

Mais ce faisant, un premier angle mort peut apparaître : en réduisant une vulnérabilité précise, nous pouvons en accroître d’autres. Une digue mal conçue va accélérer le recul du trait de côte à proximité de sa zone de protection. Une végétation urbaine inadaptée peut entraîner des risques sanitaires en diffusant des allergènes ou en abritant des insectes porteurs de maladies.

D’autres angles morts existent, comme la fragilisation d’un territoire entier ou l’existence de grands décalages temporels entre les temps politiques et les temps climatiques. Par exemple, des choix d’urbanisation (par exemple, constructions en bord de plage) ou d’artificialisation réalisés il y a plusieurs décennies n’expriment pleinement leurs effets que tardivement. Aujourd’hui, ils augmentent les risques d’inondation avec des épisodes pluvieux ou des tempêtes littorales devenus plus intenses.

Quitter l’approche en silo

L’angle mort qui permet à tous les autres d’exister, enfin, réside dans notre difficulté persistante à prendre en compte les liens qui existent entre les différents risques climatiques. Inondations, sécheresses, canicules, submersions, risques industriels ou sanitaires sont mesurés, analysés et combattus séparément. Cette vision en silo nous empêche de voir l’ensemble de leurs relations, et par là même les mécanismes de déclenchement, d’amplification ou de cascade, qui sont pourtant au cœur des crises climatiques actuelles et à venir.

À Rouen, par exemple, de fortes pluies associées aux grandes marées, à la montée des eaux et à une tempête à l’embouchure de la Seine pourront mener à des inondations, et notamment dans le secteur industriel de la rive gauche où se concentrent plusieurs usines Seveso.

L’aléa naturel entraîne alors des risques industriels qui peuvent conduire à des pollutions des captages ou des sols, des tensions sanitaires, et même sociales, avec l’arrêt de certaines activités professionnelles et l’évacuation de quartiers d’habitation.

Cette cécité culturelle court des chercheurs, évalués sur leur hyperspécialisation dans un domaine, aux opérateurs de l’État ou des collectivités au sein desquels l’action reste structurée par secteurs, compétences et dispositifs spécialisés. Une organisation qui favorise l’expertise, mais rend difficile une approche systémique pourtant indispensable.

Prendre en compte la société face aux changements

La création en 2019 du Giec normand, suivie des premiers rapports publiés en 2020, a permis d’établir un diagnostic scientifique sur l’évolution physique du territoire. Très vite, les limites d’une lecture classique des risques sont apparues : face aux interactions multiples entre activités humaines et équilibres environnementaux, les réponses ciblées ou sectorielles se sont révélées insuffisantes.

Avec le Giec normand, dont la seconde mouture de travaux a été publiée en 2023 et 2024, un cap a été franchi : l’analyse s’est élargie aux effets sociaux, juridiques et économiques du changement climatique.

Si plus de 80 % des Français reconnaissent l’origine humaine du réchauffement, les travaux en sciences humaines et sociales montrent que cette prise de conscience se traduit encore peu en actions concrètes. Ils mettent aussi en évidence des vulnérabilités socialement différenciées face aux aléas, comme la submersion marine.

Le droit, de son côté, précise les responsabilités croissantes des collectivités et l’économie commence à chiffrer le coût, souvent sous-estimé, de l’inaction.

Il ne s’agit plus seulement de comprendre les changements induits par le dérèglement climatique, mais aussi d’analyser la société face à ces transformations et face aux solutions d’adaptation qui se déploient.

Élaborer des scénarios pour l’avenir

Cependant, une étape majeure reste à franchir, sans doute la plus difficile : passer de la phase de diagnostic à une transformation opérationnelle des politiques publiques. Et si nous, citoyens, avons parfois tendance à reporter l’ensemble des responsabilités sur nos décideurs politiques, une part de ce travail nous revient également.

Pour penser système, il ne faut plus raisonner à l’aune d’événements isolés, mais en scénarios. Il s’agit, par exemple, de dépasser le raccourci « pluie = crue » pour déplier un enchaînement de conséquences possibles, de l’inondation à l’interruption de certains secteurs économiques, en passant par l’accident industriel et la saturation des services hospitaliers.

Cette lecture en scénarios implique aussi de revisiter les choix d’adaptation. Les décisions prises aujourd’hui en matière d’aménagement, de travail ou de formation engagent les territoires sur le long terme et produisent souvent leurs effets à distance, dans le temps comme dans l’espace. Sans une compréhension claire de ces enchaînements, le risque est de multiplier des réponses locales cohérentes prises isolément, mais inefficaces, voire contre-productives.

Agir à l’échelle des métropoles et des régions

À l’échelle de nos choix individuels, cela implique de sortir d’une logique de réponses immédiates et de réussir à relier nos décisions d’aujourd’hui aux effets qu’ils auront plus tard, peut-être dans longtemps, sur les systèmes dont nous faisons partie.

Mais les actions individuelles seront vaines sans une action collective pensée de manière globale. Ce rôle incombe aux institutions publiques, aux collectivités territoriales, aux acteurs associatifs mais aussi aux universités, qui produisent des connaissances, forment des acteurs et font dialoguer sciences, territoires et société.

Le territoire joue ici un rôle crucial et les échelons des métropoles et de la région apparaissent les plus pertinents : ils sont assez larges pour permettre des actions adaptées aux risques à venir, mais assez proches pour que chaque citoyen s’y sente concerné et impliqué.

Réduire les inégalités face aux risques

Une action territoriale structurée, appuyée sur les savoirs scientifiques et leur appropriation collective, est aussi un enjeu de justice, dans un contexte où tous les citoyens ne disposent pas des mêmes ressources pour s’informer, s’adapter ou agir. Elle permet de réduire ces inégalités d’exposition et de vulnérabilité face à des risques climatiques qui dépassent largement l’échelle des choix individuels.

La vision systémique prend alors tout son sens. Elle nous aide à relier les aléas, les risques en cascade qu’ils engendrent, leurs conséquences mais aussi les effets parfois contradictoires des solutions d’adaptation. Elle permet de regarder la société dans son ensemble et de construire des réponses justes et adaptées à la diversité des situations.

The Conversation

Julien Réveillon a reçu des financements de ANR France 2030 - ANR-23-EXES-0013.

11.02.2026 à 16:22

Des centaines de séismes ont été détectés à proximité du « glacier de l’apocalypse » en Antarctique

Thanh-Son Pham, ARC DECRA Fellow in Geophysics, Australian National University
img
Longtemps insaisissables, des séismes glaciaires ont été détectés pour la première fois en Antarctique. Ils pourraient aider à comprendre le rôle du glacier de Thwaites dans la montée du niveau de la mer.
Texte intégral (1461 mots)
L’extrémité du glacier libère de grands icebergs, dont le basculement, ou vêlage, déclenche des secousses sismiques. Copernicus/ESA, CC BY

Grâce à l’utilisation de stations sismiques locales, des chercheurs ont identifié des centaines de séismes glaciaires au glacier de Thwaites, jusqu’ici passés inaperçus. Ils permettent de suivre l’activité d’une zone critique pour la stabilité antarctique.


Les séismes glaciaires sont un type particulier de tremblement de terre dans les régions froides et glacées. Découverts pour la première fois dans l’hémisphère Nord il y a plus de vingt ans, ils se produisent lorsque d’énormes blocs de glace tombent des glaciers dans la mer, générant des vibrations qui se propagent ensuite dans le sol sous le glacier et au-delà.

Jusqu’à présent, seuls très peu de ces séismes provoqués par la chute de blocs de glace avaient été détectés en Antarctique. Dans une nouvelle étude publiée dans Geophysical Research Letters, je présente des preuves de centaines d’occurrences en Antarctique entre 2010 et 2023, principalement à l’extrémité océanique du glacier Thwaites – le fameux « glacier de l’Apocalypse », qui pourrait provoquer une montée rapide du niveau de la mer en cas d’effondrement.


À lire aussi : Face à la fonte des glaces de l’Antarctique, le niveau de la mer n’augmente pas au même rythme partout


Une découverte récente

Un séisme glaciaire se produit lorsque de hauts icebergs effilés se détachent de l’extrémité d’un glacier et tombent dans l’océan.

Lorsque ces blocs basculent, ils heurtent violemment le glacier principal. Ce choc génère de fortes vibrations mécaniques du sol, ou ondes sismiques, qui se propagent sur des milliers de kilomètres depuis leur origine.

Ce qui rend les séismes glaciaires uniques, c’est qu’ils ne génèrent aucune onde sismique à haute fréquence. Et comme ces ondes sont essentielles pour détecter et localiser les sources sismiques classiques, comme les tremblements de terre, les volcans ou les explosions nucléaires, les séismes glaciaires n’ont été découverts que relativement récemment, alors que d’autres sources sismiques sont, elles, analysées quotidiennement depuis plusieurs décennies.

Variations saisonnières

La plupart des séismes glaciaires détectés jusqu’à présent ont été localisés près des extrémités des glaciers au Groenland, la plus grande calotte glaciaire de l’hémisphère nord.

Ils présentent des magnitudes relativement élevées, dont les plus importantes sont comparables à celles des séismes provoqués par les essais nucléaires menés par la Corée du Nord au cours des deux dernières décennies. Ces magnitudes assez importantes permettent de suivre ces séismes glaciaires avec un réseau sismique international, opérationnel en continu.

Les événements groenlandais sont saisonniers. Ils surviennent plus fréquemment à la fin de l’été. Ils sont également devenus plus fréquents au cours des dernières décennies. Ces tendances pourraient être liées à un réchauffement climatique plus rapide dans les régions polaires.

En Antarctique, des preuves difficiles à obtenir

Bien que l’Antarctique abrite la plus grande calotte glaciaire de la planète, les preuves directes de séismes glaciaires causés par le basculement d’icebergs (on parle de vêlage) sont difficiles à détecter.

La plupart des tentatives précédentes reposaient sur le réseau mondial de détecteurs sismiques – qui pourraient ne pas être suffisamment sensible si les séismes glaciaires antarctiques sont de magnitude beaucoup plus faible que ceux du Groenland.

Dans ma nouvelle étude, j’ai utilisé des stations sismiques situées en Antarctique. J’ai détecté ainsi plus de 360 événements sismiques glaciaires. La plupart ne figuraient pas dans les catalogues de séismes.

Ces événements sont situés dans deux zones, près des glaciers de Thwaites et de Pine Island. Ce sont les deux principales sources de la montée du niveau de la mer en provenance de l’Antarctique.

Les séismes du glacier de l’Apocalypse

Le glacier de Thwaites est parfois surnommé « glacier de l’Apocalypse », car, s’il venait à s’effondrer complètement, il ferait monter le niveau mondial des mers de 3 mètres – et parce qu’il est susceptible de se désintégrer rapidement.

Environ les deux tiers des événements que j’ai détectés – 245 sur 362 – se situaient près de l’extrémité du glacier en contact avec l’océan. La plupart sont probablement des séismes glaciaires causés par le basculement d’icebergs.

À la différence de ce qui se passe au Groenland, le principal facteur à l’origine de ces événements ne semble pas être la variation annuelle des températures de l’air.

La période la plus prolifique pour les séismes glaciaires à Thwaites, entre 2018 et 2020, coïncide plutôt avec une accélération de la progression de la langue glaciaire vers la mer. Cette accélération, confirmée de manière indépendante par des observations satellites, pourrait être liée aux conditions océaniques, mais leur effet est encore mal compris.

Ces nouveaux résultats suggèrent donc que l’état de l’océan peut avoir un impact à court terme sur la stabilité des glaciers qui terminent dans la mer. Cela mérite d’être étudié plus avant pour évaluer la contribution potentielle du glacier à la hausse future du niveau de la mer.


À lire aussi : Une nouvelle méthode pour évaluer l’élévation du niveau de la mer


Le deuxième plus grand groupe de séismes glaciaires antarctiques que j’ai observés se trouve près du glacier de Pine Island. Mais ces séismes étant situés à 60–80 kilomètres du rivage, il est peu probable qu’ils aient été provoqués par le basculement d’icebergs.

Ces événements demeurent énigmatiques et nécessitent des recherches complémentaires.

Perspectives pour la recherche sur les séismes glaciaires en Antarctique

La détection de séismes glaciaires liés au vêlage d’icebergs sur le glacier de Thwaites pourrait contribuer à avancer sur plusieurs questions scientifiques importantes. Parmi elles, figure l’interrogation fondamentale sur l’instabilité potentielle du glacier de Thwaites, en lien avec l’interaction entre océan, glace et substrat rocheux à l’endroit précis où il rejoint la mer.

Mieux comprendre ces mécanismes est essentiel pour réduire les grandes incertitudes sur les projections de montée du niveau de la mer au cours des prochains siècles.

The Conversation

Thanh-Son Pham a reçu des financements de l'Australian Research Council.

10.02.2026 à 16:49

Du plastique biodégradable pour pailler les sols agricoles : solution ou nouveau problème ?

Jules Bellon, Chargé de projets scientifiques, UniLaSalle
Feriel Bacoup, Chargée de recherche, UniLaSalle
Richard Gattin, Responsable équipe agroalimentaire agro-industrie, UniLaSalle
img
Le paillage plastique contamine les sols agricoles, et les alternatives biodégradables développées pour répondre au problème ne remplissent pas, à ce stade, leurs promesses.
Texte intégral (1857 mots)
Beaucoup de cultures ont recours à des paillages plastiques pour limiter la prolifération des mauvaises herbes. Freepik

Les films de paillage ont changé le quotidien de nombreux agriculteurs en facilitant la gestion des mauvaises herbes et de l’eau. Mais exposés au soleil, à l’humidité et au travail du sol, ces plastiques se fragmentent progressivement en micro et nanoplastiques qui s’accumulent dans les sols. Que deviennent ces particules invisibles ? Les plastiques biodégradables peuvent-ils réellement limiter cette pollution ?


En maraîchage et en arboriculture fruitière, les films plastiques de paillage sont devenus incontournables dans certains conditions de température, d’humidité et d’aération des sols. Posés à sa surface, ils empêchent les mauvaises herbes de se développer, conservent l’humidité et accélèrent le réchauffement du sol au printemps. Le résultat ? Des cultures plus productives et une moindre dépendance aux herbicides, notamment dans les sols en milieu tempéré soumis à un stress hydrique saisonnier.

Aujourd’hui, l’immense majorité des films de paillage – près de 90 % – sont fabriqués à partir de polyéthylène, un polymère dérivé du pétrole. Solide, bon marché et imperméable, ce matériau s’est imposé dans les champs. Mais il présente un inconvénient majeur : il ne se biodégrade pas et, une fois fragmenté, peut rester dans l’environnement pendant des siècles.

Une fois les cultures récoltées, ces films ne sont pas complètement retirés. Les fragments qui restent dans les sols se dégradent lentement sous l’effet du soleil, de l’humidité et du travail mécanique des terres. Ils se fragmentent progressivement en microplastiques (dont les dimensions vont de un micromètre à cinq millimètres), atteignant dans certaines exploitations plusieurs milliers de particules par kilogramme de sol. Avec le temps, ces fragments deviennent encore plus petits et forment ce que l’on nomme des nanoplastiques (dont la taille est inférieure à un micromètre).

Invisibles et pendant longtemps peu étudiées, ces particules soulèvent aujourd’hui de nombreuses questions. Comment se comportent-elles dans les sols agricoles ? Quels sont leurs effets potentiels sur l’environnement ? Surtout, les alternatives dites « biodégradables » constituent-elles réellement une solution pour limiter cette pollution ?


À lire aussi : Comment le plastique est devenu incontournable dans l’industrie agroalimentaire


L’agriculture européenne consomme 427 000 tonnes de plastique par an

Bien que les nano et microplastiques présents dans les sols agricoles aient des origines multiples, toutes les sources ne contribuent pas dans les mêmes proportions.

Parmi les apports externes figurent notamment les boues issues des stations d’épuration, parfois utilisées comme amendements organiques. Elles peuvent contenir jusqu’à près de 900 particules microplastiques par kilogramme de matière sèche. À l’échelle européenne, leur épandage représenterait chaque année l’introduction de 63 000 à 430 000 tonnes de microplastiques dans les sols agricoles.

Mais la contribution la plus importante se trouve souvent directement au champ. Les films plastiques de paillage constituent aujourd’hui la principale source de micro et nanoplastiques en agriculture. Chaque année, 427 000 tonnes de ces produits sont utilisées en Europe et 300 000 tonnes en Amérique du Nord. La Chine concentre, à elle seule, près de 30 % de la consommation mondiale, avec 2,6 millions de tonnes de films agricoles, dont 1,3 million de tonnes de films de paillage, soit environ les trois quarts de l’usage mondial.


À lire aussi : Peut-on se passer de plastique en agriculture ?


Des plastiques, du champ à l’assiette

Or, dans les sols agricoles, les nano et microplastiques ne se comportent pas comme de simples déchets inertes. Ils peuvent modifier les propriétés physiques, chimiques et biologiques des sols en affectant leur structure, leur porosité, leur capacité à retenir l’eau ou encore les cycles du carbone et de l’azote.

Ces particules peuvent aussi se fixer aux racines, freinant l’absorption de l’eau et la croissance des plantes. Certaines cultures, comme la laitue ou le blé, absorbent même des microplastiques depuis le sol, qui peuvent ensuite migrer vers les parties comestibles que nous mangeons.

Ce n’est pas tout : plus un fragment de plastique est petit, plus sa surface exposée au milieu environnant augmente par rapport à son volume. Or, les interactions entre le plastique et le sol se produisent principalement à sa surface. Ainsi, à quantité de plastique égale, les micro et surtout les nanoplastiques présentent une surface de contact beaucoup plus importante avec leur environnement que les fragments de plus grande taille.

Cette surface élevée les rend particulièrement réactifs : ils interagissent plus fortement avec les molécules présentes dans le sol. De nombreuses substances chimiques peuvent ainsi se fixer à la surface de ces particules, notamment des polluants organiques ou des métaux. En présence de pesticides, les plastiques peuvent alors se comporter comme de véritables « éponges chimiques », captant et concentrant localement des substances indésirables et potentiellement toxiques.


À lire aussi : Microplastiques, nanoplastiques : quels effets sur la santé ?


Plastique biodégradable ? Une promesse à nuancer

Pour répondre à cette problématique, des plastiques dits « biodégradables » ont été développés. Présentés comme une alternative aux films de plastique classiques, ils reposent sur un principe séduisant : après usage, ils seraient transformés par les microorganismes du sol en composés naturels, tels que l’eau et le dioxyde de carbone.

Mais cette promesse dépend fortement des conditions environnementales. En effet, la biodégradabilité est tributaire des conditions environnementales. Un plastique peut se dégrader rapidement dans une installation de compostage industriel, soumise à de fortes chaleurs, mais rester presque intact pendant longtemps dans un sol agricole plus frais.

C’est notamment le cas des polymères couramment utilisés dans les films de paillage biodégradables, comme le polybutylène adipate-co-téréphtalate (PBAT) ou le poly (butylène succinate) (PBS). Dans les conditions réelles des champs agricoles, leur dégradation peut rester incomplète.

Se pose alors la question de leur devenir à long terme et de leur capacité réelle à limiter l’accumulation de nano et microplastiques dans les sols.

Les vers de terre à la rescousse ?

Constatant ces échecs, des chercheurs s’attachent désormais à en comprendre les causes et à identifier les conditions environnementales et biologiques qui permettraient d’améliorer la dégradation de ces plastiques dans les sols agricoles. Il ne s’agit pas seulement de concevoir de nouveaux matériaux, mais aussi d’adapter les pratiques agricoles à leur présence dans les sols, en particulier dans les systèmes où l’usage des films de paillage est intensif.

Les scientifiques s’intéressent ainsi au rôle des amendements organiques, des biostimulants et des extraits microbiens, capables de modifier l’activité biologique des sols. Des études ont ainsi montré que le vermicompost – un compost produit par les vers de terre – peut fortement améliorer les performances de certains plastiques biodégradables en conditions agricoles. Cet effet s’expliquerait à la fois par l’apport de nutriments favorisant les microorganismes du sol et par la présence d’une flore microbienne spécifique, issue du tube digestif des vers de terre.

Pour mieux comprendre ces mécanismes, des expériences en laboratoire suivent la dégradation des plastiques à l’aide de systèmes respirométriques mesurant la transformation du carbone des plastiques en dioxyde de carbone par les microorganismes. Ces dispositifs permettent d’évaluer de manière quantitative dans quelles conditions cette dégradation est accélérée.


À lire aussi : Du slip troué aux sachets de thé, quelques indicateurs pour mesurer la santé des sols


Améliorer les plastiques et les pratiques

Si les plastiques dits biodégradables représentent une piste intéressante contre l’accumulation dans les sols de nano et de microplastiques, leur efficacité dépend étroitement des conditions réelles du milieu agricole et ils ne peuvent pas être considérés comme une solution systématique ou tenue pour acquise.

Les travaux de recherche montrent qu’améliorer leur biodégradation passe à la fois par une meilleure compréhension de l’interaction entre les matériaux, le fonctionnement biologique des sols et les pratiques culturales associées. Amendements organiques spécifiques, apports de souches exogènes et stimulation de l’activité microbienne autochtone constituent autant de leviers potentiels.

À terme, réduire la pollution plastique en agriculture nécessitera une approche globale, combinant innovation technologique, pratiques agronomiques adaptées et cadres réglementaires cohérents, afin de concilier performance agricole et protection durable des sols.

The Conversation

Jules Bellon a reçu des financements de la Région Normandie pour mener ses travaux de recherche.

Feriel Bacoup a reçu des financements de Région Normandie

Richard Gattin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.02.2026 à 16:00

La Chine, leader de la décarbonation des économies du Sud

Mary-Françoise Renard, Professeur d’économie, Université Clermont Auvergne (UCA)
img
La Chine propose aux pays du Sud d’être leur principal partenaire pour soutenir la décarbonation de leurs économies. Une stratégie visant à devenir la première puissance économique mondiale.
Texte intégral (2039 mots)
La Chine émet à présent des obligations « pandas » vertes, finançant des projets de fermes solaires ou de stations d’épuration des eaux usées dans les pays du Sud. MdvEdwards/Shutterstock

Très engagée dans la décarbonation de son économie, la Chine est devenue la première, et la plus innovante, productrice mondiale d’énergies vertes. Cette position lui permet de conforter ses relations avec les pays du Sud, en répondant à leurs besoins tout en servant ses propres objectifs d’étendre son influence, d’écouler sa production et d’approfondir l’internationalisation de sa monnaie. L’objectif : être la première puissance mondiale en 2049.


L’image d’une alliance entre grands pays du Sud global lors de la rencontre Xi Jinping, Vladimir Poutine et Narendra Modi pendant la réunion de l’Organisation de coopération de Shanghai (OCS) à Tianjin en septembre 2025, est un message aux pays du monde occidental : il existe une alternative au multilatéralisme.

L’importante délégation chinoise à la COP 30 en novembre 2025, au Brésil, et l’organisation dans ce cadre, d’un évènement sur la coopération Sud-Sud relatif au climat, illustre l’un des principaux vecteurs de cette coopération. La Chine est devenue le premier investisseur mondial dans les énergies renouvelables.

Cette stratégie vise à servir l’ambition chinoise de devenir la première puissance économique mondiale en 2049. Elle doit notamment lui permettre de jouer un rôle majeur dans la définition des normes et des standards internationaux.

Une stratégie offensive pour concurrencer l’Occident

L’affaiblissement des économies occidentales lors de la crise financière de 2007 a été concomitante de la volonté des pays du Sud de monter en puissance dans la gouvernance mondiale.

La création des BRICS (Brésil, Russie, Inde, Chine et Afrique du Sud) en 2009 et le discours de Wen Jiabao, alors premier ministre de Hu Jintao, à Davos la même année, illustrent cette volonté d’être leader de ce mouvement. La Chine est progressivement passée d’une stratégie « profil bas » avec Deng Xiaoping à la stratégie offensive d’une économie innovante pouvant concurrencer les économies développées dans de nombreux secteurs.


À lire aussi : Qu’est-ce que la « civilisation écologique » que revendique le pouvoir chinois ?


À l’heure où les États-Unis se marginalisent dans la lutte contre le réchauffement climatique et où l’Europe souffre de ses désaccords, la Chine se positionne comme le fournisseur de technologies vertes aux pays du Sud et le défenseur de leurs intérêts. Elle peut leur permettre d’accélérer la décarbonation de leur économie à un coût assez faible, de bénéficier d’investissements qui créent des emplois et peuvent générer des transferts de technologie. Elle sert un double objectif :

  • offrir des débouchés pour écouler ses surproductions, poursuivre la montée en gamme de son industrie et renforcer sa position de leader dans les technologies vertes ;

  • accroître l’internationalisation de sa monnaie, pour limiter les dépendances à l’extraterritorialité du dollar.

Une demande croissante de technologie chinoise par les pays du Sud

Éoliennes, panneaux solaires, batteries, la Chine est le premier producteur d’énergies vertes dans le monde. C’est principalement par la technologie que la Chine envisage la décarbonation de l’économie. Par exemple, en matière de panneaux solaires, la Chine dispose de 80 % de la capacité de production mondiale à chaque stade de la chaîne de valeur. La domination est encore plus forte dans les batteries avec 85 % de maîtrise de la chaîne de valeur.

Elle dispose d’un quasi-monopole dans la technologie de traitement des terres rares qu’elle possède en grande quantité. Sa compétitivité en matière de transports décarbonés illustre les efforts faits dans ce domaine grâce aux différents plans, notamment Made in China 2025.

S’agissant des véhicules électriques, on retrouve la traditionnelle intégration des pays d’Asie et des entreprises chinoises – BYD, China’s Sunwoda Electric Company, China’s Zhejiang Geely Holding Group, etc. Ces dernières ont créé des usines de voitures électriques et de batteries en Thaïlande, au Vietnam, en Malaisie et en Indonésie. Les investissements de l’entreprise China’s Sunwoda Electronic Company et de Chery doivent permettre respectivement à la Thaïlande et au Vietnam de devenir des acteurs majeurs dans la chaîne de valeur des véhicules électriques.


À lire aussi : Le bond en avant de l’industrie automobile chinoise de 1953 à nos jours


Dans ce domaine, c’est tout un écosystème qui est proposé par Contemporary Amperex Technology Co. Limited (CATL), la plus grande usine chinoise de batteries, s’appuyant sur une joint-venture (coentreprise) sur le nickel avec l’Indonésie pour construire des capacités locales grâce à l’expertise chinoise.

Internationalisation de sa monnaie, le renminbi

Entre 2000 et 2023, la Chine a prêté 36,67 milliards d’euros aux pays africains pour développer l’accès à l’électricité sur le continent.

La construction de centrales hydroélectriques concentre 63 % des financements chinois de production d’électricité en Afrique entre 2020 et 2023, notamment en Zambie et en Angola. Les entreprises chinoises ont là aussi une position très dominante sur les chaînes de valeur de la transition énergétique, qu’il s’agisse des panneaux photovoltaïques ou des systèmes de stockage par batteries.

Sa compétitivité dans ce domaine lui permet de servir un autre objectif : l’internationalisation de sa monnaie. L’Arabie saoudite a accepté que le pétrole qu’elle vend à la Chine lui soit payé en renminbi (RMB) et attend en échange des investissements chinois dans les énergies renouvelables.

Obligations « pandas »

Grâce à des obligations libellées en renminbi, la Chine peut soutenir des projets dans les pays du Sud sur trois marchés : le marché obligataire panda onshore, le marché obligataire dim sum offshore et le marché obligataire offshore des zones de libre-échange (free-trade zones, FTZ), qui connaissent une forte croissance. Rappelons qu’une obligation est une dette émise par un État, une entreprise ou une collectivité locale sur un marché financier. Lorsqu’un étranger émet une dette sur un marché financier chinois, en renminbi, elle est qualifiée d’« obligation panda ». Lorsque ce titre de dette en renminbi est émis sur un marché étranger (off-shore), c’est une « obligation dim sum ».

En 2023, l’Égypte émet une obligation panda durable d’un montant de 3,5 milliards de renminbi (362 millions d’euros), avec le soutien de la Banque africaine de développement (BAD) et de la Banque asiatique d’investissement dans les infrastructures (BAII).

En 2024, c’est l’entreprise brésilienne de pâte à papier Suzano qui émet 1,2 milliard de renminbi (140 millions d’euros) en obligations vertes pandas, avec l’aide de la Banque de Chine. Ces fonds ont été affectés à des plantations d’eucalyptus qui séquestrent le carbone tout en protégeant les forêts indigènes.

La Chine soutient le financement de forêts d’eucalyptus au Brésil pour séquestrer le carbone. JoaSouza/Shutterstock

Ces obligations panda sont particulièrement adaptées aux projets à grande échelle comme les fermes solaires et les stations d’épuration des eaux usées. La Chine accroît sa présence dans des financements en partie délaissés par les États-Unis, et qui sont de plus en plus souvent le fait de banques commerciales.

Elle fournit aussi des services de conseil. La Tunisie a fait appel à la Chine pour l’aider à lutter contre la pollution industrielle. Le gouvernement tunisien compte ainsi sur les capacités d’expertise chinoises pour éradiquer la pollution d’une usine de produits chimiques de Gabès (près de Sfax, au sud-est du pays) émettant des gaz toxiques entraînant des problèmes de santé pour les riverains, .

Objectif de leadership

Si la Chine participe activement à la décarbonation de l’économie, en servant un intérêt global, la lutte contre le réchauffement climatique, elle sert aussi son objectif de leadership. La domination des entreprises chinoises se renforce au fur et à mesure que les pays investissent dans les projets hydroélectriques, solaires, nucléaires notamment, comme en Afrique australe.

La Chine conforte son influence sur les pays du Sud en répondant à leur demande et en offrant une alternative à leurs relations avec les pays occidentaux, même si cela s’accompagne d’une certaine méfiance et de nombreuses tensions.

The Conversation

Mary-Françoise Renard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

09.02.2026 à 15:56

Pourquoi participer à la « Fresque du climat » ne change pas durablement les comportements

Service Environnement, The Conversation France
img
Trois mois après avoir participé à une « Fresque du climat », la grande majorité des participants n’ont pas tellement changé leur mode de vie.
Texte intégral (703 mots)

C’est un atelier pédagogique de sensibilisation au changement climatique qui jouit d’un succès grandissant. La « Fresque du climat » revendique avoir touché deux millions de personnes. Une étude inédite montre cependant que trois mois après y avoir pris part, la grande majorité des personnes n’ont pas tellement changé leur mode de vie.


C’est un dispositif qui gagne en popularité. Le principe est simple : d’abord, construire une fresque pour mieux comprendre le dérèglement climatique, son origine humaine et ses conséquences dramatiques (guerres, famines, maladies)… Puis présenter des clés pour réduire son empreinte carbone individuelle. Mais quel est l’impact réel de ces ateliers de la « Fresque du climat » ?

Pour le savoir, une étude a suivi 460 participants pendant trois mois et comparé l’évolution de leurs comportements à ceux d’un groupe qui n’y avait pas participé.

Ces résultats montrent qu’une minorité de 30 % seulement des participants a significativement modifié ses habitudes un mois plus tard. De plus, les efforts étaient concentrés dans le mois qui suivait l’atelier et disparaissaient ensuite.

Des émotions à l’action

Comment expliquer ces résultats ? Sans doute en partie par les émotions qui émergent lors de ces ateliers.

Les résultats de l'étude sont formels : les personnes les plus écoanxieuses étaient, avant même l’atelier, les plus engagées en faveur de l’environnement. Les participants qui ont ressenti un pic d’écoanxiété après l’atelier sont aussi ceux qui ont fait le plus d’efforts pour faire évoluer leurs habitudes.

Mais tout n’est pas si simple. Trois modalités d’animation de fin d’atelier ont été testées : la première insistant sur les risques ; la seconde sur les réussites et les progrès déjà accomplis ; et une troisième, qualifiée de « mixte », insistant sur les risques, puis sur les progrès.

Cette dernière était la plus efficace. Les efforts consentis par les participants des ateliers évoquant seulement les risques n’étaient pas, quant à eux, significativement différents de ceux du groupe n’ayant pas participé à l’atelier.

Des recherches montrent, de fait, que lorsque les gens ont le sentiment de perdre le contrôle d’une situation, ils ont tendance à fuir le problème, voire à nier son existence.

Inscrire le changement dans une dynamique collective

Après l’atelier, les participants sont retournés à leurs routines habituelles, souvent sans cadre pour soutenir leurs efforts. Or, la psychologie sociale montre que les changements durables sont plus probables lorsqu’ils s’inscrivent dans une dynamique collective.

Sans cet appui, les nouvelles résolutions perdent rapidement de leur attrait.

Des actions régulières, comme des ateliers de rappel, des objectifs collectifs ou des récompenses pour les progrès réalisés, pourraient donc consolider l’engagement en faveur de la transition écologique sur le long terme.

Le fait de sentir que nos actions s’intègrent à un objectif commun, que les efforts sont concédés à tous les niveaux et par tous, au sein d’un projet de société partagé qui fasse sens, est également primordial. Le poids de la norme sociale reste très puissant et si l’on sent que les autres agissent, il semblera logique d’agir également.


Cet article est la version courte de celui écrit par Hélène Jalin (Nantes Université) en mars 2025.

The Conversation

Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.02.2026 à 14:20

La guerre de l’énergie a déjà commencé en Ukraine : pourquoi l’Europe a tout intérêt à développer le stockage thermique

Boris Kosoy, Directeur de l'Institut du froid, des cryotechnologies et de l'écoénergétique à l'Université nationale technologique, Université nationale technologique d'Odessa
Jocelyn Bonjour, Professeur des universités au CETHIL (UMR5008), INSA Lyon – Université de Lyon; Université Jean Moulin Lyon 3
Sylvain Serra, Maître de conférences au Laboratoire de Thermique, Energétique et Procédés (LaTEP), Université de Pau et des pays de l’Adour (UPPA)
img
Les solutions de stockage d’énergie peuvent aider l’Europe à gagner en résilience énergétique. Elles sont pourtant un impensé des politiques de transition actuelle.
Texte intégral (2504 mots)

La guerre en Ukraine rappelle la vulnérabilité des infrastructures énergétiques, qui peuvent alors se muer en cibles militaires, pourtant proscrites en tant que telles par le droit des conflits armés : terminaux gaziers, centrales nucléaires, lignes à haute tension… Toutefois, des solutions existent pour rendre notre système énergétique plus résilient, par exemple celles fondées sur le stockage de chaleur plutôt que le simple transport d’électricité ou de gaz. Ce domaine demeure malheureusement, à l’heure actuelle, un impensé des politiques de transition énergétique.

Lorsque la Russie a entrepris de frapper systématiquement les infrastructures énergétiques ukrainiennes, des millions de personnes ont été brutalement plongées dans l’obscurité au cœur de l’hiver. Des postes électriques ont explosé, des transformateurs ont brûlé, les systèmes de chauffage se sont arrêtés, laissant des communautés entières sans défense. Ces attaques allaient bien au-delà de la destruction matérielle : elles révélaient un danger longtemps ignoré en Europe, celui d’une énergie désormais militarisable.

Pendant des décennies, les débats européens sur la sécurité énergétique ont porté sur les marchés, l’approvisionnement en combustibles et la décarbonation. Or la guerre en Ukraine a mis en lumière une vulnérabilité que ni les stocks stratégiques ni les mécanismes de régulation des prix ne peuvent corriger : la fragilité physique du réseau électrique.

À mesure que les systèmes deviennent plus numériques, plus interconnectés et plus essentiels à tous les aspects de la vie quotidienne, ils sont de plus en plus exposés aux cyberattaques, mais également aux missiles, aux sabotages et aux phénomènes climatiques extrêmes.

Cette nouvelle réalité impose une question clé. Lorsque les infrastructures électriques deviennent une cible militaire stratégique, comment renforcer la résilience énergétique d’un État ?

Comment l’énergie est devenue un champ de bataille

La guerre en Ukraine illustre de manière directe comment les conflits contemporains visent les fondements mêmes du fonctionnement d’un pays. Les frappes russes ont ciblé les centrales électriques, les corridors à haute tension, les postes de transformation, avec un objectif clair : déstabiliser l’ensemble de l’appareil d’État en perturbant l’alimentation énergétique.

De grandes centrales thermiques ont été délibérément mises à l’arrêt pour isoler des régions entières. Les installations hydrauliques du Dniepr ont également été frappées, créant des risques d’inondations massives et de coupures prolongées. Même les lignes d’alimentation des centrales nucléaires – jusqu’ici considérées comme intouchables – ont été visées à plusieurs reprises.

Ces attaques s’inscrivent dans une stratégie cohérente. En faisant tomber l’électricité, on fait tomber des services essentiels : les hôpitaux basculent sur des groupes électrogènes à l’autonomie limitée, les stations de pompage – qui permettent l’approvisionnement en eau potable – cessent de fonctionner, les télécommunications s’interrompent, les processus industriels se figent…

Les villes retrouvent soudain leur forme antérieure à l’ère électrique. L’électricité devient alors un levier militaire à part entière.


À lire aussi : Les attaques russes contre les installations énergétiques ukrainiennes sont-elles licites au regard du droit international humanitaire ?


Une Europe vulnérable face à des réseaux vieillissants

Ce scénario ne concerne pas seulement le territoire ukrainien. L’Europe possède des réseaux électriques très centralisés, hautement numérisés et déjà à des niveaux de charge élevés, avec des marges de manœuvre physiques et opérationnelles limitées.

Même en l’absence de conflit armé, ces réseaux sont exposés à une combinaison de risques : cyberattaques, actes de sabotage, phénomènes climatiques extrêmes, montée en puissance de l’électrification et dépendance accrue aux technologies numériques.

Les vulnérabilités européennes ressemblent à celles de l’Ukraine, mais leur origine est différente. En Ukraine, les vulnérabilités du système énergétique résultent à la fois d’un héritage de réseaux centralisés, d’un sous-investissement prolongé et de leur exploitation délibérée comme cibles militaires. En Europe de l’Ouest, elles proviennent principalement de choix de conception effectués en temps de paix.

Une grande partie des infrastructures européennes a été construite dans les années 1970, pendant une période où le risque géopolitique se résumait aux chocs pétroliers. Les grands actifs centralisés – centrales nucléaires françaises, terminaux GNL allemands, nœuds de transport d’électricité – ont d’abord été conçus pour être efficients, dans une logique d’optimisation économique et de fonctionnement en régime normal. Pourtant, une attaque ou un incident local peut entraîner des effets en cascade et en faire des points de défaillance majeurs.

La numérisation, tout en améliorant la gestion du réseau – par exemple grâce aux compteurs communicants qui permettent une meilleure visibilité des consommations, ou aux centres de pilotage du système électrique (ou dispatching) qui ajustent en temps réel l’équilibre entre production et demande – élargit le champ des menaces. Un simple piratage peut perturber le fonctionnement d’un poste électrique ou désorganiser la conduite du réseau, sans qu’aucune charge explosive ne soit déclenchée. Le changement climatique multiplie en outre les stress sur le réseau (par exemple, risque d’incendie ou de rupture du fait de la surchauffe), en particulier en Europe centrale et orientale.

Face à cela, l’Europe souffre de déficits structurels. L’Union européenne a développé des règles sectorielles pour le marché de l’électricité, la sécurité d’approvisionnement et, séparément, la cybersécurité. En revanche, elle ne s’est pas dotée d’un cadre transversal dédié à la résilience matérielle et opérationnelle des réseaux en situation de crise.

Elle ne dispose pas non plus d’une stratégie réellement coordonnée pour déployer des solutions de secours décentralisées (par exemple des micro-réseaux capables de fonctionner en « îlotage », des capacités locales de stockage d’énergie ou de chaleur, etc.), au-delà des réponses d’urgence comme le recours ponctuel à des groupes électrogènes. Enfin, l’Europe ne pratique que rarement des tests de résistance coordonnés (« stress tests », c’est-à-dire des exercices de crise et scénarios d’incident éprouvés de manière organisée). Faute de pilotage clair au niveau de l’UE, ce sujet demeure un impensé des politiques de transition énergétique.

Pourtant, garantir la stabilité du réseau électrique revient à garantir la continuité des industries et des services publics, de santé, mais aussi celle de la démocratie. La résilience énergétique est un élément central de la souveraineté d’un État.


À lire aussi : Blackout dans le sud de l’Europe : une instabilité rare du réseau électrique


Le stockage thermique, levier de résilience énergétique

Le système énergétique européen est donc en transition, exposé à des menaces hybrides et engagé dans un mouvement de décentralisation, par exemple, avec la production décentralisée d’électricité photovoltaïque. Dans ce contexte, l’Europe ne doit pas seulement renforcer la résilience de son réseau électrique, mais également diversifier ses sources d’énergie et surtout ses modes de stockage de l’énergie.

Le stockage thermique (on parle de technologies TES, pour Thermal Energy Storage) désigne les moyens permettant d’accumuler un excès de production de chaleur pour la restituer plus tard, en fonction de la demande. Or, 50 % de la consommation d’énergie finale en Europe est utilisée pour le chauffage et le refroidissement. Stocker l’énergie directement sous forme de chaleur de façon décentralisée, au plus proche des consommateurs finaux, permet de répondre à une large partie des besoins sans passer par le réseau électrique.

Ces dispositifs, particulièrement robustes, sont déjà matures au plan technologique et ne nécessitent pas de terres rares, contrairement aux batteries électriques. Les TES offrent ainsi, pour des usages thermiques, une solution complémentaire aux batteries électriques. En ce sens, elles renforcent aussi indirectement la résilience du réseau électrique. De cette façon, ils peuvent réduire les pics de demande électrique, aussi bien en fonctionnement normal qu’en situation perturbée.

Trois grandes familles de TES existent :

  • Le stockage sensible (nommé d’après la « chaleur sensible », liée à l’augmentation de la température de fluides ou de matériaux – eau, céramique ou sels fondus pour des hautes températures), mais sans changement de phase (solide/liquide ou liquide/gaz). Il s’agit d’une solution simple, durable et à coûts maîtrisés.

  • Le stockage latent (d’après la « chaleur latente », en lien avec l’énergie absorbée ou libérée lors d’un changement de phase) est fondé sur des matériaux à changement de phase. Ces derniers offrent une forte densité énergétique, pour des variations de températures moindres.

  • Le stockage thermochimique, enfin, est fondé sur des réactions réversibles permettant un stockage longue durée avec un rendement élevé et sans pertes thermiques. C’est celui qui propose la densité énergétique la plus importante.

Les solutions fondées sur le stockage sensible sont aujourd’hui largement utilisées dans l’industrie alors que le stockage latent n’en est qu’aux prémices de la commercialisation. Les applications du stockage thermochimique, enfin, n’en sont encore qu’à la preuve de concept.

Ces technologies présentent des caractéristiques intéressantes : une longue durée de vie (plus de vingt à trente ans), une bonne résistance au cyclage thermique (c’est-à-dire, l’alternance de phases de charge et de décharge), l’absence de matériaux critiques, et enfin une sécurité d’utilisation intrinsèque.

Leur conception physique relativement simple ainsi que leur compatibilité avec les réseaux de chaleur, les procédés industriels ou encore les micro-réseaux (ou smart grids), intégrant des énergies renouvelables, renforcent encore leur intérêt.

Il est urgent de développer des écosystèmes de recherche transnationaux, y compris avec l’Ukraine, qui permettront de développer de nouvelles solutions TES innovantes. Le projet franco-ukrainien Nadiya, auquel nous participons, illustre cette dynamique. Ce projet réunit l’Université nationale de technologie d’Odessa, l’Université de Pau et des Pays de l’Adour et l’Insa Lyon afin de développer des systèmes de stockage d’énergie basés sur des matériaux à changement de phase avancés.

Dans ce projet, les chercheurs ukrainiens apportent des données empiriques uniques sur le fonctionnement des infrastructures sous attaque et les besoins thermiques en situation de crise. Ces enseignements sont précieux pour l’Europe, confrontée elle aussi à un risque énergétique accru.


À lire aussi : Le stockage massif d’électricité, brique indispensable de la flexibilité pour atteindre la neutralité carbone


De l’Ukraine à l’Europe, des solutions à développer

Du point de vue technique, le stockage thermique ne résoudra pas tout, mais sa robustesse, sa durée de vie et son indépendance vis-à-vis des matériaux critiques en font un levier important d’autonomie et de stabilité.

L’expérience ukrainienne le montre : même lorsque l’électricité revenait par intermittence, de nombreuses installations industrielles devaient interrompre leur production, faute de chaleur. Dissocier la stabilité thermique de la stabilité électrique favorise ainsi la résilience énergétique globale.

Pourtant, l’Europe peine encore à intégrer le TES dans ses stratégies nationales. Son déploiement souffre de normes incomplètes, d’un manque de projets pilotes et d’une reconnaissance insuffisante au niveau politique. C’est regrettable.

En pratique, il conviendrait de renforcer la planification régionale de la résilience et de pratiquer régulièrement des tests de résistance (« stress tests ») et de sensibiliser davantage le grand public. À une échelle institutionnelle, la coopération entre les ministères nationaux de l’énergie et de la défense mériterait d’être renforcée.

Le Vieux Continent est aujourd’hui confronté à un choix déterminant : continuer à considérer l’énergie comme une simple marchandise, ou la reconnaître comme l’un des piliers fondamentaux de sa sécurité collective, au même titre que la défense ou la santé publique.


À lire aussi : La thermodynamique, cette science méconnue dont dépend la transition écologique


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

07.02.2026 à 15:27

JO d’hiver : comment la neige artificielle rend les courses de ski de fond plus rapides, mais aussi plus dangereuses

Keith Musselman, Assistant Professor in Geography, Mountain Hydrology, and Climate Change, University of Colorado Boulder
Agnes Macy, Graduate Student in Geography, University of Colorado Boulder
img
Des skieurs olympiques états-uniens et des scientifiques expliquent les différences entre la neige naturelle et la neige artificielle, depuis les aspects scientifiques jusqu’au risque accru d’accidents.
Texte intégral (4031 mots)
La skieuse américaine Rosie Brennan, lors de l’épreuve féminine de sprint par équipe en ski de fond classique, aux Jeux olympiques d’hiver de 2022 à Pékin (Chine). AP Photo/Aaron Favila

Derrière les images de carte postale des Jeux d’hiver de Milan-Cortina 2026, une autre réalité s’impose aux athlètes, comme des pistes qui dépendent de la neige artificielle souvent verglacées. À la clé, des conditions de ski très différentes de celles permises par la neige naturelle, au risque d’accroître le risque d’accident. Un avant-goût des hivers futurs, déjà profondément transformés par le réchauffement climatique.


Lorsque les téléspectateurs regarderont les Jeux olympiques d’hiver de Milan-Cortina, qui se tiennent du 6 au 22 février 2026, ils verront des pistes immaculées, des pistes damées et des athlètes s’affronter dans des paysages enneigés. Des paysages en partie rendus possibles grâce à une tempête qui a recouvert les sites montagneux des Alpes italiennes d’une couche de neige fraîche, juste à temps.

Mais à plus basse altitude, où se déroulent les épreuves de ski de fond notamment, les athlètes et les organisateurs ont dû composer avec la pluie, une neige fine et parfois fondante, ainsi que des surfaces glacées, du fait du recours à la neige artificielle.

Rosie Brennan, skieuse de fond de l’équipe olympique américaine 2026, nous a ainsi confié avant les Jeux :

« La plupart de nos courses se déroulent sur de la neige artificielle. La télévision réussit très bien à donner l’impression que nous sommes dans des endroits enneigés et hivernaux, mais cette année a été particulièrement mauvaise. »

En tant que scientifiques qui étudions la neige en montagne, les ressources en eau et l’impact humain du réchauffement hivernal, nous observons les changements hivernaux à travers plusieurs indicateurs : hausse des températures, réduction de l’enneigement, raccourcissement des saisons neigeuses

Les athlètes olympiques sont personnellement confrontés à des conditions hivernales changeantes, d’une façon méconnue à la fois du public et des scientifiques. Le manque de neige et les pluies plus fréquentes influencent où, quand et comment ils peuvent s’entraîner, ainsi que le degré de danger du terrain.

Nous avons échangé avec les skieurs de fond Rosie Brennan, Ben Ogden et Jack Young alors qu’ils se préparaient pour les Jeux d’hiver de 2026. Leurs expériences reflètent ce que décrivent de nombreux athlètes : un sport de plus en plus défini non pas par la variabilité de l’hiver naturel, mais par la fiabilité de la neige artificielle.

Ce que les caméras ne montrent pas

La technologie d’enneigement artificiel permet de créer des half-pipes pour les compétitions de snowboard et de ski freestyle. Elle permet également d’organiser des courses lorsque la neige naturelle est rare. Les Jeux olympiques d’hiver de 2022 à Pékin ont entièrement reposé sur la neige artificielle pour de nombreuses courses.

Cependant, la neige artificielle crée une surface très différente de celle de la neige naturelle, ce qui modifie les paramètres que les skieurs doivent prendre en compte pour la course.

Trois skieurs assis au sommet d’un tremplin. Leur vue montre à quel point le sol autour du tremplin est sec et dépourvu de neige
Les athlètes s’entraînent au stade de saut à ski avant le championnat italien ouvert à Predazzo, site des Jeux olympiques d’hiver de 2026, le 23 décembre 2025. Stefano Rellandini/AFP

Dans les nuages, la forme unique de chaque flocon de neige est déterminée par la température et l’humidité. Une fois formées, ces formes étoilées commencent à s’éroder lentement à mesure que les cristaux s’arrondissent pour former des sphères. Ainsi, la neige naturelle offre une variété de textures et de profondeurs : poudreuse après une tempête, ferme ou cassante par temps froid, fondante et humide lors de pluies ou de périodes de dégel…

La neige artificielle varie moins que la neige naturelle en termes de texture ou de qualité. Elle commence et termine son cycle de vie sous la forme d’un granule de glace entouré d’une fine pellicule d’eau liquide. Cela la rend plus lente à se modifier naturellement, mais plus facile à modeler. En revanche, une fois gelée, elle durcit sur place.


À lire aussi : Verra-t-on la fin du ski dès 2050 ?


Des pistes « plus rapides, plus glissantes et plus risquées »

Lorsque de la neige artificielle est produite, le bruit est strident : un sifflement aigu qui surgit des buses pressurisées des canons à neige. Ces canons projettent de l’eau mélangée à de l’air comprimé, qui gèle au contact de l’air froid extérieur, créant ainsi de petites particules de glace dense. Les gouttes piquent la peau exposée, comme l’une d’entre nous, Agnes Macy, l’a bien compris, en tant qu’ancienne skieuse de compétition.

Des canons à neige projettent ensuite la neige artificielle sur la piste de course. Souvent, les pistes sont les seules bandes de neige visibles – une bande blanche entourée de boue brune et de plaques d’herbe.

Des skieuses dévalent une piste à travers une ville, avec une église à leurs côtés, des supporters le long de la piste et beaucoup de terrain sans neige à l’extérieur du parcours enneigé
Le paysage environnant était presque entièrement dénué de neige lorsque Rosie Brennan a participé à l’épreuve individuelle de sprint lors d’une Coupe du monde de ski de fond à Drammen, en Norvège, le 3 mars 2022. Federico Modica/NordicFocus/Getty Images

La skieuse professionnelle Rosie Brennan, aujourd’hui âgée de 37 ans, poursuit :

« Les pistes conçues pour la neige naturelle offrent des sensations complètement différentes lorsqu’elles sont recouvertes de neige artificielle. Elles sont plus rapides, plus glacées et présentent plus de risques que ce que l’on pourrait imaginer pour le ski de fond. »

Il n’y a rien de tel que de skier sur de la neige fraîche. Après des chutes de neige ayant recouvert le sol d’une couche de poudreuse légère et moelleuse, on a presque l’impression de flotter. Cette neige pardonne plus volontiers les erreurs.

Sur la neige artificielle, les skieurs accélèrent plus vite dans les descentes. Les skieurs alpins apprécient peut-être cette vitesse, mais les skis de fond n’ont pas de carres métalliques comme les skis alpins, ce qui fait que les virages à pas tournant ou les dérapages dans les virages rapides peuvent donner à l’athlète l’impression de perdre le contrôle. « Cela nécessite un style de ski, des compétences et des forces différents de ceux que j’ai appris en grandissant », poursuit Rosie Brennan.

Comment les athlètes s’adaptent, avec l’aide de la science

Les athlètes doivent adapter leur technique et préparer leurs skis différemment en fonction des conditions d’enneigement.

Pour les skieurs professionnels, c’est une science. Des paramètres tels que la morphologie des cristaux de neige, la température, le matériau et la structure de la semelle des skis, la rigidité des skis, la technique du skieur et les conditions environnementales interagissent pour déterminer la vitesse d’un athlète.

Avant les courses de ski de fond, les techniciens comparent plusieurs paires de skis, préparées avec différentes surfaces de base et différents types de fart. Ils évaluent la vitesse de glisse de chaque type de ski et la durée pendant laquelle il peut maintenir la qualité de glisse, deux caractéristiques qui dépendent du frottement entre le ski et la neige.

Par rapport à la neige naturelle, la neige artificielle offre en général une surface plus résistante et plus durable dans le temps. En ski de fond, cela permet des poussées plus efficaces et plus puissantes sans que les skis ou les bâtons ne s’enfoncent trop profondément dans la neige. Dans le même temps, les améliorations apportées aux machines utilisées pour damer la neige permettent désormais d’obtenir des surfaces plus dures et plus homogènes qui permettent de skier plus vite.

Deux skieurs masculins au sol après une collision
Le Russe Alexander Terentev, à droite, et le Tchèque Michal Novak en collision lors des quarts de finale aux Championnats du monde de ski nordique à Oberstdorf, en Allemagne, le 25 février 2021. AP Photo/Matthias Schrader

Alors certes, l’objectif est de skier vite, mais les chutes à ski sont la cause la plus fréquente de blessures aux Jeux olympiques d’hiver. Avec la neige artificielle, les compétiteurs de saut à ski – et tous les autres skieurs qui tombent – atterrissent sur une surface plus dure, ce qui peut augmenter le risque de blessure.

Des hivers moins enneigés qu’avant

La météo peut toujours réserver des surprises, mais les tendances climatiques de long terme modifient ce à quoi on peut s’attendre d’un hiver typique.

Dans les Alpes, les températures ont augmenté d’environ 2 °C depuis la fin des années 1800, avant que le recours croissant aux énergies fossiles n’augmente les niveaux de gaz à effet de serre. À l’échelle mondiale, 2025 a été la troisième année la plus chaude jamais enregistrée, après 2024 et 2023.

Pour les régions montagneuses, ces conditions plus chaudes ont des conséquences. La neige fond plus tôt et plus fréquemment au milieu de l’hiver, en particulier pendant les redoux hivernaux, qui étaient autrefois rares. Des épisodes de fonte des neiges en plein hiver sont de plus en plus fréquents à haute altitude et plus tôt dans la saison. Dans le même temps, la limite des neiges, c’est-à-dire l’altitude à laquelle les précipitations passent de la neige à la pluie, remonte.

Mis bout à bout, cela signifie qu’il y a moins de neige naturelle, qu’elle tombe sur une surface plus réduite et qu’elle dure moins longtemps qu’avant.


À lire aussi : 1,5 °C en plus au thermomètre en 2024 : quelles leçons en tirer ?


Comment adapter l’entraînement des athlètes

Ces changements dans le paysage hivernal ont également transformé la manière dont les athlètes s’entraînent. Les sites d’entraînement traditionnels, tels que les glaciers autrefois utilisés pour le ski d’été, sont devenus peu fiables. En août 2025, le glacier de Hintertux, seul centre d’entraînement ouvert toute l’année en Autriche, a annoncé sa première fermeture temporaire.

Rosie Brennan poursuit :

« Il est de plus en plus difficile de planifier les lieux d’entraînement entre les compétitions. La fiabilité de l’enneigement n’est pas géniale dans de nombreux endroits. Nous devons souvent nous rendre à des altitudes plus élevées pour avoir plus de chances de trouver de la neige. »

L’entraînement en altitude peut être bénéfique, mais il concentre les athlètes dans un nombre restreint de sites d’entraînement, réduit les possibilités d’accès pour les jeunes athlètes en raison de l’éloignement et augmente les coûts pour les équipes nationales.

En Amérique du Nord, certains de ces glaciers, comme le glacier Haig au Canada ou le glacier Eagle en Alaska, ne sont accessibles que par hélicoptère. Lorsque les skieurs ne peuvent pas accéder à la neige, l’entraînement sur terre ferme avec des skis à roulettes est l’une des seules options possibles.

Les athlètes font la course sur des skis courts montés sur roulettes
Les athlètes de biathlon s’entraînent sur roues lors du Loop One Festival organisé au Parc olympique de Munich le 19 octobre 2025. Sven Hoppe/picture alliance via Getty Images

Les athlètes voient le changement climatique en temps réel

Comme les terrains hivernaux sont leur lieu de travail, ces athlètes remarquent souvent les changements avant que ceux-ci n’apparaissent dans les statistiques climatiques de long terme.

Même les skieurs professionnels âgés d’une vingtaine d’années, comme Jack Young, ont déclaré avoir remarqué l’expansion rapide des infrastructures d’enneigement artificiel sur de nombreux sites de compétition au cours des dernières années. La fabrication de neige artificielle nécessite d’importantes quantités d’énergie et d’eau. Elle est également le signe évident que les organisateurs considèrent que les hivers sont de moins en moins fiables.

Les athlètes sont aussi témoins des répercussions concrètes sur l’économie locale lorsque les mauvaises conditions d’enneigement entraînent une baisse de la fréquentation. Le skieur de fond Ben Ogden, âgé de 25 ans, précise :

« Dans les Alpes, lorsque les conditions sont mauvaises, on voit clairement à quel point cela affecte les communautés. Leurs moyens de subsistance, qui dépendent du tourisme, sont souvent affectés négativement, et leur qualité de vie s’en trouve modifiée. »

De nombreux athlètes pratiquant des sports d’hiver expriment publiquement leurs inquiétudes. Des groupes tels que Protect Our Winters, fondé par le snowboardeur professionnel Jeremy Jones, œuvrent pour faire avancer les politiques qui protègent les espaces extérieurs pour les générations futures.

Pour les athlètes des Jeux olympiques de 2026, la variabilité des conditions au sein de la région olympique (neige en altitude, pluie en basse altitude) reflète une réalité plus large : la stabilité des conditions hivernales diminue.

Les athlètes le savent mieux que quiconque. Leurs compétitions se déroulent en montagne. Ils s’y entraînent. Ils en dépendent.

Les Jeux d’hiver se dérouleront encore cette année. La neige sera belle sur les écrans de télévision. Mais n’oublions pas que, hors champ, les hivers sont en train de changer.

The Conversation

Keith Musselman a reçu des financements de la National Science Foundation américaine. Il est membre de la Science Alliance pour l'organisation à but non lucratif Protect Our Winters.

Agnes Macy a reçu des financements de la National Science Foundation américaine.

05.02.2026 à 16:33

Urbanisme écologique : de la nature en ville à la ville régénérative

Philippe Clergeau, Professeur émérite en écologie urbaine, Muséum national d’histoire naturelle (MNHN)
Chris Younes, Professeure émérite à l’École National Supérieure d’Architecture de Paris la Villette et professeure à l’École spéciale d’architecture, membre du GRUE, École nationale supérieure d'architecture de Paris-la Villette
Eduardo Blanco, Ingénieur et urbaniste
img
Suffit-il de planter quelques arbres dans une rue pour rendre une ville du XXIᵉ siècle plaisante, vivable et durable ?
Texte intégral (2141 mots)

Suffit-il de planter quelques arbres dans une rue pour rendre une ville du XXIᵉ siècle plaisante, vivable et durable ? En auscultant les processus en cours, les réflexions menées pour que la ville soit habitable pour les humains comme pour la biodiversité, le Groupe sur l’urbanisme écologique différencie trois approches : celle de la nature en ville, celle de l’urbanisme écologique et celle de l’urbanisme régénératif.


Si l’architecture est bien l’art de la conception des bâtiments, l’urbanisme est celui de l’organisation et de l’aménagement des espaces urbanisés. Car il s’agit bien d’un art que de mettre en musique une multitude de sciences, techniques, designs, savoirs locaux et expertises. L’objectif final n’est aujourd’hui plus seulement de planifier un espace à partir de dimension sociale et économique mais aussi écologique.

Cette ultime ambition a été avant tout hygiéniste et environnementaliste au cours du XXᵉ siècle : il s’agissait de réduire les pollutions et les impacts négatifs des activités humaines sur la santé et le bien-être des citadins. Les notions de durabilité puis de résilience et de sobriété ont ensuite rebattu les cartes des stratégies et des méthodes à mettre en œuvre, tout au moins dans les discours.

De la nature en ville à la biodiversité urbaine

À côté de réflexions sur la mobilité, l’énergie, la gestion des déchets, etc., une première étape d’une approche écologique est d’intégrer de la végétation dans la ville pour les multiples services qu’elle « rend » aux citadins : rafraîchissement de l’air, régulation des pollutions, ambiance, par exemple. C’est ainsi que des milliers d’arbres sont en cours de plantation dans les grandes villes pour limiter les îlots de chaleur.

Cependant, aussi indispensables que soient ces objectifs de végétalisation et de réduction des impacts, cette stratégie conforte une compréhension simplifiée des systèmes urbains et une gestion par les services compétents « en silo ». Dans les collectivités, seul le service des parcs et jardins ou bien celui de la voirie sont impliqués dans la végétalisation de l’espace public et la plupart du temps, leur action se concentre sur un site, un quartier ou une rue avec un type classique et récurrent de végétation, par exemple les plantations d’une seule espèce d’arbres pour les alignements des boulevards.

Cette vision ne permet pas une durabilité, car, d’une part, ces monocultures sont fragiles face aux accidents climatiques ou sanitaires, comme l’arrivée d’un pathogène, qui peuvent entraîner la mortalité de l’ensemble de la plantation monospécifique et, d’autre part, la vision d’une organisation globale manque généralement.

Une approche plus fonctionnelle semble alors indispensable. Si l’on se concentre toujours sur la biodiversité, il ne s’agit en effet plus seulement de végétaliser mais plutôt de favoriser une biodiversité, avec diverses espèces de végétaux qui vont interagir entre eux et permettre l’installation et le maintien d’une faune et d’une flore spontanée. On ne plante pas seulement des espèces efficaces, par exemple les platanes pour l’ombrage des boulevards, on essaie de prendre soin du sol et de choisir des espèces diversifiées pour limiter les maladies et multiplier les bénéfices pour la société. Cette étape est celle de l’urbanisme écologique qui tente aussi de repenser la conception et l’aménagement urbain en encourageant la création de quartiers verts, le développement des transports doux, l’utilisation de matériaux durables et locaux pour la construction, le souci de l’eau, l’amélioration de la qualité de l’air, le renforcement de la biodiversité.

Vers un urbanisme régénératif

Mais il est possible d’aller encore plus loin.

Alors que l’urbanisme écologique cible surtout l’adaptation et la limitation des impacts négatifs, l’urbanisme régénératif vise à restaurer le fonctionnement des écosystèmes et des processus écologiques. Il sort ainsi de l’anthropocentrisme et prend en compte la complexité des jeux d’échelles du fonctionnement du système ville-nature. Au-delà de cibler des impacts positifs pour la société humaine, il met en lumière aussi les impacts positifs pour toutes les autres espèces.

Ainsi développer une biodiversité est bien inscrit dans l’urbanisme écologique mais en général, les processus écologiques ne sont pas pris en compte à l’échelle globale, notamment les continuités écologiques indispensables aux dispersions des espèces. La fragmentation par les rues et les bâtiments limitent la dispersion des espèces pour atteindre des habitats urbains comme les parcs et les jardins. Il faut alors de véritables « corridors » qui relient les différents habitats, comme, par exemple, des haies qui relient deux forêts pour une faune et une flore forestière. Ainsi un urbanisme régénératif vise notamment à reconnecter ville et campagne, et pas seulement par des trames vertes et bleues mais aussi en considérant la quantité et la qualité de tous les habitats pour que l’ensemble du système s’autoentretienne.

Tout projet implique alors d’intégrer dès sa conception le vivant humain et non humain. Il prend aussi en considération l’héritage de milieux abîmés. L’objectif est une ville non seulement durable mais aussi autogérée, multifonctionnelle, thermiquement vivable, neutre en carbone, biodiversitaire, inventant une nouvelle démocratie et une nouvelle économie.

Des travaux récents ont formalisé cette démarche d’abord dans des pays anglo-saxons, comme le Canada et l’Australie, puis récemment en France. Aujourd’hui, le concept attire l’attention de projets urbains qui essaient d’adhérer aux définitions contemporaines de la conception régénérative : cibler un impact net positif et mutuellement bénéfique pour la nature comme pour la société en vue d’améliorer les conditions d’habitabilité.

Cela implique des projets qui, d’un côté, minimisent leurs impacts négatifs (moins d’énergie consommée, moins d’émissions de gaz à effet de serre, moins de destruction des habitats naturels, etc.) et, d’un autre côté, maximisent des impacts positifs pour les humains en créant des offres d’habitat accessibles et abordables, en réduisant les inégalités sociales, en assurant l’accès aux services urbains, etc., mais aussi pour les autres espèces vivantes en dépolluant des zones, en récréant des habitats, en favorisant leur déplacement, etc. Pour ce faire, l’urbanisme régénératif s’appuie non seulement sur une qualité des diagnostics, mais aussi sur une conception participative ancrée sur le site, pour orienter la création d’un projet adaptable et évolutif dans le temps.

L’exemple de Blatchford, au Canada

Un bel exemple en est le projet de réaménagement du quartier de Blatchford, à Edmonton, dans l’Alberta (Canada). Conçu en 2013, ce projet a tâché de requalifier 217 hectares de fonciers appartenant à l’ancien aéroport de la ville. Pour aboutir au schéma directeur adopté, qui réintègre des écosystèmes naturels, qui s’appuie uniquement sur des énergies renouvelables, qui est neutre en carbone, et qui réduit considérablement son empreinte écologique, une phase de diagnostic socio-écologique à la large échelle a été primordiale.

Le diagnostic a couvert plusieurs volets comme les aspects environnemental et écologique du site : zones polluées et types de pollution, espèces clés de l’écosystème et leurs dynamiques de déplacement et migratoires, potentiel de production d’énergie renouvelable, perméabilité du sol, régime pluviométrique, etc. Ils ont pris en compte également les aspects socio-économiques : installation de commerces, demande de logement à l’échelle de la ville, situation socio-économique du quartier, etc. Ces résultats ont été croisés et ont permis aux équipes d’identifier et prioriser les interventions pour aboutir aux impacts positifs pour la nature et la société.

Le terrain, qui était presque complètement artificialisé, a fait l’objet de plusieurs aménagements paysagers qui ont notamment créé une diversité d’habitats pour la faune et la flore (30 % de sa surface en espace à caractère naturel). Un des points centraux a été la gestion des eaux de pluie principalement par des solutions fondées sur la nature comme des jardins de pluie qui retiennent et infiltrent les eaux de pluie ou des fossés végétalisés.

L’écosystème intègre une diversité d’espèces mais aussi tout un ensemble de processus qui assurent la durabilité du système. En ville, favoriser la biodiversité consiste à se rapprocher de ces fonctionnements complexes
L’écosystème intègre une diversité d’espèces, mais aussi tout un ensemble de processus qui assurent la durabilité du système. En ville, favoriser la biodiversité consiste à se rapprocher de ces fonctionnements complexes. Isabelle Gounand, Fourni par l'auteur

D’indispensables adhésions et actions citoyennes

Régénérer implique un processus d’évolution d’un système socio-écologique pour qu’il atteigne de meilleures conditions de santé. Régénérer, c’est non seulement prendre au milieu mais lui rendre encore plus comme préconisé par le philosophe Michel Serres dans le Contrat naturel (1990). Cela pour éviter que l’être humain soit un parasite qui finit par détruire son hôte. Cette reconnaissance des imbrications est désormais promue dans certaines politiques publiques.

Mais face aux adaptations et anticipations d’envergure à opérer, les oppositions, les dénis et les marches arrière se multiplient. Il est décisif de susciter des adhésions citoyennes qui sont des conditions cruciales pour cultiver des écologies régénératrices. Et éviter que l’écologie ne dérive vers le réglementaire et le techno-solutionnisme.

Cela exige d’organiser des processus participatifs et coopératifs aux différents stades des transformations des milieux habités. Les visions partagées, les terrains d’entente ne vont pas de soi mais s’inscrivent dans une suite de débats, conflits, concertations et médiations quant aux héritages, valeurs et intentionnalités en jeu. Le défi est désormais d’instaurer la fabrique collective de cohabitations vivifiantes.

The Conversation

Philippe Clergeau est animateur du Groupe sur l’Urbanisme Ecologique

Chris Younes et Eduardo Blanco ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

05.02.2026 à 11:36

Comment mesurer la précarité énergétique ?

Dorothée Charlier, Maîtresse de conférences en économie de l’énergie et de l’environnement, IREGE, IAE Savoie Mont Blanc
Bérangère Legendre, Professor, Université Savoie Mont Blanc
img
Selon la façon dont on mesure la précarité énergétique, certaines personnes peuvent ne pas être reconnues comme concernées et passer à côté des dispositifs d’aide.
Texte intégral (2602 mots)

La précarité énergétique est un phénomène bien réel, mais difficile à cerner précisément. Selon la manière dont elle est mesurée, certaines personnes peuvent ne pas être reconnues comme concernées et passer à côté des dispositifs d’aide, qu’il s’agisse de se chauffer correctement en hiver ou de se protéger de la chaleur en été.


Alors que la hausse durable des prix de l’énergie et le changement climatique accentuent les situations d’inconfort thermique, la précarité énergétique s’impose comme un enjeu social majeur en France et en Europe. Les chiffres abondent – ménages consacrant une part élevée de leurs revenus à l’énergie, ménages ayant eu froid chez eux, situations d’impayés ou de restrictions de chauffage – et nourrissent une inquiétude légitime.

Pourtant, cette visibilité croissante masque une réalité plus complexe : selon l’indicateur mobilisé, on ne désigne pas toujours les mêmes ménages comme « précaires », et une partie importante de la population demeure invisible aux yeux des politiques publiques. Alors comment bien mesurer la précarité énergétique ?

Définir la précarité énergétique : un consensus fragile

En France, la précarité énergétique fait l’objet d’une définition juridique depuis l’article 11 de la loi Grenelle II de 2010, qui la caractérise comme la difficulté pour un ménage de satisfaire ses besoins énergétiques essentiels en raison d’une combinaison de facteurs, notamment des revenus insuffisants, des logements peu performants sur le plan énergétique et des prix élevés de l’énergie.

Cette définition, reprise et largement mobilisée dans les travaux statistiques et les politiques publiques, est proche de celle retenue au niveau européen, qui insiste également sur l’incapacité des ménages à accéder à des services énergétiques essentiels à un coût abordable. Elle a le mérite de souligner le caractère fondamentalement multidimensionnel du phénomène.

Pourtant, dans la pratique, cette richesse conceptuelle est souvent réduite à un ou deux indicateurs simples, principalement fondés sur les dépenses énergétiques.

En France, un ménage est fréquemment considéré comme précaire lorsqu’il consacre plus de 8 ou 10 % de ses revenus à l’énergie et appartient aux ménages à bas revenus. Ces indicateurs présentent des avantages évidents, simplicité de calcul, comparabilité dans le temps et lisibilité pour le grand public. Mais leurs limites sont désormais bien établies. Ils mesurent les dépenses réalisées plutôt que les besoins réels, et ignorent les stratégies de restriction adoptées par de nombreux ménages en difficulté, dont les factures peuvent sembler modérées bien qu’ils subissent un inconfort élevé.

Par exemple, en France, près de 35 % des personnes déclarent avoir souffert du froid dans leur logement au cours de l’hiver 2024-2025, selon le dernier tableau de bord de l’Observatoire national de la précarité énergétique (ONPE).

QU’EST CE QUE L’ONPE ?

  • Créé en 2011 à la suite de la loi Grenelle II, l’Observatoire national de la précarité énergétique (ONPE) est une instance partenariale de référence chargée de produire une connaissance partagée, de suivre l’évolution de la précarité énergétique et d’éclairer les politiques publiques dans les domaines du logement et de la mobilité.

Dans la même édition, une proportion significative de ménages déclare avoir restreint volontairement le chauffage pour éviter des factures élevées, illustrant comment les stratégies d’adaptation peuvent rendre invisibles aux yeux des statistiques officielles des situations pourtant difficiles.

À l’inverse, certains ménages apparaissent comme précaires au regard de leurs dépenses, alors même qu’ils vivent dans des logements confortables mais énergivores, sans subir de privations. Il s’agit notamment de ménages aux revenus relativement élevés, vivant dans des logements gourmands en énergie pour lesquels une facture importante reste compatible avec le niveau de vie.

Plus généralement, ces situations rappellent que les indicateurs fondés sur des seuils, qu’il s’agisse de dépenses ou de température intérieure, sont imparfaits : une même température peut être vécue comme acceptable par certains, par choix ou par habitude, et comme inconfortable par d’autres, selon les préférences, l’âge ou l’état de santé.

Pour dépasser les limites des indicateurs fondés sur les dépenses, les indicateurs dits « subjectifs » ont progressivement pris de l’importance. Ils reposent sur le ressenti des ménages et sur des situations concrètes telles que le fait d’avoir eu froid chez soi, d’être en situation d’impayés ou de vivre dans un logement humide ou dégradé.

Leur principal avantage est de rendre visibles des formes de privation réelle, indépendamment du niveau de dépenses observé, et de capter des dimensions invisibles dans les données comptables, comme l’inconfort, le stress ou les effets sur la santé. Toutefois, ces indicateurs présentent eux aussi des limites, car les réponses dépendent fortement des normes sociales, des attentes individuelles et de la capacité à exprimer une difficulté, ce qui peut conduire à des sous ou sur déclarations selon les franges de la population.

Consciente de ces enjeux, la France a donc fait le choix de ne pas s’appuyer sur un indicateur unique, mais sur un panier d’indicateurs, à l’image du tableau de bord de l’ONPE. Celui-ci combine des indicateurs de dépenses, de restrictions, de ressenti et d’impayés, reconnaissant ainsi le caractère multidimensionnel de la précarité énergétique. Cette approche constitue un progrès important, mais elle soulève une difficulté persistante : comment interpréter simultanément ces signaux et les traduire en décisions opérationnelles lorsque les ménages ne sont concernés que par certaines dimensions et pas par d’autres ?

Le piège du binaire : une vision trop rigide d’un phénomène continu

Être précaire ou ne pas l’être ? La plupart des indicateurs actuels reposent sur une logique binaire : un ménage est classé soit comme précaire, soit comme non précaire, en fonction du dépassement d’un seuil. Cette approche est rassurante, car elle permet de compter, de comparer, de cibler. Mais elle repose sur une hypothèse implicite discutable : celle d’une frontière nette entre les ménages « en difficulté » et les autres.

Or, la réalité est bien différente. La précarité énergétique est un processus, non un état figé. Elle peut être transitoire, s’aggraver progressivement par exemple avec la hausse des prix de l’énergie, ou au contraire être contenue par des stratégies d’adaptation. De nombreux ménages se situent dans une zone intermédiaire : ils ne remplissent pas les critères statistiques de la précarité, mais ils vivent sous une contrainte permanente, exposés au moindre choc.

C’est dans ce contexte qu’émerge la notion de vulnérabilité énergétique. Elle ne désigne pas une situation actuelle de privation, mais un risque de basculer dans la précarité à la suite d’un événement : hausse des prix, perte de revenus, problème de santé, épisode climatique extrême. Cette approche permet de dépasser la logique du « tout ou rien » et de s’intéresser aux trajectoires des ménages. Elle met en lumière une population souvent invisible dans les statistiques classiques, mais pourtant essentielle à considérer si l’on veut prévenir plutôt que réparer.

L’importance des choix de mesure apparaît nettement lorsque l’on considère les ménages les plus modestes : en 2022, parmi les 10 % les plus pauvres de la population, près de 69 % des ménages seraient en situation de précarité énergétique en l’absence à la fois du bouclier tarifaire et du chèque énergie. Cette proportion tombe à 62 % avec le seul bouclier tarifaire, puis à environ 43 % lorsque le bouclier et les chèques énergie sont pris en compte, illustrant combien les dispositifs publics et les conventions de mesure modifient l’ampleur statistique du phénomène.

Mesurer autrement : apports des approches multidimensionnelles

Une première manière de renouveler la mesure de la précarité énergétique consiste donc à recourir à des indicateurs « dits » composites. L’idée est de ne plus se limiter à un seul critère, mais de regrouper plusieurs dimensions du problème dans un indicateur unique. Celui-ci peut par exemple prendre en compte à la fois le niveau de revenu des ménages, la qualité énergétique de leur logement, leurs difficultés à payer les factures, les restrictions de chauffage ou encore l’inconfort thermique ressenti.

Cette approche se distingue des méthodes qui juxtaposent plusieurs indicateurs séparés, comme celles utilisées par l’ONPE. Ici, les différentes dimensions de la précarité énergétique sont combinées dans un même outil, ce qui permet d’avoir une vision plus globale des situations.

Inspirée des travaux sur la pauvreté multidimensionnelle, cette méthode aide à mieux comparer les ménages entre eux et à identifier plus finement ceux qui sont les plus exposés.

L’INDICE DE PAUVRETÉ MULTIDIMENSIONNELLE

  • Mesurer la pauvreté avec un seul indice, par exemple le revenu, présente un risque : celui de n’avoir qu’une image partielle du phénomène. Pour ne pas invisibiliser certaines populations qui subissent ce fléau, l’indice de pauvreté multidimensionnelle, créé à l’Université d’Oxford en 2010 et utilisé dès cette année-là par le Programme des Nations unies pour le développement (PNUD), compile dix indices : la mortalité infantile, la nutrition, les années de scolarité, la sortie de scolarité, l’électricité, l’eau potable, les sanitaires, le sol de l’habitat, le combustible utilisé pour cuisiner, les biens mobiliers.

Par exemple, un ménage aux revenus modestes vivant dans un logement mal isolé, qui limite fortement son chauffage pour contenir ses factures et déclare un inconfort thermique, peut ne pas dépasser individuellement les seuils de dépenses ou de température retenus par les indicateurs classiques, mais apparaître clairement comme précaire lorsqu’on combine ces différentes dimensions au sein d’un indicateur composite.

Mais ces indicateurs ne sont pas sans limites. Ils reposent sur des choix normatifs, parfois peu visibles, notamment sur l’importance accordée à chaque dimension. Par exemple, le poids accordé aux dépenses énergétiques par rapport à l’inconfort thermique ou à la qualité du logement peut conduire à classer différemment deux ménages aux situations pourtant proches, selon que l’on privilégie une contrainte budgétaire, une privation ressentie ou une vulnérabilité structurelle. Ces choix donc restent en partie arbitraires et peuvent limiter l’appropriation de ces indicateurs par les acteurs publics et la compréhension du phénomène par le grand public.

Une autre manière d’aborder la précarité énergétique, de plus en plus utilisée en sciences sociales, consiste à recourir à des méthodes de classification statistique. Leur principe est simple : au lieu de décider à l’avance à partir de quel seuil un ménage est considéré comme « précaire », ces méthodes commencent par regrouper les ménages qui se ressemblent, en tenant compte simultanément de plusieurs dimensions de leur situation.

Concrètement, les ménages sont classés en fonction de caractéristiques observées comme le type de logement, le niveau des dépenses d’énergie, les difficultés de paiement, les restrictions de chauffage ou encore l’inconfort thermique. Les méthodes de classification rassemblent ainsi des personnes aux profils proches, sans imposer au préalable de seuils arbitraires sur chacun de ces indicateurs.

Ce n’est qu’ensuite que l’on interprète les groupes obtenus. On observe alors qu’ils correspondent assez clairement à des situations distinctes : des ménages sans difficulté particulière, des ménages vulnérables, et des ménages en situation de précarité énergétique avérée. Ces groupes présentent non seulement des points communs sur les critères utilisés pour les classer, mais aussi sur d’autres caractéristiques sociales ou économiques, comme la composition familiale ou le type de territoire.

Ces méthodes permettent ainsi de mieux comprendre les différentes formes de précarité énergétique, et de dépasser une approche trop rigide fondée uniquement sur des seuils souvent arbitraires.

Pourquoi mesurer la précarité énergétique restera toujours difficile

Même avec des outils plus sophistiqués, mesurer la précarité énergétique restera un exercice délicat. Les besoins énergétiques varient selon le climat, la composition du ménage, l’état de santé, l’âge, ou encore les normes culturelles. Ce qui constitue un inconfort pour certains peut être perçu comme acceptable pour d’autres.

Les ménages en difficulté effectuent souvent des arbitrages complexes entre différentes dépenses essentielles : se chauffer, se nourrir, se déplacer, se soigner. Ces arbitrages sont difficiles à observer dans les données et échappent en grande partie aux indicateurs traditionnels.

Plutôt que de chercher une mesure unique et définitive, l’enjeu est donc de construire des outils capables d’éclairer la diversité des situations et des trajectoires. Dans un contexte de transition énergétique et de dérèglement climatique, mieux mesurer la précarité énergétique devient moins une question de précision statistique qu’une nécessité pour anticiper, prévenir et adapter les politiques publiques.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

04.02.2026 à 16:11

Fissures, sols instables… comment les aléas climatiques redessinent la carte du risque immobilier

Miia Chabot, Associate Dean Pedagogy and Learning Innovation, Excelia
img
Les aléas climatiques font peser de nouvelles menaces sur les bâtiments. De nouvelles méthodes se développent pour mieux chiffrer ces risques et en prévenir les conséquences.
Texte intégral (2167 mots)

Acheter un logement, c’est parier sur l’avenir. Or, à l’horizon 2050, le changement climatique redessine la carte du risque immobilier : risque de submersion par exemple, mais également de retrait-gonflement des argiles, phénomène par lequel une sécheresse peut occasionner des dégâts parfois graves sur le bâti. On parle aussi de « maisons fissurées ». Dans ce contexte, comment évaluer la vulnérabilité d’un bien face aux enjeux climatiques ?


Lorsque l’on achète une maison, ce n’est pas seulement sur la solidité du bâti que l’on mise : c’est aussi sur la stabilité d’un sol. En France, près d’un logement sur deux – soit 48 % du territoire métropolitain – repose aujourd’hui sur un terrain vulnérable au retrait-gonflement des argiles, un phénomène silencieux, amplifié par les sécheresses, qui fissure les murs quand la terre se contracte.

Plus de 10 millions de maisons individuelles sont déjà exposées. Entre 1995 et 2019, les sécheresses géotechniques ont entraîné plus de 18 milliards d’euros d’indemnisations (en euros 2023) et en moyenne, près de 700 millions d’euros sont versés chaque année. En 2022, le coût des sinistres a dépassé 3 milliards d’euros, et il pourrait atteindre 43 milliards d’ici à 2050. Les dommages observés sur les bâtiments traduisent un déséquilibre économique à part entière : la déformation du sol devient un facteur de perte de valeur immobilière.

Ce risque n’est pas isolé. Il s’inscrit dans un ensemble plus large d’impacts climatiques physiques qui, partout en Europe, créent des effets économiques différenciés selon les territoires et les activités. La sécheresse, la chaleur ou les pluies extrêmes n’affectent pas de la même manière l’agriculture, l’industrie ou le logement.

Carte d’exposition des formations argileuses au phénomène de mouvement de terrain différentiel consécutif à la sécheresse et à la réhydratation des sols. BRGM, Fourni par l'auteur

Relier le climat aux conditions du bâti et aux dynamiques locales permet de passer du constat au chiffrage. En combinant les données climatiques, géologiques et structurelles, il devient possible d’évaluer le coût réel d’un aléa, de passer des cartes d’exposition aux cartes de dommages, et d’estimer, à l’horizon 2050, l’ampleur potentielle des pertes liées à la sécheresse des sols. Les fissures de nos maisons traduisent la manière dont le climat pèse désormais sur la valeur du patrimoine et sur la continuité des activités qu’il abrite.


À lire aussi : Retrait-gonflement des sols argileux : une explosion des risques depuis 2015


Un risque silencieux

Concrètement, le retrait-gonflement des argiles est provoqué par la « respiration » de la terre sous nos pieds : elle se gorge d’eau, puis se rétracte quand elle s’assèche. Dans les sols argileux, ce cycle naturel de gonflement et de retrait est amplifié par les sécheresses successives. Au fil du temps, ces mouvements différentiels déforment les fondations, engendrant fissures et désordres structurels. Le phénomène reste invisible jusqu’à ce qu’il soit trop tard : les murs se fendent, les seuils se déforment, les ouvrants ne ferment plus.

Des recherches récentes montrent que la structure des sols argileux, faite de pores de tailles différentes, explique leur forte sensibilité au manque d’eau. Lorsqu’ils se dessèchent, l’eau s’échappe d’abord des grands pores, provoquant un retrait rapide, puis des plus petits, ce qui accentue la contraction du sol. D’autres travaux relient directement la dynamique hydrique à la déformation mécanique : plus la perte d’eau est brutale, plus le sol se rétracte et la contrainte sur les structures augmente.

Ce risque n’est donc pas seulement une affaire de nature de sol : il dépend aussi de la variabilité climatique, de la profondeur des fondations et de la capacité du sol à retenir l’eau. Chaque été sec accentue la mémoire du précédent, laissant les terrains un peu plus fragiles.


À lire aussi : Maisons, routes, rail, pistes cyclables… comment lutter contre les risques de retrait-gonflement argileux ?


Des cartes incomplètes, un risque qui grandit

Les cartes nationales, comme Géorisques ou celles du BRGM, constituent aujourd’hui la base de l’information publique sur le retrait-gonflement des argiles. Elles ont le mérite d’exister, mais restent pensées pour une lecture d’ensemble du territoire. Leur échelle, souvent kilométrique, ne permet pas d’évaluer la vulnérabilité réelle d’une maison ni la dynamique du sol à l’échelle de la parcelle. Entre deux terrains voisins, la composition du sous-sol, la présence d’argiles gonflantes ou la profondeur des fondations peuvent pourtant tout changer.

Certaines bases de données internationales offrent un éclairage complémentaire. La Digital Soil Map of the World (FAO – Unesco) décrit la nature des sols à l’échelle planétaire, tandis que les indices satellitaires comme le Soil Water Index (SWI) permettent de suivre l’humidité des sols au fil du temps. Ces approches sont précieuses pour la recherche, mais leur résolution (souvent de l’ordre du kilomètre) reste trop faible pour évaluer le comportement réel d’un terrain face à la sécheresse.

De nouveaux outils plus opérationnels cherchent à combler ce vide. L’application Risque Maison Climat RGA propose, à partir d’une simple adresse, une première estimation du niveau d’exposition d’un logement. En combinant la nature du sol, la fréquence des sécheresses et la vulnérabilité du bâti, elle offre une lecture claire et personnalisée du risque. Mais ses calculs reposent encore sur des données moyennes et n’intègrent pas la variabilité fine du sous-sol.

Les dispositifs publics existants se complètent sans se recouper : Climadiag projette les évolutions climatiques locales, Bat-ADAPT identifie les fragilités du bâti, et Géorisques recense les aléas connus sans les relier à la structure du logement. Ensemble, ils informent mais ne permettent pas d’anticiper les dommages.

Les initiatives privées, de leur côté, peinent à dépasser la logique assurantielle. Les simulateurs proposés par certains assureurs, comme la MAIF, intègrent des indicateurs climatiques, mais sans transparence sur leurs modèles ni accès aux données. Ces outils sensibilisent, sans permettre d’agir.

Mesurer les dommages

Identifier un sol argileux, c’est décrire une vulnérabilité. Ce qui compte aujourd’hui, c’est de savoir ce que cette vulnérabilité coûte quand la sécheresse s’installe. Le passage des cartes d’exposition aux cartes de dommages marque la frontière entre savoir et agir.

Des approches que nous avons développées avec des collègues dans des recherches récentes montrent qu’il est désormais possible d’estimer le coût réel des aléas climatiques, qu’il s’agisse d’inondations, de vagues de chaleur ou de sécheresses géotechniques. En reliant les anomalies climatiques, la nature des sols et les caractéristiques du bâti, les modèles de dommages permettent d’évaluer les pertes économiques attendues.

Cette démarche, déjà utilisée pour les inondations dans des modèles comme Hazus ou JRC, peut être transposée au retrait-gonflement des argiles. Elle consiste à traduire les paramètres physiques d’un site, tels que l’humidité, la profondeur des fondations ou la résistance du sol, en impact financier mesurable.


À lire aussi : Changement climatique : un indicateur pour prévoir les risques de maisons fissurées


Croiser les données

Pour y parvenir, la clé réside dans l’intégration des données. Les informations existent mais demeurent dispersées entre bases publiques, assureurs et bureaux d’études. Croiser les données climatiques, géologiques et structurelles permet de simuler le coût probable d’un sinistre, incluant les fissurations, les reprises en sous-œuvre et, pour les bâtiments tertiaires, les pertes d’exploitation liées à une interruption d’activité.

C’est ainsi que les modèles de gestion des risques climatiques évoluent : du diagnostic de vulnérabilité à une véritable estimation de dommage qui relie les conditions physiques du sol aux conséquences économiques tangibles. Cette démarche n’a rien d’abstrait. Elle ouvre la voie à une gestion prospective des risques capable d’anticiper les coûts à l’horizon 2050. Les estimations réalisées pour d’autres aléas montrent déjà que les pertes associées aux sécheresses pourraient être multipliées par dix dans certaines régions.

Mesurer les dommages, c’est transformer une information environnementale en outil de décision. Pour un propriétaire, cela revient à évaluer la perte potentielle de valeur d’un bien dans un climat plus chaud et plus sec. Pour une entreprise, c’est la possibilité d’intégrer le coût du risque dans la gestion du bâti, les contrats d’assurance ou la planification des travaux. Pour les pouvoirs publics, c’est un levier pour orienter les politiques de prévention et d’aménagement.

The Conversation

Miia Chabot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

04.02.2026 à 16:11

Sensibiliser les enfants au tri des déchets : enquête dans les coulisses d’une politique éducative à revoir

Camille Dormoy, Docteure en sociologie, spécialiste des politiques publiques de gestion des déchets/économie circulaire, Le Mans Université; Université de Picardie Jules Verne (UPJV)
Nathalie Buchot, Enseignante-chercheuse géographie et économie circulaire. Le Mans Université. Laboratoire ESO Le Mans, Le Mans Université
img
Les ateliers pour sensibiliser les enfants au tri des déchets suscitent un véritable engouement. Pourtant, leurs effets à long terme sont limités. À quoi cela tient-il ?
Texte intégral (1600 mots)

Les ateliers pour sensibiliser les enfants au tri des déchets suscitent un véritable engouement. Pourtant, leurs effets à long terme sont limités. À quoi cela tient-il ? Misent-ils trop sur le pouvoir de répétition du geste ? Ou ne prennent-ils pas assez au sérieux la relation des enfants aux objets ? Retour sur quelques observations de terrain.


À mesure que les enjeux climatiques s’imposent dans l’espace public, l’éducation à l’environnement est devenue un axe majeur des politiques éducatives. La sensibilisation au tri des déchets en constitue l’un des piliers les plus visibles.

Entre jeux, ateliers, mallettes, interventions, cette sensibilisation s’est installée depuis une dizaine d’années dans les écoles et les quartiers, comme une évidence, avec l’idée que répéter quelques gestes finirait par changer les comportements.

Pourtant, les enquêtes que nous avons menées à Amiens et notre recherche actuelle au Mans réalisée dans le cadre du programme PEPR Recyclage Déchets ménagers montrent que ces dispositifs produisent surtout des gestes exécutés sous surveillance, sans transformer durablement la manière dont les enfants traitent ou pensent les déchets.

Comment expliquer un tel écart entre l’ambition affichée et les effets réels ?

Le tri à l’école : un rituel d’ordre plus qu’un apprentissage

L’observation, menée en 2019 dans une école d’Amiens (Somme), d’une scène de goûter, permet de saisir concrètement la manière dont la sensibilisation est supposée opérer. Emballages à la main, les enfants se lèvent et se dirigent vers les bacs de tri. Un bref flottement, un doigt qui hésite, et un camarade intervient aussitôt pour rectifier. Le geste s’enchaîne sans effort, quasi mécanique. L’enseignante n’a pas besoin d’intervenir.

Mais rien dans la scène ne suggère que la matière ait été réellement questionnée ou même regardée. Le tri se fait comme on range ses affaires. C’est un comportement attendu bien plus qu’une manière de se saisir de ce que l’on jette.

En sortant de l’école, quelques rues plus loin, les mêmes outils de sensibilisation réapparaissent lors d’une fête de quartier durant laquelle une association locale profite de l’événement pour installer un dispositif dédié à la prévention des déchets : un stand du tri, un atelier de papier recyclé, quelques panneaux.

Si l’intention demeure similaire à celle du cadre scolaire, le déplacement dans l’espace festif en transforme les effets : le dispositif tient mal. Les enfants manipulent la matière avec une liberté que la classe contenait tant bien que mal. Rien n’y fait, ni les rappels ni les explications. Les objets distribués pour enseigner un « bon geste » deviennent des supports de jeu ou de chahut. L’animatrice s’agace.

Le président de l’association explique la scène autrement, persuadé que le jeu est la condition pour qu’un message circule. Mais le message disparaît dès qu’on essaie de l’imposer. La matière, laissée aux enfants, ne soutient pas la pédagogie ; elle la renverse. En attirant l’attention sur ses qualités ludiques et sensorielles, elle devient un objet de manipulation autonome qui détourne l’activité de l’objectif prescrit et fait passer au second plan le contenu normatif du « bon geste ».

Des catégories en décalage avec les usages des enfants

Au Mans (Sarthe), les ateliers philo menés durant l’année scolaire 2024-2025 avec cinq classes d’élèves de CM2 et de 6ᵉ révèlent un autre pan du problème. Les enfants ne parlent pas du déchet comme d’un « résidu » ou d’une « matière à trier » mais comme d’un objet qu’on aime. Une canette vide devient un élément décoratif, un jouet abîmé ou un objet qu’on devrait jeter continuent de valoir par le souvenir qu’il porte.

Les catégories que les dispositifs voudraient stabiliser – recyclable, non recyclable, à jeter, à conserver – n’opèrent pas. Elles ne correspondent tout simplement pas à l’usage que les enfants font des choses ni à la manière dont ils les investissent.

De plus, le doute est permanent : « Mais après, ça va où ? » ou encore : « Et si le camion mélangeait tout ? » Rien, dans les dispositifs, ne vient l’éclairer. On suppose que le geste a du sens alors que tout ce qui se passe après reste invisible.

Cette opacité n’est pas un détail. Elle empêche tout apprentissage réel. Il est difficile de comprendre un geste et de l’adopter, quand on ne sait pas ce qu’il produit, ni même s’il sert à quelque chose.

Des gestes quotidiens

Rien, dans ces scènes, ne suggère une transformation durable : les dispositifs produisent une gestuelle fragile. Dès que la surveillance tombe ou que la matière circule librement, elle disparaît.

Ces observations de terrain révèlent une manière particulière de concevoir l’éducation au tri : celle-ci repose sur un monde où la matière reste tranquille et où les enfants se contentent d’appliquer ce qu’on leur montre. Or, ni l’un ni l’autre ne correspond à ce qui se passe réellement.

Dans la classe d’Amiens, le tri fonctionne surtout parce qu’il est ritualisé et inséré dans un climat d’obligation mutuelle. Le geste n’est pas interrogé. Il est répété parce qu’il faut le faire. L’idée qu’un comportement contraint puisse se maintenir hors du regard des adultes tient davantage d’un espoir institutionnel que d’un constat étayé par l’observation empirique.

Dès que les dispositifs sortent du cadre scolaire, leur cohérence se fissure. La matière déborde : les canettes roulent, les cartons volent, la pâte à papier se transforme. Pensé comme un objet stable et maîtrisable, le déchet est assigné à une fonction pédagogique. Mais sur le terrain, il devient un support de jeu et de transformation, qui échappe au cadrage prescrit.

La conception des dispositifs repose sur une mauvaise compréhension des situations. Les ateliers philo au Mans révèlent quelque chose de plus discret mais tout aussi décisif : les enfants ne pensent pas le déchet dans les catégories que la sensibilisation cherche à imposer. Ils y projettent des souvenirs, un attachement, parfois un regard esthétique. Ils questionnent ce qu’on leur demande de jeter.

L’écart est net entre l’objet simplifié des supports pédagogiques et l’objet vécu, chargé, parfois mystérieux, dont parlent les enfants. Cet écart explique pourquoi les gestes inculqués ne se transforment pas en pratiques durables. Alors que le dispositif oublie la dimension sensible de la matière, les enfants la remettent au centre.

Prendre au sérieux la relation à l’objet

La juxtaposition de ces scènes permet de comprendre pourquoi les investissements publics dans la sensibilisation produisent des effets limités. Le dispositif n’échoue pas faute d’effort, mais parce qu’il ne prend pas au sérieux la relation sensible à l’objet déchu. Dans ces conditions, penser que la multiplication des ateliers ou la sophistication des supports suffiraient à améliorer les pratiques de tri relève d’une forme de croyance.

Or, les enquêtes menées à Amiens et au Mans mettent en lumière une contradiction nette entre la rhétorique de l’éducation au tri et ses effets réels. Les dispositifs produisent de la conformité sous surveillance mais n’améliorent pas la pensée du tri.

En ne clarifiant pas la chaîne de traitement, ils ne modifient pas les représentations. Ces observations conduisent ainsi à interroger une politique éducative fondée moins sur l’apprentissage de la pensée des déchets que sur l’hypothèse selon laquelle la répétition d’un geste garantirait sa reproduction hors du cadre prescriptif.

Prendre au sérieux la relation à l’objet, c’est alors admettre que, pour les enfants comme pour les adultes, le déchet est d’abord manipulé, détourné et investi de souvenirs, bien avant d’être mobilisé comme support d’un geste attendu.

The Conversation

Nathalie Buchot est membre de Les écologistes 72, le Groupe Philo Sarthe et les Carrefours de la Pensée.

Camille Dormoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

03.02.2026 à 15:30

JO Milan-Cortina 2026 et Alpes 2030 : qui sont les « éléphants blancs » ?

Matthieu Llorca, Maitre de conférences-HDR en économie, spécialsé en politiques économiques, banque-finance et économie du sport, Université Bourgogne Europe
img
Concrètement, comment le CIO et les pays hôtes répondent-ils à la problématique des « éléphants blancs », ces mégaprojets coûteux pour les collectivités ?
Texte intégral (1785 mots)
Le comité des JO de Milan-Cortina 2026 revendique la réutilisation de 85 % d’infrastructures existantes. TinaGutierrez/Shutterstock

Les Jeux olympiques d’hiver à Milan-Cortina en 2026 puis dans les Alpes françaises en 2030 font resurgir la problématique des « éléphants blancs ». Ces mégaprojets, souvent des équipements sportifs et des infrastructures de mobilité, amènent plus de coûts que de bénéfices à l’État et aux collectivités. Alors, concrètement, comment le Comité international olympique et les pays hôtes y répondent-ils ?


Les équipements sportifs mobilisés lors des Jeux olympiques (JO) d’hiver font l’objet de multiples débats, concernant leurs coûts économiques, leurs impacts environnementaux et leurs usages post-JO. Pour répondre à ces critiques, le Comité international olympique (CIO) prône l’usage de sites temporaires ou existants (héritages de Jeux passés) à la construction de nouvelles installations temporaires.

Au cours des Jeux d’hiver du XXIe siècle et ceux à venir de 2026 et de 2030, les controverses sur les sites sportifs – surcoûts, retards, etc. – portent sur le saut à ski, les pistes de bobsleigh, le patinage de vitesse et artistique. Ces quatre sports ont toujours été présents aux Jeux d’hiver, depuis la première édition à Chamonix 1924.

Les Jeux olympiques d’hiver de Milan-Cortina 2026 coûteront 4 milliards d’euros à la charge de la Simico, l’agence publique chargée des infrastructures, pour la construction et rénovation des sites sportifs et infrastructures de transport, et autour de 1,7 milliard d’euros pour le Comité d’organisation des Jeux olympiques (COJO), soit un total provisoire de 5,7 milliards d’euros.

Ces mégaprojets appelés « éléphants blancs » font craindre des coûts exorbitants pour les pays hôtes et les collectivités locales, sans bénéfices à long-terme. Selon la professeur d’architecture et d’urbanisme Juliet Davis, « ils représentent des infrastructures sportives coûteuses, construites pour les Jeux, qui deviennent obsolètes, sous-utilisées, voire laissées à l’abandon, faute d’utilité ou de planification adéquate, et qui sont un fardeau financier pour les villes hôtes des Jeux ».

Décryptage avec les Jeux olympiques d’hiver de Milan-Cortina 2026 et des Alpes françaises 2030.

Quatre sites abandonnés entre 2002 et 2018

De 2002 à 2018, seuls quatre sites abandonnés sont recensés : à Turin 2006, le site de saut à ski de Pragelato et la piste de bobsleigh/luge de Cesanatorinese, à Pyeongchang en 2018, le centre de ski alpin de Jeongseon et l’ovale de patinage de vitesse de Gangneung. Sur un total de 67 sites permanents, seul 6 % sont désertés entre 2002 et 2018 contre 11,4 % pour l’ensemble des Jeux d’hiver organisés entre 1924 et 2018.

En d’autres termes, la part des « éléphants blancs » parmi les infrastructures sportives des Jeux d’hiver a diminué d’environ quatre points de pourcentage au cours des Jeux du XXIe siècle. De telles controverses persistent à l’occasion des JO de Milan-Cortina 2026, qui se basent sur 85 % d’infrastructures existantes, soit 11 sites sur 13, et des prochains qui se dérouleront dans les Alpes françaises 2030.

Choix politiques

Un premier débat porte sur la sélection des sites retenus dans le dossier de candidature et proposés par le Comité d’Organisation des Jeux Olympiques (COJO). Ces derniers peuvent faire l’objet d’arbitrage et de modification par rapport au projet initial.

Dans le cas des Jeux olympiques d’hiver de Milan-Cortina 2026, la construction d’une nouvelle piste de bobsleigh à Cortina a suscité des débats. Le coût est estimé à 120 millions d’euros, soit une hausse de 50 % par rapport au budget initial de 61 millions d’euros. L’Italie dispose pourtant d’une piste homologuée à Cesana, certes inutilisée depuis 2011, mais qui peut être rénovée à moindre coût, pour environ 30 millions d’euros minimum.

Le choix de construire une nouvelle piste de bobsleigh est purement politique, au détriment de la contrainte environnementale et budgétaire. Si le Comité international olympique (CIO) envisageait une délocalisation, le comité Milan-Cortina 2026 a refusé ce choix avec l’objectif de garder l’intégralité des sites sportifs sur le sol italien ; une décision soutenue par le gouvernement de Giorgia Meloni.

Cartographie des sites olympiques et paralympiques de Milan-Cortina 2026 (actualité en 2023). Milan-Cortina 2026

Outre la piste de bobsleigh, le choix du site du patinage de vitesse a fait l’objet de modifications par rapport au site prévu dans le dossier de candidature. Baslega di Pine a été écarté en raison de son coût, mais sera construit pour les Jeux olympiques d’hiver de la Jeunesse 2028 de Dolomiti Valtellina. Le site temporaire au parc des Expositions de la Fiera Milano a été retenu pour les JO de Milan-Cortina, pour un coût de 20 millions d’euros.

Le site de patinage de vitesse de Lingotto fut à un moment évoqué, avant d’être rejeté par le COJO et la ville de Milan, pour des motifs politiques et de rivalité régionale entre les provinces du Piémont et de Lombardie.

Relocalisation et délocalisation

De nombreux équipements sportifs font l’objet de retard, comme le site de Livigno, hôte des épreuves de snowboard, dont le système de neige artificielle n’était pas encore terminé, en raison d’autorisations administratives en retard concernant le remplissage du réservoir.


À lire aussi : Pourquoi la construction des villages JO de Paris 2024 fut une réussite


Il en est de même pour les JO d’hiver dans les Alpes françaises en 2030, dont la sélection définitive des sites sportifs n’est toujours pas annoncée. Isola 2000, initialement prévu dans le dossier de candidature pour accueillir les épreuves de skicross et de snowboardcross, se voit retirer l’organisation de ces deux épreuves au profit de Montgenèvre. De même, Méribel, qui avait accueilli avec Courchevel l’organisation des championnats du monde de ski alpin 2023, était prévu pour organiser, sur ce même modèle, les épreuves de ski alpin féminin. Val-d’Isère est réintroduite en juillet 2025 dans la carte des sites olympiques des Jeux 2030 pour organiser les épreuves féminines de ski alpin, au détriment de Méribel qui s’est désisté.

Contrairement aux JO de Milan-Cortina 2026 qui aurait pu privilégier pour la piste de bobsleigh les sites à l’étranger d’Innsbruck-Igls, les Jeux des Alpes françaises seront les premiers à délocaliser un site sportif, celui de patinage de vitesse, dans un pays voisin. La sélection finale n’est toujours pas annoncée, mais le choix des organisateurs portera entre le site d’Heerenveen aux Pays-Bas ou celui de Turin, hôte des Jeux d’hiver 2006.

Modifications coûteuses

De telles modifications entre les sites sportifs initialement sélectionnés dans le projet de candidature et ceux finalement retenus ne font que contribuer à une augmentation des coûts des Jeux et à remettre en cause leur sobriété, annoncée par les organisateurs. Par exemple, le comité des Alpes françaises 2030, qui annoncent les Jeux les moins chers de l’histoire et les plus sobres.

De l’autre côté du prisme, la question de l’utilisation des sites après les Jeux olympiques vient d’être analysée. 86 % de tous les sites permanents utilisés pour les Jeux olympiques depuis Athènes en 1896, et 94 % des sites datant du XXIe siècle, seraient encore utilisés aujourd’hui.

The Conversation

Matthieu Llorca est membre du think tank Spirales Institut

03.02.2026 à 15:29

Pourquoi l’expansion pétrolière, au Venezuela et ailleurs, est un non-sens climatique et économique

Renaud Coulomb, Professor of Economics, Mines Paris - PSL
Fanny Henriet, Directrice de Recherche au CNRS en économie, Aix-Marseille Université (AMU)
France d'Agrain, Doctorante en économie, Mines Paris - PSL
img
Relancer le pétrole vénézuélien, parmi les plus polluants au monde, revient à miser sur l’échec de la transition énergétique et à exposer l’économie à un double risque climatique et financier.
Texte intégral (2789 mots)

Relancer l’exploitation pétrolière vénézuélienne, l’une des plus émettrices de gaz à effet de serre au monde, revient à parier sur l’échec de la transition énergétique. À l’heure où la majorité des réserves fossiles devrait rester inexploitée, ces investissements exposeraient l’économie mondiale à un double risque : trajectoire de réchauffement dramatique d’un côté, gaspillage massif de capital de l’autre.


Le 3 janvier 2026, une opération militaire états-unienne a abouti à la capture et à l’enlèvement du président vénézuélien Nicolas Maduro et de son épouse. Donald Trump a aussitôt annoncé que les États-Unis dirigeraient temporairement le pays et affirmé vouloir relancer la production pétrolière du pays, avec plus de 100 milliards de dollars (84,78 milliards d’euros) d’investissements des compagnies pétrolières américaines.

Le Venezuela dispose en effet de réserves pétrolières gigantesques estimées à environ 300 milliards de barils. Le pays n’exploite actuellement que peu ce potentiel, du fait notamment des contraintes de stockage et plus généralement de la faiblesse des investissements.

Or ce pétrole est particulièrement émetteur de gaz à effet de serre (GES). Cela tient à la nature lourde et visqueuse du brut, qui rend l’extraction énergivore, et des émissions de dioxyde de carbone provenant du torchage et des fuites de méthane. Extraire un baril de pétrole au Venezuela émet, en moyenne, environ deux fois plus de GES que l’extraction d’un baril en Arabie saoudite ou en Norvège. Réhabiliter des gisements aussi polluants relève du non-sens écologique.

Ces investissements projetés s’inscrivent toutefois dans une logique mondiale persistante. Alors que le changement climatique s’aggrave et que deux tiers des émissions mondiales de GES proviennent des énergies fossiles, l’industrie pétrolière continue d’élargir son offre mondiale. Chaque année, des dizaines de milliards de dollars sont engloutis pour découvrir de nouveaux gisements et augmenter les réserves d’énergie fossile disponibles.

Cette actualité, au-delà de sa portée géopolitique, illustre clairement le risque climatique que représente la poursuite de l’expansion pétrolière dans le monde. Ce serait non seulement une aberration écologique, mais aussi économique.


À lire aussi : Empreinte carbone : tous les barils de pétrole ne se valent pas et cela a son importance pour la transition énergétique


Un dilemme pour l’économie mondiale

Miser aujourd’hui sur l’expansion des réserves de pétrole, au Venezuela comme ailleurs, revient à parier financièrement sur l’échec de la transition.

Les investissements dans l’exploration pétrolière créent des incitations financières, pour cete industrie, à entraver les politiques climatiques. UN Climate Change, CC BY-NC-ND

La rentabilité de ces actifs est en effet structurellement incompatible avec le respect des accords climatiques : pour que ces projets soient rentables, il faut que les politiques de décarbonation échouent. Dès lors, ces investissements renforcent l’intérêt économique de leurs promoteurs à défendre le statu quo, y compris en pesant contre un durcissement des politiques climatiques.

De fait, l’accord a minima de la dernière COP30 sur le climat illustre cette difficulté. Le texte évoquait de vagues « efforts » et « solutions », tout en continuant à éluder l’arithmétique de base : pour rester sous les 2 °C (voire idéalement celle de 1,5 °C) d’augmentation des températures, la production de combustibles fossiles doit chuter rapidement et dès aujourd’hui. Autrement dit, une part importante des réserves prouvées doivent être laissées inexploitées.

La poursuite de ces investissements place l’économie mondiale face à deux risques distincts :

  • Premier scénario : les politiques climatiques actuelles échouent. Chaque nouveau baril découvert alimente alors la surabondance de l’offre, fait baisser les prix et retarde la transition vers une économie bas carbone. Cela verrouille la planète dans une trajectoire de réchauffement bien trop élevé, c’est le pire des scénarios pour le climat et le bien-être mondial.

  • Second scénario : les régulations climatiques se durcissent, mais tardivement. Les nouveaux projets pétroliers deviennent alors majoritairement des « actifs échoués », c’est-à-dire des investissements sans valeur, synonymes d’un gaspillage massif de capital. Le changement climatique est finalement contrôlé, mais du capital a été investi au mauvais endroit, alors qu’il aurait pu être directement orienté vers la transition énergétique.


À lire aussi : Les États-Unis ont passé des décennies à faire pression pour mettre la main sur le pétrole vénézuélien


Faut-il interdire l’exploration pétrolière ?

Pour éviter de se retrouver devant un tel dilemme, on pourrait envisager d’interdire dès à présent l’exploration pétrolière et les investissements visant à rendre exploitables les gisements récemment découverts. Dans une étude récente, nous avons justement évalué les effets qu’aurait une telle mesure, en nous basant sur un modèle construit à partir des données de plus de 14 000 gisements pétroliers.

L’enjeu de limiter l’exploration pétrolière a suscité, ces dernières années, une attention politique croissante. La France, par exemple, a interdit toute nouvelle exploration de ressources fossiles en 2017. En 2024, le Royaume-Uni a annoncé la fin de l’octroi de nouvelles licences pétrolières et gazières.

Une telle mesure peut-elle être efficace ? Le résultat de notre étude est sans appel. Tant que les autres politiques climatiques – comme une tarification du carbone au niveau mondial – restent limitées ou inexistantes, une interdiction de l’exploration permettrait d’éviter l’émission d’environ 114 milliards de tonnes équivalent CO₂. Et, par la même occasion, d’épargner à l’économie mondiale des milliers de milliards de dollars de dommages climatiques cumulés.

En effet, chaque tonne de CO₂ émise aujourd’hui engendrera des coûts réels demain : multiplication des événements climatiques extrêmes, montée du niveau des mers, impacts sanitaires, pertes de productivité

Poursuivre l’exploration revient donc à rendre exploitables des ressources dont le coût social dépasse largement les bénéfices privés qui en découlent. Ce coût social est actuellement un impensé dans l’argumentaire de l’industrie fossile.

Quand l’argumentation de l’industrie fossile ne tient pas

L’industrie invoque régulièrement la nécessité de remplacer des champs vieillissants, dont la production décline naturellement chaque année. Certains experts estiment aussi que les nouveaux gisements pourraient être moins émetteurs de GES que les champs de pétrole actuellement en production.

Nos résultats montrent pourtant que, dans une trajectoire compatible avec la neutralité carbone, ni le déclin naturel des gisements ni leur hétérogénéité en matière d’empreinte carbone ne suffisent à justifier l’ouverture de nouveaux champs. Ces conclusions restent inchangées même dans l’hypothèse où les nouveaux gisements n’émettraient aucun GES lors de leur exploitation.

L’exploration ne générerait des bénéfices sociaux nets que dans un monde où les producteurs intégreraient dans leurs calculs économiques presque l’intégralité du coût climatique des émissions. Concrètement, cela supposerait une taxe carbone couvrant toutes les émissions liées à un baril – de l’exploration jusqu’à la combustion – afin de refléter le coût social de la production et de l’utilisation de ce baril. Même dans ce scénario très exigeant, les bénéfices resteraient modestes : ils seraient environ 40 fois inférieurs aux coûts environnementaux de l’exploration lorsque ces émissions ne sont pas prises en compte par les producteurs.

Ce résultat s’explique simplement : dans une trajectoire compatible avec le « Net Zero », la demande de pétrole devient relativement faible. Or, cette demande pourrait être couverte par des volumes déjà disponibles de pétrole moins intensif en carbone, dont les coûts d’exploitation restent modérés.

Les efforts d'exploration actuels ne sauraient donc être justifiés sur cette base :

Un moratoire plus acceptable qu’une taxe pour les pays producteurs ?

Notre étude le montre clairement : interdire l’exploration serait un levier puissant pour limiter l’offre de pétrole, pour réduire les émissions futures et pour éviter de créer de nouveaux actifs voués à devenir inutilisables si la transition vers une économie bas carbone se matérialise.

Pour certains pays producteurs, un tel moratoire pourrait même s’avérer politiquement plus acceptable qu’une taxe. En restreignant l’offre, il soutiendrait les cours du baril et, par extension, les revenus des producteurs actuels, tout en servant les ambitions climatiques.

Ce paradoxe – une mesure climatique qui pourrait profiter à certains producteurs, notamment aux États-Unis ou en Arabie saoudite – pourrait faciliter un accord international.


À lire aussi : Comment échapper à la malédiction de la rente fossile ?


Mais il aurait un coût pour les consommateurs et contreviendrait au principe du pollueur-payeur, en faisant peser l’essentiel du coût de la transition sur les consommateurs finaux.

Reste un écueil de taille : la mise en place de telles politiques serait complexe dans un contexte géopolitique fragmenté, marqué par l’érosion du multilatéralisme et la multiplication des stratégies non coopératives.

À défaut d’un accord mondial immédiat, des interdictions ciblées pourraient avoir un impact majeur. À cet égard, l’élargissement de coalitions existantes, comme l’alliance Beyond Oil and Gas, dont la France est membre, est fondamental. En renforçant ce socle diplomatique d’États pionniers, engagés à ne plus octroyer de licences d’exploration, une initiative volontaire pourrait progressivement se muer en un cadre normatif.

Mais la crédibilité de telles interdictions dépend de leur permanence. Aux États-Unis, le retour de Donald Trump au pouvoir s’est accompagné d’une défense assumée de l’industrie pétrolière et d’un désengagement des institutions internationales clés, telles que la Convention-cadre des Nations unies sur les changements climatiques ou le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), deux piliers de la coopération climatique mondiale.

Londres aussi a récemment revu sa position. Le cas français illustre lui aussi la possibilité de revirements politiques : le Sénat a, le 29 janvier 2026, voté une proposition de loi remettant en cause la loi de 2017 interdisant l’exploration pétrolière et gazière.

The Conversation

Renaud Coulomb déclare ne pas être en situation de conflit d’intérêts. Il ne fournit pas de services de conseil et ne détient aucune participation financière dans des entreprises du secteur du pétrole et du gaz, ni dans des entreprises susceptibles de bénéficier des analyses ou des conclusions présentées dans cette tribune. Cette recherche a bénéficié du soutien financier de l’Agence nationale de la recherche (ANR), de la Paris School of Economics, de l’Université de Melbourne, de Mines Paris – PSL University et de la Fondation Mines Paris dans le cadre de la Chaire de Mécénat ENG (sponsors : EDF, GRTgaz, TotalEnergies), en partenariat avec l’Université Paris-Dauphine, la Toulouse School of Economics et CentraleSupélec.

Fanny Henriet a reçu des financements de l'ANR

France d'Agrain a reçu des financements des financements de la Fondation Mines Paris dans le cadre de la Chaire de Mécénat ENG (sponsors : EDF, GRTgaz, TotalEnergies), en partenariat avec l’Université Paris-Dauphine, la Toulouse School of Economics et CentraleSupélec.

02.02.2026 à 16:22

Quand les animaux de compagnie dévorent la biodiversité : un vide juridique dans l’Union européenne

Miguel Ángel Gómez-Serrano, Assistant lecturer, Universitat de València
img
La législation européenne protège les espèces sauvages et les animaux de compagnie séparément. Mais face aux impacts directs des uns sur les autres, elle est actuellement démunie.
Texte intégral (1880 mots)
Les textes européens qui encadrent le bien-être animal le circonscrivent aux espèces domestiques. digitalienspb/Shutterstock

À travers ses grands textes, l’Union européenne défend la biodiversité d’un côté et le bien-être de nos animaux domestiques de l’autre. Mais que dit-elle quand nos chats et chiens attentent à la faune sauvage ? Pas grand-chose pour l’instant…


Près de 44 % des ménages de l’Union européenne possèdent au moins un animal de compagnie, dont plus de 90 % sont des chiens ou des chats.

La place des animaux de compagnie dans nos vies n’a cessé de croître au cours des dernières décennies, mais elle s’est fortement accélérée à partir de la pandémie de Covid-19. Plus précisément, on estime que la population européenne d’animaux de compagnie a augmenté de 11 % en 2022, pour atteindre 340 millions, principalement des chats (127 millions) et des chiens (104 millions).

À mesure que les foyers adoptent chiens et chats, l’intérêt pour leur bien-être ne cesse de croître. Dans le même temps, le déclin des populations d’animaux sauvages alerte la société sur la nécessité de protéger la biodiversité.

Mais cette convergence ne va pas toujours de soi. S’il existe un certain chevauchement entre les objectifs du bien-être animal et ceux de la conservation de la faune sauvage, un biais apparaît clairement dans la hiérarchisation des priorités entre animaux de compagnie et animaux sauvages, en particulier lorsque ces deux groupes interagissent.

IMG. Miguel Ángel Gómez-Serrano

Une étude récente identifie les ressorts du conflit entre défenseurs du bien-être des animaux de compagnie et partisans de la conservation de la nature. Ce travail analyse les leviers juridiques, dans le cadre de l’Union européenne, permettant de réduire l’impact des animaux de compagnie sur les animaux sauvages.

Deux cadres juridiques difficilement conciliables

L’Union européenne dispose actuellement d’une législation environnementale solide, dans laquelle les directives « Oiseaux » et « Habitats » ont joué un rôle clé dans la protection de la faune sauvage. En revanche, la législation relative au bien-être animal – en particulier celle concernant les animaux de compagnie – est beaucoup plus récente et reste encore émergente.

En toute logique, le bien-être animal a été associé exclusivement aux espèces domestiques, tandis que les espèces sauvages relèvent du droit de l’environnement.

Mais ce déséquilibre a engendré un important vide juridique : que se passe-t-il lorsque des animaux de compagnie causent des dommages à la faune sauvage ?

Des animaux de compagnie devenus sauvages

Parmi les impacts les plus importants des animaux de compagnie sur la faune sauvage figurent ceux liés aux individus retournés à l’état sauvage. Les animaux abandonnés ou échappés peuvent former des populations autosuffisantes dans la nature, avec de graves conséquences pour les espèces autochtones.

Les perroquets échappés des foyers en sont un bon exemple. Des espèces comme la perruche à collier ou la conure veuve ont établi des colonies dans de nombreuses villes européennes. Au-delà de la question de savoir s’il faut les considérer comme des espèces invasives, leur gestion constitue un conflit socio-environnemental complexe.

Certains travaux scientifiques suggèrent qu’elles entrent en compétition avec les espèces locales pour les sites de nidification et les ressources, mais ce sont des animaux charismatiques et appréciés par le public, si bien que leur régulation suscite de vives controverses sociales.

Cependant, si un animal de compagnie concentre particulièrement les préoccupations lorsqu’il retourne à l’état sauvage, c’est bien le chat domestique. Il est considéré comme l’un des prédateurs invasifs les plus nocifs au monde, responsables d’environ 25 % des extinctions contemporaines de reptiles, d’oiseaux et de mammifères à l’échelle mondiale.

Malgré ces preuves, il existe encore en Europe une forte réticence à reconnaître les chats retournés à l’état sauvage (ou chats harets) comme des espèces invasives, ce qui limite les options juridiques pour gérer leur impact.

Animaux de compagnie qui errent librement hors de leur domicile

De nombreux animaux de compagnie passent une partie de leur temps à l’extérieur sans surveillance. Pour les chiens, les impacts concernent principalement la prédation sur la faune sauvage et la transmission de maladies.

Les chats, qui errent plus librement hors de leur domicile, pratiquent également la prédation, même lorsqu’ils sont bien nourris, affectant particulièrement les oiseaux et les petits vertébrés dans les environnements urbains et périurbains.

Un cas particulier concerne les colonies félines. Le contrôle des populations de chats errants relève généralement des États membres de l’UE, ce qui entraîne des approches très variées, allant de la mise à l’écart des animaux aux programmes de capture, stérilisation et retour (méthode CSR).

Bien qu’il s’agisse d’une méthode socialement acceptée, les preuves scientifiques montrent que, dans la majorité des cas, elle n’est pas efficace pour réduire la population de chats ni pour limiter à court terme leur impact sur la faune sauvage.


À lire aussi : « Permis de tuer » ou sécurité publique ? En Turquie, une loi controversée sur les chiens errants


Promener des animaux de compagnie dans la nature

Promener son chien dans la nature est devenu une des activités de loisirs particulièrement courante, en atteste notamment, dans les zones concernées, la popularité croissante des plages pour chiens. Ce type de gestion est probablement bénéfique pour la santé des animaux et de leurs propriétaires, mais pas pour la faune sauvage.

Sur les plages naturelles, par exemple, les chiens peuvent avoir un impact grave sur les oiseaux nichant au sol, comme les gravelots à collier interrompu. Même en l’absence de prédation directe, la simple présence d’un chien peut amener les oiseaux à abandonner leurs nids ou à réduire le temps d’incubation, avec des effets négatifs sur le succès reproducteur.

Réconcilier le bien-être animal et la conservation

À mesure que la biodiversité diminue et que les populations d’animaux de compagnie augmentent dans les foyers européens, le conflit entre la conservation de la faune sauvage et la défense du bien-être animal s’intensifie. Il devient donc urgent de réconcilier ces perspectives divergentes et d’harmoniser leurs cadres juridiques respectifs.

L’Union européenne dispose de marges de manœuvre juridique pour agir. Les directives environnementales obligent déjà les États membres à prévenir les dommages aux espèces protégées, ce qui pourrait se traduire par des restrictions plus claires concernant la liberté de déplacement des animaux de compagnie, en particulier dans les espaces naturels protégés.

Parallèlement, l’élaboration d’une nouvelle législation sur le bien-être animal constitue une occasion de renforcer la responsabilité des propriétaires tout en réduisant l’impact de la liberté de déplacement et en prévenant l’abandon ou le retour à l’état sauvage.

Il est nécessaire que les autorités s’attellent à la régulation de l’impact des animaux de compagnie et que leurs propriétaires s’engagent activement à les limiter. Ce n’est qu’ainsi que nous éviterons d’atteindre le point de non-retour où les seuls animaux que nous observerons lors de nos promenades dans la nature seront nos propres animaux de compagnie.

The Conversation

Miguel Ángel Gómez-Serrano ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

01.02.2026 à 10:19

Camions à hydrogène vert : une voie sans issue pour décarboner le fret routier ?

Julien Lafaille, PhD student, Energy Management, GEM
Anne-Lorène Vernay, Associate professor, GEM
img
Présenté comme zéro émission et comme levier majeur de la décarbonation des poids lourds, l’hydrogène vert est en fait loin d’être une solution adaptée à ces enjeux.
Texte intégral (2066 mots)

Sur les routes européennes, les camions à hydrogène sont de plus en plus nombreux. Le développement de la filière est en effet généreusement subventionné. Mais si l’hydrogène vert est présenté comme une solution idéale de décarbonation du transport lourd routier, ce potentiel est largement exagéré.


Presque tous les secteurs industriels européens ont réussi à diminuer leurs émissions de gaz à effet de serre (GES) depuis 1990. Tous, sauf celui des transports, dont les émissions continuent de grimper, malgré l’objectif de neutralité carbone d’ici à 2050 fixé par la Commission européenne.

Le transport lourd routier, en particulier, est très difficile à décarboner. Pour y parvenir, trois leviers potentiels sont mobilisables : l’innovation technologique (dont les camions à batterie et à hydrogène, avec une pile à combustible à la place d’un moteur diesel), le transfert vers le rail ou le maritime, et une logistique plus efficace.

Ce sont les camions à pile à combustible (CPC) qui nous intéressent ici : leur intérêt réside principalement dans leurs avantages par rapport aux camions à batterie électrique. Ces derniers sont plus lourds, manquent encore d’autonomie et prennent longtemps à recharger.

Il existe deux types de CPC : les camions à hydrogène comprimé, qui ont une autonomie d’environ 400 kilomètres et sont déjà commercialisés, et ceux à hydrogène liquide, dont l’autonomie avoisine les 1000 kilomètres mais qui sont encore en développement. L’hydrogène qui les alimente peut être plus ou moins décarboné en fonction de la source d’énergie utilisée.

Nous considérons ici les CPC alimentés par de l’hydrogène vert, obtenu intégralement grâce à de l’électricité d’origine photovoltaïque et/ou éolienne. Les piles à combustible n’émettant que de la vapeur d’eau, la Commission européenne considère les CPC alimentés à l’hydrogène vert comme étant « zéro émission » et subventionne généreusement le développement des infrastructures nécessaires.

Mais la réalité est plus complexe, et ce choix d’investissement très questionnable.

Les infrastructures derrière l’hydrogène « vert »

De quoi est-il ici question ? L’hydrogène vert arrive jusque dans les stations-service à la suite d’une série d’opérations complexes et énergétiquement peu efficaces : électrolyse de l’eau, compression ou liquéfaction, et transport. La pile à combustible reconvertit ensuite dans le camion l’hydrogène en électricité, qui est alors transmise aux roues sous forme d’énergie cinétique.

La production d’hydrogène et son utilisation dans une pile à combustible ne produisent pas de CO2 directement. En revanche, il y a des émissions associées en amont, avec la compression-liquéfaction et le transport, des processus généralement réalisés avec des sources d’énergie carbonées. Ces émissions sont comptabilisées par la Commission européenne, qui considère que l’hydrogène reste vert (ou « renouvelable ») tant qu’il est décarboné à 70 % (ou plus) par rapport à l’hydrogène « gris » (issu du méthane). Dans ce cas, il peut être certifié « renouvelable », et les camions l’utilisant sont considérés « zéro émission ».

C’est la Commission européenne qui fixe ces règles et définit ce qui est qualifié de « renouvelable » et de « zéro émission », à l’aide de textes législatifs sous-tendus par une méthodologie complexe.

Cadre législatif européen – Décarbonation de la mobilité. CC BY-NC

Une méthodologie européenne erronée

Dans cette méthodologie, la Commission européenne affirme notamment que l’électricité provenant de technologies photovoltaïques ou éoliennes est « zéro émission ».

En réalité, le système industriel mondial étant totalement dépendant des énergies fossiles, cette affirmation est fausse. Dans les panneaux solaires comme dans toutes les technologies dites vertes, l’extraction des matériaux nécessaires, les processus de fabrication, leur transport et leur installation impliquent des émissions de gaz à effet de serre considérables.

Qualifier leur production électrique de « zéro émission » peut parfois être une simplification acceptable, mais dans le cas de l’hydrogène vert, il s’agit d’une erreur méthodologique majeure.

En effet, la dette carbone initiale reste associée à la quantité d’énergie utile finale (celle qui fait tourner les roues), même si cette dernière est divisée par quatre environ par rapport à l’énergie en sortie de panneaux solaires ou d’éoliennes. Les émissions, par unité d’énergie utile finale, sont donc multipliées par quatre par rapport à l’énergie électrique initiale. Si l’on fait l’hypothèse que l’éolien et le photovoltaïque sont zéro carbone, on obtient effectivement zéro émissions pour les camions… mais cette hypothèse est fausse. Prendre pour base méthodologique une hypothèse zéro carbone erronée conduit donc à sous-estimer de façon conséquente les émissions associées à l’hydrogène vert.

Le cycle de vie du camion à hydrogène vert, avec la méthodologie correcte (en haut) et la méthodologie européenne (en bas). CC BY-NC

Un autre problème de la méthodologie européenne est de ne considérer que l’intensité carbone du transport, c’est-à-dire les émissions par tonne-kilomètre (tkm) effectuée, c’est-à-dire au kilomètre pour une tonne de marchandise transportée. Le recours à l’hydrogène vert peut en théorie diminuer considérablement cette intensité, mais la croissance du nombre de tkm prévue en parallèle par la croissance du fret routier pourrait fortement réduire, voire annuler ces gains.

D’un côté, on verdit la tkm, de l’autre, le nombre de tkm augmente. Difficile d’évaluer les émissions totales du fret routier d’ici à 2050 dans ces conditions, mais il est fort probable qu’elles resteront loin du net zéro.

Un gaspillage d’argent public

Pour éclaircir le débat, nous avons repris la méthodologie en tenant compte de ces éléments et de la croissance du fret routier anticipée : +50 % d’ici à 2050 par rapport à 2025.

Nous avons considéré ici deux cas de figure : l’une fondée sur de l’hydrogène vert importé du Maroc sous forme liquide, l’autre sur de l’hydrogène vert produit en Europe directement par les stations-service utilisant de l’électricité renouvelable. Les deux étant des voies d’approvisionnement en développement.

Pour résumer, ce qui dépasse la ligne rouge n’est pas aligné avec l’objectif de neutralité carbone européen. Nos résultats mettent en évidence que la méthodologie européenne doit être revue de fond en comble et que les camions à hydrogène vert ne nous aideront pas atteindre la neutralité carbone, et d’autant moins s’ils roulent à l’hydrogène liquide.

Dans ce contexte, les subventions étatiques considérables accordées à la filière sont un gâchis d’argent public et devraient être redirigées vers d’autres leviers plus plausibles : les camions à batterie et à caténaires, le rail, le maritime…

Ces options ont aussi des limites, et nos résultats indiquent que limiter la croissance (voire faire décroître) le secteur du fret routier rendrait sa décarbonation beaucoup plus aisée, quel que soit le levier d’action.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

29.01.2026 à 15:57

Dans l’océan, comment les écosystèmes marins s’organisent sans chef

Céline Barrier, Chercheuse, Université de Corse Pascal-Paoli
img
Les formes d’organisation qui régissent les écosystèmes dans l’océan témoignent d’une autre forme d’intelligence, sans cerveau, sans mémoire explicite ni intention.
Texte intégral (1320 mots)
Et si on élargissait l’idée qu’on se fait de l’intelligence ? Exemple appliqué au milieu marin. Céline Barrier, Fourni par l'auteur

À la différence de l’intelligence humaine, régie par un centre de décision (le cerveau), celle du monde marin s’organise sans chef d’orchestre. Elle repose sur une multitude d’interactions où chaque processus physique contribue à un fonctionnement global. Que penser de cette analogie ? Peut-on encore parler d’intelligence ? Étudier ces formes d’organisation non humaines invite à repenser notre définition de l’intelligence.


Docteure en sciences marines, spécialisée dans la modélisation des processus écologiques, je travaille principalement sur la dispersion larvaire et la connectivité entre habitats marins, en particulier dans les écosystèmes côtiers de la Méditerranée.

Mes recherches consistent notamment à « suivre des larves marines », afin de comprendre comment l’information circule dans un système naturel complexe, à travers l’espace, le temps et de fortes contraintes physiques. Les « propagules » marines, larves de poissons ou d’invertébrés, ne sont en effet pas seulement de la matière vivante transportée passivement par les courants.

Elles sont aussi des vecteurs d’information écologique. En effet, elles transportent un patrimoine génétique, des traits d’histoire de vie, une mémoire évolutive et surtout un potentiel fondamental : celui de permettre, ou non, le maintien d’une population dans un habitat donné.

Leur évolution dans l’espace est un exemple intéressant de la façon dont les écosystèmes marins s’organisent. Cette organisation fait intervenir une forme d’intelligence bien différente de celle que nous connaissons en tant qu’humains.


À lire aussi : La Fête de la science 2025 met toutes les intelligences à l’honneur


Une intelligence sans chef d’orchestre

Les écosystèmes marins peuvent être décrits comme des systèmes distribués : il n’y existe ni centre de décision, ni contrôle centralisé.

L’organisation globale émerge de l’interaction continue entre des processus physiques (courants, stratification de la colonne d’eau), biologiques (développement larvaire, mortalité, parfois comportement) et écologiques (disponibilité et qualité des habitats).

Comprendre cette organisation revient à comprendre comment des systèmes complexes peuvent fonctionner efficacement sans intelligence centrale. Dans ce cadre, l’« intelligence » du monde marin n’est ni neuronale ni intentionnelle. Elle est collective, spatiale et émergente.

Chaque processus physique y joue un rôle spécifique. Par exemple :

  • les courants marins forment une infrastructure invisible, comparable à un réseau de communication ;

  • les habitats fonctionnels, zones de reproduction, de nourricerie ou habitats adultes, constituent des nœuds ;

  • enfin, les larves assurent la circulation entre ces nœuds, rendant possible la connectivité du système.


À lire aussi : Podcast : Intelligence animale… Quand la seiche sèche le poulpe !


Modéliser des réseaux invisibles

Dans mon travail, je cherche à modéliser cette connectivité, c’est-à-dire le réseau d’échanges dont la structure conditionne la résilience, l’adaptabilité et la persistance des populations marines face aux perturbations environnementales.

Pour explorer ces réseaux invisibles, j’utilise des modèles biophysiques dits lagrangiens, qui combinent des données océaniques (courants, température, salinité) avec des paramètres biologiques propres aux espèces étudiées, tels que la durée de vie larvaire ou la période de reproduction.

L’objectif n’est pas de prédire le trajet exact de chaque larve, mais de faire émerger des structures globales : corridors de dispersion, zones sources, régions isolées ou carrefours d’échanges.

C’est précisément ce que j’ai montré dans un travail récent consacré à la grande araignée de mer Maja squinado en Méditerranée nord-occidentale. En simulant plus de dix années de dispersion larvaire à l’échelle régionale, j’ai mis en évidence l’existence de véritables carrefours de connectivité. Ils relient certaines zones côtières éloignées, tandis que d’autres, pourtant proches géographiquement, restent faiblement connectées.

Une intelligence fondée sur les relations

Cette organisation ne résulte d’aucune stratégie consciente. Elle émerge de l’interaction entre la circulation océanique, la biologie des espèces et la distribution spatiale des habitats favorables.

Les résultats obtenus illustrent une forme d’intelligence collective du système, dans laquelle l’organisation globale dépasse largement la somme des trajectoires individuelles.

On retrouve ici des propriétés communes à de nombreux systèmes complexes – colonies d’insectes, réseaux trophiques ou dynamiques sociales humaines. Dans tous les cas, ce sont les relations entre les éléments, bien plus que les éléments eux-mêmes, qui structurent le fonctionnement de l’ensemble.

Élargir notre définition de l’intelligence

Un parallèle peut enfin être établi avec l’intelligence artificielle, sans qu’il soit nécessaire de forcer l’analogie. Les modèles que je développe agissent, avant tout, comme des outils de traduction : ils transforment un monde continu, chaotique et tridimensionnel en représentations intelligibles – cartes, matrices de connectivité, probabilités.

Comme en intelligence artificielle, l’enjeu n’est pas de tout contrôler ni de tout prédire, mais d’identifier les échelles pertinentes et les relations clés à partir desquelles le sens peut émerger.

Étudier ces formes d’organisation non humaines nous invite ainsi à repenser notre définition de l’intelligence. Dans un monde marin sans cerveau, sans mémoire explicite et sans intention, des systèmes entiers parviennent pourtant à se maintenir, à se réorganiser et parfois à résister aux perturbations environnementales.

Reconnaître cette intelligence diffuse, incarnée dans des flux et des réseaux, ne revient pas à humaniser la nature, mais à élargir notre regard sur ce que signifie « être intelligent » dans un monde complexe et interconnecté.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Céline Barrier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

29.01.2026 à 12:14

Quand et comment décide-t-on qu’une espèce est éteinte ?

Violaine Nicolas Colin, Maitre de conférence en systématique et phylogéographie, Muséum national d’histoire naturelle (MNHN)
img
Il est bien plus difficile de prouver une absence que de constater une présence. Il faut donc souvent des années, et un processus minutieux, pour déclarer une espèce éteinte.
Texte intégral (4349 mots)
Modèle en cire et plâtre du dodo, dessin de l’espadon de Chine. Jebulon/Wikimédia/Nouvelles archives du Muséum d’histoire naturelle, Baker E., J. Keller., CC BY

Il est bien plus difficile de prouver une absence que de constater une présence. Il faut donc souvent des années, et un processus minutieux, pour qu’une espèce soit déclarée éteinte. Cela peut-être particulièrement difficile lorsqu’il s’agit d’espèces nocturnes, discrètes ou vivant dans des milieux reculés.


Déclarer une espèce « éteinte », ce n’est pas comme rayer un nom d’une liste. C’est un verdict lourd de sens, prononcé avec une extrême prudence. Car annoncer trop tôt une disparition peut condamner une espèce qui existe peut-être encore quelque part. Alors comment font les scientifiques en pratique ?

Comment les scientifiques tranchent-ils la question de l’extinction ?

Pour en arriver là, les biologistes doivent mener des recherches exhaustives, dans tous les habitats potentiels, aux bonnes périodes (saisons, cycles de reproduction), et sur une durée adaptée à la biologie de l’espèce.

Concrètement, plusieurs indices sont analysés ensemble :

  • l’absence prolongée d’observations fiables,

  • des campagnes de recherche répétées et infructueuses,

  • le temps écoulé depuis la dernière observation confirmée,

  • et l’état de l’habitat. Si celui-ci a été totalement détruit ou transformé au point d’être incompatible avec la survie de l’espèce, la conclusion devient plus solide.

Autrement dit, on ne déclare pas une espèce éteinte parce qu’on ne l’a pas vue depuis longtemps, mais parce qu’on a tout fait pour la retrouver, sans succès.

Qui décide officiellement de l’extinction ?

À l’échelle mondiale, c’est l’Union internationale pour la conservation de la nature (UICN) qui statue, depuis 1964, via sa célèbre « liste rouge », référence internationale en matière de biodiversité.

La liste rouge classe les espèces selon leur risque d’extinction, en plusieurs catégories allant de « préoccupation mineure » à « éteinte ». Elle est mise à jour régulièrement, accessible en ligne, et donne aujourd’hui le statut de 172 600 espèces.

Bien plus qu’une simple liste d’espèces et de leur statut, elle fournit aussi des informations sur l’aire de répartition, la taille des populations, l’habitat et l’écologie, l’utilisation et/ou le commerce, les menaces ainsi que les mesures de conservation qui aident à éclairer les décisions nécessaires en matière de préservation.

C’est donc un outil indispensable pour informer et stimuler l’action en faveur de la conservation de la biodiversité et des changements de politique. Le processus d’élaboration de la liste rouge implique le personnel de l’équipe d’évaluation et de connaissance de la biodiversité de l’UICN, les organisations partenaires, les scientifiques, les experts de la Commission de la sauvegarde des espèces de l’UICN, ainsi que les réseaux partenaires qui compilent les informations sur les espèces.

L’IUCN déclare une espèce comme « éteinte » quand il n’existe aucun doute raisonnable que le dernier individu a disparu. Des gouvernements ou agences nationales peuvent également déclarer une espèce éteinte localement, sur leur territoire.

Des extinctions bien réelles : quelques exemples récents

Modèle en cire et plâtre, réalisé par les taxidermistes du Muséum national d’histoire naturelle de Paris au milieu du XIXᵉ siècle
Raphus cucullatus. Espèce endémique de l’île Maurice, éteinte du fait de l’humain vers 1660. Modèle en cire et plâtre, réalisé par les taxidermistes du Muséum national d’histoire naturelle de Paris au milieu du XIXᵉ siècle. Jebulon/Wikimedia, CC BY

Le dodo (Raphus cucullatus) reste l’icône des extinctions causées par l’humain : découvert à la fin du XVIᵉ siècle lors de l’arrivée des Européens sur l’île Maurice, il disparaît moins de cent ans plus tard, victime de la chasse et des espèces introduites.

Mais il est loin d’être un cas isolé, les extinctions récentes touchent tous les groupes du vivant. Si les espèces insulaires représentent une part disproportionnée des extinctions récentes (les îles, bien qu’elles ne couvrent que 5 % des terres émergées, abritent près de 40 % des espèces menacées), les espèces continentales sont également touchées.

  • L’espadon de Chine (Psephurus gladius), une grande espèce de poisson d’eau douce (jusqu’à plusieurs mètres) qui vivait dans le fleuve Yangtsé, a été déclaré éteint en 2022. La surpêche, les barrages bloquant les migrations et la destruction de son habitat ont eu raison de cette espèce spectaculaire qui a été aperçue pour la dernière fois en 2003.
Psephurus gladius dessiné en 1868
Psephurus gladius dessiné en 1868. Nouvelles archives du Muséum d’histoire naturelle, CC BY
Spécimen naturalisé au Centre de biodiversité Naturalis
Numenius tenuirostris, spécimen naturalisé au Centre de biodiversité Naturalis. Wikimédia, CC BY
  • Le courlis à bec grêle (Numenius tenuirostris), un oiseau des zones humides, qui hibernait autour de la Méditerranée avant de rejoindre sa Sibérie natale au printemps, n’a plus été observé de manière certaine depuis 1995. Une étude publiée fin 2024 estime à 96 % la probabilité qu’il soit aujourd’hui éteint, victime de l’agriculture intensive et du drainage des marais.

  • La musaraigne de l’île Christmas (Crocidura trichura), discrète habitante de l’océan Indien, a été officiellement déclarée éteinte en 2025, après quarante ans sans observation malgré des recherches répétées. Les prédateurs introduits (rats, chats) et les perturbations de l’habitat sont les principaux suspects.

  • Deux escargots polynésiens (Partula dentifera et P. pearcekellyi) ont été officiellement déclarés éteints en 2024. La cause principale de leur disparition serait l’introduction d’un escargot prédateur invasif (Euglandina rosea), une tragédie silencieuse mais fréquente sur les îles.

  • Chez les plantes, Amaranthus brownii, une plante herbacée annuelle endémique d’une petite île hawaïenne, a été déclarée éteinte en 2018 après plus de trente-cinq ans sans observation malgré des recherches intensives. La destruction de son habitat et l’arrivée d’espèces invasives ont conduit à sa disparition, sans qu’aucune graine ni plant viable n’ait pu être conservé.

  • Depuis 2024, la liste rouge de l’IUCN comprend aussi des champignons. En mars 2025 la liste évaluait le statut de 1 300 espèces de champignons. Nous sommes loin des 155 000 espèces connues, mais les premières évaluations restent préoccupantes avec 411 espèces de champignons menacées d’extinction, soit près d’un tiers des espèces recensées.

Peut-on vraiment être sûr ? Entre erreurs, miracles et illusions

L’histoire de la biodiversité peut être pleine de rebondissements.

  • L’effet Lazare désigne la redécouverte d’espèces que l’on croyait éteintes. Ce terme fait référence au personnage biblique du Nouveau Testament ressuscité plusieurs jours après sa mort par Jésus. Ce terme est aussi employé en paléontologie pour désigner des groupes d’organismes qui semblent avoir disparu pendant des millions d’années dans le registre fossile avant de réapparaître comme par miracle.
Rousserolle à grand bec au Tadjikistan
Rousserolle à grand bec au Tadjikistan. Pavel Kvartalnov, CC BY

Selon le naturaliste, Brett Scheffers et ses collaborateurs au moins 351 espèces ont ainsi été « ressuscitées » en un peu plus d’un siècle, parfois après des décennies d’absence. La perruche nocturne (Pezoporus occidentalis) ou la rousserolle à grand bec (Acrocephalus orinus) en sont des exemples spectaculaires. Il est important de noter que la majorité de ces redécouvertes concerne des espèces si rares ou difficiles à trouver que leur seule occurrence confirmée provenait de leur description initiale. Ces espèces redécouvertes sont donc pour leur grande majorité toujours considérées comme gravement menacées et pourraient disparaître prochainement.

  • L’effet Roméo, au contraire, survient lorsqu’on renonce trop tôt à sauver une espèce en la croyant disparue.
Conuropsis carolinensis. Dessins d’Audubon. Domaine public

Résultat : on cesse les efforts de conservation… alors qu’il restait peut-être une chance de la sauver. Ce nom fait référence au Roméo de Shakespeare qui renonce à vivre en croyant Juliette morte, alors qu’elle ne l’est pas encore. La conure de Caroline (Conuropsis carolinensis), un perroquet d’Amérique du Nord, pourrait en être un triste exemple. Présumée éteinte au début du XXᵉ siècle cette espèce a probablement survécu plus longtemps comme en atteste les nombreux témoignages locaux (incluant des détails sur son comportement) jusqu’aux années 1950, et peut-être même jusqu’aux années 1960.

  • Enfin, l’effet thylacine (du nom du thylacine, plus connu sous le nom de « tigre de Tasmanie ») illustre l’excès inverse : l’espoir persistant qu’une espèce éteinte survit encore, malgré l’absence de preuves solides.
Une femelle thylacine et son juvénile au parc zoologique national de Washington en 1904
Une femelle thylacine et son juvénile au parc zoologique national de Washington en 1904. Domaine

Le thylacine, dont le dernier animal (captif) est officiellement mort en 1936, continue de fait d’alimenter de nombreuses rumeurs et témoignages d’observations non vérifiables. Selon l’étude scientifique la plus complète à ce sujet le dernier animal sauvage entièrement documenté (avec des photographies) a été abattu en 1930, mais il n’y aurait aucune raison de douter de l’authenticité de deux carcasses signalées en 1933, ni de deux autres captures suivies de relâchers en 1935 et en 1937. Par la suite, sur une période de huit décennies, 26 morts et 16 captures supplémentaires ont été rapportées, mais sans être vérifiées, ainsi que 271 observations par des « experts » (anciens piégeurs, chasseurs, scientifiques ou responsables) et 698 signalements par le grand public. En 2005, le magazine australien d’information The Bulletin a offert une récompense de plus d’un million de dollars (soit plus 836 000 euros) à quiconque fournirait une preuve scientifique de l’existence du thylacine, en vain. Entre 2014 et 2020, 3 225 sites équipés de pièges photographiques en Tasmanie, totalisant plus de 315 000 nuits de surveillance, n’ont révélé aucune détection pouvant être attribuée à un thylacine.

Pourquoi est-ce si compliqué de mesurer les extinctions ?

Prouver une absence est bien plus compliqué que constater une présence. L’UICN préfère donc l’extrême prudence et ne classe une espèce « éteinte » que lorsqu’elle peut l’affirmer avec certitude. En effet, comme nous l’avons vu, officialiser une extinction est un acte lourd de conséquences car cela conduit à clôturer les éventuelles mesures de protection. Ainsi, le requin perdu (Carcharhinus obsoletus) est estimé comme « gravement menacé d’extinction – possiblement éteint » par la dernière publication de la liste rouge de l’UICN en 2020, alors qu’il n’a plus été vu dans ses eaux de la mer de Chine depuis 1934. La liste rouge ne déclarant éteintes que des espèces pour lesquelles il n’y a aucun doute, les extinctions enregistrées sont largement sous-estimées.

De plus, notre vision est biaisée : les vertébrés (en particulier les oiseaux et les mammifères) sont relativement bien suivis, mais l’immense majorité des espèces – insectes, invertébrés, champignons, microorganismes – restent très mal connues et leur taux d’extinction est sous-estimé. Beaucoup d’espèces sont discrètes, minuscules, nocturnes ou vivent dans des milieux difficiles d’accès. Pour la majorité d’entre elles, les données sont quasi inexistantes et elles peuvent disparaître sans que personne ne s’en aperçoive.

Pourquoi est-ce si important de savoir ?

Savoir si une espèce a réellement disparu permet de choisir les bonnes stratégies de conservation. Beaucoup d’espèces peuvent encore être sauvées lorsque quelques individus subsistent. C’est par exemple le cas du condor de Californie (Gymnogyps californianus) pour lequel il restait seulement 22 individus à l’état sauvage dans les années 1980. Un programme de capture de ces spécimens, puis d’élevage en captivité et de réintroduction progressive a permis à la population sauvage de réaugmenter progressivement et d’atteindre 369 individus en 2024.

Un Condor de Californie
Avec son 1,40 mètre de longueur et ses 2,90 mètres d’envergure, le condor de Californie est un des plus grands oiseaux du monde. United States Fish and Wildlife Service, CC BY

À l’inverse, un diagnostic erroné – trop optimiste ou trop pessimiste – peut détourner les efforts au mauvais moment.

L’extinction est un fait biologique, mais c’est aussi un défi méthodologique. Entre prudence scientifique, incertitudes du terrain et illusions collectives, établir la frontière entre « menacée » et « éteinte » reste l’un des exercices les plus sensibles de la conservation moderne.

The Conversation

Violaine Nicolas Colin a reçu des financements de l'ANR

28.01.2026 à 16:12

Face aux aléas climatiques, les îles du Pacifique mobilisent les savoirs locaux

Maya Leclercq, Postdoctorante en anthropologie, Institut de recherche pour le développement (IRD)
Catherine Sabinot, Ethnoécologue et anthropologue, Institut de recherche pour le développement (IRD)
img
Les îles du Pacifique sont parmi les plus exposées au changement climatique. Leur histoire les rend aussi particulièrement dépendantes des importations pour se nourrir.
Texte intégral (3129 mots)
Parcelle cultivée d’un maraîcher de Tautira, en Polynésie française. Maya Leclercq, Fourni par l'auteur

Les îles du Pacifique sont parmi les plus exposées aux aléas climatiques. Leur histoire les rend aussi particulièrement dépendantes des importations pour se nourrir. Mobiliser les savoirs locaux pour renforcer la souveraineté alimentaire et la résilience des territoires insulaires face au changement climatique est donc crucial.


« Depuis deux ans, peut-être, on ressent quand même qu’il y a un changement au niveau climatique, au niveau de la pluie. Avant, c’était assez fixe. On sait que juillet, c’est [la] saison fraîche […]. Mais l’année dernière, on était en sécheresse depuis juin jusqu’à novembre », constate un homme sur la presqu’île de Taravao, en Polynésie.

Sur l’île de Moorea, à 70 km de là, une femme renchérit.

« C’est vrai qu’on a remarqué les changements climatiques, quand on était plus petit, tu voyais bien les saisons […]. Maintenant, même sur les abeilles, on le voit. Normalement, là, ça y est, on est en période d’hiver austral, de juin jusqu’à septembre, on n’a plus de [miel]. Là, elles continuent encore à produire. Même les abeilles, elles sentent qu’il y a eu un changement. »

Les îles du Pacifique ont régulièrement été confrontées à des événements météorologiques parfois violents : fortes chaleurs, sécheresses, cyclones… L’une des premières conséquences du changement climatique est l’augmentation de la fréquence et/ou de l’intensité de ces évènements, auxquels sont particulièrement exposées les îles du Pacifique.

En effet, de par leur nature insulaire, ces phénomènes affectent l’intégralité des terres, qui sont également plus sensibles à la montée du niveau des océans.

Une cultivatrice de Moorea (Polynésie française) qui vend le surplus de ses fruits en bord de route
Une cultivatrice de Moorea (Polynésie française) qui vend le surplus de ses fruits en bord de route. Maya Leclercq, Fourni par l'auteur

L’agriculture est un secteur important pour ces îles. C’est à la fois une source de nourriture et de revenus pour les agriculteurs comme pour les personnes qui cultivent un jardin océanien. Ces jardins, qui regroupent une grande diversité d’espèces végétales (fruits, légumes, tubercules, plantes aromatiques et parfois médicinales), favorisant la biodiversité dans son ensemble, sont largement répandus dans les îles du Pacifique et particulièrement en Polynésie où ils constituent une part significative de l’identité polynésienne. Les surplus de productions sont régulièrement vendus au bord des routes.

Les impacts du changement climatique présents et à venir sur l’agriculture sont considérables et risquent d’affecter la sécurité alimentaire des îles du Pacifique, fragilisées entre autres par leur dépendance aux importations alimentaires. Les habitants s’y préparent déjà et ont déployé une culture du risque, nourrie de savoirs et de savoir-faire sans cesse renouvelés pour y faire face.

La place des savoirs autochtones et traditionnels dans l’agriculture en Polynésie française

Si les savoirs autochtones et locaux sont depuis longtemps identifiés par leurs détenteurs et par les chercheurs en sciences humaines et sociales pour leur potentiel d’adaptation à l’environnement, une attention particulière leur est portée depuis les accords de Paris en 2015. Ils sont depuis internationalement reconnus comme ressource pour comprendre le changement climatique et ses effets et également pour mettre au point des actions pertinentes pour l’adaptation.

Dans le cadre du projet CLIPSSA, notre équipe a mené des entretiens auprès des cultivateurs et cultivatrices des îles du Pacifique pour comprendre comment se construisent leurs cultures du risque, leurs savoirs et pratiques agricoles pour faire face aux effets du changement climatique.

Face aux fortes chaleurs ou aux fortes pluies qui comptent parmi les effets marquants du changement climatique dans la région, les cultivateurs du Pacifique combinent par exemple différentes techniques comme le paillage (protéger un sol avec de la paille, du fumier, ou de la bâche plastique), la diversification et l’adaptation des types de cultures et de plantations…

Ces différents savoirs et techniques sont parfois transmis par les aînés, parfois expérimentés par soi-même, parfois observés chez d’autres cultivateurs. À Tahiti et à Moorea, deux îles proches de l’archipel de la Société, en Polynésie française, les jardins océaniens (faaapu en tahitien) sont des lieux clés où ces savoirs circulent, s’échangent, s’expérimentent et s’hybrident.

Ces savoirs autochtones, locaux sont avant tout ancrés dans un territoire et adaptés à leur environnement et à ses changements : à ce titre, ils sont en constante évolution. Pourtant, on les désigne souvent comme des savoirs traditionnels ou ancestraux, ce qui peut sous-entendre qu’ils sont transmis à l’identique, de génération en génération. Mais comment ces savoirs ancestraux habitent et nourrissent les savoirs locaux aujourd’hui ?

La figure des Anciens (tupuna) est importante en Polynésie ; particulièrement en agriculture. En effet, le secteur agricole a connu d’importants changements dans les années 1970, avec l’arrivée du Centre d’expérimentation du Pacifique : la mise en œuvre des essais nucléaires a eu de nombreuses conséquences sanitaires, mais aussi économiques (tertiarisation de l’économie polynésienne), et agricoles (développement des importations, notamment alimentaires).

Si le secteur agricole n’a pas pour autant disparu, il a été marginalisé pendant cette période, créant ainsi une rupture dans la transmission des savoirs. Cette rupture a contribué à renforcer l’estime portée aux savoirs agricoles des Anciens qui ont commencé à cultiver avant cette période de changements et s’inscrit dans la continuité de la réappropriation culturelle de l’identité polynésienne, matérialisée, entre autres, par les liens et références à ses ancêtres.

Ainsi, la transmission des connaissances et pratiques des Anciens reste importante, dotée d’une valeur symbolique forte et largement citée par les Polynésiens ; au point où nous pouvons parler d’un socle de savoirs ancestraux.

Mais l’on ne cultive plus aujourd’hui en Polynésie comme l’on cultivait dans les années 1950 ; l’agriculture s’est modernisée, ouverte aux intrants et à de nouvelles cultures. Ce socle s’est donc enrichi de nombreuses influences (modernisation de l’enseignement agricole, tutoriels issus des réseaux sociaux…).

Observer la diversité des savoirs et les pratiques agricoles dans les jardins océaniens

Thierry nous montre une fleur qui annonce le changement de saison
Thierry nous montre une fleur qui annonce le changement de saison. Maya Leclercq, Fourni par l'auteur

C’est ce que tâche de faire Thierry, qui s’occupe d’un faaapu depuis une quarantaine d’années sur la presqu’île de Tahiti. Cet habitant cultive sur quelques hectares plusieurs dizaines de variétés de bananes, tubercules, coco, agrumes, avocats, destinées à l’autoconsommation mais aussi à la vente.

Le socle de connaissances (savoirs et pratiques) principalement mobilisé par Thierry est celui des savoirs ancestraux, considérés comme une base de savoirs auxquels se référer. Par exemple, il mobilise des indicateurs environnementaux pour planifier ses activités, comme la floraison d’une Zingiberacée qui annonce une période d’abondance pour la pêche, signifiant aux agriculteurs qu’ils doivent se préparer à laisser leurs cultures quelques semaines pour se concentrer sur une activité complémentaire.

Sa parcelle est traversée par une rivière, principale source d’irrigation de ses cultures. Mais pour faire face aux périodes de fortes sécheresses qui peuvent assécher la rivière, ce qu’il observe depuis 2008, il utilise également des bidons en plastique dans lesquels il stocke de l’eau à proximité de ses cultures.

Le faaapu de Thierry : utilisation du paillage, de l’ombre des bananiers et de stockage d’eau en cas de forte sécheresse
Le faaapu de Thierry : utilisation du paillage, de l’ombre des bananiers et de stockage d’eau en cas de forte sécheresse. Maya Leclercq, Fourni par l'auteur

Il utilise aussi le paillage, une technique de recouvrement des sols pour les protéger et garder l’humidité, en disposant des palmes de cocotiers, des troncs de bananiers qu’il complète avec des cartons depuis qu’il a constaté l’assèchement annuel de la rivière :

« Alors, moi, je ne vais pas aller par quatre chemins, nous raconte-t-il. Je vais mettre des cartons par autour. Je vais aller chez les commerçants, leur demander des cartons vides. Je vais mettre par autour parce que je n’ai pas envie de passer mon temps courbé. Après, tu lèves, tu retires. »

Plus globalement, d’une année sur l’autre, Thierry adapte ses cultures en fonction de l’évolution du climat qu’il ressent et décrit ; par exemple en plantant des tubercules, comme le taro, un tubercule tropical adapté au milieu humide.

« Avant, il n’y a jamais d’eau qui coulait ici. Jamais. Et depuis deux-trois ans… Avec cette pluie qui tombe à partir de février-mars, je veux planter des taros, là. Comme ça, je m’adapte, je tire pour le prix de cette eau qui tombe gratuitement. »

À travers l’exemple du faaapu de Thierry, nous pouvons observer que si les savoirs ancestraux restent le socle de références mobilisé pour cultiver, pour faire face aux aléas du changement climatique, il n’hésite pas à adapter ses pratiques, introduire des matériaux ou changer certaines de ses cultures.

Des « faisceaux de savoirs ordinaires » plutôt que des « savoirs ancestraux extra-ordinaires »

Évoquer les savoirs autochtones et locaux renvoie généralement aux notions de « savoirs traditionnels », de « savoirs ancestraux ». Ces savoirs peuvent effectivement avoir un ancrage temporel, beaucoup sont transmis depuis plusieurs générations par exemple. Mais il s’agit d’abord de savoirs ancrés localement, adaptés à leur environnement, qui, à ce titre, ont la capacité de se transformer, de s’hybrider avec d’autres types de savoirs mais aussi de se cumuler, comme nous avons pu le voir dans l’étude de cas présentée.

Face à l’urgence du changement climatique et de ses impacts en milieu insulaire, les politiques publiques locales, nationales ou globales recherchent souvent des solutions d’atténuation ou d’adaptation efficaces et radicales, en misant sur les innovations technologiques, l’ingénierie climatique, les énergies renouvelables…

Au-delà des changements importants et à grande échelle, qui peuvent aussi être complexes, longs et coûteux à mettre en place, les stratégies locales d’adaptation doivent également être envisagées comme des solutions. En revanche, ces solutions locales sont rarement des pratiques délimitées et liées à des savoirs « extraordinaires » (c’est-à-dire en dehors du cours ordinaire des règles et normes attendues). L’adaptation au changement climatique se fait plutôt par succession de petites adaptations, parfois invisibles, dont la configuration est presque unique à chaque agriculteur ou jardinier.

En Polynésie, c’est l’articulation d’un socle de savoirs ancestraux, combiné avec de nombreuses autres ressources, qui fait aujourd’hui la richesse des savoirs agricoles locaux et permet de s’adapter à certains effets du changement climatique. Ces savoirs sont une ressource précieuse à étudier et à mobiliser pour faire face aux risques systémiques du changement climatique qui pèsent sur les petits territoires du Pacifique et notamment sur l’agriculture et la souveraineté alimentaire.


Nous tenons à remercier à Alexi Payssan (anthropologue, Tahiti) pour les échanges inspirants concernant cet article.


Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Le postdoctorat de Maya Leclercq dans le cadre duquel cette recherche a été menée est financé par le projet CLIPSSA (dont les fonds proviennent de l'AFD, de l'IRD et de Météo-France).

Catherine Sabinot a reçu des financements de l'AFD pour réaliser le programme de recherche qui a permis de produire les résultats présentés dans l'article.

27.01.2026 à 16:24

En quoi les communs peuvent-ils répondre aux enjeux de la transition écologique ?

Héloïse Calvier, Chargée d’accompagnement à l’innovation, Ademe (Agence de la transition écologique)
img
Cette approche très ancienne qui promeut la coopération au détriment de la compétition reprend de la vigueur face aux défis que pose notre adaptation au changement climatique.
Texte intégral (2152 mots)

De nombreuses initiatives promeuvent aujourd’hui le retour des communs, c’est-à-dire des formes de gestion collective des ressources dont les communautés humaines ont besoin. Pertinente pour répondre à une multitude d’enjeux, cette approche, de par son caractère coopératif, innovant et transversal, apparaît particulièrement prometteuse pour accompagner la transition écologique.


La notion de « communs » revient depuis quelques années sur le devant de la scène, déclinée à des domaines aussi variés que les transports, la santé, l’éducation ou le numérique. Qu’est-ce que les communs ? On peut les définir comme des ressources matérielles (jardins partagés, boîte à livres…) ou immatérielles (Wikipédia, OpenStreetMap…) gérées collectivement par une communauté qui établit des règles de gouvernance dans le but de les préserver et de les pérenniser.

Leur théorisation est récente, mais le principe des communs est en réalité très ancien, beaucoup plus d’ailleurs que la construction juridique et politique, plus récente, de la propriété privée. L’exploitation et l’entretien des ressources, en particulier naturelles, ont très longtemps été organisés collectivement par les communautés humaines… jusqu’à ce que différents processus, dont la construction des États-nations et l’essor du commerce international, contribuent à démanteler ces communs.

Elinor Ostrom, lors de la remise du prix de la Banque de Suède en sciences économiques en 2009. Holger Motzkau 2010, CC BY-SA

Ces dernières décennies, plusieurs facteurs ont entraîné leur regain :

  • D’une part, la prise de conscience, des effets néfastes de la privatisation des terres sur l’équilibre alimentaire des pays du Sud.

  • De l’autre, l’essor d’internet et de l’open source, mouvement qui s’oppose au modèle du logiciel propriétaire.

Les travaux d’Elinor Ostrom, qui a reçu en 2009 le Nobel d’économie pour ses travaux démontrant l’efficacité économique des communs, ont largement contribué à imposer le terme dans la sphère médiatique.


À lire aussi : « L’envers des mots » : Biens communs


La collaboration plutôt que la concurrence

Aujourd’hui, l’idée des communs prend d’autant plus d’importance dans le contexte de la transition écologique. En effet, la prise de conscience d’un monde aux ressources finies implique de repenser leur gestion collective. Or, les communs sont particulièrement propices aux démarches d’intérêt général. Leur logique, fondée sur la coopération, va à rebours de celle, dominante, de la concurrence. Dans un cadre de ressources contraintes, une telle logique est précieuse.

C’est pourquoi de nombreux acteurs, pouvoirs publics comme acteurs privés, commencent à s’en emparer. En France, l’Agence de la transition écologique (Ademe) a déjà accompagné 50 projets de communs depuis quatre ans, à travers un appel à communs (AAC) inédit consacré à la sobriété et la résilience des territoires.

Les porteurs de projets (associations, entreprises, collectivités…) ayant bénéficié d’un soutien technique et financier dans ce cadre doivent ainsi respecter un certain nombre de critères en matière de coopération et de transparence.

Toutes les ressources produites doivent, par exemple, être encadrées par des licences ouvertes. Les porteurs doivent également s’inscrire dans une posture collaborative : s’organiser pour diffuser au maximum les ressources, intégrer les retours utilisateurs et se connecter aux communautés déjà formées dans le domaine.

Typologies des lauréats de l’appel à communs de l’Ademe. Ademe 2025

D’autres acteurs participent à la transformation de l’action publique et se mobilisent sur les communs : la Fondation Macif, l’IGN, France Tiers-Lieux (partenaires de l’AAC de l’Ademe), l’Agence nationale de la cohésion des territoires (ANCT), le ministère de l’éducation nationale, la direction interministérielle du numérique (Dinum)…

Des enjeux transversaux

En favorisant les synergies entre acteurs, les communs apportent des réponses moins cloisonnées.

La 3e édition de l’Appel à communs de l’Ademe traite cinq thématiques sous forme de défis (alimentation et forêt, aménagement et bâtiment, mobilité et logistique, recyclage matière et numérique) qui peuvent être abordés de manière transversale.

Les dix défis de l’édition 2023 de l’appel à communs de l’Ademe. Ademe 2025

Autre spécificité, les candidatures sont rendues publiques avant le dépôt et la sélection des projets, ce qui encourage les postulants à créer des synergies, voire des fusions de projets, des échanges de briques techniques. Les moyens humains et financiers nécessaires au développement des communs sont alors mutualisés, ce qui, à moyen et long terme, permet de réduire les dépenses et de multiplier les impacts.

Parmi les projets de communs que l’Ademe a accompagnés, on peut citer La rue commune. Cette méthode pour repenser les rues en tant que premier bien commun urbain prend en compte des enjeux de différentes natures selon cinq principes :

  • le lien social,

  • la priorité au piéton pour favoriser la santé et le bien-être,

  • la biodiversité,

  • le rafraîchissement urbain,

  • et la valorisation des eaux pluviales.

Un autre exemple, Le logement social paysan, entend promouvoir la réhabilitation des fermes pour en faire des logements sociaux paysans, en organisant la rencontre entre paysans et bailleurs sociaux. Ici se croisent les enjeux du bâtiment et ceux de l’agriculture.

Le potentiel des communs numériques

Un intérêt croissant est porté aujourd’hui aux communs numériques, qui constituent à la fois un outil très puissant pour croiser des données complexes et les mettre en commun au service de la transition.

Parmi les projets que l’Ademe a déjà soutenus, citons Pas de vacances pour la vacance, un outil de datavisualisation construit à partir de données publiques qui permet d’observer, à différentes échelles du territoire, la part de logements vacants. L’intérêt : permettre de les revaloriser dans une logique d’urbanisme circulaire et de mieux exploiter ce levier pour répondre aux besoins de logements.

Même principe pour le commun Diagnostic mobilité. Cet outil permet, par datavisualisation, un prédiagnostic pour les collectivités rurales des flux de déplacement majoritaires sur leur territoire, afin de les guider dans les choix de leur politique de transport.

Les communs constituent aujourd’hui un cadre d’action stratégique pour mobiliser l’intelligence collective, dans une logique d’innovation ouverte au service de la transition écologique, en décloisonnant les approches et en mutualisant les savoirs.


À lire aussi : Aux sources de la démocratie : penser le « commun » avec Alcméon, Héraclite et Démocrite


The Conversation

Héloïse Calvier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 14:58

L’agriculture verticale peut-elle nourrir les villes ? Comment dépasser le mirage technologique

Marie Asma Ben-Othmen, Enseignante-chercheuse en Economie de l'environnement & Agroéconomie, Responsable du Master of Science Urban Agriculture & Green Cities, UniLaSalle
img
La promesse de produire bio, local, en intérieur, hors sols et dans des milieux totalement contrôlés est séduisante. Mais les défis sont nombreux pour que cela soit viable et durable.
Texte intégral (1520 mots)

L’agriculture verticale a longtemps été présentée comme une solution miracle pour nourrir les mégapoles tout en réduisant leur empreinte environnementale. Mais derrière les promesses high-tech, la réalité est contrastée. Entre des succès spectaculaires en Asie et des faillites retentissantes en Europe et aux États-Unis, le modèle cherche encore sa voie.


L’agriculture verticale repose sur une idée simple : produire en intérieur et hors-sol, dans des milieux totalement contrôlés, y compris la lumière, la température, l’humidité et les nutriments, sur de vastes étagères en hauteur, au cœur des villes. À première vue, ses avantages paraissent irrésistibles. Sans pesticides, ce mode de culture consomme jusqu’à 90 % d’eau en moins grâce au recyclage – notamment l’hydroponie – et peut fonctionner 365 jours par an, avec un rendement élevé, sans dépendre des caprices du climat. Il offre ainsi la promesse d’une production fraîche et locale, directement connectée aux circuits courts.

Cet horizon a suscité un engouement mondial. Le Japon, avec la société Spread, a automatisé la production de salades indoor sur de vastes étagères, dans des univers aseptisés, à l’échelle industrielle. Singapour a inscrit les fermes verticales au cœur de son objectif « 30 by 30 », visant à couvrir localement 30 % de ses besoins alimentaires d’ici à 2030. Les pays du Golfe, comme les Émirats arabes unis et le Koweït, confrontés à la rareté des terres arables, y voient un outil stratégique alors que, aux États-Unis, des start-up ont levé des centaines de millions de dollars sur la base d’une vision d’un futur alimentaire ultratechnologique. Mais des échecs cuisants mettent aussi en évidence les limites du modèle, qui peu à peu tente de se réinventer pour y répondre.

Les ingrédients du succès

Les fermes verticales qui fonctionnent vraiment partagent un point commun : elles naissent dans des contextes où elles répondent à un besoin structurel. Dans les régions où la terre est rare, chère ou aride, la production en hauteur – ou à la verticale – répond efficacement aux contraintes géographiques.

À Singapour ou à Dubaï, par exemple, l’État joue un rôle déterminant en soutenant financièrement les infrastructures, en réduisant les risques d’investissement et en intégrant ces technologies dans les stratégies alimentaires nationales.

La réussite de ces modèles tient aussi à leur insertion dans les dynamiques locales. En effet, à Dubaï, les fermes verticales ne se contentent pas de produire, mais contribuent également à la sécurité alimentaire, à la formation technique, à l’emploi qualifié et à la sensibilisation des citoyens.

L’île-ville de Singapour s’appuie par ailleurs sur des technologies hydroponiques et aéroponiques avancées, avec des tours agricoles intégrés au bâti urbain. Ceci illustre l’adaptation de l’agriculture aux contraintes foncières et urbaines. Les progrès technologiques, notamment l’éclairage LED à haut rendement, l’automatisation poussée et l’IA permettant d’optimiser la croissance des plantes, améliorent la performance des modèles les mieux conçus.

Malgré des défis (coûts énergétiques, fragilité économique), ces fermes continuent aujourd’hui d’être considérées comme un « modèle d’avenir » pour des villes-États densément peuplées, ce qui montre que l’initiative s’inscrit dans une politique de long terme plutôt qu’à titre de simple effet de mode.

Coût, énergie et dépendance au capital-risque

Malgré ces succès, de nombreux projets ont échoué et révélé les fragilités d’un modèle bien moins robuste qu’il y paraît.

Le premier obstacle est énergétique. Éclairer, climatiser et faire fonctionner une installation entièrement contrôlée demande une quantité importante d’électricité, ce qui rend l’activité coûteuse et parfois peu écologique lorsque l’énergie n’est pas décarbonée.

Le second obstacle est économique : les marges sur les herbes aromatiques ou les salades sont faibles, et le modèle dépend souvent du capital-risque plutôt que de revenus stables. C’est ce qui a précipité les difficultés d’Infarm en Europe et d’AeroFarms aux États-Unis.

Certaines fermes se sont également retrouvées déconnectées des besoins alimentaires locaux, produisant des volumes ou des produits qui ne répondaient pas aux attentes des territoires. Le modèle, mal ancré localement, devient alors vulnérable à la moindre fluctuation des marchés financiers ou énergétiques.

De nouveaux modèles en développement

Face à ces limites, une nouvelle génération de projets émerge, cherchant à combiner technologie, intégration et demande urbaine au moyen de modèles de microfermes verticales adossées à des supermarchés, garantissant la fraîcheur, la visibilité et une réduction des coûts logistiques.

D’autres initiatives explorent les synergies énergétiques, en couplant production alimentaire et récupération de chaleur de data centers, en développant des serres photovoltaïques ou en utilisant des réseaux de chaleur urbains.

Les fermes verticales évoluent aussi vers des fonctions plus pédagogiques et démonstratives : même après sa faillite, une partie du modèle Infarm continue d’inspirer des fermes urbaines où la production sert autant à sensibiliser les citoyens qu’à fournir des produits frais. Ces approches hybrides témoignent d’une maturité croissante du secteur, qui privilégie moins la production de masse que la pertinence territoriale.

Vers une agriculture verticale plus durable ?

Pour devenir un levier crédible de la transition alimentaire, l’agriculture verticale doit clarifier sa finalité. Produire davantage ne suffit pas : il s’agit de contribuer à la résilience alimentaire des villes, d’offrir une complémentarité avec les agricultures urbaines plus « horizontales », telles que les toits productifs, les ceintures maraîchères ou les jardins partagés, et de s’inscrire dans les politiques alimentaires territoriales.

En particulier, les projets alimentaires territoriaux (PAT) peuvent, par leur ambition, fédérer les différents acteurs du territoire autour de l’alimentation. Ils jouent un rôle clé pour intégrer ces dispositifs de manière cohérente, en les articulant avec les enjeux de nutrition, d’accessibilité, de distribution et d’éducation. L’agriculture verticale ne deviendra durable que si elle est pensée dans une logique systémique, sobre sur le plan énergétique, ancrée localement et compatible avec les objectifs climatiques.

Loin d’être la panacée, elle est en revanche un laboratoire d’innovation. Là où elle réussit, c’est parce qu’elle s’inscrit dans une vision systémique de la transition alimentaire, combinant technologie, gouvernance territoriale et sobriété énergétique. Son avenir dépendra moins de la hauteur des tours que de la manière dont elle s’imbrique dans les territoires et contribue à renforcer la capacité des villes à se nourrir face aux crises climatiques et géopolitiques.

The Conversation

Marie Asma Ben-Othmen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.01.2026 à 12:29

En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes

Sonia Henry, Chercheuse, Université de Lorraine
img
Dans l’Est de la France, à Uckange, un projet expérimental décontamine des sols pollués aux hydrocarbures et aux éléments traces métalliques grâce à l’association de plantes et de microorganismes.
Texte intégral (2895 mots)
Le tabouret bleu (_Noccaea caerulescens_) est une plante capable d’extraire du zinc, du cadmium et du nickel des sols. Madeleine Dugois, CC BY-NC-SA

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.


À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.

Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.

Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.

De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.

C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).

Les vertus de la phytoremédiation

Commençons par expliquer ce que l’on entend par « phytoremédiation ».

Mécanismes d’absorption des métaux lourds par les plantes grâce à la phytoremédiation. Bieby Voijant Tangahu et al, CC BY

Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).

Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.

Le miscanthus géant aide la dégradation de certains hydrocarbures dans les sols. geograph.org.uk, CC BY-NC-SA

Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.

Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.

L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles


À lire aussi : La phytoremédiation : quand les plantes dépolluent les sols


La friche d’Uckange, laboratoire à ciel ouvert

Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.

Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.

L’usine d’Uckange et son quatrième haut fourneau sont désormais un monument historique qui peut être visité par le grand public. Benjism89, CC BY-NC-SA

Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.

Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.

Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.

Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.


À lire aussi : Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt


Associer plantes d’extraction et de dégradation

Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).

L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.

Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :

  • la diminution des teneurs en contaminants,

  • l’amélioration de la qualité agronomique,

  • et l’augmentation de la biodiversité microbienne.

La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.

Les premiers résultats seront publiés dans les prochains mois.

Bénéfices collatéraux de la phytoremédiation

Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.

Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.

Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.

En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.

The Conversation

Sonia Henry a reçu des financements de la Communauté d'Agglomération du Val de Fensch et de l'Institut Carnot Icéel

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
Gauche.Media
CETRI
ESSF
Inprecor
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview