LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

ACCÈS LIBRE UNE Politique International Environnement Technologies Culture

▸ les 25 dernières parutions

12.10.2025 à 08:59

Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?

Alice Mirailler, Ph.D. Candidate, Laboratoire de Mécanique des Contacts et des Structures LaMCoS, INSA Lyon – Université de Lyon

Ana-Maria Trunfio-Sfarghiu, Chercheuse, INSA Lyon – Université de Lyon

Usure des pneus, des freins et même de la chaussée sont des sources de pollution souvent ignorées. Cette pollution concerne aussi les voitures électriques.
Texte intégral (2369 mots)

Alors que la 50e édition du salon EquipAuto, salon international des pros de l’automobile, s’ouvre à Paris ce 14 octobre, penchons-nous sur l’autre problème de pollution, grandissant, posé par toutes les voitures, même électriques : les émissions hors échappement, dues à l’usure des freins, des pneus et de la chaussée. La question est indépendante de l’enjeu de réduire les émissions à l’échappement des voitures neuves, qui ont déjà fortement diminué du fait des progrès techniques. Une norme européenne, qui doit entrer en vigueur en 2026, entend les réduire, mais sa mise en œuvre pourrait ne pas livrer les effets escomptés.


Au 1er janvier 2024, le parc routier français était constitué de 39,3 millions de voitures particulières, de 6,5 millions de véhicules utilitaires légers (VUL), de 625 000 poids lourds et de 94 000 autobus et autocars en circulation.

Dans les contextes de forte densité du trafic, les émissions polluantes liées au transport routier restent un enjeu majeur de santé publique. En France, les véhicules particuliers sont à l’origine de plus de la moitié des émissions de gaz à effet de serre du secteur des transports. En 2019, ils représentaient 26 % des émissions nationales d’oxyde d’azote (NOx), un polluant irritant pour les voies respiratoires, et 22 % des émissions nationales de CO2.

Si les émissions à l’échappement, dues à la combustion dans les moteurs, ont été progressivement réduites grâce aux normes antipollution successives, une attention croissante est désormais portée aux émissions dites hors échappement, issues notamment de l’usure des freins, des pneus et de la chaussée.

La future norme Euro 7, qui entrera en vigueur à partir de 2026, marque une étape importante en intégrant pour la première fois ces sources de pollution non négligeables… sans pour autant résoudre tous les problèmes.

Émissions hors échappement : de quoi parle-t-on ?

Au cours des dernières années, des recherches scientifiques et industrielles ont permis d’importantes diminutions des émissions à l’échappement des véhicules récents, essence ou diesel. Cela résulte de l’allègement des véhicules, de la réduction de la consommation des moteurs thermiques et de l’installation des filtres à particules (FAP) pour limiter les émissions issues de la combustion du carburant.

Ce qui pèse désormais davantage dans l’empreinte environnementale des voitures, ce sont les émissions hors échappement. Elles regroupent les particules provenant de l’abrasion des freins et des pneus ainsi que de la remise en suspension des poussières sur la chaussée au passage des véhicules.

Si elles ne représentaient que 16 % des particules avec un diamètre inférieur à 10 micromètres (μm) (PM10) totales émises par le transport routier en 1990, cette part a atteint 71 % en 2022. Pour les particules avec un diamètre inférieur à 2,5 μm, ce chiffre est passé de 9 % en 1990 à 57 % en 2022.

Or, les réduire constitue un défi : la sécurité routière dépend justement de l’adhérence des pneus et de l’efficacité du freinage – deux sources inévitables de particules.

Quel impact sur notre santé ?

Lorsque les particules émises par les véhicules sont inhalées, elles se déposent dans différentes régions du système pulmonaire en fonction de leur taille. Les plus dangereuses pour la santé sont les PM1, c’est-à-dire les particules dont le diamètre est inférieur à 1 micromètre, car elles peuvent pénétrer profondément jusqu’aux alvéoles pulmonaires.

Plusieurs études ont démontré que les particules engendrées par le freinage sont des PM1 (de diamètre inférieur à 1 micromètre), voire des particules ultrafines dans le cas des poids lourds (inférieures à 100 nanomètres) et, par conséquent, capables d’atteindre ces alvéoles.

Système de collecte via un sac à dos. Ana-Maria Trunfio-Sfarghiu/Alice Mirailler, Fourni par l'auteur

Peu d’études toutefois se sont penchées sur la toxicité des particules non issues de l’échappement sur le système pulmonaire. Pour pallier ce manque, un dispositif innovant a été développé par des scientifiques afin de collecter ces particules pendant deux heures directement dans une solution biologique.

Conçu initialement sous forme de sac à dos pour permettre la collecte en différents points de la ville de Lyon (Rhône), ce système a ensuite été adapté sur un véhicule afin de réaliser des prélèvements en conditions réelles de circulation.

Les premiers résultats suggèrent que les particules de freinage de taille inférieure à 1 micromètre (principalement composées de fer, de cuivre, de baryum et d’antimoine) pourraient présenter un risque sanitaire notable. Leur petite taille leur permet d’interagir avec le surfactant pulmonaire (c’est-à-dire, la matière tensioactive sécrétée dans les poumons) ainsi qu’avec les macrophages alvéolaires. Cette interaction pourrait induire, sur le long terme, une altération progressive de la fonction pulmonaire.

Véhicule équipé d’un système de collecte. Ana-Maria Trunfio-Sfarghiu/Mayeul Bièche, Fourni par l'auteur

Il est possible qu’une exposition répétée à de faibles doses puisse favoriser le développement de pathologies chroniques, telles que la fibrose pulmonaire, par un processus lent d’accumulation et de réponse inflammatoire persistante.

La norme Euro 7, une réponse appropriée ?

Les émissions hors échappement seront intégrées pour la première fois dans la future norme Euro 7, ce qui constitue une avancée significative vers une évaluation plus complète et rigoureuse des sources de pollution atmosphérique liées aux véhicules.

La norme Euro 7 entrera en vigueur en novembre 2026 pour les voitures et les véhicules utilitaires légers. Pour tous les types de véhicules, la limite maximale des émissions de particules PM10 (de diamètre inférieur à 10 micromètres) serait fixée à 7 mg/km à partir de 2026 et à 3 mg/km à partir de 2035.

L’établissement de cette nouvelle norme soulève cependant une difficulté fondamentale d’ordre physique. Comme évoqué précédemment, des travaux ont démontré que les particules émises lors du freinage sont majoritairement des PM1, avec des tailles inférieures à 1 micromètre. Elles ne tombent donc pas sous le coup de cette réglementation.

De plus, ces particules présentent une masse extrêmement faible, souvent négligeable, ce qui rend les limites actuelles exprimées en milligramme par kilomètre (mg/km) peu adaptées pour quantifier précisément les émissions. Il serait donc pertinent que la réglementation évolue vers une prise en compte fondée sur le nombre de particules émises par kilomètre, afin de mieux refléter la réalité et les impacts potentiels de ces émissions ultrafines.

Les avancées scientifiques et technologiques dans la compréhension et dans la maîtrise des émissions liées au freinage progressent encore à un rythme souvent jugé insuffisant face aux exigences réglementaires et aux impératifs économiques du secteur automobile. En conséquence, les constructeurs proposent actuellement des solutions dont l’efficacité et les impacts restent encore partiellement évalués, parmi lesquelles :

le freinage électromagnétique : il réduit l’usure et les émissions en freinage normal, mais les freins mécaniques restent sollicités lors des freinages d’urgence, engendrant des émissions importantes ;

les filtres à particules à la source : ils peuvent limiter la dispersion des poussières, mais leur impact sur le contact frictionnel entre plaquette et disque – et donc, sur la sécurité – nécessite une validation rigoureuse ;

la modification des matériaux des plaquettes : elle peut réduire leur usure mais également augmenter la production de nanoparticules, dont les effets sanitaires restent mal connus et font l’objet de recherches en cours.

La mobilité électrique, pas forcément une panacée

Selon une analyse publiée par le Centre interprofessionnel technique d'études de la pollution atmosphérique (Citepa), les véhicules électriques émettent un peu moins de particules liées à l’usure des freins grâce au freinage régénératif (c’est-à-dire, s’appuyant sur un système de récupération d’énergie).

Cependant, leur masse plus importante entraîne une augmentation des émissions de particules provenant de l’abrasion des pneus et de la chaussée. Ces deux effets tendent à s’équilibrer, de sorte que les émissions totales de particules des véhicules électriques à grande autonomie sont comparables à celles des véhicules thermiques récents, qui émettent désormais très peu de particules à l’échappement.

Les véhicules électriques soulèvent, par ailleurs, d’importantes interrogations concernant la disponibilité des ressources nécessaires à la fabrication des batteries et concernant les enjeux environnementaux et techniques liés à leur recyclage.

Dès lors, la sobriété apparaît comme l’une des voies les plus cohérentes : réduire nos déplacements lorsque cela est possible et amorcer la transition d’une société centrée sur la consommation vers un modèle plus respectueux de l’environnement.

The Conversation

Ana-Maria TRUNFIO-SFARGHIU a reçu des financements de CNRS et Ministère de la recherche publique (financements liées à la thèse d'Alice Mirailler, son salaire et un petit accompagnement) + chaires INSA Lyon avec VOLVO et MICHELIN

Alice Mirailler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

09.10.2025 à 10:23

COP30 : Comment éviter que le plastique ne devienne le canot de sauvetage de l’industrie pétrolière ?

Marie-France Dignac, Directrice de recherches sur la biologie des sols, INRAE, Inrae

Jean-François Ghiglione, Directeur de recherche, Ecotoxicologue, Centre national de la recherche scientifique (CNRS)

Recyclage ou pas, le plastique reste un piège : il émet des gaz à effet de serre et renforce notre dépendance au pétrole. Un enjeu clé de la COP30 qui se tiendra au Brésil en novembre.
Texte intégral (2997 mots)

Issus à 99 % du pétrole, les plastiques alimentent la crise écologique et climatique tout au long de leur cycle de vie. Derrière l’image trop familière des déchets qui polluent les rivières puis les océans, la production et le recyclage des plastiques sont aussi source d’émissions considérables de gaz à effet de serre, de quoi compromettre les efforts mondiaux de réduction des émissions. Surtout, les plastiques, un débouché du pétrole, entretiennent la dépendance de l’économie aux énergies fossiles. Le risque serait qu’ils deviennent la planche de salut des industriels de la pétrochimie à l’occasion de la COP30 sur le climat, qui se déroulera du 10 au 21 novembre 2025, à Belem, au Brésil.


À partir du 10 novembre 2025, la COP30 sur le climat réunira les États membres de l’Organisation des Nations unies (ONU) au cœur de la forêt amazonienne, au Brésil. Il s’agit d’un rendez-vous majeur du multilatéralisme, où l’on espère que les ambitions régulièrement formulées par les États vont enfin se concrétiser.

Le contexte international n’est pas forcément au beau fixe pour cela. Face à des pays qui nient la science, ou qui se soucient peu de l’environnement et de la santé humaine et refusent de comprendre que leurs propres économies en paieront le prix à long terme, les pays engagés dans la transition vers une économie moins polluante et moins dépendante des énergies fossiles peinent à se faire entendre. Les négociations en vue d’un traité contre la pollution plastique, qui n'ont toujours pas abouti à un texte, en fournissent un exemple éloquent.

Les preuves scientifiques sont pourtant très claires quant aux impacts de la production de plastiques sur la perte de biodiversité et la pollution à l’échelle planétaire. D’autant plus que ces impacts sont en réalité bien plus larges : les plastiques impactent la santé humaine et exacerbent le dépassement de toutes les autres limites planétaires. En cela, ils aggravent la crise écologique et climatique déjà en cours.


À lire aussi : Jusqu’à quand pourrons-nous dépasser les limites planétaires ?


Pas de plastique sans pétrole

L’impact climatique du secteur de la pétrochimie est moins souvent mis en avant que celui des secteurs de l’énergie et des transports, plus proches des consommateurs. Il fait pourtant figure d’éléphant dans la pièce : entre 4 et 8 % de la production de pétrole est aujourd’hui utilisée pour fabriquer des produits plastique. Près de 99 % de ces produits sont fabriqués à partir de pétrole.

Depuis l’extraction et le transport des combustibles fossiles, jusqu’à la fabrication, l’utilisation et l’élimination des plastiques, ces matériaux génèrent des émissions qui contribuent au réchauffement climatique. Les plastiques sont ainsi directement responsables de 3,5 % des émissions globales de gaz à effet de serre, dont la plupart sont générées lors de leur production.

Le recyclage des plastiques, souvent mis en avant par ces industriels, n’a rien d’une solution miracle. Toutes les technologies de traitement des déchets plastiques sont émettrices de gaz à effet de serre :

Dans un scénario de statu quo, si la production et l’utilisation de plastiques continuent d’augmenter au rythme actuel (soit un doublement de la quantité de plastiques produits tous les 20 ans), les émissions de gaz à effet de serre provenant des plastiques pourraient représenter de 10 à 13 % du budget carbone total (c’est-à-dire, la quantité de gaz à effet de serre que l’on peut encore se permettre d’émettre tout en restant sous la barre d’une hausse de +1,5 °C à l’horizon 2050).

Des impacts indirects à large échelle

Et encore, les chiffres qui précèdent ne tiennent pas compte du fait que les plastiques participent directement à la mondialisation de l’économie. Ils permettent de transporter les biens et denrées sur de très longues distances et de ce fait favorisent une économie basée sur une production loin des zones de consommation, fortement émettrice de gaz à effet de serre.

La pollution plastique se retrouve dans les rivières, les océans ou sur terre, sous différentes tailles (macro, micro ou nanoplastiques), et peut persister pendant des siècles. Selon l’OCDE, environ 22 % des déchets plastiques finissent dans l’environnement, dont une grande partie dans l’océan, nuisant à la vie marine.

Les aliments, l’eau et l’air sont ainsi contaminés et les microplastiques finissent, à travers la chaîne alimentaire, également dans notre corps. Les preuves scientifiques de l’impact des plastiques sur la santé humaine sont de plus en plus solides.

Mais ce n’est pas tout. Les plastiques agissent également indirectement sur le réchauffement climatique. En effet, les débris plastiques en mer modifient les cycles du carbone et des nutriments. En agissant sur les processus microbiens, ils diminuent la productivité en nutriments à la surface de l’océan. Résultat : les « pompes à carbone » de l’océan, qui ont permis de piéger environ 31 % des émissions anthropiques de CO2 entre 1994 et 2007, fonctionnent moins bien.

Par ailleurs, une méta-analyse récente a montré que la présence de microplastiques dans l’eau ou dans les sols pourrait diminuer la photosynthèse, et donc limiter la production de biomasse carbonée. Avec des impacts sur la sécurité alimentaire, mais aussi sur les puits de carbone naturels et le climat.


À lire aussi : Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?


Les leçons du traité contre la pollution plastique

Reconnaissant tous ces dangers des plastiques pour la santé humaine et la santé de l’environnement, un comité intergouvernemental de négociation (CIN) a été créé en mars 2022 afin d’élaborer un instrument international juridiquement contraignant pour mettre fin à la pollution plastique dans tous les environnements. Et ceci, en tenant compte de l’ensemble du cycle de vie des plastiques.

La deuxième partie de la cinquième réunion de ce comité (CIN-5.2) s’est tenue à Genève, du 5 au 14 août 2025. Les négociations étaient basées sur le projet de texte du président du CIN proposé à la fin de la première partie du CIN-5 à Busan, en 2024.

À l’occasion de la reprise des négociations en vue d’un traité contre la pollution plastique, à Genève, en août 2025, une installation artistique de Benjamin Von Wong (Le Fardeau du penseur) pour sensibiliser au problème du plastique a envahi la place des Nations où trône l’emblématique Broken Chair. Florian Fussstetter/UNEP, CC BY-NC-ND

Plusieurs éléments de ce projet de texte peuvent avoir une réelle efficacité pour mettre fin à la pollution plastique. Il s’agit notamment :

  • de réduire la production de plastique (article 6),

  • d’interdire les produits plastique et les substances chimiques dangereuses pour les humains ou pour l’environnement (article 3),

  • de concevoir des produits en plastique moins polluants (article 5),

  • de limiter les fuites vers l’environnement (article 7)

  • et enfin de protéger la santé humaine (article 19).

Mais de nombreux pays font pression pour que ces mesures soient rejetées : les mêmes désaccords politiques qui avaient bloqué les négociations précédentes se sont reproduits à Genève.

Une coalition de pays qui ont tout intérêt à ne pas réduire la production de pétrole

Presque tous les plastiques sont fabriqués à partir de combustibles fossiles, c’est pourquoi les pays qui refusent de prendre des mesures ambitieuses – notamment l’Arabie saoudite, la Russie et l’Iran – sont essentiellement des pays producteurs de pétrole ou dotés d’industries pétrochimiques puissantes.

Les intérêts économiques en jeu sont donc importants. Ce groupe de pays partage les mêmes idées – nommé pour cela le « like-minded group » – et refuse d’inclure de tels objectifs. Ils privilégient un accord visant à gérer les déchets, sans réduire leur production.


À lire aussi : Comment échapper à la malédiction de la rente fossile ?


Mais ce faisant, ils dénigrent tous les modèles scientifiques sur l’évolution de la pollution plastique, qui montrent qu’il est nécessaire de réduire la quantité de plastique produite chaque année afin de réduire la pollution par les plastiques tout au long de leur cycle de vie. On a également pu noter la forte présence des lobbies des entreprises pétrolières et des fabricants de plastiques, qui ne cesse d’augmenter au fil des négociations.

Le manque de consensus à la fin des négociations du CIN-5.2 peut être vu comme un échec des négociations.

Toutefois, le rejet massif du texte faible proposé le 13 août a aussi montré qu’une grande majorité de pays ne sont pas prêts à accepter un traité vidé de sa substance.

De nombreux pays ont souligné que ce texte ne permettrait pas d’atteindre les objectifs pourtant fixés dans le mandat à l’origine de ces négociations, et ont appelé à des mesures ambitieuses en accord avec la science, notamment une réduction de la production de plastique et une régulation des produits et substances chimiques dangereux, pour protéger la santé humaine et de l’environnement. La majorité des pays s’est aussi déclarée favorable à la poursuite des discussions.

Le multilatéralisme a montré à Genève la capacité des pays à construire une coalition forte et ambitieuse, rassemblant près de 120 pays (les 75 pays de la Coalition de haute ambition (HAC) et leurs alliés) et basant ses positions sur les faits scientifiques.

Acter l’abandon des énergies fossiles décidé lors des dernières COP

Espérons que ces avancées se concrétisent avec la poursuite des discussions sur le traité contre la pollution plastique, et qu’elles soient prises en compte dans les négociations climatiques lors de la COP30. La production de plastique ne doit pas menacer les efforts réalisés par les États pour limiter le recours aux énergies fossiles dans les autres secteurs.

Comme il a été reconnu lors des dernières COP sur le climat, notamment la COP28 en 2023, le monde doit s’organiser pour sortir progressivement des énergies fossiles.

D’importants efforts de recherche ont été consacrés à cette transition dans les secteurs de l’énergie et des transports, qui utilisent la majeure partie des ressources fossiles pour produire de la chaleur, de l’électricité et des carburants. Les énergies renouvelables remplacent ainsi peu à peu les produits pétroliers dans le mix électrique, ainsi que dans le secteur des transports.

D’autres secteurs, par exemple l’industrie lourde, doivent se réinventer : en effet, ils sont davantage dépendants aux produits pétroliers dans leurs processus industriels mêmes.

À cet égard, la pétrochimie souffre d’un problème de fond : elle contribue à maintenir à un niveau élevé la demande en pétrole, qui constitue un intrant de ses procédés industriels. Les produits pétrochimiques devraient ainsi représenter plus d’un tiers de la croissance de la demande mondiale de pétrole d’ici 2030, et près de la moitié de celle-ci d’ici 2050.

Les plastiques ne doivent pas devenir le radeau de secours de l’industrie pétrolière. En plus de contribuer aux émissions globales de gaz à effet de serre, ils détruisent les sols, empoisonnent les eaux et nuisent aux organismes vivants, y compris les humains. Sur les sept milliards de tonnes de déchets plastiques générés dans le monde depuis l’invention de ce matériau, moins de 10 % ont été recyclés, et cinq milliards de tonnes se sont accumulés dans la nature.

Les industriels de la pétrochimie, de l’extraction des énergies fossiles et leurs alliés cherchent une fois de plus à déplacer le problème : la production de plastiques pose un problème sanitaire, écologique, et climatique majeur. Réduire la production de plastiques constitue un levier incontournable pour maîtriser leurs impacts sur la planète.

The Conversation

Marie-France Dignac a reçu des financements de l'Agence de la Transition Ecologique (ADEME) et de l'Agence Nationale de la Recherche (ANR).

Jean-François Ghiglione a reçu des financements de l'Agence nationale de la recherche (ANR), de l'ADEME, de l'OFB et de l'Agence de l'eau

PDF

09.10.2025 à 10:23

Comment le plastique est devenu incontournable dans l’industrie agroalimentaire

Mathieu Baudrin,, Sociologue sciences et des technologies, Direction Sciences sociales, économie et société, Anses, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

Baptiste Monsaingeon, Maître de conférence en sociologie, Université de Reims Champagne-Ardenne (URCA)

Bernadette Bensaude-Vincent, Philosophe, Université Paris 1 Panthéon-Sorbonne

Des serres aux emballages, le plastique a façonné l’industrie agroalimentaire. Pour en sortir, il est intéressant de se pencher sur les leçons du début du XXᵉ siècle.
Texte intégral (1631 mots)

Des serres agricoles aux bouteilles d’eau, en passant par la recette du pain de mie, le plastique a transformé en profondeur toute l’industrie agroalimentaire. Face au problème grandissant de la pollution plastique, on peut s’inspirer, à travers l’approche des « métabolismes urbains », de ce qui était fait au début du XXe siècle.


La production massive de plastiques est devenue un marqueur de la seconde moitié du XXe siècle, souvent dénommée « l’âge des plastiques ». Leur introduction dans les chaînes de valeur de l’agroalimentaire date des années 1930. Elle procédait de deux dynamiques.

  • La première est l’essor de l’industrie pétrolière et de l’automobile : les plastiques étant un co-produit du craquage du pétrole, les compagnies pétrochimiques recherchent activement à étendre le marché des plastiques, qui se prêtent à tous les usages comme leur nom l’indique.

  • La seconde est l’intensification de l’agriculture, au lendemain de la Deuxième Guerre mondiale, pour faire face à une démographie galopante.

Le recours aux matières plastiques, progressif mais massif, a profondément modifié les pratiques alimentaires et agricoles, sans parler des aliments eux-mêmes.

Aujourd’hui, les impacts sanitaires et environnementaux des plastiques, en particulier sous leur forme micro et nanoparticulaires, sont avérés. La gestion (dont notamment le recyclage) des déchets plastiques n’est pas la seule en cause : c’est bien l’existence même des plastiques qui est en jeu.

Mais les mesures de réduction ou d’interdiction de l’usage de matières plastiques dans l’industrie agroalimentaire, du champ jusqu’au domicile des consommateurs, ne sauraient être appliquées sans une réflexion globale sur les pratiques actuelles de production, de distribution et de consommation des denrées alimentaires.

Un antifongique ajouté au pain de mie pour lui éviter de moisir dans son emballage

L’emballage des aliments fut le premier et reste le principal usage des plastiques dans l’agroalimentaire. Il correspond à un moment historique de changement dans la façon de stocker et de transporter les aliments, notamment grâce à la réfrigération.

C’est également un moment de reconfiguration des circuits de distribution avec le développement des supermarchés. Les plastiques deviennent alors incontournables et contribuent à structurer le marché alimentaire mondial tel que nous le connaissons aujourd’hui.

En effet, les emballages permettent d’allonger la durée de conservation des aliments et, surtout, facilitent la consommation nomade d’aliments et de boissons.

Si la bouteille en verre a permis la marchandisation de l’eau en lui attribuant une marque et des qualités, c’est bien l’invention de la bouteille d’eau en polyethylene terephthalate (PET) qui, à la fin des années 1970, a répandu son usage à l’échelle mondiale.

Les plastiques modifient jusqu’aux aliments eux-mêmes. C’est le cas du pain de mie commercialisé en sachets plastiques. Dès 1937, la firme Dupont lance un projet de recherche et développement (R&D) qui débouche sur l’ajout de « mycoban », un antifongique, à la farine utilisée pour réduire le risque de moisissure.

Les plastiques ont donc profondément changé nos manières de manger et même la nature de ce que l’on mange. Ils ont favorisé les aliments transformés par une foule d’intermédiaires et contribué à creuser le fossé entre les producteurs et les consommateurs de viande ou poisson conditionnés, surgelés, ou emballés.

Comment sortir de l’« agriplastique » ?

En amont des supermarchés, les pratiques agricoles ont, à leur tour, été transformées par les plastiques. D’abord introduits dans les années 1950 comme substituts au verre dans les serres horticoles, ils se sont généralisés depuis les années 1970 pour les cultures maraîchères sous tunnels et l’ensilage du foin.

En Europe, l’expansion des plastiques a été facilitée par la politique agricole commune (PAC). Lancée en 1962 par la Communauté économique européenne (CEE), celle-ci était au départ destinée à encourager l’agriculture intensive et productiviste.

Or, les tunnels de plastique permettent justement de cultiver et de produire des fruits ou légumes dans des terrains peu propices et d’étendre les saisons de production. Depuis, les surfaces recouvertes par des serres ou tunnels en plastique en Espagne et en France n’ont cessé d’augmenter.

Mais cette plastification de certaines cultures s’accompagne aussi de mutations socioprofessionnelles. Dans les vastes plaines recouvertes de tunnels plastifiés abritant des cultures de fraises (ou autres) à haute valeur ajoutée, on fait appel à une main-d’œuvre souvent étrangère, saisonnière et bon marché. Celle-ci travaille dans des conditions difficiles.

Les plastiques ont ainsi envahi les pratiques de production et les circuits de distribution des denrées alimentaires. Le mot « agriplastique » témoigne de l’enchevêtrement d’éléments humains, économiques et techniques, dont la dynamique tend à se renforcer avec le temps. Cela aboutit, après plusieurs décennies, à ce que nous pourrions qualifier de verrou sociotechnique.

Que faire pour se libérer de cette omniprésence des plastiques dans l’agroalimentaire ? Les plastiques étant constitutifs des chaînes de valeurs décrites, il serait naïf de penser qu’on pourrait conserver cette organisation marchande tout en éliminant les matières plastiques.

Ce constat ne doit pas pour autant pousser les décideurs à l’inaction. Il invite plutôt à une réflexion d’envergure sur une possible réorganisation des chaînes de valeur agroalimentaires. Afin d’initier cette réflexion, nous proposons de revenir sur quelques leçons de l’histoire.

Le plastique et l’invention du déchet

Au début du XXe siècle, l’économie des flux de denrées alimentaires entre populations rurales et urbaines fonctionnait en boucles quasi fermées. Les matières rejetées par les uns étaient utilisées, par exemple sous forme d’engrais, par les autres.

Dans ce contexte, la notion même de déchets n’existe pas encore, puisque rien n’est ni mis au rebut ni traité comme déchet ultime (c’est-à-dire, un déchet qui ne peut plus être traité davantage dans les conditions technicoéconomiques du moment).

Les fèces humaines sont alors vues comme des engrais agricoles, les chiffons peuvent devenir du papier, les carcasses d’animaux de travail sont réutilisées pour fabriquer des colles et autres produits du quotidien.


À lire aussi : L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet


La rupture de ces « métabolismes urbains », tels que décrits par Sabine Barles, correspond historiquement à l’avènement de la chimie de synthèse. Se met alors en place un complexe industriel qui produit à la fois des engrais, des produits phytopharmaceutiques et des plastiques, trois catégories de produits constitutifs des chaînes de valeurs agricoles actuelles.

Il n’est certes ni envisageable – ni même souhaitable – de reproduire à l’identique les métabolismes urbains du début du XXe siècle. Ils reposaient largement sur la mobilisation d’une main-d’œuvre nombreuse sous-payée vivant dans la misère, par exemple les chiffonniers.

En revanche, on peut retenir l’idée d’une approche systémique, globale et métabolique au lieu de se contenter de chercher un matériau de substitution aux plastiques qui soulèvera, à son tour, des difficultés similaires. Il s’agit donc de repenser, avec les acteurs concernés, l’ensemble des filières agroalimentaires pour viser la sobriété plastique.


Cet article s’appuie sur le rapport d’expertise « Plastiques utilisés en agriculture et pour l'alimentation » Inrae/CNRS, publié en mai 2025.

The Conversation

Baptiste Monsaingeon a reçu des financements de l'ANR pour divers projets de recherche publique liés aux déchets et aux plastiques.

Bernadette Bensaude-Vincent et Mathieu Baudrin, ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

08.10.2025 à 16:28

Comment recycler la chaleur perdue dans les usines ?

Alexis Giauque, Maitre de conférences en simulation numérique pour les énergies renouvelables, Centrale Lyon

L’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. On peut « upcycler » une partie de cette chaleur, et des projets visent même à la stocker, ou à l’utiliser pour générer de l’électricité.
Texte intégral (2368 mots)

Chaque année, l’industrie rejette une partie de la chaleur nécessaire à l’ensemble de ses procédés. Cette énergie perdue s’appelle « chaleur fatale ». Les solutions pour récupérer cette chaleur sont aujourd’hui encore trop limitées. De nouveaux dispositifs, utilisant des pompes à chaleurs et des fluides « supercritiques », sont en développement.


Fours de cimenterie, séchage du papier, agroalimentaire… les quantités de chaleur perdues aujourd’hui dans des procédés industriels sont significatives. Il faut bien évidemment tout mettre en œuvre pour les réduire en optimisant les procédés et en ajustant au plus proche la production à la demande. Mais aucun processus physique ne peut atteindre un rendement parfait, et si rien n’était fait pour récupérer cette chaleur résiduelle, l’équivalent de sept mégatonnes de pétrole serait brûlé pour rien, émettant aussi 28 mégatonnes de CO2, soit 6 % des émissions totales de CO2 en France.

Les méthodes de récupération de la chaleur perdue (ou fatale) visent aujourd’hui principalement des gisements à haute température (supérieure à 100 °C), ou nécessitent l’existence d’un réseau de chaleur à proximité (un ensemble de tuyaux capables d’amener la chaleur sur de courtes distances vers des logements ou des bâtiments publics par exemple).

Pour mieux valoriser cette chaleur générée dans les usines, qui représenterait au total un réservoir d’environ 110 térawattheures par an en France, d’autres solutions sont actuellement à l’étude.

La chaleur fatale : une énergie thermique émise par toutes les industries sous de nombreuses formes

Pour mieux comprendre les enjeux, prenons un exemple concret, celui d’une cimenterie. Une tonne de ciment nécessite 3 000 mégajoules de chaleur : seuls 40 % sont absorbés par les réactions chimiques entre l’argile et le calcaire, et une partie des 60 % restants peut être directement réutilisée pour préchauffer les matériaux. Mais on estime entre 300 et 1 000 mégajoules par tonne la chaleur perdue dans l’atmosphère. Sachant qu’une cimenterie peut produire environ 1 500 tonnes de ciment par jour, cela revient à brûler entre 12 et 37 tonnes d’essence par jour pour rien.

Ce problème est bien plus large que les cimenteries : on trouve l’agroalimentaire en tête, puis la chimie-plastique, la production de papier et de carton, la sidérurgie et la fabrication de matériaux non métalliques (ciment, verre, tuile ou brique). Tous domaines industriels confondus, les fours et séchoirs représentent 60 % de l’énergie consommée par l’industrie en France.

Point noir supplémentaire, une bonne part (60 %) de l’énergie utilisée dans l’industrie est obtenue par la combustion de matières fossiles, ce qui émet du CO2 dans l’atmosphère et explique pourquoi l’industrie est encore responsable d’environ 17 % des émissions de gaz à effet de serre de la France. L’objectif est de réduire ces émissions de 35 % d’ici 2030 et de 81 % d’ici 2050 par rapport à 2015.


À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


La chaleur fatale émise au cours d’un procédé industriel est d’autant plus simple à réutiliser ou à recycler que la température du flux thermique est élevée. Cela est si fondamental que les ingénieurs et chercheurs ont l’habitude de distinguer la chaleur fatale « basse température » ou « basse qualité », à moins de 100 °C (56 térawatts-heures par an) et celle dite « haute température » ou « haute qualité » au-delà de 100 °C (53 térawatts-heures par an).

Comment recycler la chaleur fatale ?

Heureusement, des solutions existent pour recycler la chaleur fatale.

L’idéal est d’intégrer le flux de chaleur fatale directement dans le processus industriel qui en est à l’origine : dans l’industrie du ciment par exemple, la chaleur en sortie du four peut être introduite dans le précalcinateur situé en bas de la tour de préchauffage, qui a pour fonction principale de « précuire » le cru avant son entrée dans le four.

Si la chaleur fatale est à température relativement faible (inférieure à 100 °C), elle peut être réutilisée directement sur le site industriel pour alimenter d’autres procédés ou pour chauffer les locaux — la proximité limite les pertes de chaleur dans les tuyaux. On peut aussi insérer cette chaleur dans un réseau urbain ou dans le réseau d’un autre industriel à proximité.

Autre option : produire de l’électricité à partir de la chaleur perdue, grâce à l’utilisation de cycles thermodynamiques de Rankine organiques. En pratique ceci fonctionne pour des sources de chaleur fatale à assez haute température (supérieure à 200 °C) car le rendement est limité : par exemple, dans le cas d’une température de sortie d’usine à 200 °C et d’un refroidissement à l’atmosphère (20 °C), le rendement maximal est de 38 %.

Enfin, on peut utiliser des pompes à chaleur pour remonter le niveau de température du flux de chaleur fatale, et permettre ainsi son exploitation directe au sein du processus industriel. Cette option est prometteuse car le gisement de chaleur fatale basse température représente 51 % du gisement global.

Les pompes à chaleur domestiques sont de mieux en mieux connues des particuliers, mais celles que nous devons utiliser et développer pour récupérer la chaleur fatale dans les usines sont plus difficiles à mettre en œuvre.

Les pompes à chaleur : une solution pour la valorisation du gisement « basse température » de chaleur fatale

Les pompes à chaleur (ou « PAC ») permettent de remonter la température selon un principe qui peut paraître paradoxal : il s’agit de prendre de la chaleur à la source froide pour la donner à la source chaude, s’opposant ainsi au sens naturel du transfert d’énergie.

Il faut forcer le transfert inverse en ajoutant du « travail » dans le cycle thermodynamique (le travail est en somme, une forme d’énergie, et c’est pour cela que les pompes à chaleur domestiques ont une prise électrique). Elles captent la plupart de l’énergie utilisée sous forme de calories (chaleur) et dépensent un peu d’électricité.


À lire aussi : La géothermie, plus écologique et économe que la climatisation classique pour rafraîchir


Le transfert depuis la source froide vers la source chaude se fait en quatre étapes principales, explicitées ci-dessous :

schéma
Le cycle thermodynamique (Brayton inverse) utilisé par les pompes à chaleur haute température qui utilisent du CO₂ supercritique pour la valorisation de chaleur fatale. Alexis Giauque, Fourni par l'auteur

Dans notre cas, le fluide est du « CO2 supercritique » (le CO2, à haute température et haute pression, se comporte à la fois comme un liquide et comme un gaz : il peut diffuser à travers les solides comme un gaz et peut dissoudre des matériaux comme un liquide). La source froide, dont on souhaite extraire la chaleur, est le flux de chaleur fatale issu du procédé industriel (à Tfroide=100 °C) ; la « source » chaude, ou cible, quant à elle est à une température bien plus élevée (la cible dans notre projet est Tchaude=200 °C).

La seule dépense énergétique dans ce cycle est celle nécessaire à assurer le fonctionnement du compresseur permettant la circulation du fluide – dans notre cas, du CO2 supercritique – le point clé est que l’énergie dépensée est environ cinq fois plus faible que l’énergie transmise de la source froide à la source chaude.

On peut ainsi « upcycler » la chaleur, mais toute la chaleur ne peut pas être récupérée. Dans notre cycle par exemple, on rejette un flux de chaleur à une température légèrement supérieure à 30 °C. Il n’est cependant pas simple de quantifier la chaleur résiduelle parce qu’elle dépend de la température environnante : si on est en plein été et que la température de l’atmosphère est à 30 °C alors on a pour ainsi dire récupéré toute la chaleur car le flux de sortie est quasiment à l’équilibre avec l’atmosphère… en hiver, ce serait moins le cas.

Nos pompes à chaleur utilisent du CO2 dans le domaine supercritique car cela offre plusieurs avantages : par exemple, l’augmentation de la capacité calorifique améliore le transfert de chaleur lors de l’échange avec la source froide, la viscosité faible limite les pertes par frottement dans les turbomachines (compresseurs/turbines), et il n’y a pas de gouttes (interfaces liquide/gaz) qui risqueraient d’endommager les pièces métalliques dans les turbomachines.

La recherche scientifique au service de la décarbonation de l’industrie

Le cycle que nous venons de décrire (cycle Brayton inverse du CO2 supercritique) est au cœur du projet REVCO₂.

Mais notre collaboration cherche à ajouter à ce système de recyclage de la chaleur un système de stockage à haute température (T~600 °C), ce qui permettrait de générer de l’électricité à partir de cette chaleur de « haute qualité ».

Notre espoir est que les industriels pourront choisir, en fonction de leur besoin à chaque instant, soit de consommer un peu d’électricité pour obtenir de la chaleur utilisable dans leur procédé industriel, soit d’utiliser la chaleur stockée à 600 °C pour produire de l’électricité (la chaleur fatale seule ne le permettrait pas avec un rendement décent) et la revendre. Le prix de l’électricité à l’achat et à la revente sur le marché européen apparaît donc comme un nouveau paramètre pour la récupération de la chaleur fatale. Nos optimisations incluront donc une dimension économique, essentielle pour l’appropriation par les industriels de nouvelles solutions technologiques.

Pour produire un système optimisé, dans le projet REVCO2, nous mettrons en œuvre des expériences détaillées pour les échangeurs de chaleur et le système de stockage et des outils de simulation haute-fidélité qui reproduiront séparément le comportement de chacun des éléments du système complet (turbomachines, échangeurs et systèmes de stockage de chaleur). Grâce aux données collectées, un jumeau numérique du système complet sera réalisé et permettra de tester les stratégies d’utilisation optimale d’un point de vue technico-économique.


Le projet REVCO2 — Développement et optimisation d’un cycle de Brayton au CO₂ supercritique REVersible pour la récupération de chaleur fatale du PEPR (programme et équipements prioritaires de recherche) SPLEEN, soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Alexis Giauque a reçu des financements de l'ANR dans le cadre du projet PEPR-SPLEEN REVCO2 (2025-2030)

PDF

08.10.2025 à 16:27

L’électronique de puissance : méconnue mais omniprésente et source de toujours plus de déchets électroniques

Tanguy Phulpin, Maitre de Conférence, en gestion de l'énergie électrique, CentraleSupélec – Université Paris-Saclay

Florentin Salomez, Chargé de Recherche en électronique de puissance, Centre national de la recherche scientifique (CNRS)

Hugo Helbling, Maitre de Conférences en Génie Electrique, Université Claude Bernard Lyon 1

Jean-christophe Crebier, Directeur de recherche CNRS, Grenoble INP - UGA

Marina Labalette, Cheffe de projet, IRT Saint Exupéry

Murielle Fayolle-Lecocq, Ingénieure sur l'impact environnemental des composants de puissance, Commissariat à l’énergie atomique et aux énergies alternatives (CEA)

Pierre Lefranc, Maître de conférences en électronique de puissance, Grenoble INP - UGA

L’électronique de puissance est une brique indispensable de la transition énergétique. Mais avec la multiplication des usages vient l’enjeu des fins de vie des composants, difficiles à recycler.
Texte intégral (2471 mots)

C’est l’une des clés de voûte invisibles – mais omniprésentes – de la transition énergétique : l’électronique de puissance, qui convertit l’électricité sous une forme exploitable par toute la diversité d’équipements électriques et électroniques. C’est elle qui permet de recharger son smartphone, d’allumer une pompe à chaleur, ou encore d’injecter l’électricité éolienne et solaire dans le réseau. Mais, avec la multiplicité des usages, nous faisons aujourd'hui face à des problèmes de soutenabilité. Quid de tous ces composants, difficiles à réparer, à réutiliser et à recycler ? Peut-on limiter les impacts environnementaux liés à la technologie et à nos besoins croissants en énergie ?


L’un des leviers de la transition énergétique et de la décarbonation de l’économie&nbsp est l’électrification de nos usages. Les véhicules électriques, par exemple, émettent pendant leur utilisation moins de polluants et de gaz à effet de serre (GES) que leurs équivalents à moteurs thermiques.

L’électricité n’est toutefois pas une source d’énergie en tant que telle, mais un vecteur d’énergie, comme l’énergie chimique contenue par les hydrocarbures, qui est libérée lors de leur combustion. Contrairement à celle-ci toutefois, il s’agit d’une forme d’énergie qu’on retrouve peu à l’état naturel (hormis peut-être lors des orages).

Un des enjeux clés est donc de produire l’électricité à partir de sources décarbonés : aujourd’hui encore, près de 60 % de l’électricité mondiale est produite à partir d’énergies fossiles. Mais ce n’est pas là le seul défi de la transition. Pour électrifier l’économie, il faut aussi déployer massivement les usages (par exemple la mobilité électrique) et renforcer la résilience du réseau électrique.

Ceci repose sur des technologies de pointe. Parmi ces technologies, l’électronique de puissance, qui permet de convertir l’électricité sous une forme exploitable par les différents appareils, joue un rôle clé qu’il convient de décrire, tant à travers son fonctionnement qu’à travers les enjeux énergétiques et écologiques qui lui sont associés.

L’électronique de puissance, maillon clé de la transition

L’électronique de puissance, mal et peu connue du grand public, est pourtant omniprésente dans notre quotidien. Il s’agit des dispositifs électroniques utilisés pour convertir l’énergie électrique, à tous les niveaux de la chaîne : par exemple sur les lignes électriques pour les changements de tension, pour le chargement des véhicules électriques, sans oublier les chargeurs de nos téléphones mobiles et ordinateurs portables.

Diversité des applications (en termes de puissance et de taille) utilisant de l’électronique de puissance. Fourni par l'auteur

Pour les chargeurs, l’électronique de puissance permet de transformer le courant alternatif (AC) du réseau électrique en courant électrique continu pour alimenter les batteries. Elle permet également la réalisation d'onduleurs pour l’opération inverse : la transformation de courant continu en courant alternatif.

Les applications des onduleurs sont très nombreuses : ils permettent d’intégrer les sources renouvelables (photovoltaïque, éolien…) sur le réseau électrique. Ils sont également essentiels au chargement des véhicules électriques, au fonctionnement des pompes à chaleur et des climatiseurs, des produits électroménagers tels que les réfrigérateurs, les machines à laver, etc.

En réalité, la quasi-totalité des équipements électriques comprennent un, voire souvent plusieurs convertisseurs d’électronique de puissance, et cela à toutes gammes de puissances électriques :

  • pour les plus faibles puissances, de l’ordre de quelques dizaines de watts (W) pour charger un smartphone par exemple,

  • pour les puissances intermédiaires, de l’ordre de quelques dizaines de kW pour recharger un véhicule électrique ou injecter sur le réseau la production de panneaux solaires photovoltaïques,

  • jusqu’à celles de plusieurs mégawatts (MW), par exemple pour convertir en électricité l’énergie générée par une éolienne, ou pour alimenter les moteurs d’un TGV ou alimenter un data center.

La diversité des applications et des niveaux de puissance requis a conduit à développer une très grande diversité de produits d’électronique de puissance, optimisés pour chaque contexte.

Traditionnellement, ces enjeux de recherche et développement (R&D) concernent l’amélioration du rendement énergétique (pour limiter les pertes et augmenter les performances), l’augmentation de la densité de puissance (afin de réduire le poids et le volume des appareils), ou encore l’amélioration de leur fiabilité et de leur durée de vie. Mais avec l’explosion des usages électriques, l’électronique de puissance fait désormais face à des enjeux environnementaux et sociaux.

En effet, l’approvisionnement en matières premières critiques est sous le coup de tensions géopolitiques, tandis que leur extraction peut être source de pollutions et de dégradation des écosystèmes naturels.

Les efforts investis pour décarboner la société ne doivent néanmoins pas être considérés uniquement à travers les seules émissions de GES. Pour prévenir et limiter les transferts d’impacts (lorsque la diminution d’un impact environnemental sur une étape du cycle de vie d’un produit implique des effets négatifs sur un autre impact ou une autre étape), il faut tenir compte des autres indicateurs environnementaux, telles la disponibilité des ressources critiques ou encore la dégradation de la biodiversité.


À lire aussi : La flexibilité électrique, ou comment décaler nos usages pour optimiser la charge du réseau


Des matériaux difficiles à réparer et à recycler

On l’a vu, l’électronique de puissance recoupe une large gamme d’applications et de puissances. De ce fait, elle est constituée d’une grande diversité de matériaux et de composants : on retrouve ainsi dans les composants constituants les convertisseurs de base plus de 70 matériaux différents.

Composition typique des éléments d’électronique de puissance. En vert, on retrouve les matériaux les plus recyclables, jusqu’au noir pour les éléments les moins recyclables. Thèse de Boubakr Rahmani, Fourni par l'auteur

Par exemple, du silicium pour les composants semi-conducteurs, des matériaux ferreux ou alliages à base de néodyme ou nickel pour les composants magnétiques, de l’aluminium ou tantale pour les condensateurs, des époxys ou polyamides non dégradables pour les circuits imprimés (PCB) ou encore des larges pièces en aluminium faisant office de radiateurs (pour évacuer de la chaleur produite par la conversion électrique). Certains de ces matériaux sont considérés comme des matériaux critiques et/ou stratégiques, associés à de forts enjeux environnementaux, économiques, sociaux voire géopolitiques.

Le problème tient aussi à leur recyclabilité : spécialisés pour un usage donné, les produits d’électronique de puissance peuvent être plus difficiles à réparer et souvent jetés en fin de vie. L’électronique de puissance contribue ainsi à l’augmentation de la quantité de déchets électroniques à gérer dans le monde, avec quelque 62 millions de tonnes atteintes en 2022. À l’heure actuelle, moins de 20 % sont collectés et traités.

La gestion des déchets issus de l’électronique de puissance, en fin de vie, constitue ainsi un problème qui se surajoute aux tensions d’approvisionnement en matières premières critiques et à l’impact environnemental de leur extraction. Pour les minimiser, il faut agir à toutes les étapes du cycle de vie, en particulier leur conception et leur fin de vie.

Rendre l’électronique de puissance plus soutenable

La communauté des experts techniques du domaine travaille ainsi à l’amélioration de la soutenabilité des équipements électroniques, et en particulier les convertisseurs.

En particulier, le groupe de travail Convertisseurs électroniques de puissance plus soutenables (CEPPS) du groupement de recherche Systèmes d’énergie électrique dans leurs dimensions sociétales (SEEDS) du CNRS, dont nous faisons partie, s’interroge sur les possibles transferts d’impacts d’une électrification massive sans repenser nos usages et nos besoins.

En effet, l’électrification engendre la production de toujours plus d’appareils électriques pour répondre à la croissance permanente des besoins énergétiques de notre société. Ce constat devrait nous inciter, en premier lieu, à modérer ces besoins en misant davantage sur la sobriété énergétique.

Une autre question, plus délicate pour cette industrie, tient à sa quête effrénée de la performance et de la miniaturisation. Ne faudrait-il pas plutôt changer les priorités de la conception ? Par exemple, en visant l'allongement de la durée de vie ou la mise en œuvre de pratiques plus circulaires, qui permettent notamment de favoriser le recyclage ? Ce dernier point peut passer par une amélioration de la réparabilité, de l'aptitude au désassemblage et par une homogénéisation des composants et des matériaux utilisés dans les appareils.

Les experts techniques en électronique de puissance que nous sommes le reconnaissent : notre communauté ne pourra résoudre tous les problèmes évoqués précédemment. C’est pourquoi nous pensons qu’il est important d’interroger les choix de société : modèles de consommation bien sûr, mais également des choix technologiques. Or, ces derniers sont réalisés par une seule partie des acteurs de la filière, alors qu’il faudrait inclure non seulement les ingénieurs, les fabricants et les législateurs, mais également les consommateurs, sans oublier d’adopter le regard des sciences humaines et sociales.

Cela implique aussi de mieux former le grand public aux systèmes énergétiques et notamment électriques. Celui-ci doit s’approprier pleinement tant leur fonctionnement scientifique et technique que les grands défis qui y sont associés.


À lire aussi : Comment rendre l’électronique plus soutenable ?


The Conversation

Jean-christophe Crebier a reçu des financements publics de l'ANR et de l'Europe en lien direct avec le sujet via les projets VIVAE, EECONE et ARCHIMEDES.

Pierre Lefranc a reçu des financements de l'ANR pour le projet VIVAE portant sur l'éco-conception en électronique de puissance.

Florentin Salomez, Hugo Helbling, Marina Labalette, Murielle Fayolle-Lecocq et Tanguy Phulpin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

07.10.2025 à 16:23

Qui sont les précaires en transport ?

Andrea Rangel Guevara, Postdoctoral researcher, Université Savoie Mont Blanc

Pour décarboner efficacement le secteur des transports, il faut que les plus précaires soient accompagnés. Mais qui sont les précaires en transport ?
Texte intégral (2414 mots)

Pour décarboner efficacement le secteur des transports, il faut que les ménages les plus modestes soient accompagnés. Mais qui sont les précaires en transport ?


En France, le secteur du transport produit un tiers des émissions de gaz à effet de serre (GES), dont 60 % proviennent du transport routier. Afin d’atteindre la neutralité carbone d’ici 2050, revoir nos usages de la voiture est donc indispensable. Pour cela, différentes mesures ont déjà été mises en place ces dernières années. Néanmoins, elles ne sont pas facilement acceptées étant donné leurs effets potentiellement inégaux sur la population si aucun mécanisme de redistribution n’est conçu et déployé.

En voici trois exemples :

  • La mise en place de zones à faibles émissions (ZFE) dans 43 villes françaises où ne pourraient donc plus circuler les voitures les plus polluantes bien que le sujet soit actuellement débattu après un vote en faveur de sa suppression à l’Assemblée nationale en juin 2025.

  • L’établissement du système européen d’échange de quotas d’émission 2 (ETS2) à partir de 2027, axé sur les émissions de carburants provenant principalement des transports et des bâtiments. Ce qui inciterait les entreprises à respecter des limites en termes de pollution et/ou à revoir leur processus de production pour devenir plus propre.

Comment fonctionne le système d’échanges de quotas d’émissions de Co2 en Europe.
  • L’interdiction de vendre des voitures neuves polluantes à partir de 2035 dans toute l’Union européenne (UE), ce qui obligerait les ménages à repenser leurs habitudes de transport, leur localisation et/ou à se tourner vers des options de transport plus propres.

La lutte contre la pauvreté en transports dans l’UE

Pour que cette transition ne se fasse pas au détriment des plus précaires, l’ETS2 s’accompagne également de la création du Fonds social pour le climat, un fonds doté de plus de 86 milliards de financements pour lutter contre la précarité en transport et la précarité énergétique ») dans les pays de l’UE à partir de 2026.

Des recommandations détaillées pour la lutte contre la précarité en transports et le développement d’une mobilité équitable et durable ont été publiées récemment par la Commission Européenne. De plus, un nouveau Transport Poverty Hub a été créé pour améliorer l’identification des zones vulnérables.

Que sont la précarité en transport et la précarité énergétique ?

  • La précarité en transport est définie comme l’incapacité ou la difficulté pour les individus et pour les ménages à faire face aux coûts des transports privés ou publics, ou par leur manque d’accès (ou leur accès limité) aux transports nécessaires pour accéder aux activités et aux services socioéconomiques essentiels, compte tenu du contexte national et spatial.
  • La précarité énergétique désigne une situation dans laquelle les ménages ne sont pas en mesure d’accéder aux services énergétiques essentiels.

À l’échelle de l’UE, des nouvelles recherches révèlent qu’entre 20 % et 28 % des habitants des pays membres sont des précaires en transport. De même, en 2022, il y avait près de 10 % de citoyens en précarité énergetique. Selon Eurostat.), les deux plus grosses catégories de dépenses des ménages sont le logement et le transport.

En France, plus d’un quart du budget des ménages était consacré au logement et 13,6 % au transport en 2022. En Allemagne, ces postes de dépense sont quasiment similaires. Dans ce contexte, l’accompagnement des ménages les plus vulnérables devient nécessaire pour une transition environnementale plus juste et acceptable.

On sait aussi aujourd’hui que les mesures pour la transition peuvent faire d’une pierre deux coups : être à la fois progressives et plus acceptables si elles sont accompagnées, par exemple, des mécanismes de redistribution et si les citoyens sont informés de la mise en place de ces derniers.

Mais qui faudrait-il accompagner pour cette transition des transports ?

Une échelle de précarité en transport

C’est la question à laquelle j’ai tâché de répondre dans une étude sur le cas de l’Allemagne. Si la précarité en transport peut être liée au revenu et au niveau de vie elle dépend aussi d’autres critères : le lieu de vie et d’emploi, l’accès (ou le manque d’accès) aux transports publics et privés, la dépendance à la voiture privée, le coût des transports, les habitudes en termes de mobilité…

Lorsqu’on prend en compte tous ces paramètres, quatre catégories apparaissent :

  1. Les ménages indépendants qui représentent près de la moitié de la population. Ce sont les ménages vivant en centre-ville, ils ne dépendent pas de l’utilisation de la voiture individuelle pour se déplacer car ils ont accès à d’autres modes de transport. Ils ont les besoins de déplacement (en termes de distance) les plus faibles de l’échantillon. Ce seraient par exemple les personnes qui habitent dans des villes du quart d’heure.

  2. Les ménages suffisants (sufficient en anglais) qui représentent environ 34 % de la population. Ce sont les ménages qui, en règle générale, habitent le plus loin du centre-ville et qui se déplacent le plus. Cependant, leurs revenus plus élevés leur permettent de faire face et de ne pas trop subir des chocs potentiels des prix des transports.

  3. Les ménages dépendants de la voiture : qui représentent environ 16 % de la population. Leur principale contrainte provient de leur localisation (la plupart sont en périphérie ou en milieu rural), ce qui se traduit par un faible degré d’accès aux autres modes de transport et une forte distance à parcourir. La plupart d’entre eux (98 %) déclarent n’avoir pas d’autre option que la voiture pour leurs déplacements. Ces ménages sont également surexposés aux changements soudains des prix des transports privés (par exemple, via l’inflation ou des politiques publiques sans mécanisme de redistribution).

  4. Les ménages précaires en transport, soit la traduction du terme anglais transport poor : qui représentent environ 2 % de la population. Ce sont les ménages qui sont les plus contraints en termes de ressources financières. Ils sont également contraints par leur localisation, qui est similaire aux « dépendants » de la voiture. En outre, plus de la moitié de ces ménages ne possèdent pas de voiture privée et dépend donc des transports en commun. L’interaction entre ces trois caractéristiques fait que ce sont eux qui passent le plus de temps dans les transports publics.

En moyenne, ils doivent parcourir 12 kilomètres (aller simple) pour les déplacements nécessaires (faire leurs courses, emmener les enfants à l’école, aller au travail, etc.). Ils parcourent la même distance que les « dépendants », soit environ 1400 kilomètres par mois (tous type de voyage compris), mais 89 % de ces kilomètres sont faits en transport public. Ils consacrent environ 23 heures chaque mois aux déplacements nécessaires contre 14 heures pour les « dépendants » et 10 heures/mois pour les « indépendants ».

À noter que ceux qui possèdent une voiture, étant déjà limités en termes de revenus, sont surexposés aux changements des prix des transports privés.

Ces différences entre les classes peuvent nous aider à comprendre les leviers potentiels pour l’amélioration de la mobilité. Un des facteurs de précarité qui apparaît est géographique : l’endroit où habitent les citoyens au regard des besoins de chaque ménage en termes de déplacement (distances à parcourir, temps de trajet, etc.) De plus, la localisation des ménages a un impact sur l’accès à des transports en commun.

Cette dernière dimension est également un levier potentiel, par exemple, pour améliorer la mobilité des ménages dépendants de la voiture. Dans le cadre de cette étude, 77 % de l’échantillon n’était pas satisfait de l’offre de transport en commun entre leur lieu de vie et travail/étude. Selon une publication récente, les infrastructures actuelles sont particulièrement adaptées à la voiture et incitent les citoyens à prendre ce moyen de transport. Des investissements d’infrastructure et des incitations vers d’autres modes de transport seraient donc des solutions envisageables et nécessaires).

Des pistes pour le cas français : faire face aux inégalités subjacentes

Des études similaires ont été menées au sujet du territoire français et ont obtenu des résultats étroitement liés, soulignant les inégalités sous-jacentes à prendre en compte lors de la mise en place des politiques publiques pour la transition du secteur des transports. Par exemple, l’économiste Audrey Berry et ses collègues] soulignent la pertinence des interactions entre différentes dimensions (localisation, revenu, options de transport) qui peuvent avoir un impact sur la mobilité des ménages.

Les résultats de l’Enquête Nationale sur les Mobilités de personnes 2019 confirment également la corrélation entre le fait de vivre dans des zones moins denses (rurales) et l’utilisation plus régulière de la voiture individuelle : environ 80 % des déplacements en voiture individuelle sont effectués en zone rurale, contre seulement 33 % dans la région parisienne qui dispose d’une offre plus importante de modes de transport public. L’accès aux transports alternatifs pour les milieux ruraux et les périphéries serait donc un des leviers clés pour la transition.

De plus, en France, des inégalités existent concernant l’accès à des véhicules moins polluants. Les plus pauvres possèdent des voitures polluantes. Lors du déploiement de politiques publiques pour la transition, ce levier serait clé pour diminuer les effets négatifs sur les populations vulnérables.

Récemment, l’économiste Lola Blandin identifiait elle les profils vulnérables suite à la mise en place d’une ZFE à Grenoble. Y apparaissaient également comme facteurs clés les contraintes financières, les infrastructures de transport disponibles et les horaires de travail. En outre, l’introduction de ZFE peut avoir des effets négatifs sur l’accessibilité à l’emploi pour les ménages les plus modestes

Pourcentage des voitures par Crit’Air selon le niveau de revenu des ménages en 2023. Graphique adapté de « Le parc automobile des ménages en 2023 : moins de voitures pour les plus modestes, plus souvent anciennes et diesel ». Sources des données : SDES, Rsvero ; Insee, Fidéli, Fourni par l'auteur
The Conversation

Andrea Rangel Guevara a reçu des financements de l'Agence nationale de la recherche (ANR). Le projet ciblé 3 ANR-22-EXSS-0004 bénéficie d'un financement du gouvernement français.

PDF

06.10.2025 à 16:28

Les citadins sont-ils prêts à réduire la place de la voiture pour végétaliser la ville ?

Maia David, Professeure et chercheuse en économie de l’environnement, AgroParisTech – Université Paris-Saclay

Basak Bayramoglu, Directrice de recherche INRAE, Directrice adjointe de l'unité PSAE

Carmen Cantuarias-Villessuzanne, Chercheuse associée, Université Paris-Saclay; École Supérieure des Professions Immobilières

Laetitia Tuffery, Maîtresse de conférences en économie, Université de Nîmes

Face aux canicules, la végétalisation des villes s’impose. Mais verdir l’espace public revient souvent à rogner sur la place de la voiture, ce qui peut être source de conflits.
Texte intégral (3152 mots)
Pour végétaliser les villes, il faut trouver de l’espace et donc en prendre à la voiture. Et c’est là que, parfois, les choses coincent… Source : Métropole de Lyon, Fourni par l'auteur

Face à la multiplication des vagues de chaleur, les villes doivent se réinventer. La végétalisation fait partie de la palette de solutions possibles, mais se heurte à une difficulté : pour cela, il faut souvent réduire l’espace alloué à d’autres usages, comme la circulation ou le stationnement automobile. Une étude récente, menée à Lyon (Rhône), suggère que les citadins sont prêts à soutenir de telles mesures… à condition que son impact reste limité et que ses bénéfices concrets soient perceptibles.


La France a de nouveau subi pendant l’été 2025 une canicule parmi les plus intenses jamais enregistrées. Le mois de juin 2025 a ainsi été le plus chaud jamais mesuré en Europe de l’Ouest. À cette occasion, plusieurs villes ont franchi la barre des 40 °C, comme Bordeaux (41,6 °C), Toulouse (41,5 °C), Angoulême (42,3 °C) ou Nîmes (41,8 °C).

L’intensification des vagues de chaleur, tant en termes de fréquence que de durée, contribue à rendre les espaces urbains de plus en plus difficiles à vivre. En cause, l’effet d’îlot de chaleur urbain (ICU) : l’asphalte et le béton, par exemple, stockent la chaleur, et le peu de végétation limite le rafraîchissement nocturne par évapotranspitation.

Face à ces extrêmes devenus la norme, les villes doivent se réinventer et créer des « îlots de fraîcheur urbains », des zones refuges où les températures sont plus clémentes.

Plusieurs approches peuvent être envisagées.

  • Elles peuvent s’appuyer sur des changements de comportement des citadins, comme l’aération nocturne des logements, l’adaptation des horaires de travail ou encore la réduction des activités extérieures en période de forte chaleur.

  • Elles peuvent aussi reposer sur des aménagements techniques et architecturaux, tels que la construction de bâtiments bioclimatiques, l’utilisation de revêtements à fort albédo ou l’irrigation ponctuelle des espaces extérieurs.

  • Une troisième voie, enfin, réside dans l’accroissement de la végétation urbaine, largement documentée dans la littérature scientifique comme facteur de rafraîchissement.

Il existe toutefois une limite structurelle. Les grandes villes disposent rarement de la place suffisante pour, à la fois, planter des arbres, désimperméabiliser les sols et verdir les rues sans devoir transformer les usages de l’espace public et réduire l’espace alloué à d’autres usages.

La végétalisation bouscule notamment la place de la voiture, comme nous avons pu le démontrer dans une recherche publiée dans la revue Land Economics.


À lire aussi : Paris est une des pires villes européennes en temps de canicule. Comment changer cela ?


Le vert urbain, entre bénéfices et zones de friction

Les bénéfices de la nature en ville sont nombreux et documentés : îlots de fraîcheur, amélioration de la qualité de l’air, infiltration des eaux pluviales, accueil de la biodiversité, atténuation du bruit, sans oublier les impacts positifs sur la santé mentale et le lien social.

Un seul arbre peut abaisser de plusieurs degrés la température ambiante, et attirer des espèces parfois rares en milieu urbain. Par exemple, une simulation réalisée par Météo France estime que l’ajout de 300 hectares de végétation à Paris permettrait d’abaisser la température de 0,5 à 1 °C lors d’un épisode de canicule.

Plus concrètement, à Aubervilliers (Seine-Saint-Denis), une commune située au nord de Paris, la transformation d’un parking en îlot de fraîcheur grâce à la plantation de 72 arbres a réduit la température ressentie de 3,1 °C en moyenne.

Mais cette végétalisation nécessite de l’espace, alors même que l’espace urbain est précisément limité et fait l’objet de multiples usages concurrents. À Paris, la piétonnisation des berges de Seine ou la transformation de la rue de Rivoli ont par exemple suscité de vifs débats.

À Bordeaux (Gironde), Lyon (Rhône) ou Grenoble (Isère), les créations de trames vertes entraînent également des réactions contrastées selon les quartiers et les profils d’usagers. Des conflits d’usage, entre automobilistes, cyclistes, piétons et riverains sont au cœur des tensions liées à ces projets.

À Lyon comme ailleurs, les nouveaux aménagements urbains (place publique, rond-point, voie sur berge, réseau de transport, etc.) intègrent de plus en plus de végétation. Les abords des nouvelles lignes de tramways ont été repensés pour accueillir arbres, pelouses ou bandes fleuries.

Perspective de la rue Mérieux à Lyon (7ᵉ) dans la végétalisation du tramway T10. Ilex Paysage & Urbanisme et SYTRAL Mobilités en tant que maître d’ouvrage du projet T10, Fourni par l'auteur

Ces projets transformateurs s’inscrivent dans des politiques environnementales ambitieuses, comme le plan Canopée de la métropole et répondent à une demande citoyenne croissante pour un cadre de vie plus sain.

Mais ils se font souvent au détriment d’autres usages : voies de circulation rétrécies, suppression de places de stationnement, ralentissements logistiques, coûts de mise en œuvre et d’entretien.

Ces arbitrages posent la question de l’usage de l’espace public, et de l’acceptabilité sociale des projets de végétalisation urbaine.

Des citoyens prêts à faire des compromis… à certaines conditions

Scénario correspondant à la situation actuelle : pas de végétalisation supplémentaire et pas d’impact sur les voies de circulation automobile. Semeur/Métropole de Lyon/Hind Nait-Barka, Fourni par l'auteur

Pour mieux comprendre comment les habitants opèrent ces arbitrages, nous avons, dans le cadre de notre étude, évalué la demande sociale de végétalisation urbaine de la part des habitants de la métropole du Grand Lyon.

Dans une enquête basée sur ce qu’on appelle la méthode d’expérience de choix, 500 répondants représentatifs de la population de la métropole ont été confrontés à plusieurs scénarios de verdissement des abords du tramway sur leur territoire.

Scénario correspondant à une légère végétalisation sans impact sur les voies de circulation automobile. Semeur/Métropole de Lyon/Hind Nait-Barka, Fourni par l'auteur

Chaque scénario comportait, à des niveaux variables, quatre paramètres clés :

  • réduction des températures lors des canicules,
  • augmentation de la biodiversité (mesurée par l’abondance d’oiseaux),
  • réduction de l’espace pour la circulation et le stationnement,
  • enfin, une hausse de la fiscalité locale.
Scénario correspondant à une végétalisation accrue réduisant légèrement la place allouée à la circulation automobile. Semeur/Métropole de Lyon/Hind Nait-Barka, Fourni par l'auteur

Cette étude a permis d’estimer un « consentement à payer » moyen des répondants pour différentes caractéristiques de la végétalisation en ville. Ce type d’outil est précieux pour orienter les politiques publiques, car il révèle les préférences citoyennes pour des biens et des services comme les services écologiques qui n’ont pas de prix de marché.

Résultats : les citoyens prêts à faire des compromis… à certaines conditions.

En moyenne, les habitants interrogés se montrent ainsi favorables à la végétalisation. Ils sont prêts à payer 2,66 € par mois (en termes de hausse des taxes locales) pour chaque degré de baisse des températures et 0,49 € pour chaque point de biodiversité gagné (1 % d’oiseaux en plus). Ils sont favorables aux scénarios qui améliorent la biodiversité et le rafraîchissement de l’air tout en réduisant l’espace consacré aux voitures de manière minimale.

Cependant, ils sont nettement opposés aux scénarios qui réduisent plus fortement l’espace routier sans bénéfice environnemental suffisant.

Nos analyses montrent également une forte hétérogénéité entre répondants : les habitants du centre-ville, probablement déjà confrontés à plusieurs restrictions de circulation, sont plus critiques ainsi que les ménages les plus favorisés et les usagers quotidiens de la voiture.

À l’inverse, les personnes avec enfants ou consommant des produits issus de l’agriculture biologique – ce dernier étant un indicateur de la sensibilité à l’environnement – expriment un soutien accru aux projets de végétalisation urbaine.


À lire aussi : Réduire la place de la voiture en ville est-il aussi impopulaire qu’on le pense ?


Végétaliser avec les citoyens, pas contre eux

Face à l’urgence climatique, les villes doivent se doter de politiques de végétalisation ambitieuses. Mais ces solutions doivent aussi être socialement acceptables.

Notre étude montre que la majorité des habitants de Lyon seraient prêts à contribuer au financement d’un projet de végétalisation urbaine dès lors qu’il ne réduit que modérément l’espace disponible pour l’automobile. Une solution qui n’occuperait pas trop d’espace, comme la végétalisation verticale, serait donc pertinente.

Pour les décideurs locaux, il convient donc de mettre en place des projets de végétalisation prioritairement dans les communes déficitaires en arbres. Comme souligné par les résultats de notre étude, l’acceptabilité de ces projets suppose d’impliquer les citoyens dès leur conception et de mesurer régulièrement leur impact. C’est à ce prix que les villes du futur pourront être à la fois plus vertes, plus vivables, et plus justes.


À lire aussi : Les arbres en ville : pourquoi il n’y a pas que le nombre qui compte


The Conversation

Maia David a reçu des financements du Ministère de la Transition Écologique et de l'Agence de l'Environnement et de la Maîtrise de l'Energie (ADEME) dans le cadre du Programme ITTECOP.

Basak Bayramoglu, est co-coordinatrice du projet SEMEUR et a reçu des financements de Ministère de la Transition Écologique (MTE) dans le cadre du Programme ITTECOP. Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l'égide de La Fondation du Risque.

Carmen Cantuarias est co-coordinatrice du projet SEMEUR et a reçu des financements de Ministère de la Transition Écologique (MTE) dans le cadre du Programme ITTECOP. Elle a travaillé au CGDD (MTE) en tant que chargée de mission sur les instruments économiques pour la biodiversité.

Laetitia Tuffery a reçu des financements du Ministère de la Transition Écologique (MTE) et de l'Agence de l’Environnement et de la Maîtrise de l’Énergie (ADEME) dans le cadre du Programme ITTECOP.

PDF

06.10.2025 à 16:22

Pour sauver les pôles, les projets de géo-ingénierie sont voués à l’échec

Steven Chown, Director, Securing Antarctica's Environmental Future and Professor of Biological Sciences, Monash University

Des projets de géo-ingénierie émergent pour tenter de sauver la glace polaire : rideaux sous-marins, pompes à neige, fertilisation des océans… Mais une nouvelle étude montre que ces solutions ne sont que des mirages.
Texte intégral (2059 mots)
Le moyen le plus efficace de réduire le risque d’impacts généralisés du réchauffement climatique sur les pôles reste de diminuer les émissions de gaz à effet de serre. Derek Oyen/Unsplash

Alors que les pôles fondent à un rythme accéléré, certains chercheurs misent sur la géo-ingénierie pour ralentir la catastrophe : rideaux sous-marins, microbilles de verre ou fertilisation des océans. Mais une récente étude montre que ces solutions spectaculaires sont inefficaces, coûteuses et dangereuses – et qu’elles risquent surtout de détourner l’attention de l’urgence à réduire nos émissions de gaz à effet de serre.


Notre planète continue de se réchauffer en raison des émissions de gaz à effet de serre liées aux activités humaines. Les régions polaires sont particulièrement vulnérables à ce réchauffement. L’étendue de la banquise diminue déjà dans l’Arctique comme dans l’Antarctique. Les calottes glaciaires du Groenland et de l’Antarctique fondent, et des changements brutaux sont en cours dans les deux environnements polaires.

Ces changements ont de profondes conséquences pour nos sociétés, qu’il s’agisse de la montée du niveau de la mer, de l’évolution de la circulation océanique ou de la multiplication des phénomènes climatiques extrêmes. Ils entraînent aussi de lourdes conséquences pour les écosystèmes, notamment pour les ours polaires et les manchots empereurs, devenus des symboles des effets du changement climatique.

Le moyen le plus efficace pour atténuer ces changements et réduire le risque d’impacts généralisés est de diminuer les émissions de gaz à effet de serre. Pourtant, la décarbonation progresse lentement, et les projections actuelles indiquent une augmentation de la température d’environ 3 °C d’ici à 2100.

Aussi, certains scientifiques et ingénieurs, conscients des changements attendus et de l’importance des régions polaires pour la santé de la planète, ont-ils proposé de développer des approches technologiques, appelées géo-ingénierie, afin d’atténuer les effets sur l’Arctique et l’Antarctique.

Dans une étude publiée récemment dans Frontiers in Science, mes collègues et moi avons évalué cinq des concepts de géo-ingénierie les plus avancés envisagés pour les régions polaires. Nous en avons conclu qu’aucun d’entre eux ne devrait être utilisé dans les prochaines décennies. Ils sont extrêmement peu susceptibles d’atténuer les effets du réchauffement climatique dans les régions polaires et risquent de provoquer de graves conséquences indésirables.

Qu’est-ce que la géo-ingénierie polaire ?

La géo-ingénierie recouvre un large éventail d’idées visant à modifier délibérément, à grande échelle, le climat de la Terre. Les deux grandes catégories

consistent soit à retirer du dioxyde de carbone de l’atmosphère, soit à augmenter la quantité de lumière solaire renvoyée vers l’espace (une approche connue sous le nom de « modification du rayonnement solaire »).

Pour les régions polaires, les cinq concepts actuellement les plus avancés sont :

1. L’injection d’aérosols stratosphériques. Cette technique de modification du rayonnement solaire consiste à introduire dans la stratosphère de fines particules (comme le dioxyde de soufre ou le dioxyde de titane) afin de réfléchir la lumière du soleil vers l’espace. L’idée est ici d’appliquer ce principe spécifiquement aux pôles.

2. Les rideaux sous-marins. Ces structures flexibles et flottantes, ancrées au plancher océanique entre 700 et 1 000 m de profondeur et s’élevant sur 150 à 500 m, visent à empêcher l’eau chaude de l’océan d’atteindre et de faire fondre les plates-formes de glace (prolongements flottants qui ralentissent l’écoulement de la glace du Groenland et de l’Antarctique vers l’océan) ainsi que les lignes d’ancrage des calottes (là où se rencontrent terre, glace et océan).

Un schéma montrant un grand rideau dans la mer, dressé contre un mur de glace
Les sous-rideaux marins sont des structures flexibles et flottantes, ancrées au fond de la mer entre 700 mètres et 1 000 mètres de profondeur et s’élevant de 150 mètres à 500 mètres. Frontiers

3. Gestion de la banquise. Deux pistes sont explorées : d’une part, la dispersion de microbilles de verre sur la glace de mer arctique fraîche pour la rendre plus réfléchissante et prolonger sa durée de vie ; d’autre part, le pompage d’eau de mer à la surface de la banquise, où elle gèle pour l’épaissir, ou dans l’air pour produire de la neige, grâce à des pompes éoliennes.

4. Ralentir l’écoulement de la calotte glaciaire. Cette approche cible les « courants glaciaires » du Groenland et de l’Antarctique, de véritables rivières de glace s’écoulant rapidement vers la mer et contribuant à l’élévation du niveau marin. L’eau présente à leur base agit comme un lubrifiant. L’idée est de pomper cette eau afin d’accroître la friction et de ralentir leur progression. Le concept semble particulièrement pertinent pour l’Antarctique, où la fonte se joue davantage à la base de la calotte qu’à sa surface.

5. La fertilisation des océans. Elle consiste à ajouter des nutriments, comme du fer, dans les océans polaires afin de stimuler la croissance du phytoplancton. Ces organismes microscopiques absorbent le dioxyde de carbone atmosphérique, qui se retrouve stocké dans les profondeurs marines lorsqu’ils meurent et coulent.

Un schéma montrant des nutriments ajoutés à l’océan pour favoriser la croissance du phytoplancton
Un schéma montrant des nutriments ajoutés à l’océan pour favoriser la croissance du phytoplancton. Frontiers

Le risque des faux espoirs

Dans nos travaux, nous avons évalué chacun de ces concepts selon six critères : ampleur de la mise en œuvre, faisabilité, coûts financiers, efficacité, risques environnementaux et enjeux de gouvernance. Ce cadre fournit une méthode objective pour examiner les avantages et limites de chaque approche.

Aucun des projets de géo-ingénierie polaire ne s’est avéré viable dans les décennies à venir. Tous se heurtent à de multiples obstacles.

Ainsi, couvrir 10 % de l’océan Arctique de pompes destinées à projeter de l’eau de mer pour la geler exigerait l’installation d’un million de pompes par an sur dix ans. Les coûts estimés pour les rideaux marins (un milliard de dollars US par kilomètre) sous-estiment, de six à vingt-cinq fois, ceux de projets d’ampleur comparable dans des environnements plus simples, comme la barrière de la Tamise à Londres.

Un projet visant à répandre des microbilles de verre sur la glace a d’ailleurs été abandonné en raison des risques environnementaux. Et lors de leur dernière réunion, la majorité des Parties consultatives du Traité sur l’Antarctique ont réaffirmé leur opposition à toute expérimentation de géo-ingénierie dans la région.

Ces propositions nourrissent de faux espoirs face aux conséquences dramatiques du changement climatique, sans réduire rapidement les émissions de gaz à effet de serre. Elles risquent d’alimenter la complaisance face à l’urgence d’atteindre la neutralité carbone d’ici à 2050, voire d’être instrumentalisées par des acteurs puissants pour justifier la poursuite des émissions.

La crise climatique est une crise. Compte tenu du temps disponible, les efforts doivent se concentrer sur la décarbonation, dont les bénéfices peuvent être obtenus à court terme.

The Conversation

Steven Chown ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

05.10.2025 à 08:31

Alternatives aux néonicotinoïdes en culture de betterave : les avancées de la recherche

Guy Richard, Directeur de l'expertise scientifique collective, de la prospective et des études à l'Institut national de la recherche pour l'agriculture, l'alimentation et l'environnement (INRAE), Inrae

Alexandre Gohin, Directeur de recherche, INRAE, Inrae

Anne Laperche, Professeure en génétique et amélioration des plantes, Institut Agro Rennes-Angers

Bernard Bodson, Docteur en sciences agronomiques, Professeur honoraire, Gembloux Agro-Bio Tech, Université de Liège

Christophe David, Associate Dean, Senior scientist, Institut supérieur d'agriculture Rhône-Alpes

Eugénie Hebrard, Directrice de recherche, Institut de recherche pour le développement (IRD)

Marianne Sellam, Directrice scientifique et technique, Acta

Philippe Reignault, Directeur de la santé des végétaux, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

Virginie Ravigné, Chercheuse en écologie des communautés microbiennes et virales, Cirad

Voici 4 ans que des scientifiques testent et étudient les alternatives aux néonicotinoïdes pour les cultures de betteraves. Les pistes de solutions sont nombreuses et complémentaires.
Texte intégral (2814 mots)
Récolte de betteraves sucrières en Normandie. stanze/Flickr, CC BY

Voici quatre ans que des scientifiques testent et étudient les alternatives aux néonicotinoïdes pour les cultures de betteraves. Les pistes de solutions sont nombreuses et complémentaires.


Le 1er septembre 2018, la France interdisait l’usage agricole des néonicotinoïdes (NNI), insecticides qui agissent sur le système nerveux des insectes. Ces molécules, reconnues comme une des causes du déclin des colonies d’abeilles et de la biodiversité, ont été utilisées à partir des années 1990 pour contrôler les pucerons qui infestent des cultures, comme la betterave sucrière.

Présents dans les enrobages des semences, différents NNI ont pu se répandre dans les plantes et dans le sol où ils pouvaient atteindre les organismes du sol, y compris les semences des cultures suivantes et des graines de plantes productrices de pollen et de nectar, qui peuvent ensuite être visitées par les pollinisateurs.

L’interdiction des NNI a entraîné en 2020 une baisse moyenne de rendement de 28 % sur l’ensemble de la surface cultivée en betterave sucrière française, due à la jaunisse virale propagée par de fortes populations de pucerons.

Les professionnels agricoles se sont alors mobilisés pour :

  • obtenir une dérogation d’utilisation des NNI soumis à l’avis annuel d’un conseil de surveillance réunissant des parlementaires, dérogation qui sera elle-même interdite en 2023 suite à un arrêt de la Cour de justice européenne ;

  • soutenir et accélérer la recherche d’alternatives aux NNI sur betterave.

Depuis 2021, le ministère en charge de l’agriculture soutient un programme national de recherche et d’innovation (PNRI) initialement doté de 7,2 millions d’euros sur trois ans – et reconduit depuis – pour explorer des solutions opérationnelles à court terme. Le programme est copiloté par l’Institut national de la recherche sur l’agriculture, l’alimentation et l’environnement (Inrae) et par l’Institut technique de la betterave (ITB). Il s’appuie sur un comité de pilotage composé de représentants de la filière et sur un conseil scientifique rassemblant plusieurs instituts et présidé par l’Inrae.

En tant que membres de ce conseil scientifique, nous souhaitons faire un état des lieux du PNRI quatre années après sa mise en place, à l’heure où une dérogation à l’utilisation de l’acétamipride (NNI en application par pulvérisation sur les feuilles des plantes) a été proposée, provoquant de nombreuses réactions dans le monde agricole et auprès des citoyens.

Le PNRI a soutenu 25 projets de recherche portés par des scientifiques d’origine diverse : recherche publique, enseignement supérieur, enseignement agricole, instituts techniques, sucreries, entreprises semencières et de biocontrôle, assureurs.

Plusieurs projets impliquaient directement des agriculteurs pour des expérimentations en plein champ. Le PNRI a ainsi permis de mieux comprendre et de prévoir le développement de la maladie, de tester différents moyens agronomiques pour la gérer et d’étudier les conditions de leur déploiement.

Mais pour comprendre quelles sont aujourd’hui les pistes de solutions retenues pour lutter contre la jaunisse sans NNI, commençons par regarder en quoi consiste cette maladie.

La maladie de la jaunisse

La jaunisse de la betterave est provoquée par quatre virus de plantes, parfois en multi-infection (le Beet Yellow Virus, ou BYV, étant le virus le plus dommageable). Ces virus sont transmis aux plantes par des insectes vecteurs, principalement le puceron vert du pêcher (Myzus persicae), mais aussi par le puceron noir de la fève (Aphis fabae), lorsque ces pucerons piquent les plantes pour se nourrir de leur sève.

Le virus provoque alors une altération de la photosynthèse et du transfert des sucres depuis les feuilles vers les racines : la plante jaunit et perd de sa capacité à accumuler du sucre dans sa racine.

Les virus ne peuvent cependant pas être transmis à la descendance des pucerons porteurs. C’est seulement en piquant une plante déjà infectée que le puceron se charge en virus et qu’il pourra alors le transmettre à d’autres plantes de betterave. Le contrôle des réservoirs de virus apparaît donc comme un élément important de prévention et de gestion de la maladie.

Le contrôle des réservoirs de virus

La culture de la betterave constitue le principal réservoir de virus de la jaunisse via :

  • les repousses des plantes de betterave laissées dans les parcelles suite à la récolte, ou au bord des parcelles à la suite du stockage temporaire des racines tubérisées avant leur transport à la sucrerie ;

  • des plantes destinées à la production de semences, qui passent l’hiver dans des parcelles semées à l’automne et récoltées l’été suivant.

Dans les deux cas, la présence continue de betterave permet aux pucerons de se charger en virus tout au long de l’année. La prévention consiste à enfouir ou à détruire les repousses et à séparer géographiquement (d’un kilomètre au minimum) les parcelles destinées à la production de semences et celles destinées à la production de sucre. La proximité des deux types de parcelles de betterave est probablement à l’origine de symptômes viraux particulièrement marqués dans les régions Centre et Île-de-France.

La perturbation du déplacement des pucerons

Contrairement au virus de la jaunisse, les pucerons ont de multiples plantes hôtes (colza, moutarde…). Ayant un stade ailé, leurs distances de déplacement atteignent plusieurs dizaines, voire centaines, de kilomètres.

Ces deux éléments compromettent le contrôle de leur dissémination. En revanche, il est possible de prévoir les dates d’arrivée des vols de pucerons à partir des données de température hivernale avec des modèles en voie d’amélioration. Par ailleurs, la présence de plantes dites compagnes entre les rangs de betterave (avoine, orge notamment) perturbe le repérage des plantes de betterave par les pucerons.

La diffusion de composés organiques volatils dans l’atmosphère ou la présence de certaines espèces végétales non-hôtes détournent également les pucerons de ces parcelles (graminées) ou les attirent en dehors (crucifères). L’efficacité moyenne de ces deux techniques a été évaluée à 50 % sur les populations de pucerons et à 40 % pour les symptômes de jaunisse. Les plantes compagnes sont à détruire au bon moment pour éviter toute concurrence avec la betterave elle-même et ne pas occasionner une diminution du rendement.

La destruction des pucerons

L’apport d’insectes prédateurs (chrysopes, syrphes) des pucerons et la présence de couverts végétaux qui leur sont favorables (bandes enherbées, haies) sont des moyens de réduire les populations de pucerons.

Leur efficacité est très variable, de 0 à 68 % selon les parcelles, probablement en lien avec des conditions climatiques plus ou moins favorables à la survie et au développement des auxiliaires.

Se contenter de favoriser les prédateurs ne permet pas de contrôler le développement des pucerons. Cette technique doit de fait être associée à d’autres moyens de lutte.

L’apport d’insecticides de synthèse reste possible avec deux matières actives actuellement autorisées, le flonicamide et le spirotétramate, relativement spécifiques des pucerons et efficaces. Ces insecticides ont une durée maximale d’action de deux semaines, ce qui peut nécessiter plusieurs passages selon la succession des vols de pucerons. Des produits insecticides naturels ont été testés, avec des résultats décevants et très variables au champ, excepté pour un champignon entomopathogène (Lecanicilium muscarium) avec une efficacité de 0 à 41 %.

Vers des variétés moins sensibles au virus

Réduire la sensibilité des plantes au virus de la jaunisse est une autre voie d’action. Des variations de sensibilité à la maladie ont été mesurées pour les variétés actuelles et pour des populations de plantes utilisées dans les programmes de sélection des futures variétés. Cela laisse présager de futures variétés plus ou moins résistantes avec des potentiels de production variables, ce qui à terme permettra de mieux ajuster le choix des variétés au contexte épidémiologique.

Le stade de développement de la plante est également un facteur de sensibilité au virus, dont les dommages sont plus importants sur les jeunes stades. Il faut donc chercher à semer le plus tôt possible pour éviter des dates usuelles d’arrivée des pucerons.

On sait aussi que la quantité d’azote dans la plante joue sur l’attractivité de la plante : elle est plus élevée quand la teneur en azote de la plante est forte. Une réduction de la fertilisation azotée précoce reste ainsi une possibilité à explorer. Des stimulateurs de défenses naturelles des plantes ont également été testés, sans efficacité avérée en plein champ.

La combinaison des moyens de lutte

Divers leviers sont dès lors combinables pour lutter contre la jaunisse à l’échelle de la parcelle : choix de la variété, gestion de la fertilisation azotée, apport de stimulateurs de défense des plantes, semis de plantes compagnes dans les interrangs, semis de plantes abritant les prédateurs des pucerons, repoussant ou attirant les pucerons, apport de prédateurs ou de parasitoïdes des pucerons, apport d’insecticides, d’origine naturelle ou de synthèse.

À l’échelle du bassin de production, on peut jouer sur la destruction des repousses de betterave de l’année précédente, l’organisation spatiale des parcelles de betterave à production de semences ou de sucre.

Plusieurs combinaisons ont été testées dans des parcelles d’agriculteurs qui se sont engagés pour mettre en œuvre de nouvelles pratiques moyennant une indemnisation. Les essais se poursuivent pour mieux évaluer l’efficacité et le coût des pratiques. On peut dire aujourd’hui qu’il n’existe pas une alternative aux NNI aussi efficace lorsqu’elle est appliquée seule, mais un ensemble d’alternatives à combiner pour une efficacité maximale de l’ordre de 70 % sur les pucerons et de 50 % sur la maladie. Ces évaluations restent cependant difficiles à réaliser dans des contextes d’infestation relativement faibles depuis l’année 2020.

Le bilan du programme PNRI

Hormis l’année 2020, le rendement moyen de la surface agricole française en betterave a été peu affecté par la jaunisse virale. Cela tient probablement à plusieurs facteurs : les caractéristiques climatiques des années 2019, 2023 et 2024, jugées peu favorables au développement des pucerons (2021 et 2022 ont bénéficié de la dérogation NNI), l’utilisation des deux insecticides de synthèse, les actions de prévention vis-à-vis des réservoirs de virus mises en place depuis 2024.

Même si le PNRI n’a pas totalement atteint son objectif de déployer, dès 2024, des solutions opérationnelles, il faut souligner la qualité des recherches menées pour comprendre la maladie, l’ampleur et l’opérationnalité des résultats obtenus. Des alternatives à l’utilisation systématique d’insecticides chimiques existent, plus compliquées, plus coûteuses à déployer et moins efficaces que la pulvérisation foliaire d’un NNI, mais elles ne portent pas atteinte à la santé de l’environnement ni à la santé humaine.

Compte tenu de ces résultats, il nous semble tout à fait envisageable de promouvoir les alternatives aux NNI, mais en actant que les agriculteurs ne peuvent pas être les seuls à supporter le surcoût et le risque associés. Deux approches, à combiner, sont à développer :

  • d’une part, un mécanisme assurantiel pourrait être mis en place pour permettre aux agriculteurs de faire face aux années de forte infestation. Un des projets du PNRI a démontré sa faisabilité, et ce d’autant plus que cette situation n’a été observée qu’en 2020 (soit une année sur quatre) ;

  • d’autre part, un mécanisme de répartition du coût sur l’ensemble de la chaîne producteur-transformateur-distributeur-consommateur et non pas sur les seuls agriculteurs dans l’esprit des lois Egalim 1 et 2 pour l’amélioration de l’équilibre des relations commerciales dans le secteur agricole et alimentaire.

À cela, il faut ajouter un mécanisme de non-concurrence intraeuropéenne ou internationale.

Le PNRI apparaît donc comme un programme pluridisciplinaire avec des acteurs divers qui a permis de mettre au point et de définir des modalités de déploiement d’alternatives aux NNI. Ce programme bénéficie d’une prolongation pour aller au bout de l’évaluation de ces alternatives. On voit ici le rôle essentiel joué par les décisions politiques pour donner un signal crédible aux parties prenantes d’un système leur permettant ainsi de se mobiliser pour trouver des solutions.

The Conversation

Guy Richard est président du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Il préside également le conseil d’orientation scientifique et technique du réseau des instituts techniques agricoles (COST ACTA).

Alexandre Gohin est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière

Anne Laperche est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière

Bernard Bodson est membre du conseil scientifique et de suivi du Programme national de recherche et d'innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Il est président du Conseil scientifique d'ARVALIS.

Christophe David est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Il est président du conseil scientifique de Terres Inovia.

Eugénie Hebrard est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière.

Marianne SELLAM est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière. Elle est également trésorière de l'association "Biocontrôle et Biostimulation pour l'Agroécologie".

Philippe Reignault est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière.

Virginie Ravigné est membre du conseil scientifique et de suivi du Programme national de recherche et d’innovation (PNRI) sur les solutions de lutte contre les pucerons et la jaunisse de la betterave sucrière.

PDF

02.10.2025 à 13:31

Des pesticides dans les nuages : les dessous d’une étude inédite

Angelica Bianco, Chercheuse en Chimie de l'atmosphère, Université Clermont Auvergne (UCA)

Des chercheurs ont mené une étude inédite sur les pesticides présents au-dessus de nos têtes. Retour sur les travaux de ces scientifiques qui mettent des nuages en bouteille pour les analyser.
Texte intégral (2324 mots)
Le puy de Dôme (1 465 mètres), où des scientifiques tâchent de mettre des nuages en bouteille pour analyser leur composition. Wirestock Creators/Shutterstock

Une équipe franco-italienne a pu analyser six échantillons d’eau de nuage prélevés au sommet du massif auvergnat du puy de Dôme à différentes saisons, entre 2023 et 2024. Les chercheurs y ont décelé 32 pesticides différents, dont plusieurs interdits en Europe depuis plus d’une décennie. Un tiers des échantillons présentaient également une concentration totale de pesticides supérieure aux taux réglementaires pour l’eau potable.

Leur travail pionnier a aussi permis d’estimer, pour la première fois, la quantité de pesticides qui se trouveraient dans l’ensemble des nuages bas et moyens de France hexagonale, soit de 6 à 139 tonnes. Retour sur cette publication inédite, avec sa première autrice.


The Conversation : Quelle est la genèse de votre recherche ?

Angelica Bianco : Avec ma collègue chimiste Pascale Besse-Hoggan, experte de l’ICCF (UCA/CNRS) en (bio)dégradation des pesticides dans les sols, nous voulions, depuis quelques années, quantifier les pesticides dans les nuages, car les pesticides sont des contaminants d’intérêt dans toutes les matrices environnementales.

Une étude récente du chercheur Ludovic Mayer et de ses collègues avait déjà rapporté la présence de pesticides dans les aérosols atmosphériques prélevés sur 29 sites en Europe, dont plusieurs en troposphère libre, soit la première couche de l’atmosphère de la Terre qui débute de un à deux kilomètres d’altitude et qui n’est que peu ou pas affectée par les émissions locales.

De plus, la présence de pesticides dans les précipitations est connue depuis longtemps, avec des travaux notables à la fin des années 1990. Nous avons donc profité de l’Observatoire du puy de Dôme, géré par l’Observatoire de physique du globe (OPGC) de Clermont-Ferrand et par le Laboratoire de météorologie physique (LaMP) de l’Université de Clermont-Ferrand (UCA) et du CNRS, pour quantifier les pesticides dans une matrice encore inexplorée jusqu’à présent : les nuages.

Techniquement, ce n’est pas la première mesure dans les nuages. En 1991, l’équipe du chercheur allemand Franz Trautner avait déjà mesuré l’atrazine, un herbicide aujourd’hui interdit qui bloque la photosynthèse de végétaux et qui était fréquemment utilisé dans les champs de maïs, dans plusieurs échantillons collectés dans un même nuage au-dessus de cultures de maïs dans les Vosges avec des concentrations allant de 24 à 260 nanogrammes par litre (ng/l), soit bien plus que la limite autorisée pour l’eau potable.

L’originalité de notre dernière étude repose sur la quantification des pesticides :

  • dans plusieurs échantillons d’eau de nuage, collectés à deux saisons différentes ;

  • avec des masses d’air d’origines différentes (différentes saisons, différentes températures et différentes origines géographiques) …

  • avec une analyse de 446 pesticides (herbicides, fongicides, insecticides, biocides) et quelques produits de dégradation ;

  • avec des limites de détection très faibles en utilisant des méthodologies certifiées (Cofrac).

Nous savions déjà qu’un nombre important de pesticides étaient présents dans les cours d’eau. Il peut donc sembler logique d’en trouver également dans les nuages, cependant, de telles recherches n’ont pas tellement été menées auparavant. Comment expliquez-vous cela ?

A. B. : Les nuages représentent la matrice environnementale la plus difficile à attraper et à échantillonner : ce n’est pas de l’eau d’un lac ou d’une rivière que l’on peut prélever aisément avec un seau et en grande quantité. Ce ne sont pas non plus des poussières ou des gaz, qui sont toujours présents dans l’atmosphère et que l’on peut récolter de façon automatique sur des filtres ou dans des ballons.

Les nuages présentent un caractère évènementiel : ils ne sont pas toujours là ! Bien sûr, il est possible de les échantillonner en avion, comme le font certains de mes collègues. Mais cette méthode est techniquement complexe parce qu’il faut absolument éviter toute contamination de l’échantillon par les moteurs de l’appareil. De plus, les nuages sont constitués de fines gouttelettes (entre 10 et 50 micromètres de diamètre), qu’il faut collecter pour avoir un échantillon liquide suffisant pour faire toutes les analyses. Actuellement, en France, seule la station du puy de Dôme, qui présente une forte occurrence nuageuse (40 % du temps) permet l’étude des nuages.

Notre dispositif n’est pas automatisé, ce qui veut dire qu’un opérateur doit être sur place pour le montage du collecteur, la collecte, le démontage et le traitement de l’échantillon. Nous utilisons un collecteur de nuage baptisé « boogie » et des protocoles très stricts de nettoyage et de collecte de l’échantillon.

3 Boogies permettant d’analyser la composition des nuages
Trois boogies permettant d’analyser la composition des nuages. Angelica Bianco, Fourni par l'auteur

La quantité d’eau dans les nuages varie de 0,3 à 1 g/m3 d’air, ce qui signifie qu’il faut aspirer beaucoup de nuages pour avoir peu de millilitres. C’est un des points limitants de notre analyse : le volume de nuage collecté.

Nos collectes durent rarement plus de deux heures, parce que nous devons tenir compte de la dynamique atmosphérique. Il est bien plus facile d’étudier les caractéristiques d’un échantillon quand l’histoire de la masse d’air est simple, plutôt que quand il résulte de la combinaison de plusieurs masses d’air différentes. Or, plus le temps passe, plus la composition d’un nuage se complexifie, car les composés emportés dans les différentes masses d’air, influencés par des sources différentes (par exemple, marine et anthropique) se mélangent dans le même échantillon liquide. Pour éviter cela, nous limitons donc la durée de collecte à deux heures, par conséquent nos échantillons sont de faibles volumes et la quantité d’analyses que nous pouvons mener est limitée.

Mais, si je résume, le caractère novateur de notre étude, c’est que nous, chasseurs de nuages, avons la chance de travailler sur une matrice environnementale très peu explorée où tout reste à découvrir.

La doctorante Pauline Nibert explique comment il est possible de mettre « des nuages en bouteille » pour analyser leur composition.

Vous avez été, j’ai cru comprendre, les premiers surpris par les résultats constatés.

A. B. : Franchement, pour le bien de notre belle planète verte et bleue, nous espérions ne pas trouver de pesticides dans les nuages !

La première surprise a donc été la détection de ces composés dans tous les échantillons analysés, même les non suspectés, ceux qui ont une masse d’air qui a voyagé en altitude et sur l’océan Atlantique, donc a priori à une distance éloignée des terres où l’on épand des pesticides.

Nous avons donc fait plusieurs vérifications, notamment un croisement avec les mesures d’aérosols présentées par Ludovic  Mayer de l’Université Masaryk (Tchéquie) et ses collègues, et nos concentrations se sont révélées plausibles. Les concentrations observées restent cependant faibles, de l’ordre du nano au microgramme par litre.

Après discussions, nous avons décidé de calculer la masse totale de pesticides potentiellement présents dans les nuages qui survolent la France hexagonale. Pour cela, nous avons pris le parti de formuler une hypothèse importante, à savoir que la concentration mesurée dans les nuages puydomois est représentative des nuages de basse altitude présents sur l’ensemble du territoire français. C’est discutable, certes, mais probablement pas si loin de la vérité : les relecteurs de notre publication n’ont d’ailleurs jamais remis en question cette hypothèse. Nous avons ainsi évalué qu’il pourrait y avoir entre 6,4 et 139 tonnes de pesticides présents dans les nuages au-dessus de la France.

Alors, il faut savoir que les nuages contiennent beaucoup d’eau, de l’ordre du milliard de tonnes, mais, personnellement et naïvement, je ne pensais pas trouver des tonnes de pesticides ! C’est cette estimation qui a déclenché le plus de réactions et qui a fait le plus parler, en bien comme en plus critique, mais j’estime que l’essentiel, au-delà des chiffres, est la prise de conscience collective de la pollution que nous apportons dans l’environnement.

En quoi vos travaux sont-ils utiles à notre compréhension de la circulation des pesticides dans l’environnement ?

A. B. : De mon point de vue, cet article montre que la boucle est bouclée : les pesticides sont retrouvés dans l’eau des rivières, des lacs, dans les nappes phréatiques, dans la pluie et… maintenant dans les nuages. L’atmosphère est extrêmement dynamique et transporte ces composés, même s’ils sont faiblement concentrés, dans les endroits les plus reculés de notre Terre et finalement, certains lieux isolés, comme les régions polaires, qui ne devraient pas être impactés directement par la pollution par des pesticides, sont finalement exposés par ces transports longue distance.

Mais l’atmosphère et les nuages en particulier sont aussi un réacteur chimique capable de transformer ces molécules : les rayons du soleil provoquent des réactions photochimiques qui peuvent dégrader ces composés. C’est pourquoi nous retrouvons parfois dans nos échantillons des produits de transformation et non le pesticide d’origine. Il est donc aussi important de comprendre comment ces molécules se dégradent dans l’environnement.

Dans quels sens allez-vous poursuivre vos recherches à la suite de cette publication ?

A. B. : Plusieurs collègues ont témoigné d’un vif intérêt pour les résultats présentés dans cet article. En tant que chimiste, je me dis que six échantillons collectés sur un seul site ne suffisent pas à représenter la variabilité environnementale. Je pense donc que cette étude doit être étendue à un plus grand nombre d’échantillons, et si possible, prélevés sur plusieurs sites ! Malgré tout, je garde espoir de trouver de nombreux échantillons sans pesticides dans les prochains nuages que nous collecterons…


Entretien relu par Pascale Besse-Hoggan, co-autrice de l’étude, et réalisé par Gabrielle Maréchaux, journaliste Environnement, The Conversation France.

The Conversation

Angelica Bianco a reçu des financements de l’Agence Nationale de la Recherche (ANR 23-CE01-0015), de la Fédération des Recherches en Environnement (projet PONCOS), de la China Scholarship Council (CSC).

PDF

02.10.2025 à 11:20

Comment une forêt peut-elle émettre plus de CO₂ qu’elle n’en capture ?

Ariane Mirabel, Tropical ecology researcher, Cirad

Géraldine Derroire, Chercheuse, Cirad

Plinio Sist, Écologue des forêts tropicales, Cirad

Stéphane Traissac, Enseignant-Chercheur sur la dynamique des forêts tropicales, AgroParisTech – Université Paris-Saclay

Entre 1990 et 2010, la capacité de stockage des forêts a chuté d’environ 30 %. Tour d’horizon, de l’Amazonie à l’Afrique centrale, en passant par des forêts tempérées et boréales.
Texte intégral (2613 mots)

Longtemps considérées comme de précieux « puits de carbone » absorbant une partie du CO2 en excès dans l’atmosphère, les forêts voient aujourd’hui ce rôle fragilisé. Certaines émettent désormais plus de CO2 qu’elles n’en captent. La cause de ce phénomène est multiple : elle tient au changement climatique, aux pressions anthropiques et à leurs conséquences.


Par le processus de photosynthèse, les plantes utilisent l’énergie lumineuse et le CO2 de l’atmosphère pour produire de la matière organique.

Les forêts contribuent donc, comme le reste du règne végétal, au piégeage de carbone dans leur biomasse : en grande partie les troncs, les branches et les feuilles – on parle alors de biomasse « aérienne », mais également les racines et les sols. Dans les forêts tropicales et tempérées, cette biomasse est principalement aérienne, tandis qu’elle est majoritairement stockée dans les sols en forêt boréale.

Avec une constante : sous tous les climats, les forêts sont les écosystèmes qui stockent le plus de carbone. Cependant, l’évolution de ce stock de carbone dépend de la dynamique des forêts.

En effet, même si du carbone est séquestré lors de sa croissance, une plante (et donc un arbre), comme tout organisme vivant, respire, et va à son tour émettre du CO2 dans l’atmosphère. Par ailleurs, les végétaux se décomposent après leur mort. À terme et dans la plupart des cas, le carbone stocké est donc restitué à l’atmosphère sous forme de carbone atmosphérique (excepté sous certains climats boréaux où la décomposition n’est pas totale et la biomasse s’accumule dans les sols, par exemple sous forme de tourbières).

Pour avoir un effet vertueux sur le climat, il faut donc que les forêts séquestrent davantage de carbone (dans les troncs, les branches, les racines et les sols) qu’elles n’en émettent (à travers la respiration et la mort des végétaux). On parle alors pour les décrire de « puits de carbone » naturels.

Mais sous certaines conditions, les forêts peuvent avoir un bilan carbone net émetteur : elles émettent davantage de CO2 qu’elles n’en captent. Comment cela est-il possible et pourquoi ? Une telle situation est-elle amenée à se généraliser sous l’effet du changement climatique ? Tour d’horizon.


À lire aussi : Que sont les « puits de carbone » et comment peuvent-ils contribuer à la neutralité carbone en France ?


Les forêts, des puits de carbone… à certaines conditions

Dans une forêt à l’équilibre, qui ne serait pas perturbée par des changements environnementaux, d’origine naturelle ou anthropique, les flux de carbone liés à la croissance et à la mortalité s’équilibrent. Dans le bilan global, il n’y a dans ce cas alors ni stockage ni émission de carbone.

Le puits de carbone forestier, bien documenté depuis la fin du XXe siècle, provient ainsi des dynamiques de reforestation, de récupération après des perturbations antérieures et de l’augmentation de la concentration en CO2 de l’atmosphère, qui conduisent les écosystèmes forestiers vers un nouveau point d’équilibre, non encore atteint précédemment.

Les feux de forêt ou la déforestation (conversion de forêts en zones agricoles ou urbaines), à l’inverse, déstockent le carbone forestier et génèrent d’importantes émissions de carbone atmosphérique.

Mais au-delà de la disparition des forêts, même lorsqu’un couvert forestier est maintenu, c’est bien le bilan net des flux de carbone qui va déterminer si une forêt stocke du carbone ou si elle en émet.

Des forêts qui stockent de moins en moins de carbone

Dans certaines conditions, en effet, des forêts peuvent avoir un bilan carbone émetteur : plutôt que de stocker le carbone, elles le déstockent. Pourquoi ?

Une première explication tient à la balance croissance-mortalité des arbres. En effet, tout facteur augmentant la mortalité – ou limitant la croissance des arbres (sécheresses, maladies, ravageurs) – va induire une réduction du stockage de carbone, voire un déstockage.

Or, depuis quelques années, on observe une diminution globale de la croissance des arbres et une augmentation de leur mortalité, en lien avec les sécheresses plus longues et plus intenses.

Ce déclin du rôle de puits de carbone des forêts a été observé notamment en Amazonie. Les forêts matures, à l’équilibre, stockent moins de carbone depuis les années 2000 : la quantité moyenne de carbone stockée par hectare a chuté d’environ 30 % entre 2000 et 2010.

Au contraire, en Afrique centrale, le stockage de carbone est resté constant entre 2000 et 2010. Cette différence s’expliquerait par le fait que les essences d’arbres qu’on retrouve dans les forêts tropicales africaines seraient davantage adaptées à des épisodes de sécheresse et de fortes températures.


À lire aussi : Les forêts tropicales, des « puits de carbone » hautement vulnérables


Les forêts changent de composition sous l’effet du changement climatique

Les mélanges d'espèces végétales qui composent les forêts ont donc un rôle majeur. Tout changement dans cette composition, dans une logique d’adaptation au changement climatique ou aux pressions anthropiques, est donc susceptible de modifier le bilan carbone d'une forêt.

Lorsqu’un arbre meurt, il n’est pas toujours remplacé par un autre de la même espèce.

En effet, la quantité de carbone stockée par une forêt dépend aussi de la couverture forestière et de la densité du bois des arbres, qui diffèrent pour chaque espèce d’arbre.

De tels changements de composition peuvent subvenir sous toutes les latitudes. Ils existent également en forêts tempérées, mais sont particulièrement flagrants dans les forêts boréales et tropicales :

  • En forêt boréale, les arbres peuvent être remplacés par des espèces arbustives ou herbacées, plus résistantes à la sécheresse, mais plus petites et moins denses.

  • En forêt tropicale, les arbres de forêt mature, de grande taille et à bois dense, peuvent être remplacés par des espèces de forêt secondaire, plus petites et à bois moins dense.

Dans les deux cas, cela peut entraîner une baisse des quantités de carbone stocké.

Le cas particulier des forêts tempérées

Qu’en est-il pour les forêts tempérées ? En Europe, une meilleure gestion et des politiques de reforestation ambitieuses ont permis d’augmenter les quantités de carbone stockées chaque année entre 1990 et 2005.

Cependant, les effets combinés des sécheresses, tempêtes, maladies et ravageurs, ont augenté la mortalité des arbres et diminué leur croissance. De fait, la quantité de carbone stockée chaque année en forêt tempérée, en tenant compte des variations de croissance et de l’augmentation des surfaces forestières, a diminué au cours des dernières décennies : aux États-Unis, la baisse a été de 10 % entre 2000 et 2010. En Europe, elle avoisine 12 %.

En France, les dernières données de l’inventaire forestier indiquent que sur la période 2014-2022, les forêts métropolitaines ont absorbé 39 millions de tonnes de CO2 par an en moyenne, tandis qu’elles en absorbaient 63 millions de tonnes de CO2 par an au cours de la période 2005-2013.


À lire aussi : La forêt française et ses sols pour limiter les gaz à effet de serre


L’influence délétère des feux de forêt

Le changement climatique alimente des conditions climatiques particulièrement propices aux feux de forêt et aux invasions de ravageurs

Or, les feux de forêt sont des facteurs aggravants de la dégradation du puits de carbone forestier : non seulement ils entraînent des émissions massives de gaz à effet de serre, mais ils accélèrent aussi les changements de composition des forêts, qui peuvent alors mettre des décennies à retrouver leur état d’origine.

Dans certains cas, il s’agit même de transition vers des écosystèmes non forestiers : les forêts disparaissent purement et simplement.

En forêts boréales, cela affecte d’ores et déjà le stockage du carbone. Celui-ci est en nette diminution depuis les années 90.

  • En Russie, par exemple, les forêts dont devenues émettrices dans les années 2010.

  • Au Canada, elles étaient encore neutres dans les années 1990, mais sont devenues émettrices entre les années 2000 et 2010.

Ce phénomène devrait s’amplifier et se répéter à l’avenir, car des saisons d’incendies telles que celle connue par le Canada en 2023 sont appelées à se multiplier.

Dans ces zones normalement froides, le changement climatique peut aussi entraîner le dégel et l’assèchement des sols, ce qui conduit à une dégradation accélérée du carbone organique qu’ils contiennent, et à un déstockage plus rapide de carbone. Les feux de forêt contribuent aussi à consumer la matière accumulée.

À l’échelle globale, l’absorption de carbone par les sols en forêt boréale a ainsi diminué de 30 % entre 2000 et 2010. Ces flux de carbone sont difficiles à évaluer et variables dans le temps et l’espace, mais quasiment toutes les études pointent vers une réduction du stockage de carbone organique dans ces sols.

Mais les feux de forêt ne dépendent pas que des conditions climatiques : en forêts tempérées, les activités humaines sont responsables de la quasi-totalité des départs de feux.

En 2022, à l’échelle de l’Europe, 785 000 hectares de forêts ont brûlé, ce qui représente plus du double de la moyenne entre 2006 et 2021. Cette année 2025, le Portugal, la Grèce et la Turquie ont enregistré de nouveaux records d’incendies. La France n’est pas épargnée : 17 000 hectares ont brûlé en quelques jours dans l’Aude.

Près de 30 % de carbone en moins entre 1990 et 2010

Que retenir de tout ceci ? Si les causes de réduction du stock de carbone forestier sont identifiées aux différentes latitudes, il est difficile de prédire finement l’évolution à venir des forêts et les conséquences qui en découleront.

Ainsi, aucune forêt n’est épargnée : toutes sont susceptibles de devenir émettrices de carbone suite aux effets combinés des activités anthropiques et du changement climatique.

Globalement, il est estimé que la quantité de carbone stockée chaque année par les forêts dans le monde a diminué d’environ 30 % entre 1990 et 2010. Cette tendance risque de se poursuivre.

La meilleure façon d’endiguer ce déclin reste de préserver les forêts existantes. Dans les forêts gérées par l’humain, le maintien du stock de carbone forestier et/ou l’accompagnement des transitions des peuplements d’arbres vers des espèces adaptées aux nouvelles conditions climatiques est un nouvel enjeu de la gestion forestière à l’échelle planétaire.

The Conversation

Ariane Mirabel a reçu des financements de recherche publics.

Géraldine Derroire a reçu des financements de recherche publics.

Plinio Sist a reçu des financements de la recherche publique.

Stéphane Traissac a reçu des financements de la recherche publique française

PDF

02.10.2025 à 11:20

Pour des forêts à croissance rapide, favorisez les arbres à croissance lente

Marie Charru, Maîtresse de conférence en sylviculture et aménagement forestier, Bordeaux Sciences Agro

Laurent Augusto, Directeur de recherche , Inrae

La vitesse de croissance des arbres va de pair avec leur capacité à séquestrer le CO₂. Mais les espèces les plus rapides sont aussi souvent plus fragiles face aux stress environnementaux.
Texte intégral (2418 mots)

Les forêts participent grandement à l’atténuation du changement climatique par leur capacité à capturer le CO2. Dès lors, quelles espèces d’arbres favoriser pour reconstituer des forêts rapidement ? Le bon sens nous soufflerait de privilégier les arbres à croissance rapide… mais la réalité des dynamiques forestières est plus complexe.


Pour gagner une course de vitesse, choisiriez-vous une Formule 1 ou une voiture de rallye ? D’emblée, on aurait plutôt le réflexe de tout miser sur la Formule 1. Puis on se demanderait, peut-être, quelle est la nature du circuit : on a du mal à imaginer une Formule 1 être performante sur une piste cabossée, et on préférera dans ce cas une voiture plus robuste.

Il en va de même pour la croissance des arbres : si certaines espèces, prises de façon isolée, sont théoriquement bien équipées pour maximiser leur vitesse de croissance, elles sont en fait rarement gagnantes dans les forêts, où les conditions sont plus contraignantes. Comme la vitesse de croissance va de pair avec la capacité des arbres à séquestrer du dioxyde de carbone (le CO2), cela a des implications importantes concernant les capacités des forêts à atténuer le changement climatique.

Il s’agit pourtant d’un des nombreux services écosystémiques que celles-ci fournissent. Outre la régulation microclimatique, la préservation de la biodiversité, la purification de l’air et de l’eau et la protection des sols, les forêts constituent, avec les océans, l’un des deux puits de carbone les plus importants, de par leur capacité à stocker du carbone dans les sols et dans la biomasse des arbres. Les gestionnaires forestiers se posent alors une question clé : quelles espèces d’arbres ont le plus grand potentiel d’atténuation ?

Un premier élément de réponse consiste à identifier les espèces d’arbres qui grandissent le plus rapidement : plus un arbre pousse vite, plus il séquestre de carbone à travers la photosynthèse. Promouvoir des arbres à croissance rapide semble un des leviers de l’atténuation du changement climatique.

Mais est-ce vraiment le cas ? Pour tester cette hypothèse, nous avons mené récemment une étude. Dans ce travail mené par Bordeaux Sciences Agro et l’Inrae, réunissant un consortium international de chercheurs, nous avons analysé la croissance de 233 espèces d’arbres dans 160 forêts expérimentales réparties dans le monde entier.

Deux grandes familles d’arbres

Nous avons étudié la relation entre la vitesse de croissance des espèces et certaines de leurs caractéristiques appelées « traits fonctionnels ».

Un érable en automne. Sid Dahal/Pexels

Ceux-ci permettent de séparer les espèces en deux grandes catégories :

  • Les espèces dites « acquisitives », comme les érables ou les peupliers. Elles sont caractérisées par leur efficacité dans l’acquisition de ressources (lumière, eau, nutriments) et dans la transformation de ces ressources en biomasse (richesse des feuilles en enzymes et en nutriments pour faire la photosynthèse). Cela passe par l’optimisation des surfaces de prélèvement (feuilles larges et fines, racines longues et fines).
Chêne vert (Quercus ilex). Jean-Pol Grandmont/Wikicommons, CC BY-SA
  • Les espèces dites « conservatives », comme le sapin, le chêne pubescent ou le chêne vert. Elles sont plus efficaces dans la conservation des ressources internes (feuilles et racines moins étalées et plus épaisses pour limiter les pertes d’eau, renouvellement des organes moins fréquents pour limiter les besoins en ressources). Elles sont aussi plus tolérantes aux stress environnementaux.

Nous nous sommes alors demandé : quelles espèces poussent le plus vite, les acquisitives ou les conservatives ?

Les espèces « acquisitives », les Formule 1 du monde végétal

Des travaux antérieurs ont montré qu’en conditions contrôlées (souvent des expériences en serre) les espèces acquisitives poussent généralement très vite. En effet, leurs caractéristiques font d’elles de véritables voitures de Formule 1 végétales, où tout est optimisé pour gagner la course à la croissance.

À l’inverse, les espèces conservatives n’optimisent pas leur croissance, mais plutôt leur résistance aux contraintes de l’environnement, et grandissent souvent moins vite dans ces expériences.

Ces résultats ont conduit les écologues à bâtir une théorie selon laquelle les espèces acquisitives poussent plus vite que les espèces conservatives dans la plupart des conditions. Cependant, cette théorie a été questionnée par des chercheurs qui n’arrivaient pas à la vérifier en dehors des laboratoires, à savoir dans des forêts.

Et de fait, notre étude a montré que cette théorie n’est pas valable en conditions réelles.

Les espèces « conservatives », des championnes de rallye

En effet, dans les forêts boréales, tempérées et méditerranéennes, les espèces conservatives poussent généralement plus vite que les acquisitives.

Ce résultat s’explique par la localisation de ses forêts, le plus souvent dans des zones où les conditions de croissance sont défavorables (faible fertilité du sol, climat froid et/ou sec).

Pour filer la métaphore automobile, les forêts mondiales s’apparentent plus souvent à des chemins cabossés qu’à des circuits de course.

  • Ceci donne un avantage aux espèces conservatives, plus résistantes au stress et plus frugales dans la gestion de ressources limitées : telles des voitures de rallye, elles sont équipées pour s’accommoder des aléas de l’environnement.

  • À l’inverse, les Formule 1 acquisitives sont beaucoup moins performantes dans ces conditions défavorables, car elles ne peuvent exprimer leur potentiel que dans des conditions optimales : une sécheresse équivaut à une crevaison fatale, et un sol pauvre conduit rapidement à une panne de carburant.

D’où cet apparent paradoxe de forêts qui poussent plus vite si on privilégie des espèces supposées à croissance lente.

Dans les forêts tropicales humides, où le climat est potentiellement plus favorable à la croissance des végétaux, les deux types d’espèces d’arbres ne se départagent pas en moyenne. Pourtant, on aurait pu s’attendre à une vitesse de croissance plus élevée pour les espèces acquisitives dans ces bonnes conditions climatiques. Mais les limitations nutritives liées aux sols donnent sans doute l’avantage aux espèces conservatives dans certaines situations.

Des espèces à choisir selon les climats et selon les sols

Retenons de cette étude le rôle déterminant des conditions locales dans le choix des espèces d’arbres.

De la même façon que l’on s’est demandé sur quel type de piste la course aurait lieu avant de choisir entre la Formule 1 et la voiture de rallye, il faut analyser finement les conditions environnementales avant de choisir quel type d’espèce favoriser dans un endroit donné.

Ainsi, sous des climats favorables et des sols fertiles, les espèces acquisitives telles que les érables, les frênes ou les peupliers pousseront plus vite et donc fixeront plus de carbone que des espèces conservatives comme le chêne vert, le chêne pubescent ou de nombreux pins.

À l’inverse, sous des climats défavorables et sur des sols pauvres, ce sont les espèces conservatives qui auront le meilleur potentiel d’accumulation de carbone dans la biomasse.

Le carbone stocké par les sols, autre paramètre crucial

Notre étude ne s’est intéressée qu’à la vitesse de croissance en hauteur des arbres et au stockage de carbone dans le bois. Mais n’oublions pas que 50 % du carbone stocké en forêt l’est par les sols.

Une autre étude, réalisée dans le cadre du même projet de recherche, a mis en évidence l’effet du type d’espèce et du milieu sur le stockage de carbone dans le sol.

Quand les conditions environnementales sont défavorables, les espèces conservatives stockent davantage de carbone dans le sol, mais sous une forme peu stable. Ce carbone peut donc être relargué dans l’atmosphère si les conditions changent (exploitation forestière, incendie, réchauffement, etc.).

Quand les conditions environnementales sont favorables en revanche, les espèces acquisitives et conservatives stockent autant de carbone dans les sols. Mais le carbone issu des espèces acquisitives est plus stable et moins susceptible d’être relargué dans l’atmosphère.

Ces résultats confirment le fait qu’il faut privilégier les espèces conservatives dans les milieux défavorables, car elles y stockent le carbone de façon plus efficace, aussi bien dans la biomasse que dans le sol. À l’inverse, les espèces acquisitives doivent être préférées dans les milieux favorables, où elles peuvent pousser plus vite et stocker du carbone de manière plus durable dans le sol.

Il n’y a ainsi pas une espèce meilleure que l’autre pour stocker du carbone, mais seulement des espèces adaptées à différents types de conditions environnementales. N’oublions pas que, sur notre planète, les espèces sont déjà très bien réparties en fonction de leurs besoins. Cette étude permet donc de confirmer que la nature fait bien les choses : écoutons-la !


Le projet CARbone, Traits fonctionnels associés, et leur OptimisatioN est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Marie Charru a reçu des financements de l'Agence Nationale de la Recherche

Laurent Augusto a reçu des financements de l'Agence nationale de la recherche (ANR).

PDF

02.10.2025 à 09:45

Jane Goodall, la discrète révolutionnaire dont les recherches sur les chimpanzés ont redéfini notre conception de l’humanité

Mireya Mayor, Director of Exploration and Science Communication, Florida International University

Sans formation scientifique formelle, Jane Goodall a bouleversé l’étude du comportement animal et inspiré des générations entières à protéger la nature.
Texte intégral (2154 mots)
Jane Goodall apparaît sur scène au 92NY à New York le 1er octobre 2023. Charles Sykes/Invision/AP

La primatologue britannique Jane Goodall, figure mondiale de la protection de l’environnement et pionnière de l’étude des chimpanzés, est morte le 1er octobre à l’âge de 91 ans. Sa consœur Mireya Mayor lui rend hommage.


Toute personne qui voudrait proposer un cours magistral sur l’art de changer le monde en mieux, sans sombrer dans le négatif, le cynisme, la colère ou l’étroitesse d’esprit, pourrait s’inspirer de la vie et de l’œuvre de la pionnière de l’éthologie Jane Goodall.

Son parcours débute dans les années 1930, lorsqu’enfant, elle observe émerveillée, dans son jardin anglais, des créatures en apparence banales – même si elle ne les aurait jamais qualifiées ainsi. Il la conduit ensuite jusqu’aux forêts de Tanzanie, où ses recherches sur les chimpanzés ont remis en question la définition même de ce qui fait l’humain. De là, elle est devenue une icône mondiale et Messagère de la paix des Nations unies.

Jusqu’à sa mort le 1ᵉʳ octobre 2025 à l’âge de 91 ans, Jane Goodall a conservé ce charme, cette ouverture d’esprit, cet optimisme et cette capacité d’émerveillement qu’on attribue plutôt aux enfants. Je peux en témoigner, ayant eu la chance de passer du temps à ses côtés et de partager avec elle les enseignements de ma propre carrière scientifique.) Pour le grand public, elle était une chercheuse de renommée mondiale et une figure emblématique. Pour moi, elle était Jane – une mentor inspirante et une amie.

Malgré les bouleversements qu’elle a introduits dans la science en transformant l’étude du comportement animal, Jane Goodall est toujours restée souriante, encourageante et stimulante. Je la considère comme une douce perturbatrice. L’un de ses plus grands dons était sa capacité à faire sentir à chacun, quel que soit son âge, qu’il avait le pouvoir de changer le monde.

Jane Goodall a documenté le fait que les chimpanzés n’utilisent pas seulement des outils, mais les fabriquent – une découverte qui a bouleversé notre vision des animaux et des humains.

Découverte de l’usage d’outils chez les animaux

Dans ses recherches pionnières menées dans la luxuriante forêt du Gombe Stream Game Reserve en Tanzanie – aujourd’hui parc national –, Jane Goodall observa que les chefs chimpanzés les plus respectés étaient ceux qui se montraient doux, attentionnés et proches de leur groupe. Les mâles qui tentaient d’imposer leur autorité par la violence, la tyrannie ou la menace ne parvenaient pas à durer.

Également primatologue, j’ai moi-même étudié les observations fondatrices de Goodall à Gombe. Elle a notamment décrit comment des chimpanzés prenaient de longues brindilles d’herbe pour les introduire dans les termitières et « pêcher » les insectes pour s’en nourrir, une pratique que personne n’avait encore observée. C’était la première fois qu’un animal était vu utilisant un outil, une découverte qui allait bouleverser la frontière que les scientifiques traçaient entre l’humanité et le reste du règne animal.

Le célèbre anthropologue Louis Leakey avait choisi Goodall pour mener ce travail précisément parce qu’elle n’avait pas de formation académique formelle. Lorsqu’elle s’était présentée dans son bureau en Tanzanie en 1957, à l’âge de 23 ans, il l’avait d’abord embauchée comme secrétaire. Mais il avait rapidement perçu son potentiel et l’avait encouragée à étudier les chimpanzés. Leakey voulait une approche totalement neuve, libre de tout biais scientifique, persuadé que la plupart des chercheurs perdaient cette ouverture d’esprit au fil de leur formation.

Puisque les chimpanzés sont les plus proches parents vivants des humains, Leakey espérait que leur observation apporterait des indices sur nos propres ancêtres. Dans un milieu alors largement masculin, il pensait aussi qu’une femme saurait se montrer plus patiente et perspicace qu’un homme. Il avait vu juste. Six mois après le début de ses recherches, lorsque Goodall rédigea ses notes sur l’usage d’outils, Leakey écrivit : « Nous devons désormais redéfinir l’outil, redéfinir l’Homme, ou accepter les chimpanzés comme humains. »

Goodall parlait des animaux comme d’êtres dotés d’émotions et de cultures, et, dans le cas des chimpanzés, de véritables communautés presque tribales. Elle leur donnait des noms, une pratique alors inconcevable dans le monde scientifique, où l’on se contentait de numéroter les sujets d’étude. Elle essuya de vives critiques pour cette approche humanisante.

Parmi ses observations les plus marquantes figure ce qui est resté dans l’histoire comme la « guerre des chimpanzés de Gombe ». Ce conflit, qui dura quatre ans, vit huit mâles adultes d’une communauté exterminer les six mâles d’un autre groupe pour s’approprier leur territoire, avant de perdre eux-mêmes ce territoire au profit d’une troisième communauté, plus nombreuse et avec plus de mâles.

Confiance en son destin

Jane Goodall était persuasive, déterminée et dotée d’une grande force de conviction. Elle me conseillait souvent de ne pas céder face aux critiques. Ses découvertes révolutionnaires ne sont pas nées de la compétition ou du besoin d’évincer les autres, mais d’un émerveillement profond, d’un amour des animaux et d’une imagination débordante. Petite fille, elle était fascinée par l’histoire de Tarzan chez les singes, d’Edgar Rice Burroughs (1912), et aimait plaisanter en disant que Tarzan avait épousé la mauvaise Jane.

À 23 ans, ancienne pom-pom girl de la NFL sans aucune formation scientifique, j’ai découvert son travail et me suis dit que moi aussi, je pouvais suivre ses traces. C’est en grande partie grâce à elle que je suis devenue primatologue, que j’ai co-découvert une nouvelle espèce de lémurien à Madagascar et que j’ai eu une vie professionnelle et personnelle extraordinaire, à la fois dans les sciences et à la TV, comme exploratrice de National Geographic. Lorsque j’ai écrit mon propre récit, j’ai demandé à Jane Goodall d’en rédiger l’introduction. Elle a écrit :

« Mireya Mayor me rappelle un peu moi-même. Comme moi, elle aimait être au contact des animaux lorsqu’elle était enfant. Et comme moi, elle a poursuivi son rêve jusqu’à le réaliser. »

Lors d’une interview en 2023, Jane Goodall répond aux questions de l’animateur Jimmy Kimmel sur le comportement des chimpanzés.

Conteuse et pédagogue

Jane Goodall était une narratrice exceptionnelle, convaincue que raconter des histoires était le moyen le plus efficace pour faire comprendre aux gens la véritable nature des animaux. Avec des images saisissantes, elle partageait des récits extraordinaires sur l’intelligence des animaux, des singes et dauphins aux rats et aux oiseaux, sans oublier les pieuvres. Elle m’a inspirée à devenir correspondante animalière pour National Geographic afin de partager, à mon tour, les histoires et les menaces qui pèsent sur les espèces en danger à travers le monde.

Elle a inspiré et conseillé des dirigeants, des célébrités, des scientifiques et des défenseurs de l’environnement, tout en touchant la vie de millions d’enfants.

Jane Goodall et le livre de Mireya Mayor
Jane Goodall et la primatologue Mireya Mayor avec le livre de Mayor, Just Wild Enough, un récit destiné aux jeunes lecteurs. Mireya Mayor, CC BY-ND

À travers le Jane Goodall Institute, qui s’efforce de mobiliser les populations du monde entier pour la conservation, elle a lancé Roots & Shoots, un programme international pour les jeunes présent dans plus de 60 pays. Ce programme enseigne aux enfants les liens entre les humains, les animaux et l’environnement, et leur montre comment agir localement pour protéger les trois.

Au-delà de sa chaleur humaine, de son amitié et de ses récits fascinants, je garde précieusement cette phrase de Jane Goodall : « Le plus grand danger pour notre avenir, c’est notre indifférence. Chacun de nous doit assumer la responsabilité de sa propre vie et, surtout, montrer respect et amour envers les êtres vivants qui nous entourent, en particulier envers les autres. »

Une idée radicale, portée par une scientifique hors du commun.

The Conversation

Mireya Mayor ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

01.10.2025 à 16:27

Une agriculture 100% bio en France est-elle possible ?

Michel Duru, Directeur de recherche honoraire, UMR AGIR (Agroécologie, innovations et territoires), Inrae

Une agriculture française 100 % bio serait meilleure pour notre santé et pour l'environnement. Elle serait notamment possible si nous réduisions notre consommation de viande.
Texte intégral (3135 mots)
Les mangeurs bio étant moins exposés aux pesticides, il s’en suit une réduction du risque de développer des maladies chroniques non-transmissibles via l’alimentation. C’est particulièrement démontré pour le cancer du sein chez la femme ménopausée. Elina Mark, CC BY

Une agriculture française 100 % bio serait meilleure pour notre santé et celle de l’environnement. On pourrait arriver à cette généralisation du bio si l’on réduisait notre consommation de viande. Ce qui aurait également des effets bénéfiques pour notre santé.


Pour notre santé comme pour celle des écosystèmes, l’agriculture biologique apporte des bienfaits qui ne sont plus à prouver. Ses détracteurs aiment cependant dire qu’il serait impossible de la généraliser, car sa production par hectare étant souvent moindre, notre dépendance aux importations s’accroîtrait, assurent-ils.

C’est une vision parcellaire de notre système alimentaire. En effet, des études observationnelles, tout comme des scénarios de systèmes alimentaires, montrent qu’une généralisation de l’agriculture biologique serait possible si l’on réduisait en même temps notre consommation de produits animaux. Cela permettrait, d’une part, de libérer des terres arables pouvant compenser ces rendements moindres et, d’autre part, de produire ce dont notre alimentation manque cruellement pour notre santé et que, de plus, nous importons : fruits, légumes et légumineuses. Notre santé comme notre environnement s’en porteraient mieux.

Santé et environnement : des enjeux cruciaux et interdépendants

Commençons par un constat : notre système alimentaire actuel est fort coûteux. Il présente notamment une série de dépenses bien souvent invisibles pour le consommateur. On parle de coûts cachés. Il s’agit des dépenses faites ou qu’il faudrait faire pour corriger les conséquences sanitaires et environnementales de pratiques inadaptées comme :

  • l’utilisation excessive d’engrais azotés et de pesticides de synthèse, qui rendent la France très dépendante des importations et qui, du moins pour ce qui concerne la plupart des pesticides, sont nocifs pour la santé humaine et celle de l’environnement ;

  • la surconsommation de produits ultra-transformés et de produits animaux, en particulier de viande rouge et de charcuterie, qui contribuent au développement de maladies chroniques ;

  • le développement d’élevages très intensifs en intrants, souvent concentrés géographiquement, nécessitant beaucoup d’achats d’aliments pour nourrir les animaux, avec comme conséquences des nuisances graves sur les écosystèmes, comme le montre, par exemple, le problème des algues vertes en Bretagne.

Mises bout à bout, toutes ces dépenses équivalent presque aujourd’hui au prix total des denrées alimentaires consommées en France, soit 170 milliards d’euros.

La bonne nouvelle, c’est que l’agriculture et l’alimentation bio permettraient de réduire ces dépenses, car elles n’utilisent pas d’intrants de synthèse, sont plus exigeantes pour les modes d’élevage et plus restrictives quant aux additifs autorisés dans la fabrication des aliments. En outre, le bio comporte de nombreux bienfaits qui plaident en faveur de sa généralisation.

Meilleure pour la santé

L’alimentation bio est, avant tout, meilleure pour la santé. Ainsi, les produits biologiques ont en moyenne des teneurs un peu supérieures en micronutriments d’intérêt pour la santé, notamment des antioxydants, mais leur atout principal est de contenir bien moins de résidus de pesticides, à l’exception du spinosad, un insecticide naturel. Les mangeurs bio étant moins exposés aux pesticides, il s’en suit une réduction du risque de développer des maladies chroniques non transmissibles par l’alimentation, comme l’ont montré des études épidémiologiques et quelques études cliniques. C’est particulièrement démontré pour le cancer du sein chez la femme ménopausée.

Des effets contrastés sur l’environnement

L’agriculture bio a également nombre d’atouts pour le sol et pour la biodiversité qui sont bien documentés. En élevage, les vaches utilisent peu de terres labourables et elles pâturent dès que les conditions le permettent, si bien que leur alimentation entre peu en compétition avec la nôtre. Les achats de fourrages et de compléments sont également limités.

Les élevages de porcs et de volailles ont une moindre densité d’animaux par mètre carré et ont accès à des parcours, ce qui est mieux pour le bien-être animal. La plus faible densité d’animaux permet aussi d’utiliser les fumiers avec moins de risque de pollution, car plus d’hectares sont disponibles pour leur épandage. Toutes ces caractéristiques font qu’on parle d’élevage « avec lien au sol ».

Les émissions de gaz à effet de serre qui contribuent au réchauffement climatique, bien que très variables selon les études, sont, lorsqu’exprimées par kilogramme de produit, en moyenne un peu plus élevées en bio si les rendements des cultures sont plus faibles et les temps d’élevage sont plus longs. Il en est de même des pertes de nitrates à l’origine, par exemple du problème des algues vertes en Bretagne. Un autre point négatif parfois pointé est celui du cuivre et du soufre qu’utilisent certains vignerons ou maraîchers bio pour lutter contre les maladies et qui ne sont pas sans impact sur les sols.

Mais la principale faiblesse de l’agriculture bio provient des rendements de cultures moindres qu’en agriculture conventionnelle d’environ 25 % en moyenne ; les différences les plus fortes étant observées pour les céréales et pour les pommes de terre (jusqu’à 35 %) et les plus faibles pour le tournesol, pour les fruits et légumes (20 %). Pour les productions animales, les différences moyennes sont de 15 %.

De façon générale, il faut plus de surfaces pour obtenir une même quantité de produits. C’est d’ailleurs la raison pour laquelle il a été montré par modélisation au Royaume-Uni qu’une généralisation de l’alimentation bio n’est pas possible.

En France, une agriculture totalement bio est encore loin d’advenir, vu que l’agriculture conventionnelle représente aujourd’hui 90 % des terres agricoles et qu’elle reste à l’origine de 94 % des dépenses alimentaires des ménages.

De ce fait, cela peut sembler ironique quand on entend les craintes de dépendance aux importations que soulèvent les sceptiques du bio, car l’agriculture française est déjà aujourd’hui très dépendante des produits importés, avec 2 millions de tonnes d’engrais azotés de synthèse et 3,5 millions de tonnes de tourteaux de soja pour l’agriculture conventionnelle, auxquels il faut ajouter l’équivalent de 680 000 hectares de fruits et légumes.

D’où la question : est-il possible de consommer plus de produits bio, globalement bénéfiques pour la santé et pour l’environnement, malgré des productions agricoles plus faibles ?

Diminuer la viande dans l’assiette pour généraliser le bio

La réponse est oui, si l’on diminue notre consommation de produits animaux, et donc la surface agricole réservée à l’élevage pour en consacrer plus aux productions végétales. Pour évaluer quelle diminution serait bénéfique à la fois pour la santé et pour l’environnement, commençons par regarder quelles sont les recommandations sur la part de protéines végétales et animales que l’on devrait avoir dans notre alimentation.

Notre consommation moyenne de protéines totales (1,4 g/jour de protéines par kilogramme de poids corporel) excède aujourd’hui les recommandations d’environ 30 % et les besoins de 70 % (0,83 g/jour de protéines par kilogramme de poids corporel). Un régime plus végétalisé demeure meilleur pour la santé. Il serait même possible d’utiliser jusqu’à 80 % de protéines végétales tout en assurant nos besoins en micronutriments essentiels, comme la vitamine B12, pour apporter suffisamment de protéines, à condition d’associer des céréales aux légumineuses de façon à avoir un apport équilibré en acides aminés.

Ces données scientifiques permettent de définir un ordre de grandeur pour une baisse sans risque de la consommation de produits carnés, qui serait de l’ordre de 50 % en moyenne pour respecter les limites planétaires, notamment pour le climat et pour l’azote, sans augmenter la dépendance aux importations.

Moins manger de viande n’est d’ailleurs pas aberrant du tout d’un point de vue historique, car, si certains associent un régime très carné à des traditions culturelles, les Français mangeaient en réalité moitié moins de viande il y a cent ans.

Les produits laitiers sont également surconsommés aujourd’hui, au regard des recommandations nutritionnelles, avec une consommation moyenne de 70 grammes de fromage par jour lorsqu’il est conseillé de ne pas dépasser 40 grammes.

Une alimentation plus bio est donc possible en végétalisant l’assiette, car diminuer la consommation de produits animaux réduirait bien plus la surface pour se nourrir que la généralisation d’une alimentation bio ne l’augmenterait.

Ainsi, réduire la consommation de produits animaux permet de diviser par deux cette surface (de 8,3 m²/jour pour ceux qui mangent moins de 50 grammes de viande par jour à 16,8 m²/j pour ceux qui en mangent plus de 100 grammes par jour), alors que consommer bio ne l’augmenterait que de 30 %. De cette façon, il serait possible de libérer au moins 4 millions d’hectares de cultures utilisées par l’élevage et de les affecter à des productions végétales cultivées en bio, compensant ainsi des rendements inférieurs, notamment pour les céréales.

Quel type d’élevage favoriser ?

Reste la question de savoir quels types d’élevage il faudrait en priorité diminuer et ceux qui, au contraire, sont à favoriser.

Les élevages de ruminants (bovins, ovins) à soutenir sont ceux où l’alimentation des animaux provient principalement des prairies pâturées ou récoltées. De tels élevages sont plus faciles à mettre en œuvre en bio. Ils sont meilleurs pour l’environnement car ils génèrent moins de pollutions azotées et utilisent bien moins ou pas de pesticides. En outre, le lait et la viande sont plus riches en acides gras insaturés à fonction anti-inflammatoire.

En conséquence, la réduction des productions animales devrait surtout concerner les élevages les plus intensifs en intrants de synthèse, et/ou concentrés géographiquement, qui utilisent le plus de terres labourables et sont le plus dépendants d’importations de concentrés (soja) pour l’alimentation des animaux. Une partie des terres labourables – 3,8 millions d’hectares pour l’élevage des ruminants et 3,9 millions d’hectares pour les porcs et les volailles – serait alors utilisée pour des productions végétales en bio.

Les scénarios conçus à l’échelle de l’Union européenne et de la France montrent que la mise en œuvre de pratiques agroécologiques ne permet pas à elle seule d’atteindre les objectifs de politiques publiques en matière de climat et d’émissions d’azote. Cela nécessite donc de végétaliser l’assiette, en complément du développement massif des légumineuses, qui ont l’immense intérêt de ne pas exiger d’apport en engrais azotés, de réduire de moitié le gaspillage alimentaire, et de recycler une partie de nos urines naturellement riches en azote. En effet, un point faible de l’agriculture biologique est souvent le manque d’azote, nécessaire à la croissance des plantes.

La bio étant une forme emblématique, mais perfectible, de l’agroécologie, le progrès des connaissances pour développer une agriculture, dite biorégénératrice, fondée sur les processus écologiques permettrait de réduire les différences de production avec l’agriculture conventionnelle. Cela suppose d’activer de nombreux leviers agronomiques : la diversification végétale, les pratiques améliorant la santé du sol ainsi que des modes d’alimentation des animaux fondés sur l’herbe pour les ruminants et sur la complémentation en lin pour les monogastriques.

Ignorant ces données scientifiques quant à nos besoins en protéines animales et leurs impacts sur l’environnement, le débat sur le bio est souvent mal posé.

The Conversation

Membre du Conseil scientifique de PADV (Pour une Agriculture du Vivant)

PDF

29.09.2025 à 16:57

Le changement climatique est-il en décalage horaire ?

Sarah Safieddine, Chargée de recherche CNRS (LATMOS/IPSL), Sorbonne Université

Cathy Clerbaux, Directrice de recherche au CNRS (LATMOS/IPSL), professeure invitée Université libre de Bruxelles, Sorbonne Université

Le réchauffement ne s’exprime pas qu’en moyennes globales : selon l’heure locale, les tendances diffèrent, parfois radicalement. Un enjeu clé pour l’adaptation.
Texte intégral (2500 mots)

Le réchauffement climatique ne se mesure pas seulement en moyennes globales. Derrière les +1,5 °C ou +2 °C, souvent avancés comme indicateurs globaux, on retrouvera des réalités très différentes selon les lieux… et, surtout, selon les heures de la journée. Une récente étude montre comment l’usage généralisé du temps universel par les climatologues peut masquer ces différences en heures locales. Mieux les prendre en compte permettraient de mieux adapter nos villes, nos systèmes agricoles et nos politiques de santé publique.


Les chiffres du changement climatique sont bien connus : 1,5 °C de plus depuis l’ère préindustrielle, et +2 °C attendus d’ici 2050 si rien n'est fait de plus que les politiques déjà en place. Il s’agit toutefois d’une augmentation moyenne des températures sur toute la surface du globe.

Derrière ces chiffres se cachent donc des réalités bien différentes, en fonction du lieu où on se situe sur Terre, mais également en fonction des moments de la journée. Non, il ne fera pas « chaud pareil » à midi qu’à minuit : les tendances de réchauffement, elles aussi, varient selon l’heure locale.

Dans une étude publiée récemment, nous avons ainsi montré que l’évolution des températures n’est pas uniforme tout au long de la journée. La hausse peut être plus marquée la nuit que l’après-midi, ou l’inverse, selon les régions du globe.

Et pourtant, les climatologues utilisent actuellement un repère unique pour comparer les données climatiques : le fuseau horaire UTC (temps universel coordonné). Pratique pour uniformiser les données climatiques, mais problématique pour comprendre les dynamiques locales. Ignorer l’heure locale peut fausser notre compréhension du changement climatique et limiter l’efficacité de nos politiques d’adaptation, par exemple lorsqu’il s’agit de limiter la surchauffe des villes en périodes de canicule.

D’abord, remettre les pendules à l’heure

Considérons, par exemple, un relevé à 12 heures UTC. Il correspondra à midi à Londres, mais à 21 heures à Tokyo, ou encore à 2 heures du matin à Los Angeles. En travaillant uniquement avec l’UTC, on mélange donc des observations réalisées de jour et de nuit, ce qui masque la variabilité diurne des températures – c’est-à-dire, les différences qui surviennent entre le jour et la nuit.

Si l’on ne considère que la terre ferme, en excluant les mers et les océans, la moyenne des températures globales proches du sol varie d’environ 14 °C à 16 °C. Mais si l’on convertit ces observations en heures locales autour du globe, il apparaît que cette variabilité diurne globale a beaucoup plus d’amplitude : de 11 °C à 6 heures du matin en moyenne à 19 °C vers 15 heures/16 heures.

Le cycle diurne de la température dépend fortement du référentiel temporel choisi. Exprimé en UTC, il reflète une moyenne globale déphasée par rapport aux conditions locales. Exprimé en heure locale, il révèle directement les variations quotidiennes vécues sur place. Sarah Safieddine, Fourni par l'auteur

Pour cette étude, nous avons analysé plus de quarante ans de données (1981–2022) issues de la composante Terre (sans les mers et océans) de la réanalyse ERA5. C’est une base de données qui fusionne modèles et observations pour fournir, heure par heure, des estimations cohérentes de températures – et d’autres variables atmosphériques – depuis 1940, à l’échelle mondiale.

Et donc, au lieu de ramener systématiquement les données en UTC, nous les avons transposées en heures locales, en appliquant le principe des fuseaux horaires. Nous avons ainsi pu cartographier, heure par heure, l’évolution des températures terrestres proches de la surface (celle des bulletins météorologiques) à l’échelle mondiale. De quoi quantifier plus finement l’impact du changement climatique sur ces dernières au cours de la journée.


À lire aussi : Pourquoi le record de températures en 2024 est une surprise pour les scientifiques


Pas uniforme, ni dans l’espace ni dans le temps

Nos résultats montrent que l’évolution de la température au cours des quarante dernières années n’est pas uniforme, ni dans l’espace ni dans le temps.

De manière générale, depuis 1981, les températures augmentent presque partout sur Terre, avec un réchauffement particulièrement marqué dans les régions arctiques. Mais, dans le détail, certaines zones géographiques, comme l’Inde, semblent moins affectées : le réchauffement y est beaucoup plus lent qu’ailleurs. Si on considère le créneau horaire de 15 heures en Inde, on y observe même un… refroidissement depuis 1981.

Réchauffement de la température globale depuis 1981 à 3 heures du matin (à gauche) et à 15 heures (à droite), heure locale. À l’œil nu, on ne voit pas beaucoup de différence, sauf en Inde. Sarah Safieddine, Fourni par l'auteur

Une des raisons de ces hétérogénéités tient à l’augmentation locale de certaines sources de pollution, en particulier des particules fines. Celles-ci peuvent bloquer une partie du rayonnement solaire et refroidir la surface terrestre.

Pour représenter de façon plus perceptible les variations de température au cours de la journée dans les différentes régions du monde, nous avons soustrait les tendances climatiques observées à 3 heures de celles observées à 15 heures. De quoi mettre en évidence plus clairement la variabilité diurne du changement climatique dans le monde.

Carte des écarts de tendances de réchauffement entre l’après-midi (15 heures) et la nuit (3 heures), sur la période 1981–2020 (en °C). Les valeurs positives indiquent un réchauffement plus marqué à 15 heures qu’à 3 heures. Sarah Safieddine, Fourni par l'auteur

Nos résultats montrent alors que, pour une région donnée, la variation de l’amplitude du réchauffement climatique peut atteindre jusqu’à un degré Celsius entre le matin et l’après-midi, avec des tendances parfois opposées (comme en Inde), selon l’heure considérée.

Pour mieux s’adapter, des prévisions à l’heure locale

Cette vision plus fine et « heure par heure » du réchauffement ouvre de nombreuses perspectives concrètes.

D’abord pour l’agriculture, où ce n’est pas la moyenne annuelle des températures qui compte, mais celle qui surviendra lors de moments critiques, tels que la germination, la floraison, la production de fruits, etc. Prévoir plus finement les pics horaires de température permettrait alors d’adapter les calendriers d’irrigation ou de semis.


À lire aussi : Des printemps toujours plus précoces ? Comment les plantes déterminent leur date de floraison


En matière de santé publique également : on sait que les vagues de chaleur sont d’autant plus dangereuses que la température nocturne reste élevée, ce qui limite la bonne récupération de l’organisme. Une prévision plus fine de ces extrêmes nocturnes permettrait de mieux identifier les nuits et les villes à risque pour les personnes fragiles.

De même, cela aiderait également à mieux programmer les compétitions sportives en fonction des températures prévues à l’heure locale. En effet, des compétitions organisées aux heures les plus chaudes de la journée peuvent exposer athlètes et spectateurs à des risques accrus.


À lire aussi : 35 °C à Paris : les JO 2024 permettront-ils de mieux comprendre les dangers de la température humide ?


C’est également une donnée importante pour améliorer l’urbanisme de nos villes. Celles-ci connaissent déjà, en période de canicules, un effet d’îlot de chaleur marqué la nuit.

Une connaissance fine de l’évolution diurne et nocturne des température heure par heure est donc indispensable pour concevoir des espaces urbains plus résilients, et notamment des « refuges climatiques » pour les riverains.


À lire aussi : Lors des canicules, notre cerveau ne s’aligne pas toujours avec le thermomètre et peut nous mettre en danger


Enfin, l’amélioration des modèles de prévision climatique pour réellement les replacer « à l’heure locale » permettrait de rendre les systèmes d’alerte plus pertinents pour les citoyens et pour les décideurs.

Le réchauffement climatique ne se résume pas à quelques degrés de plus. Il s’agit aussi de savoir quand, dans la journée, ces degrés supplémentaires s’ajoutent. En mettant l’accent sur l’heure locale, nous révélons une nouvelle dimension du changement climatique qui peut transformer nos stratégies d’adaptation.

The Conversation

Cathy Clerbaux a reçu des financements du Centre National d'Etudes Spatiales pour financer les travaux de recherche de son équipe.

Sarah Safieddine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

25.09.2025 à 16:26

Délocalisations : L’effet « havre de pollution » n’est pas un mythe populaire

Raphaël Chiappini, Maître de conférences en économie, Université de Bordeaux

Enea Gerard, PHD Student in Climate and International Economics, Université de Bordeaux

Renforcer les réglementations environnementales peut stimuler l’innovation, mais aussi détourner les investissements étrangers. Une étude confirme l’existence d’un effet de « havre de pollution ».
Texte intégral (1358 mots)

Le « havre de pollution » existe-t-il vraiment ? Face au durcissement des politiques climatiques, certaines entreprises déplacent-elles réellement leurs activités vers des pays aux normes plus souples ? Une nouvelle étude lève le doute : ce phénomène existe bel et bien.


Face à l’urgence climatique, de nombreux pays renforcent leurs réglementations environnementales afin de favoriser leur transition écologique. Cependant, dans un monde où tous les pays ne sont pas vertueux, cette démarche ne risque-t-elle pas de faire fuir les investisseurs étrangers vers des destinations disposant de règlementations environnementales moins contraignantes, créant une sorte de « havre de pollution », là où les activités polluantes échappent aux mesures les plus répressives ? Cette question divise les économistes et les décideurs publics depuis des décennies.

Notre récente étude empirique, publiée dans Macroeconomic Dynamics, apporte un éclairage nouveau sur cette question. En analysant les flux d’investissements directs étrangers (IDE) de 121 pays investisseurs vers 111 pays hôtes entre 2001 et 2018, et à partir de la construction d’un nouvel indicateur de sévérité des politiques environnementales, nous confirmons l’existence d’un effet de « havre de pollution ». Cependant, les dynamiques en jeu restent complexes.

Deux hypothèses en confrontation

La littérature économique reste divisée sur l’impact des réglementations environnementales sur les entreprises. Deux visions s’opposent. D’un côté, « l’hypothèse de Porter » (1991) suggère que des règles strictes peuvent stimuler l’innovation, améliorer la productivité et renforcer la compétitivité. De l’autre, l’« hypothèse du havre de pollution » développée notamment dans les années 1990, avance que les industries se déplacent vers les pays où les normes sont plus souples afin de réduire leurs coûts. Ce phénomène a été amplifié par la mondialisation des années 1990, marquée par la baisse des coûts de transport et l’essor des pays à bas salaires. Ainsi, une part de la réduction des émissions dans les pays développés pourrait s’expliquer par la délocalisation d’activités polluantes vers des pays moins stricts, accompagnée d’une hausse des importations plus intensives en gaz à effet de serre, selon une étude récente.

Un nouvel outil pour les politiques environnementales

Les études empiriques antérieures aboutissent souvent à des résultats contradictoires, en grande partie parce qu’il est difficile de comparer la rigueur des politiques environnementales d’un pays à l’autre. Pour dépasser cet obstacle, nous avons construit un nouvel indice de sévérité des politiques environnementales, l’Environmental Stringency Index (ESI), couvrant plus de 120 pays entre 2001 et 2020.

Cet indicateur repose sur deux dimensions :

  1. La mise en œuvre, mesurée par l’engagement formel d’un pays à travers le nombre de lois climatiques adoptées et sa participation aux grands accords internationaux (comme le Protocole de Montréal ou l’Accord de Paris) ;

  2. L’application effective, évaluée en comparant les émissions prédites d’un pays, en fonction de sa structure industrielle, à ses émissions réelles. Lorsqu’un pays émet moins que prévu, cela traduit des efforts concrets d’atténuation.

Les signaux politiques sont efficaces

Nos résultats empiriques confirment clairement l’existence d’un effet de « havre de pollution » : une hausse d’un écart-type de notre indice de rigueur environnementale dans un pays hôte entraîne en moyenne une baisse de 22 % des IDE entrants.

Plus encore, nous montrons que les investisseurs étrangers réagissent davantage à l’annonce des politiques plutôt qu’à leur application effective. Autrement dit, l’adoption de nouvelles lois climatiques ou la ratification d’accords internationaux envoie un signal crédible aux entreprises quant à l’évolution future des coûts réglementaires. À l’inverse, les performances environnementales réelles ne semblent pas influencer significativement les décisions d’investissement.

Cette observation suggère que les entreprises anticipent les contraintes futures plutôt que de se limiter à évaluer la situation actuelle.

Des effets asymétriques

Nos résultats montrent que l’impact des réglementations environnementales diffère fortement selon le niveau de développement et la qualité institutionnelle du pays hôte. Dans les économies émergentes et en développement, des règles plus strictes freinent nettement les IDE, confirmant leur statut de « havres de pollution » potentiels. L’effet est en revanche plus limité dans les pays à haut revenu, où des institutions solides et des cadres réglementaires établis atténuent ce phénomène. La corruption joue aussi un rôle clé. Pour évaluer cet aspect, nous avons utilisé l’indice de Contrôle de la corruption de la Banque mondiale : là où la gouvernance est faible, même des politiques ambitieuses peuvent être contournées, renforçant l’attractivité de ces pays pour les activités polluantes.

La réalité d’un arbitrage réglementaire

Au-delà de la rigueur absolue des réglementations, notre étude met également en évidence un phénomène d’arbitrage réglementaire : plus l’écart de sévérité des politiques environnementales entre le pays d’origine et le pays d’accueil des IDE est important, plus l’effet incitatif de délocalisation s’accroît. Les entreprises semblent ainsi comparer activement les cadres réglementaires internationaux afin d’optimiser leurs coûts de mise en conformité. Cette dynamique est particulièrement visible lorsque des investisseurs issus de pays aux normes strictes se tournent vers des destinations moins contraignantes, confirmant l’hypothèse d’une recherche délibérée de « havres de pollution ».

Une coopération internationale nécessaire dans un monde fragmenté

L’hypothèse du « havre de pollution » n’est donc pas un simple « mythe populaire », comme l’avait suggéré une étude des années 2000.

Face à ce constat, plusieurs pistes s’imposent. D’abord, renforcer la coopération internationale à travers des accords multilatéraux capables de réduire les écarts de normes et de limiter les possibilités d’arbitrage. Ensuite, améliorer l’application effective des règles, en particulier dans les pays à bas salaires, afin de préserver leur crédibilité sur le long terme. Le déploiement de mécanismes correcteurs, comme l’ajustement carbone aux frontières introduit par l’Union européenne (UE), constitue également une voie prometteuse puisqu’il permet de taxer les importations en fonction des émissions de gaz à effet de serre qu’elles incorporent. Enfin, le développement d’incitations fiscales et financières pour les technologies propres peut orienter les IDE vers des secteurs compatibles avec la transition écologique.

La lutte contre le changement climatique ne peut donc ignorer ces dynamiques économiques. Comprendre comment les entreprises réagissent aux réglementations environnementales est indispensable pour concevoir des politiques à la fois efficaces sur le plan écologique et équitables sur le plan économique. L’enjeu est de taille : réussir la transition verte sans creuser davantage les inégalités de développement entre le Nord et le Sud, dans un monde déjà marqué par des tensions importantes et une fragmentation croissante.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

25.09.2025 à 16:24

Et si un minuscule crustacé aidait à mieux comprendre les effets du plastique dans les estuaires ?

Céleste Mouth, Doctorante (PhD Student), Université Le Havre Normandie

Gesche Winkler, Professeure, Université du Québec à Rimouski (UQAR)

Joëlle Forget-Leray, Professeure de biologie des populations, Université Le Havre Normandie

Véritable sentinelle écologique, le copépode « Eurytemora affinis » pourrait être le gardien de la santé des estuaires face à la pollution plastique.
Texte intégral (2681 mots)
Véritable sentinelle écologique, le copépode _Eurytemora affinis_ pourrait être le gardien de la santé des estuaires face à la pollution plastique. Sebio, Fourni par l'auteur

Des rivières aux océans, le plastique transite par les estuaires, des zones vitales pour la biodiversité, mais fragiles. Pour mesurer son impact, une recherche franco-canadienne s’appuie sur un minuscule crustacé, « Eurytemora affinis », véritable sentinelle écologique qui doit aider à mieux comprendre les effets de la pollution par les micro et nanoplastiques.


Le plastique est un polluant omniprésent. Dans les emballages, véhicules, textiles ou cosmétiques, il fait partie intégrante de notre quotidien. Sa production, qui a explosé depuis les années 1950, dépasse aujourd’hui 400 millions de tonnes par an.

Cette surproduction massive, combinée à une gestion insuffisante des déchets, entraîne une accumulation durable dans l’environnement. Faiblement biodégradable, le plastique persiste pendant des décennies et se retrouve désormais dans tous les milieux : air, sols, eaux douces, océans, jusqu’aux pôles et aux abysses.

Face à cette pollution mondiale, la recherche s’efforce de mieux quantifier les plastiques, d’en comprendre la dispersion et d’évaluer leurs effets sur les écosystèmes et les organismes. Dans un nouveau projet de recherche doctorale que nous menons, cette question est abordée en examinant deux estuaires : celui de la Seine, en France, et celui du Saint-Laurent au Québec.

L’enjeu : évaluer le niveau de contamination en micro et nanoplastiques de ces estuaires en s’intéressant notamment aux effets du plastique sur un petit crustacé méconnu, un minuscule copépode baptisé Eurytemora affinis qui constitue une espèce sentinelle précieuse.


À lire aussi : Recycler les plastiques pour protéger les océans, une illusion face à la surproduction ?


Les estuaires, des écosystèmes sensibles

La plupart des études se concentrent sur les océans : les milieux d’eau douce et notamment les fleuves et estuaires restent encore largement sous-explorés.

Pourtant, environ 80 % des plastiques marins proviennent de sources terrestres, transportés par les rivières et déversés en mer via les estuaires. Situés à proximité de zones densément peuplées ou industrialisées, les estuaires sont donc directement exposés aux débris plastiques issus des activités humaines.

Mais les réduire à leur seule vulnérabilité serait une erreur : les estuaires sont parmi les milieux les plus riches et productifs de la planète. Ils abritent une biodiversité remarquable, servent de nurseries pour de nombreuses espèces, filtrent naturellement l’eau et jouent un rôle essentiel dans les cycles biogéochimiques.

Ils offrent aussi de nombreux services écosystémiques aux sociétés humaines : alimentation à travers la pêche, régulation de la qualité de l’eau, atténuation des crues, protection contre l’érosion côtière, etc.

Leur position géographique, en revanche, à l’interface entre terre et mer, les rend particulièrement sensibles aux pressions anthropiques. Face à l’augmentation de la pollution plastique, il est urgent de mieux comprendre comment ces écosystèmes réagissent, et quels organismes sont en première ligne.

« Eurytemora affinis », minuscule gardien de l’équilibre

Parmi les nombreuses espèces vivant dans ces milieux sous pression, certaines occupent une place centrale dans leur équilibre écologique. C’est le cas d’un petit crustacé d’environ un millimètre : Eurytemora affinis.

Spécimen de copépode Eurytemora affinis Caroline Lamontagne, Fourni par l'auteur

Très abondant dans les estuaires de l’hémisphère Nord, il constitue un maillon clé du réseau trophique, assurant le transfert d’énergie entre le phytoplancton et les organismes de niveaux supérieurs. Son atout majeur ? Une capacité d’adaptation exceptionnelle. Il tolère de très fortes variations environnementales, ce qui lui permet de coloniser de nombreux habitats.

Mais E. affinis est aussi un excellent bio-indicateur de l’état de santé des estuaires. En effet, certaines espèces, dites « sentinelles », réagissent rapidement aux perturbations, permettant d’anticiper les effets de la pollution : c’est le principe de la biosurveillance. Grâce à sa sensibilité aux polluants, son cycle de vie court, sa densité élevée et la possibilité de l’élever en laboratoire, E. affinis est un modèle idéal en écotoxicologie. Il permet d’étudier à la fois l’exposition, les effets biologiques et les mécanismes de réponse face aux contaminants.

Vue aérienne du Havre (Seine-Maritime) et de l’estuaire de la Seine. Sentinel Hub, CC BY

Ce qui rend l’étude d’E. affinis particulièrement intéressante, c’est qu’il ne s’agit pas d’une seule espèce, mais d’un complexe d’espèces cryptiques (c’est-à-dire, dont il est impossible de distinguer les différentes espèces à l’œil nu sans analyse génétique).

Ces différences pourraient influencer la façon dont chaque population réagit aux polluants. Ces variations ont jusque-là été peu explorées. Et c’est justement tout l’enjeu : mieux les comprendre pourrait nous aider à identifier les espèces et leurs populations les plus vulnérables pour mieux protéger les écosystèmes qu’elles habitent.

Deux de ces lignées vivent dans les estuaires de la Seine (France) et du Saint-Laurent (Canada). Ce sont précisément ces deux populations transatlantiques qui sont au cœur de ce travail de recherche.

Microplastiques, mais maxi dangers

Une fois libérés dans l’environnement, les plastiques se dégradent progressivement sous l’effet de processus physiques, chimiques et biologiques. Ils se fragmentent alors en particules de plus petite taille, dites microplastiques (de 1 micromètre à 5 millimètres) et nanoplastiques (de 1 nanomètre à 1 micromètre) secondaires.

À cela s’ajoutent aussi les micro et nanoplastiques (MNPs) dits primaires, fabriqués directement à ces tailles et involontairement libérés dans l’environnement, par exemple via le lavage des vêtements en fibres synthétiques.


À lire aussi : Pourquoi les déchets plastiques ne se dégradent-ils jamais vraiment ?


Malgré leur petite taille, ces particules représentent une menace majeure. Leurs propriétés physiques les rendent extrêmement résistants aux processus naturels de décomposition, ce qui leur permet de persister longtemps dans l’environnement.

Leur taille les rend faciles à ingérer par une grande variété d’organismes, du zooplancton aux mammifères marins. Une fois ingérées, ces particules peuvent provoquer des obstructions physiques, réduire l’absorption des nutriments, ou – dans le cas des nanoplastiques – pénétrer dans la circulation sanguine, entraînant une cascade d’effets biologiques néfastes.

Leurs dangers tiennent également du « cheval de Troie » : leur surface adsorbe d’autres polluants hydrophobes, comme les hydrocarbures aromatiques polycycliques (HAP), les polychlorobiphényles (PCB) ou les métaux lourds. Une fois ingérés, ces contaminants peuvent alors être rejetées dans le tube digestif de l’organisme et avoir des effets toxiques.

Dans ce contexte, il est crucial d’étudier les effets des micro et nanoplastiques dans les estuaires à travers un modèle écologique clé comme E. affinis pour comprendre les effets de cette pollution émergente sur la biodiversité.


À lire aussi : De l’eau douce à l’eau salée : les fascinantes stratégies d’adaptation de la crevette blanche


Avec Plasticop, mieux comprendre la vulnérabilité des copépodes aux plastiques

Ce projet doctoral Plasticop, co-dirigé par le laboratoire Stress Environnementaux et BIOSurveillance des milieux aquatiques au Havre (France) et l’Institut des sciences de la mer au Québec (Canada), s’intéresse ainsi à deux lignées du copépode, dont deux populations d’E. affinis vivant dans les estuaires de la Seine et du Saint-Laurent.

Il se structure autour de trois grands axes :

  • Le premier consiste à évaluer l’état de contamination en MNPs dans ces deux estuaires, en analysant trois compartiments : l’eau, les sédiments et les copépodes eux-mêmes.

  • Le deuxième vise à exposer en laboratoire ces populations naturelles aux types de plastiques identifiés lors du premier volet et d’en observer les effets. L’objectif est d’évaluer non seulement les impacts à court terme (sur la survie, la croissance ou la reproduction), mais aussi les effets à long terme à travers une étude sur quatre générations successives.

  • Enfin, le troisième axe explore l’influence du réchauffement climatique sur la bioaccumulation de ces particules plastiques, c’est-à-dire leur capacité à s’accumuler progressivement dans les tissus des organismes.

En combinant ces approches, cette recherche vise à mieux comprendre la résilience de ce complexe d’espèces clés face à des pressions environnementales multiples, et à anticiper l’évolution de ces écosystèmes fragiles.

Ce n’est que le début de l’aventure : les premiers résultats sont attendus dans les trois prochaines années… et nous sommes impatients de les partager.


Cet article est publié dans le cadre du festival Sur les épaules des géants, qui se déroule du 25 au 27 septembre 2025 au Havre (Seine-Maritime), dont The Conversation est partenaire. Joëlle Forget-Leray et Céleste Mouth seront présentes pour un débat après la projection, le 26 septembre à 13 h 45, du film Plastic People.

The Conversation

Céleste Mouth a reçu des financements dans le cadre du projet PiA 4 ExcellencEs - Polycampus LH 2020 / France 2030 / ANR 23 EXES 0011

Gesche Winkler a reçu des financements du conseil de recherches en sciences naturelles et en génie du Canada (CRSNG), de l'APOGÉE Canada "Transforming Climate Change" et du regroupement stratégique "Québec-Océan".

Joëlle Forget-Leray a reçu des financements dans le cadre du projet PiA 4 ExcellencEs - Polycampus LH 2020 / France 2030 / ANR 23 EXES 0011

PDF

25.09.2025 à 10:41

De 1992 à 2022, la laborieuse intégration de l’agriculture aux négociations climatiques

Marie Hrabanski, chercheuse en sociologie politique, politiques internationales et nationales de l'adaptation de l'agriculture au changement cliamtique, Cirad

Longtemps ignorée des COP sur le climat malgré son poids dans les émissions mondiales, l’agriculture peine à s’imposer, malgré des initiatives pour l’intégrer aux négociations.
Texte intégral (3560 mots)

À l’échelle mondiale, les systèmes agricoles, alimentaires et forestiers produisent plus du tiers des émissions de gaz à effet de serre, contribuant ainsi au changement climatique de façon significative. Pourtant, l’agriculture n’a été intégrée que tardivement aux négociations des COP sur le climat. Entre enjeux d’adaptation, d’atténuation et de sécurité alimentaire, les avancées restent timides. De récentes initiatives essaient toutefois de mieux intégrer les systèmes agricoles et alimentaires à l’agenda climatique mondial.

Nous reproduisons ci-dessous la première partie consacrée à ces questions du chapitre 2 (« De 1992 à 2022, la difficile mise à l’agenda de l’agriculture dans les négociations sur le climat ») de _l’Agriculture et les systèmes alimentaires du monde face au changement climatique. Enjeux pour les Suds, publié en juin 2025 par les éditions Quae, sous la coordination scientifique de Vincent Blanfort, Julien Demenois et Marie Hrabanski (librement accessible en e-book).


Depuis 1992 et la signature de la Convention-cadre des Nations unies sur les changements climatiques (CCNUCC), les gouvernements ou parties se rassemblent chaque année au sein des Conférences des parties (COP) pour orienter et opérationnaliser les engagements des États face au changement climatique.

L’agriculture a longtemps été absente de ces négociations qui, jusqu’à la fin des années 1990, se sont focalisées sur l’atténuation des émissions de gaz à effet de serre (GES). Pourtant, les systèmes agricoles et alimentaires sont particulièrement émetteurs de GES, et à la fois « victimes » et « solutions » face au changement climatique.

À partir des années 2010, les questions agricoles puis alimentaires intègrent progressivement l’agenda international du climat. Les États sont chargés de mettre en œuvre les actions climatiques pour l’agriculture et l’alimentation, qui sont détaillées dans leurs engagements climatiques nationaux que sont les contributions déterminées au niveau national (CDN ou NDC en anglais).

En 2020, plus de 90 % de ces contributions nationalement déterminées incluaient l’adaptation au changement climatique et faisaient de l’agriculture un secteur prioritaire, et environ 80 % d’entre elles identifiaient des objectifs d’atténuation du changement climatique dans le secteur agricole.[…]

Les insuffisances du protocole de Kyoto

Les articles 2 et 4 de la convention (CCNUCC) adoptée en 1992 évoquent le lien entre les changements climatiques et l’agriculture. Toutefois, les enjeux sont focalisés sur l’atténuation, par le biais notamment des négociations sur le cadre REDD+ (réduction des émissions dues à la déforestation et à la dégradation des forêts), qui ont abouti en 2013 à Varsovie après plusieurs années de discussions très laborieuses et clivantes, notamment entre pays développés et pays en développement.


À lire aussi : Crédits carbone et déforestation évitée : impact réel ou risque de greenwashing ?


Le protocole de Kyoto, adopté en 1997, fait référence à l’agriculture et aux forêts, en soulignant que le secteur de l’utilisation des terres, du changement d’affectation des terres et de la foresterie (UTCATF) peut constituer une source de GES.

Ce protocole fixait des objectifs ambitieux de réduction des émissions uniquement pour les pays industrialisés (dits « annexe I »), dans un fonctionnement top-down, contrairement à l’accord de Paris. Il couvrait le méthane et le protoxyde d’azote, principaux gaz émis par le secteur agricole, et établissait des niveaux de référence forestiers à respecter.

Ce mode de travail a toutefois montré ses limites, avec notamment les États-Unis qui n’ont pas ratifié ce protocole et le Canada qui en est sorti. En application de ce protocole, deux mécanismes de certification de projets de compensation carbone ont été développés : le mécanisme de mise en œuvre conjointe (Moc) et le mécanisme de développement propre (MDP), au sein desquels les secteurs agricoles et forestiers ne seront pas intégrés avant le milieu des années 2000.

Il faut attendre la COP17 de Durban, en 2011 (voir figure ci-dessous), pour que l’agriculture soit appréhendée comme un problème global, en étant à la fois cadré comme un enjeu d’atténuation et une question d’adaptation au changement climatique.

Les questions agricoles dans les négociations climatiques entre 1992 et 2023.

En effet, à la suite de la mobilisation d’acteurs hétérogènes en faveur de la notion de climate-smart agriculture et dans un contexte politique renouvelé, l’agriculture est intégrée à l’ordre du jour officiel de l’organe de la COP chargé des questions scientifiques et techniques (SBSTA, Subsidiary Body for Scientific and Technological Advice). Cinq ateliers auront lieu entre 2013 et 2016.

La FAO a promu la climate-smart agriculture, ou l’agriculture climato-intelligente, dès la fin des années 2000. Cette notion vise à traiter trois objectifs principaux :

  • l’augmentation durable de la productivité et des revenus agricoles (sécurité alimentaire) ;

  • l’adaptation et le renforcement de la résilience face aux impacts des changements climatiques (adaptation) ;

  • et la réduction et/ou la suppression des émissions de gaz à effet de serre (l’atténuation), le cas échéant.)


À lire aussi : Les sept familles de l’agriculture durable


Quelle place pour l’agriculture dans l’accord de Paris ?

Pourtant, s’il y a bien une journée consacrée à l’agriculture pendant la COP21 en 2015 en parallèle des négociations, l’accord de Paris aborde uniquement l’agriculture sous l’angle de la sécurité alimentaire et de la vulnérabilité des systèmes de production alimentaire.

Les écosystèmes agricoles et forestiers sont uniquement couverts par l’article 5 de l’accord de Paris, qui souligne l’importance de préserver et de renforcer les puits de carbone naturels et qui met en lumière des outils comme les paiements basés sur des résultats REDD+ et le mécanisme conjoint pour l’atténuation et l’adaptation des forêts (Joint Mitigation and Adaptation Mechanism for the Integral and Sustainable Management of Forests, ou JMA).

Une étape importante est franchie en 2017, avec la création de l’action commune de Koronivia (KJWA). Les ateliers se font maintenant en coopération avec les organes constitués au titre de la convention, par exemple le Fonds vert pour le climat. Les observateurs, dont les ONG et la recherche, participent également aux ateliers.

De 2018 à 2021, sept ateliers sont organisés (sur les méthodes d’évaluation de l’adaptation, les ressources en eau, le carbone du sol, etc.) et permettent à tous les États et parties prenantes (stakeholders) de partager leurs points de vue sur différents enjeux agricoles.

L’accélération de l’agenda climatique va dans le même temps permettre, pendant la COP26 de Glasgow, de prendre en charge la question des émissions de méthane, dont près de 40 % sont d’origine agricole, selon l’IEA (International Energy Agency).

Réunion ministérielle sur le Global Methane Pledge lors de la COP28 en 2023. Ryan Lim/Commission européenne, CC BY

Un « engagement mondial » (Global Methane Pledge) a été lancé en 2021 par l’Union européenne (UE) et les États-Unis, avec pour objectif de réduire les émissions mondiales de méthane de 30 % d’ici à 2030 par rapport à 2020. Il regroupe aujourd’hui 158 pays, sans toutefois que la Chine, l’Inde et la Russie figurent parmi les signataires.

Les points de blocage identifiés à l’issue des COP26 et COP27

En 2022, l’action commune de Koronivia arrivait à son terme. L’analyse des soumissions faites par les pays et les observateurs, dont la recherche, met en évidence la pluralité des façons de penser le lien entre les questions agricoles et les questions climatiques, ce qui va se traduire notamment par de fortes tensions entre des pays du Nord et des pays du Sud dans les négociations lors de la COP27 de Charm el-Cheikh en Égypte (2022).

Trois principaux points de blocage ont pu être identifiés entre différents pays des Nords et des Suds. D’autres clivages sont également apparus, permettant ainsi de relativiser l’existence d’un Nord global et d’un Sud global qui s’opposeraient nécessairement.

Le premier a trait à l’utilisation du terme atténuation dans le texte de la décision de la COP. En effet, si toutes les parties étaient d’accord pour que figure dans le texte l’importance de l’adaptation de l’agriculture au changement climatique, l’Inde, soutenue par d’autres pays émergents restés plus en retrait, s’est montrée particulièrement réticente à voir apparaître aussi le terme atténuation.

Pour ce grand pays agricole, les enjeux d’atténuation ne doivent pas entraver la sécurité alimentaire des pays en développement et émergents. À quelques heures de la clôture des négociations, l’Inde a accepté que le terme atténuation figure dans la décision de la COP3/CP27, créant « l’initiative quadriennale commune de Charm el-Cheikh sur la mise en œuvre d’une action climatique pour l’agriculture et la sécurité alimentaire ».

Cet épisode montre à quel point il n’est pas acquis de penser en synergie les enjeux d’adaptation et d’atténuation pour de nombreux pays émergents et du Sud.

Un second point de blocage concernait la création d’une structure permanente affectée aux enjeux agricoles dans la CCNUCC. Cette demande, qui reste un point d’achoppement dans les négociations, est principalement portée par les pays du G77, même si des divergences notables existent entre les propositions faites.

Enfin, on peut identifier un enjeu lié à la place des systèmes alimentaires dans l’action climatique. Pour nombre de pays européens et émergents, la réflexion doit être faite à l’échelle des systèmes alimentaires : nos pratiques alimentaires dépendent étroitement des modes de production des produits agricoles, et une approche prenant en compte l’amont avec la production des intrants et l’éventuelle déforestation, et l’aval, avec le transport, le refroidissement, la transformation, et donc également les pertes et les gaspillages et les régimes alimentaires, est plus à même de permettre l’émergence de solutions gagnantes à tous niveaux.

Toutefois, d’un côté, le groupe Afrique préférait se focaliser sur le secteur agricole, une question déjà complexe à instruire. De l’autre côté, certains pays du Nord et aux économies en transition refusaient de voir apparaître le terme système alimentaire, l’hypothèse la plus probable étant la crainte de remettre en question la surconsommation de viande, la déforestation, ou encore le commerce, ce qu’ils souhaitent impérativement éviter.

Le terme système alimentaire a donc été rejeté dans le texte de l’initiative quadriennale commune de Charm el-Cheikh.


À lire aussi : Climat : nos systèmes alimentaires peuvent devenir plus efficaces, plus résilients et plus justes


Les timides avancées de Charm el-Cheikh

Malgré ces points de tensions, l’initiative quadriennale commune de Charm el-Cheikh sur la mise en œuvre d’une action climatique pour l’agriculture et la sécurité alimentaire a été adoptée et cette décision de COP3/CP27 marque donc une étape décisive dans les négociations.

On notera tout de même que ce texte ne promeut ni l’agroécologie, qui aurait ouvert la voie à une refonte holistique des systèmes agricoles, ni l’agriculture climato-intelligente (climate-smart agriculture), davantage tournée vers les solutions technologiques. Aucun objectif chiffré de réduction des émissions de GES agricoles n’est discuté dans les COP ; aucune pratique n’a été encouragée ou stigmatisée (utilisation massive d’intrants chimiques, etc.).

La présidence émirienne de la COP28 a ensuite mis en haut de l’agenda politique cette question, en proposant la Déclaration sur l’agriculture durable, les systèmes alimentaires résilients et l’action climatique, signée par 160 pays.

Elle appelle les pays qui la rejoignent à renforcer la place des systèmes agricoles et alimentaires dans les contributions déterminées au niveau national et dans les plans nationaux d’adaptation et relatifs à la biodiversité.

Éditions Quae, 2025

Dans la foulée de la COP28, la FAO a proposé une feuille de route qui établit 120 mesures (dont des mesures dites agroécologiques) et étapes clés dans dix domaines pour l’adaptation et l’atténuation pour les systèmes agricoles et alimentaires. Elle vise à réduire de 25 % les émissions d’origine agricole et alimentaire, pour atteindre la neutralité carbone à l’horizon 2035, et à transformer d’ici 2050 ces systèmes en puits de carbone capturant 1,5 Gt de GES par an.

En définitive, l’initiative de Charm el-Cheikh portait sur l’agriculture et non pas sur les systèmes alimentaires, mais a donné lieu à un atelier, en juin 2025, sur les approches systémiques et holistiques en agriculture et dans les systèmes alimentaires, et le forum du Standing Committee on Finance de 2025 portera sur l’agriculture et les systèmes alimentaires durables. Le sujet fait donc son chemin dans les enceintes de la CCNUCC.


Ce chapitre a été écrit par Marie Hrabanski, Valérie Dermaux, Alexandre K. Magnan, Adèle Tanguy, Anaïs Valance et Roxane Moraglia.

The Conversation

Marie Hrabanski est membre du champ thématique stratégique du CIRAD sur le changement climatique et a reçu des financements de l'ANR APIICC (Evaluation des Plans et Instruments d’Innovation Institutionnelle pour lutter contre le changement climatique).

PDF

25.09.2025 à 10:41

Du slip troué aux sachets de thé, quelques indicateurs pour mesurer la santé des sols

Coline Deveautour, Enseignante-Chercheuse en Ecologie microbienne des sols, UniLaSalle

Anne-Maïmiti Dulaurent, Enseignant-chercheur en écologie animale et agroécologie, UniLaSalle

Marie-Pierre Bruyant, Sciences végétales, UniLaSalle

Du slip enterré à l’analyse en laboratoire, des méthodes parfois insolites révèlent l’état de santé des sols, et soulignent son rôle vital pour l’agriculture.
Texte intégral (2778 mots)
Le test du slip est très simple à interpréter : plus le slip retrouvé sera troué, plus le sol sera en bonne santé. Gabriela Braendle/Agroscope

Du slip en coton aux sachets de thé enterrés, de l’analyse chimique en laboratoire aux espèces bio-indicatrices, voici un panorama de quelques tests étonnants qui permettent d’informer de la santé des sols. Derrière leur éventuelle dimension ludique, ils montrent à quel point les données ainsi recueillies sur le bon fonctionnement de ces écosystèmes sont précieuses, notamment pour l’agriculture.


Les sols nous rendent des services précieux et encore trop souvent invisibles : c’est grâce à eux que de nombreuses espèces – dont la nôtre – peuvent se nourrir, voire se vêtir, grâce aux cultures textiles. Ils sont la base physique sur laquelle une large partie des écosystèmes terrestres – ainsi que les infrastructures humaines – sont bâtis.

Ils rendent des services écosystémiques incomparables. Non seulement les sols fournissent aux plantes l’eau et les nutriments nécessaires à leur croissance, mais ils permettent aussi de réguler le cycle de l’eau, entre le ruissellement de la pluie et son infiltration. De ce fait, ils jouent un rôle clé pour atténuer l’ampleur des inondations. Leur fonction de puits de carbone en fait également des alliés précieux de la décarbonation.

Les sols représentent un habitat indispensable pour la survie de certains organismes tels que des micro-organismes (bactéries, champignons, algues, protozoaires…) mais aussi d’animaux plus ou moins grands (lombriciens, arthropodes, nématodes…), tous liés par une chaîne alimentaire complexe.

Ces organismes sont très nombreux : une cuillère à café de sol contient plus d’êtres vivants qu’il n’y a d’humains sur la Terre ! On y retrouve ainsi plusieurs centaines de millions de bactéries, plusieurs dizaines de milliers de champignons, des centaines de protozoaires et des dizaines d’arthropodes tels que des acariens ou des collemboles.

Dans ces conditions, un sol en bonne santé est un sol qui fonctionne bien, c’est-à-dire qui constitue un habitat adapté pour tous ces êtres vivants. Il leur offre le gîte et le couvert : un toit sûr et constant et de quoi se nourrir en suffisance. La bonne santé d’un sol constitue un atout indéniable pour l’agriculture en termes de fertilité, production et de lutte contre les maladies…. Mais comment peut-on la mesurer simplement ?


À lire aussi : La vie secrète des sols français


Du test du boudin au slip troué

Des tests, en tant que chercheuses spécialisées aux milieux agricoles, nous en avons connus : du test du boudin à celui du verre d’eau, de la couleur à l’odeur du sol, du test à la bèche au décompte des vers de terre, il y a l’embarras du choix.

Évoquons l’un de ces tests qui a le mérite d’être simple, efficace et non dénué d’humour : le fameux test du slip. Pour connaître la santé d’un sol, agricole par exemple, on peut ainsi enterrer un slip en pur coton blanc non traité, puis le déterrer quelques mois plus tard afin de constater son état.

Le test du slip est facile à interpréter : une dégradation rapide est plutôt une bonne nouvelle. Gabriela Braendle / Agroscope / Université de Zurich

L’interprétation est rapide et facile : un slip retrouvé plutôt intact sera une mauvaise nouvelle, tandis qu’un slip troué sera signe d’une dégradation de la cellulose du coton. L’explication est, elle, un peu plus complexe : un sol en bonne santé est habité par une grande diversité d’organismes, qui lui confèrent un fonctionnement optimal, et notamment un bon niveau de décomposition et de minéralisation de la matière organique.

Ce sont ces fonctions du sol qui permettent le recyclage des nutriments nécessaires à la croissance des plantes. Or, la cellulose du slip, par exemple, est une matière organique. Ainsi, si le slip est en bon état lorsqu’il est déterré, cela indique qu’il n’a pas été dégradé, et que le sol ne remplit pas correctement ses fonctions de décomposition.


À lire aussi : La biodiversité des sols nous protège, protégeons-la aussi


Les sachets de thé, un test de référence

Pour affiner l’analyse, il existe un autre test moins médiatisé : celui des sachets de thé.

Deux sachets de thé prêts à être enterrés. Anne-Maïmiti Dulaurent, Fourni par l'auteur

Il suffit d’enterrer des sachets de thé de compositions différentes (thé vert ou rooibos), plus ou moins « digestes » pour les organismes du sol – et donc plus ou moins difficiles à dégrader – et d’étudier la perte de poids des sachets après un temps donné. S’ils se sont allégés, c’est qu’ils ont perdu de la matière – et donc que celle-ci a été décomposée par les organismes du sol.

Après tout, un sachet de thé contient simplement de la matière végétale morte à l’intérieur d’une toile en nylon. Cela représente un bon appât pour les organismes décomposeurs.

Mais tous les thés ne se valent pas : le thé vert est plus facile à dégrader, tandis que le roiboos est plus ligneux et met plus longtemps à être décomposé. Comparer les deux permet donc d’évaluer dans quelle mesure le sol peut dégrader différents types de matière organique.

Cela peut prêter à sourire, mais il s’agit pourtant d’une méthode standardisée mise en place par des chercheurs. Son protocole est disponible pour toute personne souhaitant évaluer l’efficacité de dégradation d’un sol.

Non seulement cela fournit des informations précieuses sur la capacité du sol à décomposer la matière organique, mais un tel protocole rend les résultats comparables entre différents sites du monde entier, peu importe la façon dont sont gérés les sols.

Grâce à cette méthode, des chercheurs d’UniLaSalle et des agriculteurs des Hauts-de-France ont pu mettre en évidence un meilleur niveau de dégradation de la matière organique dans des sols en agriculture de conservation des sols, un mode de gestion agricole moins intensif que le mode conventionnel.

Un sol sain est primordial pour les agriculteurs. En cas de mauvaise décomposition de la matière (c’est-à-dire, des slips intacts et des sachets de thé qui semblent prêts à être infusés malgré plusieurs semaines passées dans le sol), des analyses plus poussées en laboratoire sont alors utiles pour comprendre d’où vient le dysfonctionnement.


À lire aussi : Les sept familles de l’agriculture durable


Les analyses de sol, précieuses pour les agriculteurs

Les analyses de sol permettent de faire le bilan de la santé des sols, et sont donc précieuses pour les agriculteurs. Ces analyses peuvent s’intéresser à plusieurs paramètres et sont effectuées au laboratoire après avoir échantillonné le sol des parcelles.

Elles peuvent ainsi mesurer :

  • La texture du sol, qui informe sur la proportion de sable, limon et argile. C’est important, car certaines textures sont favorables à un type de culture, mais pas d’autres. Quelles que soient ses pratiques, l’agriculteur n’a aucun effet sur ce paramètre, mais doit en tenir compte pour adapter sa production et ses cultures.

  • Le taux de matière organique, qui correspond à la proportion de substances issues de la décomposition des plantes, des animaux et des microorganismes présents dans le sol. Un taux élevé améliore la capacité du sol à retenir les éléments nutritifs et renforce sa structure. L’agriculteur peut l’augmenter en apportant régulièrement différents types de matière organique, comme des effluents d’élevage, des digestats de méthanisation ou en favorisant la restitution de végétaux au sol.

  • La concentration en nutriments disponibles du sol (phosphore, potassium, magnésium, etc.) renseigne sur leur présence, en suffisance ou non, pour assurer les besoins des plantes cultivées. Une faible concentration d’un nutriment peut être compensée par l’apport de fertilisants minéraux ou de différentes matières organiques qui, décomposées par les habitants du sol, libéreront ce nutriment.

  • Enfin, le pH, qui indique l’état d’acidité du sol, impacte le développement des plantes. Il peut par exemple influencer la disponibilité des nutriments, mais aussi la présence et l’activité d’organismes bénéfiques pour les plantes. Il est possible pour l’agriculteur d’agir sur ce paramètre par différents types d’apports, comme la chaux qui permet d’éviter un pH trop acide.

Toutes ces informations permettent de guider la gestion du sol par l’agriculteur. Les analyses de sol peuvent être répétées au cours des années, notamment pour surveiller l’état d’une parcelle selon les pratiques agricoles mises en œuvre.

Des nouveaux bio-indicateurs en cours de développement

On l’a compris, les organismes du sol sont en grande partie responsables de son bon fonctionnement et de son état de santé. Mais ils sont sensibles à leur milieu et à la gestion des sols. Ainsi, pour tenir compte de leur présence, de nouveaux indicateurs reposant sur la vie du sol émergent depuis quelques années : on parle de bioindicateurs pour décrire ces espèces qui, par leur présence, renseignent sur les caractéristiques écologiques des milieux.

Bien sûr, différents bioindicateurs fournissent des informations différentes : l’abondance et la diversité de la mésofaune (collemboles et acariens) renseignent sur la capacité du sol à bien découper la matière, et les champignons plutôt sur l’efficacité du recyclage des nutriments. La sensibilité de ces organismes aux pratiques agricoles en fait de bons bioindicateurs.

D’autres indicateurs biologiques sont testés actuellement, par exemple pour évaluer le bon fonctionnement du cycle du carbone et de celui de l’azote.

Ces outils ne sont pas forcément accessibles pour la majorité des agriculteurs, car ils ont un coût financier pour le moment trop élevé. Un axe de recherche serait donc de développer des tests basés sur des bioindicateurs plus simples à mettre en œuvre et à interpréter.


À lire aussi : Comment l’agriculture industrielle bouleverse le cycle de l’azote et compromet l’habitabilité de la terre


The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

24.09.2025 à 16:43

Protéger les écoles des prochaines canicules : des solutions « low-tech » à expérimenter dès maintenant

Amaury Fievez, Doctorant et pilote de projets de recherche sur l'adaptation aux canicules dans les écoles primaires via des démarches lowtech, Mines Saint-Etienne – Institut Mines-Télécom

Adapter les écoles aux canicules se prépare dès à présent et, au-delà de transformations techniques, suppose un changement d’habitudes de vie.
Texte intégral (2048 mots)

Nous sommes en train de vivre les étés les plus chauds de ce siècle. L’intensification des vagues de chaleur entraînera des impacts de plus en plus importants sur nos sociétés. La fermeture de nombreuses écoles primaires lors de la canicule du mois de juin 2025 n’en est qu’un des premiers exemples. Et c’est dès à présent qu’il faut se préparer à protéger les établissements des prochaines canicules.


Les prévisions de Météo France sont sans équivoques : tous les scénarios climatiques convergent vers une augmentation de la fréquence et de l’intensité des épisodes de forte chaleur. Selon les scénarios les plus pessimistes du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) documentant les recherches sur le dérèglement climatique), l’Europe pourrait passer d’ici la fin du siècle d’un continent où l’on meurt de froid à un continent où l’on meurt de chaud.

Un tel bouleversement provoque un changement culturel majeur. Dans certaines régions du monde, dont le climat actuel est proche de notre climat futur, la société est active principalement le matin et le soir, le cœur de la journée amenant à un repos forcé. De ce fait, le secteur de l’éducation ne sera pas épargné car les canicules apparaîtront également de plus en plus tôt (et tard) dans la saison estivale, comme nous avons pu le constater au mois de juin 2025, entraînant la fermeture de milliers d’écoles et contraignant les familles à devoir se réorganiser.

Sur près de 50 000 écoles, très peu sont adaptées au climat futur et la plupart présentent d’ailleurs déjà une forte vétusté et une inadaptation au climat actuel. L’augmentation de la chaleur dans les écoles entraîne plusieurs conséquences, notamment :

  • une baisse de la concentration des enfants (et donc une baisse des résultats scolaires) ainsi que des risques sanitaires : les enfants étant un public plus sensible aux fortes chaleurs en raison principalement d’une moins bonne compréhension de leur confort thermique ;

  • une augmentation des coûts d’exploitation des bâtiments (factures d’électricité, contrat de maintenance des équipements) pour la collectivité si des climatisations sont installées pour atténuer les effets des vagues de chaleur ;

  • un impact sur l’organisation de l’ensemble de la société avec la fermeture de plus en plus fréquente des écoles en raison de températures intérieures trop élevées.

Quelles solutions s’offrent à nous ?

Malgré ce constat assez alarmant, on ne peut pas dire qu’on manque de connaissances ou d’idées pour commencer à s’adapter collectivement à ce changement de climat. Avant d’aller chercher des solutions techniques très complexes, il faut s’intéresser aux actions « low-tech ».

La ventilation nocturne des écoles, c’est-à-dire le fait de faire circuler l’air extérieur dans le bâtiment pendant la nuit, peut permettre un refroidissement important. Ce « stock de fraîcheur », que nous constituerions alors dans les murs, les sols, les meubles et les plafonds, serait « diffusé » pendant la journée à l’intérieur des salles de classe.

De même, la protection solaire de toutes les surfaces vitrées (surtout celles orientées au sud, ouest et est) sont essentielles pour éviter que la chaleur ne rentre dans le bâtiment. On peut retenir l’image suivante : une fenêtre non protégée laissant passer le rayonnement solaire revient à allumer un petit radiateur électrique dans la salle de classe. En période de canicule, on s’en passerait volontiers !

Des solutions… de bon sens ?

Il n’y a pas de grandes innovations techniques à réaliser pour ventiler des écoles la nuit ou pour installer des volets sur les fenêtres. D’autres le faisaient et le font toujours, et il n’est pas nécessaire d’aller jusqu’à l’international pour avoir des exemples. En effet, nous sommes nombreuses et nombreux à avoir des souvenirs plus ou moins anciens de séjours dans des maisons du sud de la France, où les volets étaient systématiquement fermés en journée et les fenêtres systématiquement ouvertes la nuit. De même, la température n’étant pas la seule variable jouant sur notre confort thermique, l’installation de brasseurs d’air peut avoir un effet bénéfique important.

Bien moins consommateur qu’une climatisation, un ventilateur améliore notre confort par la mise en mouvement de l’air. Il ne s’agit pas que d’une « sensation » de fraîcheur ; l’effet sur la thermorégulation (le mécanisme par lequel notre corps régule sa température interne pour qu’elle reste aux alentours de 36,5 °C) est réel : l’air en mouvement vient « voler » de l’énergie thermique sur notre corps par le phénomène de « convection ».


À lire aussi : Pourquoi un ventilateur donne-t-il un sentiment de fraîcheur ?


Mais contrairement à ce qu’on pourrait penser en première approche, ces solutions ne sont pas simples à mettre en œuvre, notamment dans les écoles, car de nombreux blocages apparaissent rapidement, par exemple lorsqu’il s’agit d’y laisser les fenêtres ouvertes la nuit. Le risque d’intrusion est souvent le premier sujet de discorde, qu’il concerne des personnes mal intentionnées ou des animaux nuisibles.

La crainte des dégâts liés aux intempéries (vent, pluie, etc.) est également présente et questionne notamment les sujets assurantiels. Enfin, des questions très pratiques vont se poser : qui ouvre le soir et qui referme le matin ?

Pour autant, le dérèglement climatique nous affecte déjà en tant que société. Les réponses que nous devons apporter doivent être à la hauteur de l’enjeu : ces contraintes organisationnelles doivent être dépassées. Là se situe l’innovation dont nous avons besoin.

Le projet RACINE : la recherche par l’expérimentation ?

Le projet de recherche sur l’adaptation aux canicules à l’intérieur de nos écoles (dit projet Racine, porté par l’Action des collectivités territoriales pour l’efficacité énergétique (ou, programme Actee) et sous la direction scientifique de l’école des Mines de Saint-Étienne, vise à expérimenter la mise en œuvre de ces solutions low-tech dans les écoles primaires.

Les quinze écoles pilotes participant à l’expérimentation ont été équipées de capteurs (thermiques et hygrométriques) au début de l’été, permettant notamment de confirmer l’importance de la ventilation nocturne des écoles. Sur ce graphique, nous pouvons voir l’évolution des températures des salles de classe d’une des écoles sur toute la durée de la canicule de juin 2025 et de les comparer avec l’évolution de la température extérieure. Alors que cette dernière descend assez bas au cœur de la nuit, même au cœur de la canicule, celles des salles de classe ne descendent que très peu, car elles ne sont pas ventilées.

On peut voir des baisses de température dans les classes en tout début de matinée, en raison de l’ouverture des fenêtres par le personnel de ménage. Toutefois, cette courte aération ne permet que le renouvellement de l’air et non le stockage de froid sur plusieurs heures dans la structure du bâtiment.

Fourni par l'auteur

Cet exemple est tout à fait représentatif des autres écoles de RACINE et nous pouvons sans prendre trop de risques émettre l’hypothèse qu’elle est représentative de l’ensemble des écoles françaises. La suite de notre travail consistera à mobiliser cet important gisement de fraîcheur en permettant la ventilation nocturne de ces écoles. Les solutions peuvent être techniques (installation de dispositifs anti-intrusion et de moustiquaires) ou organisationnelles. L’arrivée du dérèglement climatique s’accompagnera-t-elle du retour du gardiennage dans nos écoles ?

Même si ce potentiel de rafraîchissement est colossal, il ne sera pas illimité. L’intensification des canicules, en particulier lorsqu’il est couplé à l’effet « d’îlot de chaleur urbain » (accumulation de la chaleur dans les centres-villes), élèvera également les températures nocturnes. Sans pour autant rendre ce sujet obsolète, ces « nuits tropicales » réduiront les possibilités de rafraîchissement par ouverture des fenêtres la nuit.

D’autres solutions devront alors être mises en œuvre, notamment des travaux plus importants sur les écoles (par exemple l’isolation de l’enveloppe du bâtiment) ou la mise en place de systèmes de refroidissements actifs. En revanche, l’adaptation ne pourra pas se faire sans des changements sociétaux importants, comme le décalage des heures de cours voire le décalage du début et de la fin de l’année scolaire.


À lire aussi : Dans les villes, comment les citoyens peuvent participer à la lutte contre la surchauffe


Il ne faut pas se tromper dans la liste des priorités. Tout comme on construit une maison en commençant par les fondations, l’adaptation des écoles aux canicules doit démarrer par la mise en œuvre des actions les plus sensées et les plus accessibles. Climatiser des écoles dont la conception et l’utilisation relèvent plus du four solaire que d’un bâtiment adapté au climat futur n’est pas tout à fait optimal. Pour construire une société robuste, il faut intégrer la gestion de la chaleur dans notre quotidien. L’adaptation sera culturelle avant d’être technique.

The Conversation

Amaury Fievez travaille pour ACTEE (Action des Collectivités Territoriales pour l'Efficacité Energétique), programme de CEE porté par la FNCCR.

PDF

24.09.2025 à 16:09

Les classes populaires en ont-elles vraiment marre de l’écologie ?

Alex Roy, Chercheur associé en sociologie urbaine, ENTPE

Dany Lapostolle, Professeur en aménagement de l'espace et urbanisme, Université de Technologie de Troyes (UTT)

Jérémy Sauvineau, Docteur en anthropologie, Université Bourgogne Europe

Une recherche-action, menée en Bourgogne-Franche-Comté auprès de personnes en situation de précarité, montre que ces dernières sont tout sauf insensibles aux enjeux environnementaux.
Texte intégral (2613 mots)

C’est un mot qui peut provoquer des tensions dans toutes les classes sociales, notamment les classes populaires. Celui d’écologie, qui se retrouve parfois associé à des solutions inaccessibles, à des discours moralisateurs. Pourtant, comme le montrent les résultats d’une recherche-action, menée en Bourgogne-Franche-Comté, auprès de collectifs citoyens avec des personnes en situation de précarité, ces dernières sont tout sauf insensibles aux enjeux environnementaux. Elles sont même pourvoyeuses de solutions.


C’est une situation pour le moins paradoxale. Des enquêtes, comme celles de Parlons climat ou de l’Agence de la transition écologique (Ademe), montrent que les préoccupations environnementales restent globalement importantes dans l’ensemble de la population française. Mais, en parallèle de cela, une petite musique monte dans le champ politico-médiatique : celle d’un backlash (ou retour de bâton) écologique. Autrement dit, les commentateurs observeraient une forme de retour en arrière sociétal lié à un rejet des politiques et des discours environnementaux que l’on retrouve sous le vocable de l’« écologie punitive ». Une fois n’est pas coutume, une partie des classes populaires seraient à l’origine de cette opposition, à l’instar du mouvement des gilets jaunes. Ce présupposé n’est pas sans effets sur les politiques environnementales qui font aujourd’hui l’objet d’un détricotage.

Pourtant, si l’on se fie aux travaux de terrain du chercheur en science politique Théodore Tallent, l’opposition populaire demeure relative et, lorsqu’elle est constatée, elle n’est pas un rejet généralisé de l’écologie. Il s’agit plutôt d’une critique de solutions écologiques vues comme coûteuses et d’une critique de la manière dont les politiques environnementales sont menées : perçues comme injustes et imposées d’en haut.

En creux se dessine aussi une quête de reconnaissance d’une écologie ancrée dans les réalités des classes populaires, prenant en considération les contraintes économiques, les inégalités environnementales, et valorisant les pratiques de débrouillardise écologique, l’attachement aux liens sociaux humains et non humains de proximité.

Une étude que nous avons menée entre 2023 et 2025 vient appuyer ce constat. Prefigs (« précarité-écologie-futur-imaginaires-organisations-savoirs ») est un projet de recherche-action participative réalisé en partenariat avec quatre associations de Bourgogne-Franche-Comté qui ont chacune mobilisé un collectif citoyen dans leur territoire respectif : à Belfort (Territoire de Belfort), à Prémery (Nièvre), à Autun et à Tournus (Saône-et-Loire).

Lors de vingt-sept ateliers participatifs et de multiples réunions, l’objectif était de proposer un cadre favorable à un empowerment écologique, c’est-à-dire un pouvoir d’agir collectif, fondé sur l’expérience des personnes en situation de précarité avec une portée transformative. Pour ce faire, nous avons constitué des collectifs d’enquête capables de formuler un problème commun, puis d’esquisser des actions locales susceptibles de s’étendre à plus grande échelle. Ce sont 123 personnes qui se sont impliquées volontairement, pour la plus grande partie bénévolement, au sein de la démarche. Soixante-trois d’entre elles connaissent la précarité économique et sociale ou différentes formes de vulnérabilité, à l’instar du handicap mental (trois personnes concernées).

Une série d’ateliers dits « régionaux » ont, dans un second temps, permis de croiser les expériences locales de ces quatre terrains pour construire un récit commun d’une transition écologique juste et élaborer collectivement des recommandations pour l’action publique. Aux 123 participants et participantes volontaires des premiers ateliers se sont alors ajoutés 115 autres personnes qui se sont joints à des ateliers locaux et régionaux de restitution.

Derrières les critiques de l’écologie, les inégalités sociales

Dans notre enquête réalisée avec ces collectifs citoyens, nous nous sommes confrontés aux critiques de l’écologie. Ce sont elles qui façonnent le présupposé du backlash. Au lieu de les balayer d’un revers de main ou de les contourner en évitant d’employer le terme d’écologie, nous avons, au contraire, voulu ouvrir un espace de dialogue démocratique. Un participant en situation de précarité a ainsi pu rapporter :

« Dans tous les quartiers de France, ce n’est pas ce truc de faire un jardin qui va régler les problèmes sociaux. L’écologie bio on le fout partout. À un moment, faut arrêter ! »

Un autre a, pour sa part, déploré à propos des voitures électriques :

« C’est un truc de riches. La moins chère, c’est combien ? 30 000 euros ? C’est dix fois mon budget quand je vais acheter une voiture, c’est du 2 400 euros ! »

Loin d’être la résultante d’un climato-scepticisme, les critiques exprimées révèlent les contraintes qu’éprouvent les personnes en situation de précarité, mais aussi en situation intermédiaire. Ce sont les difficultés du quotidien sur les manières de se déplacer en milieu rural, de se nourrir convenablement à faible coût ou de maintenir un milieu de vie agréable autour de soi qui se sont exprimées. Mais c’est aussi une anxiété qui a été partagée liée à la crise écologique venant assombrir les perspectives pour l’avenir, tout en ayant des impacts concrets dans le présent. « Peut-être que l’humain va disparaitre », « On est dans le mur, le mal est fait » font ainsi partie des inquiétudes qui ont été verbalisées lors des ateliers.

Les collectifs de Prefigs ont alors exposé leurs préoccupations environnementales, des valeurs d’antigaspillage, leurs savoirs de la débrouillardise populaire écologique ainsi que quelques pratiques qualifiées volontiers d’écogestes. Ce dernier point est intéressant, car il est vrai que les écogestes ont également fait l’objet de critiques, parfois virulentes. Ainsi, dans le quartier populaire du Mont, à Belfort, les « petits gestes pour la planète » ont été décriés par certains (« Ce n’est pas ça qui va sauver le monde », a pu assurer un participant), mais aussi largement valorisés par d’autres :

« Moi j’y crois, j’essaie de polluer le moins possible, trier mes déchets, moins rouler, pas prendre l’avion »,

a-t-on pu entendre, ou encore :

« On fait à notre échelle, du tri […]. Le jardin, c’est petit, il y a peu de monde et on ne nourrira pas le quartier. Mais c’est une petite piste d’avancée. »

Encore une fois, ce qui se cache bien souvent derrière la critique des écogestes, c’est davantage le rejet d’une moralisation venant d’en haut, que les pratiques en elles-mêmes. Alors oui, quelques solutions écologiques ont été décriées à l’instar de la voiture électrique et de l’alimentation bio. Mais la principale raison avancée, c’est l’inaccessibilité économique de ces biens. Car les participants et participantes à Prefigs, en situation de précarité ou non, n’ont pas remis en question l’intérêt d’une alimentation saine et durable ou d’un mode de transport moins carboné.

« Ce qu’il nous faut, c’est un truc simple, a résumé un participant ayant l’expérience de la précarité. On a juste besoin d’un petit coin pour se reposer, qui ne prend pas trop d’énergie, qui ne dépense pas beaucoup dans l’écologie. Ça, c’est l’idéal. Un toit, un coin où se reposer, mais minimaliste, pas besoin de plus. Tu vois que, pendant la vie, on n’a pas besoin de plus pour être heureux. »

L’enquête Prefigs met finalement en évidence une « écologie en tension » : tour à tour rejetée, lorsqu’elle est perçue comme une injonction moralisatrice ou élitiste, et vécue comme une évidence, lorsqu’elle se fond dans les pratiques ordinaires (cuisine, jardinage, récupération, covoiturage). Celles-ci, bien que modestes, produisent des affects positifs et participent d’une responsabilisation située, ouvrant des pistes pour penser une écologie ancrée dans les réalités sociales.

La transition écologique juste au concret

Alors que les enjeux de préservation sont souvent vus comme un supplément d’âme des populations aisées, les personnes en situation de précarité qui ont participé à Prefigs se sont engagées avec d’autres dans des actions concrètes dénonçant le manque de considération à la fois environnementale et sociale.

Pendant les deux années d’enquête les collectifs citoyens ont, d’abord, identifié une situation jugée problématique, générée par la précarité, par les inégalités environnementales, par le changement climatique, par la raréfaction des ressources, de la biodiversité et des liens sociaux. Les difficultés du quotidien ont ainsi rejoint les enjeux globaux pour étudier les conditions d’une mobilité moins carbonée en milieu rural (à Prémery), d’une alimentation saine et durable pour tous (à Tournus), d’une habitabilité des milieux de vie en quartiers populaires attentive aux humains comme aux non-humains (à Autun et à Belfort).

Puis les collectifs se sont engagés dans l’élaboration de solutions locales de transition écologique juste, en organisant un système de covoiturage, une caisse locale alimentaire, des jardins partagés, des animations participatives, et en créant une œuvre collective, intitulée la Forêt magique.

Cette dernière est un bon exemple pour illustrer le processus de mobilisation écologique en milieux populaires. Dans l’Autunois, les débats autour des déchets ont été au cœur des échanges, révélant une double lecture : certaines personnes attribuent la saleté du quartier à la responsabilité individuelle des habitants et habitantes, d’autres pointent les insuffisances des services publics, notamment dans la collecte et le tri. Ce questionnement a permis la construction progressive d’une responsabilité collective envers leur cadre de vie.

Ce processus a trouvé une expression concrète à travers la création d’un objet transitoire, la Forêt magique, une maquette réalisée à partir de matériaux de récupération et donnant à voir les différentes représentations de ces concepteurs sur la biodiversité. L’objet est transitoire, car il a servi ensuite de support pour élargir le débat de la « relation à la nature », au-delà du groupe initial, pour toucher un public diversifié (enfants, élus et élues du territoire, associations, grand public) dans le cadre d’un partenariat avec la communauté de communes.

À l’instar du groupe autunois, des agencements partenariaux avec les institutions locales ont permis la montée en échelle territoriale et sociale de ces initiatives en élargissant le cercle des personnes impliquées. Ainsi, à Belfort, les habitants et habitantes d’un quartier populaire se sont organisés en « amicale des voisins » et ont établi des relations avec le bailleur social et la commune pour déployer leurs projets autour de l’amélioration du cadre de vie (jardin collectif, compostage, mobilier urbain, plantation d’arbres fruitiers, etc.). La communauté de communes des Bertranges a pris en charge la réalisation d’une étude de faisabilité économique pour développer le système de covoiturage imaginé par le collectif de Prémery. Le groupe tournugeois, initialement constitué des membres d’une épicerie sociale, s’est élargi à d’autres partenaires pour monter un comité local visant la préfiguration d’une sécurité sociale alimentaire.

Ces initiatives locales façonnent « par le bas » ce que le Labo de l’économie sociale et solidaire (ESS) appelle une « transition écologique juste ». Ce terme désigne une transformation radicale et démocratique visant la soutenabilité écologique, l’émancipation et la satisfaction digne des besoins de tous et toutes. Inspirée de la justice environnementale nord-américaine, la transition écologique juste repose sur quatre piliers :

  • réduire les inégalités (justice distributive),
  • garantir la participation (justice procédurale),
  • reconnaître les différences culturelles et sociales,
  • et renforcer le pouvoir d’agir.

Vers de nouveaux récits porteurs d’action collective

Les résultats du projet Prefigs démontrent ainsi que les barrières à l’engagement collectif des personnes en situation de précarité (sentiment d’impuissance, désaffiliation, injonctions institutionnelles, fatigue, perte de dignité, résignation) ne sont pas une fatalité. La sensibilité environnementale n’est pas l’apanage d’une classe sociale, d’autant moins lorsqu’elle est fondée sur la prise en compte des inégalités sociales et des contraintes économiques.

Tout l’enjeu est donc de rendre visible cette écologie qui s’élabore par le bas, dans des initiatives citoyennes et associatives, accompagnée parfois par les pouvoirs publics. Ce sont de nouveaux récits à construire. Et ils se construisent déjà, qu’ils prennent le nom de « transition écologique juste », de « social-écologie » ou encore d’« écologie populaire ». Ces récits ont une vocation existentielle. C’est un espace d’activités socioécologiques qui cherche la reconnaissance de son existence en vue d’une pérennisation dans un contexte de précarisation budgétaire forte du milieu associatif.

Mais ces récits ont aussi une vocation transformative : des collectifs citoyens et associatifs interpellent les pouvoirs publics dans leur responsabilité à intégrer ce référentiel socioécologique pour son rôle de planification écologique à toutes les échelles.

Selon les participants et participantes à notre journée de restitution finale de Prefigs, la planification d’une transition écologique juste passe par la formation de la fonction publique et des élus ou élues à ces enjeux, par le soutien des expérimentations locales sans chercher à les contrôler, par le décloisonnement des silos de secteurs d’action publique, par la création d’espaces de délibération démocratique inclusifs, par des dispositifs de compensation économique des mesures écologiques, par la démocratisation des savoirs scientifiques disponibles et par des aménagements facilitant le changement de pratiques prenant en compte les contraintes des habitants et des habitantes.

The Conversation

Le projet a reçu des financements de l'ADEME, programme TEES et de la DREAL BFC

Le projet a reçu des financements de l'ADEME, programme TEES et de la DREAL BFC

PDF

24.09.2025 à 13:39

Des roses en hiver : aux racines d’un modèle industriel

Pierre-Louis Poyau, Doctorant en Histoire, Université Paris 1 Panthéon-Sorbonne

La fleur est aujourd’hui un bien de consommation comme un autre. Cette réalité remonte au XIXe siècle, où grâce au train, au charbon et aux engrais, la floriculture s’industrialise.
Texte intégral (2353 mots)
Vue par aéroplane des serres de la roseraie R. Adnet, au Cap d’Antibes, dans les Alpes-Maritimes (1913). Archives départementales des Alpes-Maritimes

C’est un modèle de plus en plus contesté : celui du commerce industriel et mondialisé des fleurs. Polluant, potentiellement dangereux pour la santé des fleuristes et des agriculteurs, cette réalité ne date pourtant pas d’hier. Pouvoir produire en quantité des fleurs toute l’année est un héritage du XIXᵉ siècle. Retour sur cette époque où la fleur est devenue un bien de consommation comme un autre.


Entre les chrysanthèmes de la Toussaint et les roses rouges de la Saint-Valentin, en fin d’année dernière, le visage d’Emmy Marivain a surgi dans l’actualité. Avec lui a émergé le sujet de l’impact sur la santé des pesticides utilisés par la floriculture. Cette fille de fleuriste, décédée prématurément d’un cancer à l’âge de 11 ans, a de fait contribué à la prise de conscience des ravages potentiels de l’industrie des fleurs coupées.

Massivement importées d’Afrique et d’Amérique du Sud, elles sont en effet exposées à des quantités considérables de pesticides ; près de 700 produits différents si l’on en croit le récent livre blanc publié par l’Union nationale des fleuristes.

Mais comment en est-on arrivé là, à des fleurs produites en toutes saisons en quantité considérable à l’aide d’intrants chimiques, transportées sur des distances de plus en plus longues, et à des contrôles par là même complexifiés ? Tout ce qui façonne aujourd’hui l’industrie et le modèle de production des fleurs que nous achetons prend en fait ses racines dans l’Europe du XIXe siècle. Marginal dans la première moitié du siècle, le commerce de la fleur coupée prend un essor important dans les années 1860, porté par l’intensification de la production, par le développement de la culture sous serres chauffées et par l’usage croissant d’engrais, d’insecticides et d’anticryptogamiques (produits destinés à la lutte contre les champignons).

À l’aube du XXe siècle, ce sont ainsi des centaines de millions de fleurs qui sont produites chaque année en France et expédiées dans toute l’Europe. La floriculture est en voie d’industrialisation.

« Protester contre l’hiver » : l’essor de la culture à contre-saison

Le forçage, qui consiste à accélérer la floraison en exposant une fleur à la chaleur, est pratiqué dès la première moitié du XIXe siècle par les horticulteurs. Le procédé est relativement simple : les plantes sont placées sous une serre chauffée grâce à des tuyaux remplis d’air ou d’eau et reliés à une chaudière. Les années 1850-1870 voient se multiplier les expérimentations destinées à améliorer ce dispositif qui est rapidement généralisé.

Au mitan des années 1900, la région parisienne compte près de 3 000 serres consommant environ 350 tonnes de charbon par an pour la production floricole. Il s’agit bien, pour les horticulteurs, de s’affranchir des contraintes naturelles en proposant des fleurs toute l’année à des consommateurs de plus en plus nombreux. Comme l’écrit l’historien et romancier Victor du Bled en 1901,

« le forçage des fleurs est une des innombrables applications de cette loi universelle qui met l’homme aux prises avec la nature ; il proteste contre l’hiver, il brouille les Parisiens avec les saisons, il leur fournit des roses pendant toute l’année ».

Cet essor du forçage s’accompagne, notamment dans le Midi (principalement sur le littoral méditerranéen), d’une culture particulièrement intensive. Les horticulteurs n’y pratiquent pas la jachère, qui consiste à laisser la terre sans travailler et se reposer temporairement. Si l’intensification de la production concerne de nombreux pans de l’agriculture, cette dynamique est particulièrement forte dans le cas de la floriculture. En effet, la petite taille des exploitations floricoles et la forte valeur ajoutée des fleurs produites incitent les floriculteurs à chercher les rendements les plus élevés possibles. Certaines terres floricoles produisent ainsi chaque année entre six et dix récoltes.

La culture intensive contribue à l’épuisement des sols et à l’affaiblissement des végétaux quand l’humidité et la chaleur qui règnent dans les serres favorisent la prolifération des parasites. Pour parer à ces problèmes, les horticulteurs sont de plus en plus nombreux, dans les dernières décennies du XIXe siècle, à défendre le déploiement des engrais, insecticides et anticryptogamiques.

La chimie agricole au service de l’essor de la floriculture

Comme les historiens l’ont largement mis en lumière, les dernières années du XIXe siècle voient l’agriculture faire un usage croissant des nouveaux engrais et des insecticides chimiques. Les horticulteurs ne se tiennent pas à l’écart de ce mouvement et les premières années du XXe siècle sont un temps d’intenses expérimentations en matière d’application à la floriculture des nouveaux produits issus de la chimie agricole. Les engrais azotés, sulfate d’ammoniac et nitrate de soude notamment, commencent à être utilisés, mais ne seront massivement employés qu’après la Première Guerre mondiale.

Pour lutter contre les pucerons et les araignées rouges qui s’en prennent aux cultures, les horticulteurs se servent de plus en plus du sulfure de carbone, du lysol, de l’acide sulfurique et du cyanure de potassium, tout en minimisant les risques de ces produits. Certes, ce sont « des poisons extrêmement redoutables », admet l’horticulteur Oscar Labroy en 1904. Néanmoins, « avec de la prudence, aucun danger n’est à craindre ».

Certains acteurs se spécialisent dans la chimie horticole. C’est le cas de la compagnie Truffaut, installée à Versailles en 1897. Elle produit en série un engrais, la biogine, dont la supériorité sur le fumier est régulièrement vantée dans ses brochures publicitaires. L’insecticide Truffaut, quant à lui, est censé remplacer avantageusement les anciennes méthodes à base de jus de tabac. En 1913, ce sont 4 000 tonnes d’engrais, d’insecticides et d’anticryptogamiques qui sont expédiées à des horticulteurs de tout le pays depuis les installations versaillaises de l’entreprise.

Des fleurs françaises pour l’Europe

La pratique du forçage, de la culture intensive et l’usage croissant de produits issus de la chimie agricole conduisent à une augmentation rapide des rendements. Alliée à l’essor du chemin de fer, cette augmentation de la productivité permet aux floriculteurs français d’expédier leurs fleurs à des distances de plus en plus grandes. Alors qu’il fallait huit jours pour relier Nice à Paris au début du XIXe siècle, il ne faut plus que vingt-et-une heures en 1892 et treize heures en 1910. Grâce aux trains rapides de la Compagnie des chemins de fer de Paris à Lyon et à la Méditerranée (PLM), les fleurs cultivées dans les exploitations du littoral méditerranéen rejoignent Paris puis l’Europe tout entière au début du XXe siècle.

Chargement du train aux fleurs de la compagnie PLM (s.d., fin XIXᵉ siècle). Archives départementales des Alpes-Maritimes

Le Midi, qui s’impose au début du siècle comme la plus grande zone de production floricole du continent, commence à exporter ses fleurs en dehors du territoire national dans des quantités de plus en plus importantes. En 1911, ce sont 7 200 tonnes d’œillets, de roses ou encore de violettes de Parme qui sont expédiées des gares du littoral vers l’Angleterre, l’Allemagne, la Belgique, la Russie et le Danemark. Si le gros des exportations est le fait des exploitants méridionaux, les horticulteurs du département de la Seine expédient également leur production vers la Russie, la Suède et la Pologne.

Cueillette de fleurs pour l’exportation près de Bandol, dans le Var (s.d., début XXᵉ siècle). Archives départementales du Var.

Un siècle plus tard, les fondamentaux restent les mêmes, mais le changement d’échelle est considérable. C’est à partir des années 1970, avec l’installation des premières grandes exploitations floricoles en Afrique, au Kenya notamment, que le commerce des fleurs commence à prendre l’ampleur qu’on lui connaît aujourd’hui.

Les exportations de fleurs, cultivées à l’aide d’un usage massif de produits phytosanitaires et transportées par avion vers l’Europe, connaissent une croissance rapide à la fin du XXe siècle. Entre 1998 et 2003, les expéditions kenyanes passent ainsi de 30 000 à 60 000 tonnes par an. Depuis une dizaine d’années néanmoins, les initiatives se multiplient qui visent à la relocalisation d’une production sans pesticides et plus respectueuse des cycles naturels. Consommer des fleurs en quantité plus modeste et se passer de roses en hiver, voilà qui impose peut-être de se défaire d’un modèle vieux d’un siècle et demi.

The Conversation

Pierre-Louis Poyau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

23.09.2025 à 16:18

Comment le Pacte vert est instrumentalisé par les populistes en Europe centrale et de l’Est

Diana Mangalagiu, Professeur, environnement, stratégie, prospective, Neoma Business School

Le Pacte vert européen, censé guider l’UE vers le « net zéro » (ou, neutralité carbone), est aujourd’hui freiné par des résistances nationales. En cause, la politisation de ces enjeux en fonction des contextes locaux.
Texte intégral (2384 mots)

Le Pacte vert européen, censé guider l’Union européenne vers le « net zéro » (ou, neutralité carbone), est aujourd’hui freiné par des résistances nationales : la transition écologique peut y être politisée pour servir toutes sortes d’intérêts. C’est particulièrement le cas en Europe centrale et orientale, où les clivages idéologiques et le contexte socioéconomique jouent un rôle clé. C’est ce que montrent les exemples croisés de la Pologne, de la Hongrie et de la Roumanie.


Il devait s’agir de la boussole climatique de l’Union européenne. Le Pacte vert, adopté en 2019, se heurte aujourd’hui à des résistances nationales qui compliquent sa mise en œuvre. Là où l’Allemagne et l’Italie demandent des aménagements en invoquant des raisons économiques, la Pologne, la Hongrie et la Roumanie montrent comment la transition écologique peut être politisée pour servir toutes sortes d’intérêts, entre dépendance aux énergies fossiles, calculs populistes et consensus souvent fragiles.

Depuis son adoption en 2019, le Pacte vert européen s’est imposé comme la feuille de route de l’Union européenne pour atteindre la neutralité carbone à l’horizon 2050. Il vise à transformer l’économie européenne en réduisant drastiquement les émissions de gaz à effet de serre et en favorisant une transition la plus juste et inclusive possible.

Mais la mise en œuvre du Pacte vert se heurte à de fortes résistances dans bon nombre d’États membres. L’Allemagne, par exemple, défend la nécessité de maintenir des subventions massives à l’industrie et réclame un assouplissement des règles européennes sur les aides d’État pour soutenir la transition industrielle.

L’Italie, elle, s’oppose à certaines mesures jugées trop contraignantes et souhaite « corriger » la trajectoire du Pacte vert, insistant sur la nécessité de disposer d’investissements et de ressources suffisantes pour accompagner la transition, mais sans sacrifier sa croissance économique.

Enfin, les pays d’Europe centrale et de l’Est dépendent plus fortement des énergies fossiles d’un point de vue historique, ce qui peut nourrir des enjeux socio-économiques particuliers. Le Pacte vert peut y être d’autant plus instrumentalisé au plan politique. Dans ce contexte, notre recherche récente apporte un éclairage inédit sur les mécanismes politiques qui sous-tendent l’adoption et la mise en œuvre du Pacte vert dans trois pays d’Europe centrale et orientale : la Pologne, la Hongrie et la Roumanie.

Nous montrons que la politisation de la question climatique – c’est-à-dire le fait d’en faire un enjeu partisan – joue un rôle clé dans la façon dont ces pays s’approprient – ou non – les objectifs du Pacte vert. Les clivages idéologiques et le contexte socio-économique ont un impact majeur sur la construction des politiques climatiques nationales.

Pologne, Hongrie et Roumanie : trois scénarios distincts

En Pologne, le charbon n’est pas seulement une ressource énergétique : il incarne un héritage industriel et une identité régionale, notamment en Silésie.

Lors des élections législatives de 2019, la transition climatique s’est imposée comme enjeu central, polarisant la scène politique. Le parti de droite conservatrice Droit et Justice (PiS), qui se trouvait alors au pouvoir depuis quatre ans, a joué la carte du réalisme économique, subordonnant toute ambition écologique à un fort soutien financier de la part de l’UE et à la défense de l’emploi minier. Face à lui, la Plateforme civique (centre droit) et la gauche ont porté des scénarios plus ambitieux de sortie du charbon, mais sans convaincre l’électorat traditionnel : le PiS a conservé sa majorité absolue au Parlement.

Cette polarisation s’est amplifiée avec l’élection, en juin 2025, du président nationaliste Karol Nawrocki, qui se trouve en opposition frontale avec le premier ministre, le pro-européen Donald Tusk (Plateforme civique), à ce poste depuis les législatives houleuses de 2023.

Cette cohabitation complexe freine l’agenda réformateur, y compris sur le climat. Le gouvernement, quoique formé non plus de membres du PiS mais de représentants de la Plateforme civique et de ses alliés de centre et de gauche, réclame désormais une « révision critique » du Pacte vert, accusé d’alourdir les coûts énergétiques et de nuire à la compétitivité. Nawrocki a d’ailleurs promis un référendum sur le Pacte vert.

Malgré tout, la Pologne progresse sur les renouvelables et a réduit ses importations de gaz russe. Elle demeure toutefois loin des objectifs européens.

En Hongrie, la situation est différente. Viktor Orban, premier ministre sans discontinuer depuis 2010, a longtemps utilisé la question climatique pour renforcer sa position souverainiste, ainsi que comme levier dans son bras de fer avec Bruxelles. Lors des négociations sur le Pacte vert, il a menacé d’y opposer son veto, dénonçant une politique « utopique » imposée par l’UE sans tenir compte des réalités nationales.

Pourtant, malgré cette rhétorique, la Hongrie a adopté, sur le papier en tout cas, des plans nationaux relativement ambitieux. Ils visent la neutralité carbone d’ici à 2050 et une réduction de 40 % de ses émissions de gaz à effet de serre d’ici à 2030 par rapport aux niveaux de 1990.

Cette ambivalence est liée à la domination depuis quinze ans de la scène politique hongroise par le parti Fidesz. Maître du calendrier et du discours, Orban politise la question climatique quand cela sert ses intérêts – notamment pour mobiliser contre l’UE – puis désamorce le débat dès qu’il s’agit de négocier des fonds européens ou de répondre à la demande de certains électeurs.

Ainsi, la Hongrie avance à petits pas, en ménageant à la fois Bruxelles et son électorat conservateur. Sans que la question climatique ne devienne un enjeu de division nationale majeure.


À lire aussi : Viktor Orban, l’homme de Trump en Europe ?


La Roumanie, enfin, offre un troisième scénario. La question climatique y reste largement en dehors de la compétition partisane. Les principaux partis abordent certes les thèmes environnementaux dans leurs programmes, mais sans en faire un enjeu de débat ou de clivage électoral.

Cette faible politisation s’explique par une dépendance énergétique moins marquée que dans les pays précédents et par un certain consensus sur la nécessité de moderniser l’économie.

La Roumanie affiche un soutien de principe au Pacte vert et à la neutralité carbone d’ici à 2050, avec des objectifs nationaux ambitieux : réduction de 85 % des émissions de gaz à effet de serre d’ici à 2030 par rapport au niveau de 1990.

Cependant, malgré des avancées sur les énergies renouvelables, les mesures concrètes tardent à être mises en place, la priorité étant donnée à la modernisation des infrastructures et des services publics. Le gouvernement met en avant la nécessité de concilier croissance économique et durabilité, tout en soulignant le coût élevé de la transition.


À lire aussi : Percée de l’extrême droite pro-russe, élections annulées… La Roumanie en pleine ébullition


Des divisions nourries par les partis populistes

Nos recherches montrent que dans ces trois pays, la politisation de la question climatique dépend de l’idéologie dominante dans la société, du contexte économique et du poids des industries fossiles et de la structure du système des partis politiques.

  • En Pologne, la forte polarisation et l’attachement identitaire au charbon favorisent une politisation intense qui freine la transition.

  • En Hongrie, la domination d’un parti unique permet une gestion opportuniste de la question climatique, avec des avancées ponctuelles, mais peu de débat public.

  • En Roumanie enfin, l’absence de clivage fort sur le climat permet un certain soutien, mais sans dynamique de transformation profonde.

Pour arriver à ces conclusions, nous avons d’abord passé au crible les engagements climatiques de ces trois pays, leurs plans nationaux énergie-climat (NECP) ainsi que l’évaluation de ces plans réalisée par la Commission européenne. Puis nous avons retracé l’évolution des discours des partis politiques et des débats de société sur le changement climatique et le Pacte vert. L’enjeu était de déterminer l’influence de paramètres tels l’idéologie, la dépendance aux énergies fossiles et le contexte économique sur la politisation du climat par les partis politiques et le gouvernement.

Nous mettons ainsi en lumière le rôle des partis populistes, en particulier de droite, dans la politisation de la transition climatique.

  • En Pologne et en Hongrie, ces partis utilisent la question climatique pour nourrir une rhétorique souverainiste et anti-européenne, accusant Bruxelles d’imposer des sacrifices économiques au nom de l’environnement. Cette instrumentalisation complique la construction d’un consensus national sur la transition et alimente la défiance envers les politiques européennes.

  • En Roumanie, la moindre polarisation du débat politique sur les questions climatiques facilite une approche plus pragmatique, mais au prix d’une mobilisation citoyenne limitée et d’une faible pression pour accélérer la transition.


À lire aussi : Comment l’autoritarisme a gagné du terrain en Europe centrale


Mais les facteurs structurels (dépendance aux énergies fossiles, niveau de développement, inégalités) n’expliquent pas tout : ce sont les dynamiques politiques, la capacité des partis à s’approprier ou à dépolitiser la question climatique, et la manière dont les leaders utilisent le climat dans la compétition électorale qui font la différence dans la mise en œuvre du Pacte vert.

Il faut également noter que la politisation n’est pas toujours négative. Elle peut aussi permettre de rendre visibles les enjeux climatiques et de mobiliser la société, à condition d’éviter la caricature et la polarisation excessive.

A noter, enfin, que ces trois pays dépendent historiquement de la Russie pour leur approvisionnement en gaz et pétrole. Or, le premier ministre hongrois Viktor Orban se distingue par une connivence certaine avec la Russie tandis que la Pologne et la Roumanie s’en distancient.

Comment éviter l’instrumentalisation du Pacte vert ?

Que retenir de notre étude ? Pour éviter que le Pacte vert ne soit instrumentalisé par les populistes, il est essentiel que les citoyens puissent mieux cerner ses bénéfices concrets : création d’emplois dans les secteurs verts, réduction de la pollution, amélioration du cadre de vie, etc.

L’implémentation du Pacte vert doit donc insister sur la justice sociale de la transition, en garantissant un accompagnement des territoires et des personnes les plus exposées. Il s’agit aussi de valoriser les succès locaux et les initiatives citoyennes, pour montrer que la transition est possible et bénéfique à tous.

Il faut également renforcer le dialogue entre les institutions européennes, les gouvernements nationaux et la société civile, afin de co-construire des politiques adaptées aux réalités locales.

Cela peut passer, par exemple, par la mise en place de budgets participatifs pour les projets « verts » ou par des appels à projets ouverts à la société civile. L’idée est de pouvoir allouer des financements directement à des initiatives locales alignées avec les objectifs du Pacte vert. Cela implique le soutien des acteurs locaux (municipalités, ONG, acteurs économiques, etc.) avec des relais aux échelles nationale et européenne pour faciliter la concertation transfrontalière, l’échange de bonnes pratiques et la remontée structurée des besoins au niveau national et européen.

Une dépolitisation excessive est donc loin d’être la solution : il s’agit plutôt de favoriser un débat public éclairé, fondé sur la transparence, la participation et l’écoute des préoccupations sociales. De quoi aider l’Europe à surmonter les résistances et à mobiliser le Pacte vert comme un projet collectif.

The Conversation

Diana Mangalagiu et ses co-auteurs ont reçu des financements européens pour le projet TIPPING+, un projet Horizon 2020.

PDF

23.09.2025 à 16:18

Pourquoi les fleurs du « phallus de titan » ont-elles une odeur si nauséabonde ?

Delphine Farmer, Professor of Chemistry, Colorado State University

Mj Riches, Postdoctoral Researcher studying Plant-Atmosphere Interactions, Colorado State University

Rose Rossell, Ph.D. Student in Plant and Atmospheric Chemistry, Colorado State University

La floraison rare et nauséabonde de l’Arum titan, dont la puanteur évoque celle d’un cadavre en décomposition, révèle une stratégie de pollinisation ingénieuse.
Texte intégral (4213 mots)
La fleur d’Arum titan semble gigantesque, mais ses fleurs sont en réalité minuscules, on les retrouve à l’intérieur de la chambre florale. John Eisele/Colorado State University

C’est l’une des plus grandes inflorescences du monde et sa floraison a tout d’un spectacle macabre. Celle-ci, qui n’a lieu qu’une fois tous les sept à dix ans, ne dure que deux nuits et libère un parfum pestilentiel digne d’une carcasse en décomposition. Derrière cette puanteur insoutenable se cache en fait une stratégie de pollinisation sophistiquée que des chercheurs ont pu analyser en temps réel grâce à des instruments de pointe.


Parfois, faire de la recherche pue. Littéralement.

L’Arum titan (Amorphophallus titanum, également appelée « phallus de titan ») est rare, et il est plus rare encore d’en voir fleurir. Cette florraison survient une fois tous les sept à dix ans, et ne dure que deux nuits.

Mais ces fleurs – rouges, magnifiques et imposantes, mesurant plus de 3 mètres de haut – dégagent une odeur nauséabonde. Imaginez de la chair en décomposition ou du poisson pourri.

En anglais, on les appelle corpse plants, soit « plantes cadavres ». Et ce surnom est bien mérité : l’odeur âcre de la plante attire non seulement les insectes nécrophages – coléoptères et mouches, normalement attirés par la viande en décomposition – qui pollinisent les plantes, mais aussi des foules de curieux, intrigués par ce spectacle rare et par son odeur putride.

Vidéo en accéléré de la floraison d’une fleur d’Amorphophallus titanum en 2024 à l’université d’État du Colorado. Plus de 8 600 visiteurs ont assisté à la floraison.

Les biologistes étudient ces fleurs depuis des années, mais en tant que spécialistes de la chimie de l’atmosphère, notre curiosité aussi était piquée : quels sont les mélanges chimiques qui créent cette odeur pestilentielle, et comment évoluent-ils tout du long de la courte période de floraison de cette plante ?

Des études précédentes avaient déjà identifié plusieurs dizaines de composés organiques volatils et soufrés qui contribuent à l’odeur de ces fleurs, mais personne n’avait encore quantifié précisément leurs taux d’émission ni examiné leur évolution au cours d’une même soirée. Nous avons récemment eu l’occasion de le faire. Nos conclusions suggèrent que derrière l’apparente complexité olfactive d’une fleur très inhabituelle, il s’agit en réalité d’une stratégie de pollinisation.

À la rencontre de Cosmo, spécimen Titan arum

Ces plantes sont originaires de l’île indonésienne de Sumatra et sont considérées comme menacées d’extinction, même là-bas.

Il y a plusieurs années, l’université d’État du Colorado (CSU) a reçu un exemplaire de Titan arum (Amorphophallus titanum) à des fins d’étude. Elle s’appelle Cosmo : les Titan arums sont si rares qu’on leur donne des noms.

Cosmo est resté en dormance dans les infrastructures de l’université pendant plusieurs années avant de montrer les premiers signes de floraison au printemps 2024. Lorsque nous avons appris que Cosmo allait fleurir, nous avons sauté sur l’occasion.

Une femme plonge la main dans une fleur géante ouverte à la tige haute
Pendant la floraison de Cosmo, Tammy Brenner, responsable des installations de culture végétale à l’université d’État du Colorado, montre l’intérieur de la spathe, la grande enveloppe extérieure qui s’ouvre. Juste en dessous de sa main se trouve la chambre florale, où fleurissaient des rangées de minuscules fleurs femelles et mâles. Elles ne sont pas faciles à voir de l’extérieur, mais leur parfum est impossible à rater. John Eisele/Colorado State University

Nous avons déployé plusieurs appareils permettant de collecter des échantillons d’air avant, pendant et après la floraison. Nous avons ensuite mesuré les substances chimiques présentes dans les échantillons d’air à l’aide d’un chromatographe en phase gazeuse couplé à un spectromètre de masse, un instrument souvent mentionné dans les séries policières.

Nos collègues ont également apporté un spectromètre de masse à temps de vol que nous avons placé derrière Cosmo, dans le sens du vent, afin de mesurer chaque seconde les composés organiques volatils produits.

Pour que chacune de leurs rares floraisons compte vraiment, ces plantes y consacrent beaucoup d’énergie. Elles produisant de grandes fleurs qui peuvent peser plus de 45 kilogrammes. Les plantes se réchauffent alors grâce à un processus biochimique appelé thermogenèse, qui augmente les émissions de composés organiques qui attirent les insectes.


À lire aussi : Pourquoi toutes les fleurs ne sentent pas la rose... loin de là !


Et ce qu’Arum titan dégage est tristement célèbre. Alors que certaines communautés locales vénéraient ces plantes, d’autres tentaient de les détruire. Au XIXe siècle, les explorateurs européens les ont activement collectées et les ont distribuées dans les jardins botaniques et les conservatoires du monde entier.

Il s’agit de plantes dichogames : chacune possède à la fois des fleurs mâles et femelles. À l’intérieur de la feuille géante en forme de pétale, appelée spathe, chaque plante possède un épi central appelé spadice, entouré de nombreuses rangées de petites fleurs femelles et mâles près de sa base. Ces fleurs femelles et mâles fleurissent à des moments différents pour éviter l’autopollinisation.

Une photo en gros plan des minuscules fleurs d’Arum titan
Chaque Arum titan possède à la fois des fleurs mâles (jaunes) et femelles (rouges). Les fleurs femelles s’épanouissent en premier afin d’attirer les pollinisateurs provenant d’autres fleurs de la même espèce. Le lendemain, les fleurs mâles s’épanouissent, fournissant du pollen que les mouches et les coléoptères transportent vers la plante suivante. Les filaments fins et jaunes sont du pollen. John Eisele/Colorado State University

La première nuit de floraison d’Arum titan, les fleurs femelles s’ouvrent pour attirer les pollinisateurs qui, si la plante a de la chance, y transporteront le pollen d’un autre Arum titan. Puis, la deuxième nuit, les fleurs mâles s’ouvrent à leur tour, permettant aux insectes pollinisateurs de transporter le pollen vers une autre plante.

La rareté de leur floraison et leur résistance à l’autopollinisation expliquent non seulement pourquoi ces plantes sont classées comme espèces menacées, mais aussi pourquoi elles ont besoin de stratégies de pollinisation efficaces. C’est exactement le domaine de la chimie que nous voulions étudier.


À lire aussi : Pourquoi certaines odeurs sont perçues comme nauséabondes ?


Les fleurs femelles travaillent plus dur

Nous avons découvert que les fleurs femelles accomplissent la majeure partie du travail en attirant les pollinisateurs, ce que des études précédentes avaient déjà souligné. Elles émettent de grandes quantités de composés organosulfurés, ainsi que d’autres composés qui imitent des odeurs de pourriture afin d’attirer les coléoptères et les mouches qui se nourrissent normalement de carcasses d’animaux.

Ce sont ces composés organosulfurés qui dégagent une odeur vraiment nauséabonde lors de la floraison des plantes femelles. En particulier le méthanethiol, une molécule appartenant à la même famille chimique que les composés odorants émis par les mouffettes, était le composé le plus émis pendant la floraison de Cosmo.

Illustration d’une fleur d’Arum Titan
Certaines des clés pour une floraison réussie de la fleur cadavre. Les composés organiques volatils biogéniques floraux (fBVOC) sont ceux libérés par les fleurs. Mj Riches and Rose Rossell/Colorado State University

Nous avons également mesuré de nombreux autres composés organosulfurés, notamment le diméthyldisulfure, qui dégage une odeur d’ail, le sulfure de diméthyle, connu pour son odeur désagréable, et le trisulfure de diméthyle, qui sent le chou ou l’oignon pourri. Nous avons également mesuré des dizaines d’autres composés : l’alcool benzylique à l’odeur douce et aromatique, le phénol à l’odeur d’asphalte et le benzaldéhyde.

Alors que des études précédentes avaient révélé la présence des mêmes composés avec des instruments différents, nous avons pu suivre en particulier le méthanethiol et quantifier l’évolution des concentrations pour suivre l’évolution de la floraison pendant la nuit.

Au fur et à mesure que Cosmo se développait, nous avons combiné les données de nos instruments avec les mesures du taux de renouvellement de l’air dans la serre, c’est-à-dire la vitesse à laquelle l’air circule, et avons ainsi pu calculer les taux d’émission.

Les émissions de composés volatils représentaient environ 0,4 % de la biomasse moyenne de la plante, ce qui signifie que celle-ci, dont nous avons estimé le poids à environ 45 kg, a perdu une fraction de masse mesurable lors de la production de ces substances chimiques. On comprend alors pourquoi son odeur est si forte.

Piégeage floral

Les fleurs femelles ont fleuri toute la nuit, mais tôt le lendemain matin, les émissions ont rapidement cessé. Nous nous sommes demandé si ce point de rupture pouvait être la preuve de piégeage floral, une stratégie de pollinisation employée par d’autres membres de la famille du Titan arum.

Quatre images montrent l’extérieur, une coupe transversale et l’intérieur de la plante
Une coupe transversale d’une autre espèce d’Amorphophallus, Amorphophallus declinatus, montre comment les fleurs mâles et femelles entourent le spadice à l’intérieur de la spathe. Cyrille Claudel, The Plant Journal, 2023, CC BY-NC-ND

Pendant le piégeage floral, la chambre florale peut se fermer physiquement grâce au mouvement des poils de la plante ou à l’expansion de certaines de ses parties, telles que la spathe qui l’entoure. Une fermeture physique de la chambre florale ne serait pas facilement visible pour les observateurs, mais elle pourrait rapidement interrompre les émissions, comme nous l’avons observé.

Un arum australien qui sent le fumier utilise cette technique. Les insectes nécrophages qui viennent butiner les fleurs femelles sont contraints de rester pour les fleurs mâles qui s’ouvrent la nuit suivante, afin de pouvoir transporter leur pollen vers une autre fleur femelle en décomposition. Nos recherches suggèrent que la fleur cadavre agit probablement de la même façon.

La deuxième nuit, les émissions de composés volatils ont repris, mais à des niveaux beaucoup plus faibles. Les fleurs mâles émettent un ensemble de composés aromatiques plus sucrés et beaucoup moins soufrés que les fleurs femelles.

Un graphique montre quatre substances chimiques qui augmentent rapidement et fortement pendant la floraison femelle, puis augmentent beaucoup plus subtilement pendant la floraison mâle
Comment quatre des principaux composés chimiques libérés par la plante ont augmenté, diminué, puis augmenté de nouveau au cours de ses deux jours de floraison. Les chiffres à gauche mesurent le méthanethiol ; ceux à droite mesurent les trois composés soufrés. Les flèches à gauche indiquent les niveaux comparatifs de méthanethiol mesurés au-dessus des décharges, des sites de traitement des déchets et d’une usine de papier afin de montrer à quel point la floraison était nauséabonde. Rose Rossell/Colorado State University

Nous émettons l’hypothèse que les fleurs mâles n’ont pas besoin de déployer autant d’efforts pour dégager une odeur forte afin d’attirer autant d’insectes, car ceux-ci sont déjà présents grâce au piégeage floral consécutif à la floraison des fleurs femelles. Une étude réalisée en 2023 a révélé que la thermogenèse était également plus faible pendant la floraison mâle : le spadice atteignait 36 °C pendant la floraison femelle, mais seulement 33,2 °C pendant la floraison mâle.

Plus nauséabondes que celles d’une décharge

Notre étude montre que les puissantes émissions olfactives d’Arum titan peuvent être supérieures à celles des décharges d’un ordre de grandeur, mais seulement pendant deux nuits. Ces fortes émissions sont conçues pour se propager loin dans la jungle de Sumatra afin d’attirer les mouches charognardes.

Les odeurs résistent également à l’oxydation atmosphérique, c’est-à-dire à la dégradation des composés organiques dans l’atmosphère par réaction avec des oxydants présents dans la pollution, tels que l’ozone ou les radicaux nitrates. Les différents composés se dégradent à des vitesses différentes, ce qui constitue un facteur important pour attirer les pollinisateurs.

De nombreux insectes sont attirés non seulement par un seul composé volatil, mais aussi par des proportions spécifiques de différents composés volatils. Lorsque la pollution atmosphérique dégrade les émissions florales et que ces proportions changent, les pollinisateurs ont plus de mal à trouver des fleurs.

Le panache olfactif de la fleur femelle a maintenu un rapport à peu près constant entre les principaux composés chimiques soufrés. Le panache mâle, en revanche, était beaucoup plus sensible à la dégradation due à la pollution et à la modification des concentrations des composés chimiques dans l’air nocturne.

Ces plantes énigmatiques consacrent beaucoup d’énergie à des stratégies de pollinisation ingénieuses. Cosmo nous a appris que leur odeur de viande en décomposition se propageait loin, qu’elles utilisaient la thermogenèse pour augmenter leurs émissions et piéger les fleurs, nous offrant ainsi un nouvel éclairage sur la floraison spectaculaire d’Arum titan.

The Conversation

Delphine Farmer a reçu des financements de la Fondation Alfred P. Sloan, de la Fondation nationale pour la science, de l'Agence américaine d'observation océanique et atmosphérique, du Département de l'énergie et de la Fondation W.M. Keck.

Mj Riches a reçu des financements de la National Science Foundation américaine.

Rose Rossell ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

22.09.2025 à 15:15

Le statut d’espèce protégée : une coquille qui se vide ?

Brian Padilla, écologue, recherche-expertise "biodiversité et processus d'artificialisation", Muséum national d’histoire naturelle (MNHN)

Léo-Paul Jacob, Chargé de projet « priorisation des espèces à enjeux de conservation », Muséum national d’histoire naturelle (MNHN)

Ces derniers mois, des lois ou projets de loi détricotent les garanties qui entourent les espèces protégées.
Texte intégral (2420 mots)
Grand gravelot (_Charadrius hiaticula_). Un oiseau nicheur de l’Hexagone, espèce protégée et menacée. Charles J. Sharp, CC BY-SA

Ces derniers mois, plusieurs propositions réglementaires sont venues fragiliser le statut d’espèce protégée. Les sanctions prévues en cas d’infraction s’allègent, tandis que les possibilités de dérogation s’élargissent, au risque de réduire ce dispositif central de protection de la biodiversité en une simple formalité administrative.


Fin février 2025, un jugement du tribunal administratif de Toulouse a annulé temporairement le projet d’autoroute A69, en indiquant qu’il ne remplissait pas les conditions nécessaires pour déroger au statut d’espèce protégée. En décembre 2024, la Cour administrative d’appel de Bordeaux a, pour sa part, jugé illégales quatre retenues d’eau (ou, bassines) en l’absence de dérogation espèces protégées, notamment en raison de l’impact de ces projets sur l’outarde canepetière.

Le statut d’espèce protégée, inscrit dans la loi du 10 juillet 1976 relative à la protection de la nature, est considéré aujourd’hui comme un des outils du droit de l’environnement les plus efficaces pour atténuer certaines pressions sur la biodiversité.

Mais, ces derniers mois, plusieurs évolutions l’affaiblissent considérablement.

Qu’est-ce qu’une espèce protégée ?

Selon l’article L. 411-1 du Code de l’environnement, certaines plantes non cultivées et certains animaux non domestiques bénéficient d’une protection intégrale. Il est interdit de les détruire, de les mutiler et de les déplacer, à quelconque stade de leur vie.

Les listes d’espèces protégées sont édictées par le biais d’arrêtés ministériels, signés par les ministères de l’environnement et de l’agriculture. Ces arrêtés couvrent, d’une façon plus ou moins exhaustive, des groupes d’espèces spécifiques, qui sont pour la plupart bien connus par les naturalistes (ex. : oiseaux, insectes, mammifères, reptiles, amphibiens, mollusques, etc.).

Mi-2025, une dizaine d’arrêtés de protection étaient en vigueur à l’échelle du territoire hexagonal (dont la Corse), accompagnés d’une vingtaine d’arrêtés de protection régionaux (très majoritairement liés à la flore) et d’une quinzaine d’arrêtés de protection dans les territoires d’Outre-mer (en dehors des territoires qui disposent de leur propre Code de l’environnement). En 2023, l’Inventaire national du patrimoine naturel (INPN) estimait qu’environ 4 % de la faune, de la flore et de la fonge connues étaient protégées en France, soit un peu plus de 7 200 espèces.

Il est important de noter que toute violation des interdictions prévues par l’article L. 411-1 peut être punie par le biais d’une sanction financière et d’une peine de prison, au titre de l’article L.•415-3 du Code de l’environnement. Bien que de tels agissements soient parfois difficiles à contrôler, des personnes physiques ou morales sont régulièrement condamnées au titre de la destruction d’espèces protégées.

Ces dérogations qui rendent possible l’atteinte à une espèce protégée

L’article L. 411-2 du Code de l’environnement prévoit la possibilité de déroger à la protection d’une espèce. Ces dérogations sont notamment sollicitées dans le cadre de projets d’aménagement du territoire, par exemple lorsqu’une espèce protégée est présente sur un site sur lequel un chantier est prévu et que celui-ci menace de lui porter atteinte.

Sous le contrôle de l’administration, les porteurs de projet peuvent déroger à la protection de l’espèce seulement à trois conditions :

  • il n’existe pas de solution alternative satisfaisante ;

  • le projet ne porte pas atteinte au maintien, dans un état de conservation favorable, des populations des espèces concernées dans leur aire de répartition naturelle ;

  • le projet répond à l’un des cinq motifs établis par l’article L. 411-2 (motif scientifique, écologique, agricole, sélectif ou pour des raisons impératives d’intérêt public majeur [RIIPM]).

L’application de l’article L. 411-2 a été largement précisée par la jurisprudence administrative. Le Conseil d’État a notamment rappelé, dans une décision du 9 octobre 2013, que les trois conditions permettant d’obtenir une dérogation étaient cumulatives. Autrement dit, un projet ne peut y prétendre que s’il satisfait simultanément à chacune d’entre elles.

Le 9 décembre 2022, le Conseil d’État a précisé que la question d’une dérogation se posait dès lors qu’une espèce protégée était présente dans la zone du projet, indépendamment du nombre d’individus ou de l’état de conservation des espèces.

Le même jugement a toutefois ouvert une possibilité particulière. Un porteur de projet peut se passer d’une dérogation « dans l’hypothèse où les mesures d’évitement et de réduction proposées présentent, sous le contrôle de l’administration, des garanties d’effectivité telles qu’elles permettent de diminuer le risque pour les espèces au point qu’il apparaisse comme n’étant pas suffisamment caractérisé ».

Concrètement, il revient aux porteurs de projets, accompagnés par des bureaux d’étude spécialisés en écologie, d’établir si leurs projets vont porter atteinte à des espèces protégées et, le cas échéant, si des mesures d’évitement (par exemple, le déplacement de l’emprise du projet) ou de réduction (par exemple, l’organisation du chantier dans le temps et dans l’espace) permettent de diminuer le risque pour les espèces. Si ces mesures sont considérées comme suffisantes, une dérogation n’est alors pas nécessaire.

Autrement dit, évaluer les incidences sur les espèces protégées est devenu un passage obligé pour tout porteur de projet. Mais les récentes interprétations jurisprudentielles interrogent : en assouplissant les conditions d’application, ne risquent-elles pas d’affaiblir un statut qui se voulait pourtant protecteur ? À cet assouplissement viennent s’ajouter de nouvelles atteintes à ce statut.

Trois récentes atteintes au statut d’espèce protégée

Plusieurs lois adoptées en 2025 fragilisent, en effet, le statut d’espèce protégée. Cette remise en cause s’opère à la fois au niveau des sanctions prévues en cas d’infraction, mais également au niveau des conditions d’obtention de dérogations.

I. Un affaiblissement du régime de sanctions en cas d’infraction

Tout d’abord, la récente loi d’orientation agricole a affaibli le régime de sanctions associé aux espèces protégées. Son article 31 a modifié l’article L. 415-3 du Code de l’environnement, qui prévoyait des sanctions allant jusqu’à trois ans d’emprisonnement et 150 000 euros d’amende en cas de violation des interdictions associées au statut d’espèce protégée. Ces sanctions ne s’appliquent dorénavant que pour les faits commis de manière intentionnelle ou par négligence grave.

Un nouvel article (L. 171-7-2) introduit dans le Code de l’environnement prévoit qu’en dehors de ces cas, seule une amende de 450 euros ou un stage de sensibilisation peuvent être exigés par l’autorité administrative, hors cas de récidive. Au-delà du montant peu élevé, le principal affaiblissement provient de l’introduction d’une notion d’intentionnalité. Celle-ci, difficile à établir, risque de limiter considérablement la portée du dispositif.

II. Des dérogations simplifiées, au titre de la RIIPM

Remarque

  • Cette section mentionne un texte de loi actuellement en cours d’examen par l’Assemblée nationale et le Sénat.

Certaines dispositions récentes visent également à faciliter l’obtention d’une dérogation espèce protégée pour certains types de projets, en élargissant les conditions d’application de la raison impérative d’intérêt public majeur (RIIPM).

Ces évolutions s’inscrivent dans une tendance déjà amorcée. La loi du 10 mars 2023 relative à l’accélération de la production d’énergies renouvelables avait introduit dans le droit le fait que certains projets d’installation de production d’énergies renouvelables ou de stockage d’énergie dans le système électrique pouvaient répondre à une RIIPM, et le Conseil constitutionnel avait déjà validé en 2025 la possibilité d’accorder cette qualification de manière anticipée à des projets d’intérêt national majeur.

À noter toutefois que, même dans ce cas, les deux autres conditions prévues par l’article L. 411-2 demeurent nécessaires.

III. Vers une réduction du nombre de projets soumis à une dérogation

La troisième atteinte au statut d’espèce protégée provient de l’article 23 de la loi du 30 avril 2025 portant diverses dispositions d’adaptation au droit de l’Union européenne (également appelée loi DDADUE). Cet article ajoute un nouvel alinéa dans le Code de l’environnement : une dérogation espèce protégée « n’est pas requise lorsqu’un projet comporte des mesures d’évitement et de réduction présentant des garanties d’effectivité telles qu’elles permettent de diminuer le risque de destruction ou de perturbation des espèces » et « lorsque ce projet intègre un dispositif de suivi permettant d’évaluer l’efficacité de ces mesures ».

Si cette disposition semble au premier abord retranscrire la décision du Conseil d’État du 9 décembre 2022, voire l’encadrer davantage en imposant un suivi, elle pourrait, en réalité, réduire le nombre de demandes de dérogation espèces protégées. En effet, elle inverse la charge de la preuve : une dérogation n’est désormais plus la règle, mais l’exception, dès lors qu’un dossier est construit avec des garanties d’effectivité jugées suffisantes. Autrement dit, les porteurs de projet peuvent considérer qu’ils échappent d’emblée à la case « dérogation », sans attendre l’interprétation de l’administration.

Une protection de plus en plus fragile

Ces différentes réformes affaiblissent discrètement le statut d’espèce protégée, en rognant à la fois les sanctions, les conditions et les procédures.

Le risque est clair : faire glisser ce statut de rempart juridique fort à simple formalité administrative, laissant au juge le soin d’être le dernier recours.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Lava
La revue des médias
Le Grand Continent
Le Diplo
Le Nouvel Obs
Lundi Matin
Mouais
Multitudes
Politis
Regards
Smolny
Socialter
The Conversation
UPMagazine
Usbek & Rica
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
Contretemps
A Contretemps
Alter-éditions
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
Philo Mag
Terrestres
Vie des Idées
 
  ARTS
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
 
Fiabilité 3/5
Slate
Ulyces
 
Fiabilité 1/5
Contre-Attaque
Issues
Korii
Positivr
Regain
🌓